Czy Apple postanowiło pożegnać się z kontrowersyjną funkcją antypedofilską? Tak, przynajmniej na razie, ale zostawiając miejsce dla innych przydatnych narzędzi
Technologia jest coraz bardziej zintegrowana z naszym codziennym życiem. Urządzenia takie jak smartfony i tablety stały się przedłużeniem swoich użytkowników, którzy niestety w niektórych przypadkach mogą je wykorzystywać również do niejasnych i dalekich od legalności celów. Z tego powodu w sierpniu ubiegłego roku Apple ogłosiło kilka zmian w swoim systemie operacyjnym, które są całkowicie przyjazne dzieciom. Jedna z zapowiadanych funkcji wzbudzała jednak wiele kontrowersji, ale po kilku miesiącach rozpłynęła się w powietrzu. Co się stało?
Funkcja, mająca na celu ograniczenie rozpowszechniania dziecięcej pornografii, została wprowadzona przez firmę z Cupertino wraz z innymi nowymi funkcjami dotyczącymi tego samego tematu, szybko wywołując zamieszanie wokół sprawy. Antypedofilskie urządzenie miało rozpoznawać obecność na iCloud zdjęć dzieci znanych już władzom, blokować konto i wysyłać powiadomienie do National Center for Missing and Exploited Children, głównej amerykańskiej organizacji walczącej z wykorzystywaniem dzieci i handlem ludźmi. Nieuchronnie, użytkownicy i organizacje zareagowały, i w krótkim czasie, Apple został obsypany krytyką, skłaniając firmę do wycofania się.
Apple iPhone, pożegnanie z anty-pedofilską funkcją?
Próbując powstrzymać falę negatywnych reakcji, Apple najpierw odłożył wprowadzenie funkcji do września. Nie podając żadnych dalszych szczegółów, następnie zdecydował się usunąć go całkowicie z pakietu bezpieczeństwa dzieci wydany z najnowszą aktualizacją iOS, wersja 15.2, który jest dostępny do pobrania od 13 grudnia.
Jakby tego było mało, Cupertino postanowił również usunąć wszelkie odniesienia do funkcji z oficjalnej strony internetowej. Jak podaje serwis MacRumors, na dzień 10 grudnia nie udało się znaleźć żadnych szczegółów dotyczących funkcji monitoringu, która według firmy miała porównywać zdjęcia zapisane na autorskiej chmurze z tymi wcześniej zgłoszonymi w celu zidentyfikowania ewentualnych nielegalnych treści.
iOS 15.2, co nowego dla dzieci?
Wraz z aktualizacją do najnowszego iOS-a Apple tak czy inaczej wprowadziło część zapowiadanych funkcji mających chronić dzieci. Teraz, właściciele iPhone'ów mogą liczyć na dwa różne narzędzia zintegrowane z iMessage i Search, które są również dostępne za pośrednictwem asystenta głosowego Apple.
Pierwszy z dwóch, znaleziony w iPhone i iPad aplikacji do przesyłania wiadomości, jest w stanie rozpoznać obecność nagich zdjęć w komunikacji wysyłanych lub otrzymanych. Jeśli konto założone na iPhonie lub iPadzie należy do dziecka, którą to rolę można przypisać poprzez sekcję "Rodzina", iMessage przesłoni obraz, wyświetlając na ekranie powiadomienie o zabezpieczeniach.
Druga z nich ma umożliwić urządzeniom Apple rozpoznanie, czy słowa kluczowe używane w wyszukiwaniach za pośrednictwem Siri, Spotlight i Safari zawierają terminy, które mogą prowadzić do pornografii dziecięcej. Jeśli tak się stanie, użytkownik otrzyma na ekranie komunikat bezpieczeństwa wraz z zasobami umożliwiającymi uzyskanie pomocy w tej sprawie. Jednocześnie, dla osób proszących o informacje na ten sam temat, firma z Cupertino rozszerzyła swoje wytyczne o jeszcze więcej szczegółów dotyczących tego, jak zapewnić dzieciom bezpieczeństwo w sieci.