Implementacja funkcji chroniących przed rozpowszechnianiem pedofilskich treści na urządzeniach Apple’a jest opóźniona – firma musi zebrać więcej informacji przed wdrożeniem.

Firma Apple tymczasowo wstrzymuje wdrożenie swojej funkcji CSAM (Child Sexual Abuse Material) po otrzymaniu reakcji zwrotnej. W oświadczeniu dla serwisu 9to5Mac firma stwierdza, że musi przyjrzeć się algorytmowi i poprawić te funkcje. Apple twierdzi, że zbierze więcej informacji od różnych grup użytkowników.
W zeszłym miesiącu ogłosiliśmy plany dotyczące funkcji, które mają pomóc chronić dzieci przed przestępcami, którzy używają narzędzi komunikacyjnych do werbowania i wykorzystywania dzieci, oraz ograniczaniami rozpowszechniania materiałów zawierających seksualne wykorzystywanie dzieci. Na podstawie opinii klientów, grup poparcia, badaczy i innych osób, postanowiliśmy poświęcić w nadchodzących miesiącach dodatkowy czas na zebranie opinii i wprowadzenie ulepszeń przed udostępnieniem tych niezwykle ważnych funkcji ochrony dzieci.
— Apple dla 9to5Mac
To oświadczenie nie jest zaskoczeniem, ponieważ firma była krytykowana za chęć wprowadzenia mechanizmów skanowania zawartości dysków iCloud i wiadomości iMessage użytkowników. Firma Apple nie podała nowej daty wydania funkcji CSAM. Pierwotnie miała się ona pojawić przed końcem roku w ramach aktualizacji systemu iOS 15.
Jedna z funkcji skanowania, którą Apple planuje wprowadzić, dotyczy funkcji rodzinnych w iCloud. Mianowicie, firma chciała chronić dzieci poniżej 13 roku życia przed wysyłaniem lub otrzymywaniem obrazów o charakterze seksualnym w iMessage.
Ta funkcja zadziałałaby, gdyby Apple zamazało potencjalnie wyraźny obraz, stwierdzając, że jest on wrażliwy i wyjaśniając, dlaczego, a następnie pozwalając dziecku zdecydować, czy kontynuować, czy nie. Gdyby dziecko mimo wszystko zdecydowało się to zobaczyć, jego rodzice otrzymaliby powiadomienie.
Oprócz tego firma z Cupertino ogłosiła, że Zdjęcia w iCloud będą również skanowane w poszukiwaniu CSAM na urządzeniu. Jeśli Apple wykryje takie materiały, wyśle raport do National Center for Missing & Exploited Children (NCMEC) z informacjami o koncie użytkownika.
Po ogłoszeniu nowych funkcji obrońcy prywatności mieli wiele obaw. Obawy obejmowały niewłaściwe użycie tych funkcji przez rządy autorytarne i/lub potencjalną ekspansję na wiadomości lub inne części urządzenia. Apple był w ofensywie w związku z obawami, po czym firma stwierdziła, że będzie istniała weryfikacja, zanim wyśle raport do NCMEC, a iMessage i iCloud nadal będą miały szyfrowanie typu end-to-end.
Ryzyko nadużycia zostało poparte przez The Electronic Frontier Foundation (EFF). Fundacja zwróciła uwagę na to, że rząd może okłamywać Apple w sprawie cyfrowych odcisków palców zawierających tylko CSAM, podczas gdy w rzeczywistości ani użytkownicy, ani Apple nie mają możliwości tego zweryfikować.
źródło: 9TO5Mac | iPhoneHacks

Od 2005 roku zajmuję się komunikacją internetową i e-marketingiem, jestem pasjonatem urządzeń mobilnych oraz nowych technologii – i nie waham się ich używać.