Apple opublikowało więcej informacji związanych ze skanowaniem zdjęć użytkowników

Firma Apple opublikowała odpowiedź na krytykę dotyczącą nowej funkcji skanowania zdjęć iCloud w celu poszukiwania zdjęć przedstawiających wykorzystywanie dzieci. Jednocześnie informuje, że „odmówi” naciskom rządu związanych z naruszeniem prywatności użytkowników.

Funkcje chroniące dzieci na urządzeniach firmy Apple

Zestaw narzędzi firmy Apple, które mają chronić dzieci, wywołał mieszane reakcje ze strony ekspertów ds. bezpieczeństwa i prywatności, a niektórzy błędnie zdecydowali się twierdzić, że Apple odchodzi od swojej restrykcyjnej polityki prywatności. Teraz Apple opublikowało odpowiedzi w postaci dokumentu z często zadawanymi pytaniami.

„W Apple naszym celem jest tworzenie technologii, która chroni ludzi i wzbogaca ich życie, jednocześnie pomagając im zachować bezpieczeństwo” — czytamy w pełnym dokumencie Expanded Protections for Children Frequently Asked Questions. „Chcemy chronić dzieci przed przestępcami, którzy wykorzystują narzędzia komunikacyjne do ich zwabiania i wykorzystywania, a także ograniczać rozpowszechnianie materiałów dotyczących wykorzystywania seksualnego dzieci (CSAM, z ang. Child Sexual Abuse Material).”

„Odkąd ogłosiliśmy te funkcje, wielu interesariuszy, w tym organizacje zajmujące się ochroną prywatności i bezpieczeństwem dzieci, wyraziło poparcie dla tego nowego rozwiązania (…) a niektórzy zadawali pytania”.

„Jakie są różnice między bezpieczeństwem komunikacji w Wiadomościach a wykrywaniem CSAM w Zdjęciach iCloud? Te dwie funkcje nie są takie same i nie wykorzystują tej samej technologii”.

Apple podkreśla, że ​​nowe funkcje Wiadomości są „zaprojektowane, aby dać rodzicom… dodatkowe narzędzia, które pomogą chronić ich dzieci”. Zdjęcia wysyłane lub odbierane za pośrednictwem Wiadomości są analizowane na urządzeniu, „więc [funkcja] nie zmienia gwarancji prywatności Wiadomości”.

Wykrywanie CSAM w Zdjęciach iCloud nie wysyła do Apple informacji o „żadnych zdjęciach innych niż te, które pasują do znanych obrazów CSAM”.

Duża część dokumentu zawiera szczegóły dotyczące tego, co zaczęło budzić wątpliwości. Jest jednak także kilka nowych informacji, o których wcześniej nie było mowy.

Po pierwsze, zaniepokojenie ekspertów ds. prywatności i bezpieczeństwa polegało na tym, że skanowanie zdjęć na urządzeniu można łatwo rozszerzyć o dodatkowe korzyści dla autorytarnych rządów, które domagają się od Apple’a rozszerzenia tego, co ich interesuje..

Diagram przedstawiający schemat działania funkcji CSAM firmy Apple
Diagram przedstawiający schemat działania funkcji CSAM firmy Apple

Apple odrzuci takie żądania — czytamy w dokumencie FAQ. Spotykaliśmy się wcześniej z żądaniami stworzenia i wdrożenia wprowadzonych przez rząd zmian, które degradują prywatność użytkowników, i stanowczo odrzucaliśmy te żądania. Będziemy nadal odmawiać ich w przyszłości.

Postawmy sprawę jasno, czytamy w dokumencie ta technologia ogranicza się do wykrywania CSAM przechowywanych w iCloud i nie przychylimy się do prośby żadnego rządu o jej rozszerzenie.

Nowa publikacja Apple’a na ten temat pojawia się po wysłaniu listu otwartego, proszącego firmę o ponowne rozważenie nowych funkcji. Apple informuje też, że ta funkcja nie działa, gdy Zdjęcia w iCloud są wyłączone. Więc jaki to ma sens, skoro przestępcy mogą łatwo wyłączyć przechowywanie zdjęć w chmurze Apple’a? Funckaj ma początkowo działać w Stanach Zjednoczonych.

źródło: Apple | Apple Insider