Facebook przeprasza, że AI oznaczyła wpisy Muzeum Auschwitz jako obraźliwe

Meta musi wyjaśnić, dlaczego algorytm Facebooka traktuje autentyczne historie Holokaustu jako podejrzane.

Błędnie oznaczony wpis przez algorytm Facebooka na profilu Auschwitz Memorial / Muzeum Auschwitz
Błędnie oznaczony wpis przez algorytm Facebooka na profilu Auschwitz Memorial / Muzeum Auschwitz

Na początku kwietnia algorytm Facebooka oznaczył 21 postów z Muzeum Auschwitz jako sprzeczne ze standardami społeczności, a teraz firma-matka Meta musi się z tego wytłumaczyć. We wpisie na Facebooku polskie Auschwitz Memorial / Muzeum Auschwit poinformowało, że po tym, jak algorytm moderacji treści firmy Meta przeniósł niektóre jej posty na dół kanału w związku z dziwnymi twierdzeniami o naruszeniu standardów społeczności, firma przeprosiła, choć nie bezpośrednio, za swój błąd.

Firma przeprosiła za swój błąd zarówno w rozmowie telefonicznej, jak i e-mailem. Ponadto przeprosiny odnotowano w różnych artykułach poruszających tę kwestię. W oświadczeniu przekazanym Polskiemu Radiu Biuro Prasowe firmy Meta w Polsce stwierdziło: „Przez pomyłkę wysłaliśmy powiadomienia do Muzeum Auschwitz z informacją, że kilka wpisów opublikowanych przez Muzeum będzie wyświetlanych niżej w Aktualnościach. Tak naprawdę treść ta nie narusza naszych zasad i nigdy nie została zdegradowany w Aktualnościach. Serdecznie przepraszamy za ten błąd.”

Muzeum jest wdzięczne, że gigant przyznał się do błędu. Należy podkreślić, że incydent ten nie był celowym atakiem na treści publikowane w Miejscu Pamięci, lecz błędem technicznym. I choć nie mamy możliwości sprawdzenia, czy widoczność oznaczonych postów została w jakikolwiek sposób zakłócona, z przykrością zaobserwowano jeden wpis dotyczący tragicznej historii żydowskich sierot z Izieu, który pierwotnie ukazał się 6 kwietnia o godzinie 15:15 – wygląda na to, że został usunięty z Facebooka. Chociaż dwa dni później Auschwitz Memorial / Muzeum Auschwitz opublikowało tę samą treść, oryginał pozostaje niedostępny. Poproszono Metę o dalsze zbadanie tej kwestii.

Choć tego typu błędy mogą wystąpić, zwłaszcza w złożonych systemach, takich jak algorytmy moderowania treści, Facebook powinien podjąć proaktywne działania, aby zapobiec podobnym zdarzeniom w przyszłości.

We wpisie z 12 kwietnia 2024 roku muzeum ogłosiło błędne oflagowanie wpisów i zwróciło uwagę, że sieć społecznościowa stosuje „algorytmiczne wymazanie historii”.

Wpisy będące hołdem dla poszczególnych ofiar Auschwitz zostały niesprawiedliwie wybrane przez system moderowania treści tej platformy i „przesunięte niżej w Aktualnościach”, powołując się na absurdalne powody, takie jak „Nagość dorosłych i aktywność seksualna”, „Znęcanie się i molestowanie” „Mowa nienawiści” i „Podżeganie do przemocy”.

– czytamy we wpisie

Rzeczywiście, jak pokazują zrzuty ekranu, żaden z przedmiotowych wpisów nie zawierał takiej treści, zamiast tego pokazywał portrety ofiar Auschwitz oraz krótkie opisy ich życia i tożsamości przed zamordowaniem ich przez nazistów.

Powszechny problem

Chociaż flagi zostały już wycofane, wiele osób alarmuje, że tego rodzaju system oparty na sztucznej inteligencji (AI) uniemożliwia ludziom przeglądanie ważnych wiadomości.

Wkrótce po ujawnieniu ostrzeżeń przez muzeum polski minister cyfryzacji Krzysztof Gawkowski zajął stanowisko z powodu tak rażącego błędu, nazywając sytuację „skandalem i ilustracją problemów z automatyczną moderacją treści” w swoim wpisie w serwisie X.

Żądanie Gawkowskiego, aby Meta przedstawiła dalsze wyjaśnienia, zostało powtórzone przez Kampanię Przeciwko Antysemityzmowi, która w oświadczeniu dla The Telegraph stwierdziła, że przeprosiny firmy to za mało.

„Meta musi wyjaśnić, dlaczego jej algorytm traktuje prawdziwą historię Holokaustu z podejrzliwością” – powiedział przedstawiciel brytyjskiej gazecie – „i co może zrobić, aby zapewnić dalsze opowiadanie problemu i udostępnianie tych historii”.

To wystarczająco złe, że algorytm treści Meta oznaczył tak ważne informacje historyczne jako problematyczne – ale w kontekście innych głównych problemów z moderacją AI, które obejmują automatyczne tłumaczenie słowa „palestyński” na „terrorystyczny” i rzekome promowanie treści pedofilskich, jest szczególną zniewagą.

➔ Obserwuj nas w Google News, aby być na bieżąco!

źródło: Auschwitz Memorial / Muzeum Auschwitz | The Futurism