1 na 10 rozmów z chatbotem AI ma charakter erotyczny

Badacze odkryli, że jeden na dziesięciu użytkowników chatbota opartego na sztucznej inteligencji, to ludzie o niezwykle wielkim libido — nie jest to specjalnie szokujące.

Rozmowa z chatbotem AI na ekranie komputera
Wygenerowane za pomocą AI | Bing DALLE-3

Po przeanalizowaniu 100 000 rozmów z chatbotami badacze odkryli smutną, ale niezbyt zaskakującą statystykę: mniej więcej jedna na 10 osób „rozmawiających” z chatbotami opartymi na dużych modelach językowych (LLM) robi to w celach erotycznych. Podczas gdy połowa rozmów w badanej grupie była dość spokojna i skupiała się na tematach zawodowych lub rekreacyjnych, takich jak wskazówki dotyczące programowania i pomoc w pisaniu, druga połowa obejmowała konwersacyjne odgrywanie ról i wiele „niebezpiecznych” typów wymiany zdań.

Naukowcy z Carnegie Mellon, Stanford, Berkeley i San Diego oraz Uniwersytetu Sztucznej Inteligencji Mohameda bin Zayeda w Abu Zabi podzielili „niebezpieczne” tematy na trzy grupy, z których dwie dotyczyły seksu: „prośby o wyraźne i erotyczne opowiadanie historii” oraz „wyraźne fantazje seksualne i scenariusze odgrywania ról”. Trzecia kategoria, „omawianie toksycznych zachowań w przypadku różnych tożsamości”, wydaje się skupiać na bigoterii, kolejnym ważnym problemie sztucznej inteligencji, chociaż badacze nie zdefiniowali zbytnio toksycznych zachowań w artykule.

Spośród trzech kategorii najczęstsza była opowieść erotyczna – 5,71% przykładowych rozmów skupiało się na tym rodzaju rozmów. Następny był klaster „jawnej” fantazji i odgrywania ról, który stanowił 3,91 procent rozmów, a następnie 2,66 procent przykładowych interakcji z użytkownikami wyraźnie fanatycznymi.

Chociaż te odkrycia nie są szokujące dla nikogo, kto wystarczająco długo korzysta z internetu, metodologia, która za nimi stoi, jest wręcz fascynująca.

Członkom zespołu z Berkely i Stanford udało się uzyskać tak dużą próbkę, po części dlatego, że wspólnie prowadzą tak zwaną „Chatbot Arena” – zindywidualizowaną usługę, która pozwala użytkownikom wprowadzić monit i zobaczyć odpowiedzi obok siebie różne LLM. Następnie zachęca się użytkowników do głosowania, która z odpowiedzi jest lepsza, chociaż można też zagłosować, że „obie są złe” lub że są porównywalne.

Oprócz Chatbot Arena badacze piszący tę publikację wykorzystali także zbiory danych zebrane z Vicuña, konkurenta ChatGPT o otwartym kodzie źródłowym, stworzonego częściowo przez Lianmina Zhenga z Berkeley, jednego z autorów artykułu. W całym zbiorze danych obejmującym milion rozmów, z którego zespół losowo zebrał 100 000 przykładowych rozmów, znajdowało się ponad 210 000 unikalnych adresów IP z całego świata.

Chociaż chatboty AI rzeczywiście zawładnęły mediami, odkąd OpenAI wycofało swoją publiczną wersję ChatGPT pod koniec 2022 roku, jak dotąd nie przeprowadzono zbyt wielu badań na temat rzeczywistych interakcji ludzi z chatbotami, poza sposobami, które technologia rewolucjonizuje świat akademicki, biznesowy i wydawniczy.

Badacze stojący za tymi odkryciami napisali, że mają nadzieję, że ich badanie pomoże uczynić chatboty bezpieczniejszymi w prawdziwym świecie dla wszystkich użytkowników – może z wyjątkiem tych napalonych.

➔ Obserwuj nas w Google News, aby być na bieżąco!

źródło: Futurism | ZDNet