To okresowe przypomnienie, że chatboty zasilane sztuczną inteligencją wciąż zmyślają i kłamią – ale to nie ich wina, tak działa ten model…
Tak, dla chatbota najkrótszą drogą do domu może być przejażdżka przez głębokie jezioro. Warto pamiętać, że chatboty wciąż są we wczesnej fazie swojego istnienia i nie mogą być naszym źródłem wiedzy i faktów. Firma Nieman Lab przeprowadziła eksperyment, aby sprawdzić, czy ChatGPT będzie podawać prawidłowe linki do artykułów z publikacji informacyjnych, za które płaci miliony dolarów. Okazuje się, że ChatGPT nie. Zamiast tego tworzy zmyślone adresy URL – branża AI nazywa to „halucynacjami”, co wydaje się bardziej odpowiednie na określenie dla prawdziwej osoby, która żyje w bańce swoich urojeń, ale nie dla rozwiązania technologicznego, które po prostu działa błędnie.
➔ PRZECZYTAJ TAKŻE: Bill Gates wyjaśnia, jak sztuczna inteligencja zmieni nasze życie za 5 lat
Andrew Deck z Nieman Lab poprosił serwis o udostępnienie linków do głośnych, ekskluzywnych artykułów opublikowanych przez 10 wydawców, z którymi OpenAI zawarło umowy warte miliony dolarów. Należą do nich Associated Press, The Wall Street Journal, Financial Times, The Times (Wielka Brytania), Le Monde, El País, The Atlantic, The Verge, Vox i Politico.
W odpowiedzi ChatGPT wypluł zmyślone adresy URL, które prowadziły do stron z błędami 404, ponieważ po prostu nie istniały. Innymi słowy, system działał dokładnie tak, jak został zaprojektowany: przewidywał najbardziej prawdopodobną wersję adresu URL artykułu, zamiast podawać poprawny. Nieman Lab przeprowadził podobny eksperyment z jedną publikacją serwisu Business Insider na początku tego miesiąca i uzyskał ten sam wynik.
Rzecznik OpenAI odpowiedział firmie Nieman Lab, że wciąż buduje „doświadczenie, które łączy możliwości konwersacyjne z najnowszymi treściami informacyjnymi, zapewniając właściwe przypisanie i linki do materiałów źródłowych – ulepszone doświadczenie, które wciąż jest w fazie rozwoju i nie jest jeszcze dostępne w ChatGPT”. Odmówili jednak wyjaśnienia fałszywych adresów URL.
Nie wiemy, kiedy to nowe doświadczenie będzie dostępne i jak niezawodne będzie. Mimo to wydawcy wiadomości nadal wrzucają lata dziennikarstwa do otwartej paszczy OpenAI w zamian za zimną, twardą gotówkę, ponieważ branży dziennikarskiej konsekwentnie nie udaje się wymyślić, jak zarabiać pieniądze, nie sprzedając swojej duszy firmom technologicznym.
Tymczasem firmy zajmujące się sztuczną inteligencją pochłaniają treści publikowane przez każdego, kto nie podpisał tych faustowskich umów, i tak czy inaczej wykorzystują je do szkolenia swoich modeli. Mustafa Suleiman, szef sztucznej inteligencji w firmie Microsoft, nazwał ostatnio wszystko, co publikowane jest w internecie, „darmowym oprogramowaniem”, czyli uczciwą grą do szkolenia modeli sztucznej inteligencji. Wartość firmy Microsoft jest wyceniana na 3,36 biliona dolarów…
Płynie z tego lekcja: jeśli ChatGPT wymyśla adresy URL, wymyśla także fakty. Tak działa generatywna sztuczna inteligencja — u jej podstaw technologia ta stanowi bardziej wyrafinowaną wersję autouzupełniania, polegającą po prostu na odgadywaniu kolejnego prawdopodobnego słowa w sekwencji. Nie „rozumie” tego, co mówisz, nawet jeśli wydaje się, że tak jest i zachowuje się w ten sposób.
Jeśli generatywna sztuczna inteligencja nie jest w stanie nawet rozwiązać problemu Spelling Bee, nie powinieneś używać jej do szukania faktów i czerpania rzetelnej wiedzy! Przynajmniej jeszcze nie dzisiaj i nie w najbliższej przyszłości…
➔ Obserwuj nas w Google News, aby być na bieżąco!
źródło: Nieman Lab | Engadget
zdjęcia wykorzystane we wpisie pochodzą z Depositphotos