Nowe badania firmy Graphite wykazały, że około połowa wszystkich artykułów w internecie jest generowana przez sztuczną inteligencję – na szczęście ludzie jeszcze nie skończyli…

Cieszcie się, internauci z krwi i kości, bo tylko nieco ponad połowa wszystkich nowych artykułów w internecie jest generowana przez sztuczną inteligencję (Ai) – tak wynika z nowego raportu opublikowanego w Axios. Wierzcie lub nie, ale to i tak całkiem dobra wiadomość.
Od czasu publicznego uruchomienia ChatGPT w listopadzie 2022 roku, kryliśmy się w absolutnym zalewie śmieci z AI. Ale najwyraźniej jeszcze nas wszystkich nie zatopił. Raport, opublikowany przez firmę SEO Graphite, przeanalizował losową próbkę 65.000 artykułów w języku angielskim opublikowanych między styczniem 2020 a majem 2025 roku. Za pomocą detektora AI o nazwie Surfer, każdy artykuł, w którym stwierdzono, że 50% lub więcej treści zostało napisane przy użyciu dużego modelu językowego, był uznawany za wygenerowany przez sztuczną inteligencję.
➔ PRZECZYTAJ TAKŻE: Wikipedia odnotowuje spadki ruchu – winowajcami sztuczna inteligencja i social media
Zgodnie z oczekiwaniami, analiza wykazała gwałtowny wzrost liczby artykułów generowanych przez sztuczną inteligencję, zbiegający się z premierą ChatGPT – z około dziesięciu procent pod koniec 2022 roku do ponad 40 procent do 2024 roku, po czym nastąpił spadek do bardziej stabilnego wzrostu.
A teraz dobra wiadomość: wygląda na to, że napływ artykułów od sztucznej inteligencji osiągnął plateau. Po tym, jak artykuły generowane przez sztuczną inteligencję osiągnęły szczyt w listopadzie 2024 roku, udział nowo publikowanych treści tworzonych przez sztuczną inteligencję i przez ludzi oscylował w okolicach pół na pół. W maju tego roku udział nowych artykułów o]pochodzących od sztucznej inteligencji wynosił 52%, zmieniając się w porównaniu z zaledwie miesiącem temu, kiedy to artykuły napisane przez ludzi stanowiły niewielką większość.
Istnieje również możliwość, że udział treści tworzonych przez ludzi może być jeszcze wyższy. Naukowcy wykorzystali otwarty zbiór danych obejmujący setki miliardów stron internetowych o nazwie Common Crawl. Ponieważ firmy zajmujące się sztuczną inteligencją wykorzystały tę skarbnicę danych do szkolenia swoich programów LLM, wiele płatnych witryn zaczęło blokować Common Crawl przed indeksowaniem swoich stron, zauważa Axios. Te artykuły, niemal na pewno napisane przez ludzi, zostałyby zatem pominięte w analizie Graphite.
Powinniśmy również podchodzić z rezerwą do osądów detektorów sztucznej inteligencji, ponieważ ich niezawodność jest wątpliwa. W ramach własnych testów dokładności narzędzia Surfer, Graphite zleciło detektorowi analizę próbki artykułów generowanych przez sztuczną inteligencję oraz innej próbki artykułów tworzonych przez ludzi. Odkryto, że artykuły napisane przez ludzi były oznaczane jako stworzone przez sztuczną inteligencję w 4,2% przypadków – co jest częstym problemem w przypadku tych narzędzi – ale artykuły napisane przez sztuczną inteligencję były błędnie oznaczane jako stworzone przez ludzi tylko w 0,6%.
W każdym razie, nie jest jasne, dlaczego artykuły oparte na sztucznej inteligencji wydają się osiągać poziom plateau. Powołując się na drugi raport Graphite, Axios zauważa, że może to wynikać z faktu, że farmy treści oparte na sztucznej inteligencji zdają sobie sprawę, że ich marne treści nie są tak często wychwytywane przez wyszukiwarki i boty interaktywne. Firma odkryła, że 86% artykułów w wyszukiwarce Google zostało napisanych przez ludzi, a tylko 14% przez sztuczną inteligencję.
Może to jednak przeczyć innemu trendowi. Coraz więcej autorów może korzystać z chatbotów opartych na sztucznej inteligencji i innych narzędzi w swoim procesie twórczym, omijając detektory sztucznej inteligencji i zacierając granicę między tym, co stworzone przez maszyny, a tym, co ludzkie.
➔ Obserwuj nas w Google News, aby być na bieżąco!
źródło: Futurism
zdjęcie wykorzystane we wpisie z Depositphotos