Kultowy film „Terminator” z 1984 roku wciąż ma ogromny wpływ na nasze postrzeganie egzystencjalnych zagrożeń związanych ze sztuczną inteligencją.

W sobotę 26 października 2024 roku przypada 40. rocznica klasycznego filmu science fiction zatytułowanego Terminator (początkowo tłumaczony w Polsce jako Elektroniczny morderca) wyreżyserowanego przez Jamesa Camerona – filmu, który spopularyzował strach społeczeństwa przed maszynami, z którymi nie można dyskutować i które „absolutnie się nie zatrzymają… dopóki nie umrzesz”, jak pamiętnie ujął to jeden z bohaterów.
Fabuła Terminatora kręci się wokół superinteligentnego systemu AI o nazwie Skynet, który przejął władzę nad światem, inicjując wojnę nuklearną. Pośród wywołanych nią zniszczeń ludzcy ocaleńcy organizują udany odwet pod przywództwem charyzmatycznego Johna Connora.
W odpowiedzi Skynet wysyła cyborga-zabójcę (w tej roli Arnold Schwarzenegger) w przeszłość do 1984 roku — przed narodzinami Connora — aby zabił jego przyszłą matkę Sarah. Znaczenie Johna Connora dla wojny jest tak duże, że Skynet liczy na wymazanie go z historii, aby zachować swoje istnienie.
Dzisiaj zainteresowanie opinii publicznej sztuczną inteligencją prawdopodobnie nigdy nie było większe. Firmy rozwijające AI zazwyczaj obiecują, że ich technologie będą wykonywać zadania szybciej i dokładniej niż ludzie. Twierdzą, że AI potrafi dostrzegać wzorce w danych, które nie są oczywiste, usprawniając ludzkie podejmowanie decyzji. Istnieje powszechne przekonanie, że AI jest gotowa przekształcić wszystko, od wojny po gospodarkę.
Bezpośrednie zagrożenia obejmują wprowadzanie uprzedzeń do algorytmów służących do przesiewania aplikacji o pracę i zagrożenie, że generatywna sztuczna inteligencja wyprze ludzi z niektórych rodzajów pracy, takich jak programowanie.
Jednak to niebezpieczeństwo egzystencjalne często dominuje w dyskusji publicznej — a filmy z serii Terminator wywarły nieproporcjonalnie duży wpływ na sposób, w jaki te argumenty są formułowane. Rzeczywiście, według niektórych, przedstawienie w filmach zagrożenia ze strony maszyn sterowanych przez AI odwraca uwagę od znacznych korzyści oferowanych przez tę technologię.
Terminator nie był pierwszym filmem, który poruszał potencjalne zagrożenia AI. Istnieją paralele między Skynetem a superkomputerem HAL 9000 w filmie Stanleya Kubricka z 1968 roku zatytułowanego 2001: Odyseja kosmiczna.
Nawiązuje on również do powieści Mary Shelley z 1818 roku pt. Frankenstein oraz sztuki Karela Čapka z 1921 roku pt. R.U.R. Obie historie dotyczą wynalazców tracących kontrolę nad swoimi dziełami.
Po premierze film został opisany w recenzji The New York Timesa jako „film klasy B z polotem”. W międzyczasie został uznany za jeden z najlepszych filmów science fiction wszech czasów. Zarobił ponad 12 razy więcej niż jego skromny budżet wynoszący 6,4 miliona dolarów (4,9 miliona funtów według dzisiejszego kursu wymiany).
To, co było prawdopodobnie najbardziej nowatorskie w Terminatorze, to sposób, w jaki na nowo wyobraził sobie długotrwałe obawy przed powstaniem maszyn przez pryzmat kulturowy Ameryki lat 80. Podobnie jak film WarGames z 1983 roku, w którym nastolatek niemal wywołuje III wojnę światową, włamując się do wojskowego superkomputera, Skynet podkreśla obawy związane z zimną wojną, związane z zagładą nuklearną, połączone z lękiem przed szybkimi zmianami technologicznymi.
Czterdzieści lat później Elon Musk należy do liderów technologicznych, którzy pomogli skupić się na rzekomym ryzyku egzystencjalnym, jakie sztuczna inteligencja stwarza dla ludzkości. Właściciel X (dawniej Twitter) wielokrotnie odwoływał się do serii filmów Terminator, wyrażając jednocześnie obawy dotyczące hipotetycznego rozwoju superinteligentnej sztucznej inteligencji.
Jednak takie porównania często irytują zwolenników tej technologii. Jak powiedział były brytyjski minister technologii Paul Scully na konferencji w Londynie w 2023 roku: „Jeśli mówisz o końcu ludzkości tylko z powodu jakiegoś nieuczciwego scenariusza w stylu Terminatora, przegapisz całe dobro, jakie oferuje sztuczna inteligencja”.
Nie oznacza to, że nie ma prawdziwych obaw dotyczących wojskowego wykorzystania sztucznej inteligencji — takich, które mogą nawet wydawać się podobne do serii filmowej.
Systemy uzbrojenia sterowane przez AI
Ku uldze wielu, urzędnicy USA powiedzieli, że AI nigdy nie podejmie decyzji o rozmieszczeniu broni jądrowej. Jednak połączenie AI z autonomicznymi systemami uzbrojenia jest możliwe.
Broń ta istnieje od dziesięcioleci i niekoniecznie wymaga AI. Po aktywacji może wybierać i atakować cele bez bezpośredniej obsługi przez człowieka. W 2016 roku generał Sił Powietrznych USA Paul Selva ukuł termin „zagadka Terminatora”, aby opisać wyzwania etyczne i prawne stawiane przez tę broń.
Stuart Russell, czołowy brytyjski informatyk, argumentował za zakazem wszelkiej śmiercionośnej, w pełni autonomicznej broni, w tym broni z AI. Jego zdaniem główne ryzyko nie polega na tym, że inteligentny system w stylu Skynetu stanie się nieuczciwy, ale na tym, jak dobrze autonomiczna broń będzie wykonywać nasze instrukcje, zabijając z nadludzką dokładnością.
Russell przewiduje scenariusz, w którym maleńkie quadrocoptery wyposażone w AI i ładunki wybuchowe mogłyby być produkowane masowo. Te „roboty do zabijania” mogłyby być następnie rozmieszczane w rojach jako „tania, selektywna broń masowego rażenia”.
Kraje, w tym USA, określają potrzebę, aby operatorzy-ludzie „wykonywali odpowiednie poziomy ludzkiej oceny nad użyciem siły” podczas obsługi autonomicznych systemów uzbrojenia. W niektórych przypadkach operatorzy mogą wizualnie weryfikować cele przed autoryzacją uderzeń i mogą „odrzucić” ataki, jeśli sytuacja się zmieni.
Sztuczna inteligencja jest już wykorzystywana do wspierania namierzania celów przez wojsko. Według niektórych jest to nawet odpowiedzialne wykorzystanie technologii, ponieważ może zmniejszyć straty uboczne. Pomysł ten przywołuje odwrócenie ról Schwarzeneggera jako życzliwego „strażnika maszyn” w sequelu oryginalnego filmu, Terminator 2: Dzień sądu.
Jednak sztuczna inteligencja może również podważyć rolę operatorów dronów-ludzi w kwestionowaniu rekomendacji maszyn. Niektórzy badacze uważają, że ludzie mają tendencję do ufania temu, co mówią komputery.
„Amunicja krążąca”
Wojska zaangażowane w konflikty coraz częściej wykorzystują małe, tanie drony powietrzne, które mogą wykrywać cele i uderzać w nie. Te „krążące amunicje” (nazwane tak, ponieważ zostały zaprojektowane tak, aby unosić się nad polem bitwy) charakteryzują się różnym stopniem autonomii.
Dynamika wojny na Ukrainie i innych niedawnych konfliktów, w których ta amunicja była szeroko stosowana, budzi obawy co do jakości kontroli sprawowanej przez ludzkich operatorów.
Naziemne roboty wojskowe uzbrojone w broń i zaprojektowane do użycia na polu bitwy mogą przypominać nieustępliwych Terminatorów, a uzbrojone drony powietrzne mogą z czasem przypominać latających „łowców-zabójców” z tej serii. Jednak technologie te nie nienawidzą nas tak jak Skynet i nie są też „superinteligentne”.
Jednak niezwykle ważne jest, aby ludzcy operatorzy nadal sprawowali sprawczość i znaczącą kontrolę nad systemami maszyn.
Można argumentować, że największym dziedzictwem Terminatora było zniekształcenie sposobu, w jaki zbiorowo myślimy i mówimy o sztucznej inteligencji. To ma teraz większe znaczenie niż kiedykolwiek, ponieważ technologie te stały się kluczowe dla strategicznej rywalizacji o globalną władzę i wpływy między USA, Chinami i Rosją.
Cała społeczność międzynarodowa, od supermocarstw, takich jak Chiny i USA, po mniejsze kraje, musi znaleźć wolę polityczną do współpracy — i poradzić sobie z wyzwaniami etycznymi i prawnymi stawianymi przez wojskowe zastosowania sztucznej inteligencji w tym czasie geopolitycznych wstrząsów. To, w jaki sposób narody poradzą sobie z tymi wyzwaniami, zadecyduje, czy uda nam się uniknąć dystopijnej przyszłości tak żywo wyobrażonej w Terminatorze — nawet jeśli nie zobaczymy podróżujących w czasie cyborgów w najbliższym czasie.
➔ Obserwuj nas w Google News, aby być na bieżąco!
autor artykułu: Tom F.A Watts, Postdoctoral Fellow, Department of Politics, International Relations, and Philosophy, Royal Holloway University of London
źródło: The Converstation | ArsTechnica