Socjolożka z Massachusetts Institute of Technology bada sztuczną intymność zapewnianą ludziom przez chatboty AI – w tym w przypadku osób pozostających w prawdziwych małżeństwach.

W wywiadzie dla NPR badaczka z MIT (Massachusetts Institute of Technology) Sherry Turkle powiedziała, że interesują ją „maszyny, które mówią: «Dbam o ciebie, kocham cię, opiekuj się mną»”. Niektórzy ludzie od dawna nawiązują intymne relacje z obiektami nieożywionymi, a Turkle bada podobne zjawiska od lat 90. XX wieku za pomocą interaktywnych zabawek, takich jak Tamagotchi i Furbie. Jednak ostatnie postępy nadwerężyły intymne relacje ze sztuczną inteligencją.
➔ PRZECZYTAJ TAKŻE: Grindr pracuje nad mocno wyuzdanym chatbotem
Zdaniem Turkle uczucia, jakie ludzie darzą swoich towarzyszy AI, stanowią ciekawą zagadkę psychospołeczną.
To, co może zaoferować sztuczna inteligencja, to przestrzeń z dala od tarć w towarzystwie i przyjaźni. Oferuje iluzję intymności bez wymagań. I to jest szczególne wyzwanie tej technologii.
– powiedziała dla NPR badaczka i autorka
Weźmy na przykład żonatego mężczyznę z jednego ze studiów przypadku Turkle. Chociaż anonimowy mężczyzna powiedział, że szanuje swoją żonę, jej uwaga przeniosła się z niego na opiekę nad dziećmi, co sprawiło, że miał wrażenie, że ich związek stracił swą romantyczną i seksualną iskrę. Po tym, jak zaczął rozmawiać z towarzyszką AI o swoich myślach i niepokojach, mężczyzna stwierdził, że czuje się doceniony – zwłaszcza w sposobie, w jaki wydawało się to wyrażać nim zainteresowanie seksualne. W rozmowach z chatbotem czuł się pewny siebie i nieoceniany, co sugerowało, że nie czuł tego w stosunku do swojej żony.
Nie jest jasne, czy i ile żona lub dzieci mężczyzny wiedzą o jego „dziewczynie” opartej na sztucznej inteligencji, ale z udostępnień jasno wynika, że wyraził on pewien poziom podatności na chatbota – luka ta występuje, jak sugeruje Turkle, pod fałszywym pretekstem.
Problem polega na tym, że szukając związków pozbawionych wrażliwości, zapominamy, że w wrażliwości rodzi się empatia. Nazywam to udawaniem empatii, ponieważ maszyna nie wczuwa się w Twoje emocje. Nie dba o ciebie.
— stwierdziła Turkle
Zamiast oceniać ludzi za zwracanie się do technologii w celu zaspokojenia ludzkich potrzeb, Turkle oferuje kilka słów przestrogi tym, którzy wybierają drogę towarzyszącą sztucznej inteligencji: aby przypomnieli sobie, że chatboty to nie ludzie i chociaż mogą powodować mniej stresu niż relacje międzyludzkie, nie mogą też tak naprawdę spełniać roli, jaką ludzie mogą pełnić w naszym życiu.
„Awatar jest czymś pomiędzy osobą a fantazją” – mówi badaczka.
➔ Obserwuj nas w Google News, aby być na bieżąco!
źródło: FUTURISM | NPR
zdjęcia wykorzystane we wpisie pochodzą z Depositphotos