Jak niebezpieczne są deepfake’i i inne oszustwa wykorzystujące sztuczną inteligencję?

Jak bardzo wzrosły próby użycia narzędzi opartych na sztucznej inteligencji (AI) do przeprowadzania oszustw i przestępstw w obszarze cyberzagrożeń.

Mapa pokazująca wzrosty proc. oszustw opartych na sztucznej inteligencji (AI) na świecie w 2023 r.
Mapa pokazująca wzrosty proc. oszustw opartych na sztucznej inteligencji (AI) na świecie w 2023 r.

Były prezydent USA Donald Trump pozujący z czarnoskórymi wyborcami, prezydent Joe Biden zniechęcający ludzi do głosowania przez telefon lub papież w bufiastej białej marynarce: fałszywe filmy, zdjęcia i nagrania audio stały się powszechne na różnych platformach internetowych dzięki postępowi technologicznemu dużych modeli językowych, takie jak Midjourney, Google Gemini czy ChatGPT od OpenAI.

➔ PRZECZYTAJ TAKŻE: Na Facebooku, Instagramie i Threadsie pojawią się oznaczenia dla treści AI

Dzięki odpowiedniemu, szybkiemu opisowi każdy może stworzyć pozornie prawdziwe obrazy lub sprawić, że głosy wybitnych osobistości, celebrytów, polityków, publicystów oraz artystów będą mówiły, co tylko chcą. Choć tworzenie deepfake’ów samo w sobie nie jest przestępstwem, wiele rządów zmierza w kierunku stworzenia odpowiednich regulacji dotyczących korzystania ze sztucznej inteligencji (AI), aby zapobiec szkodom dla zaangażowanych stron.

Oprócz głównego nurtu deepfake’ów, polegającego na tworzeniu bez zgody treści pornograficznych z udziałem głównie celebrytek, technologia ta może być również wykorzystywana do oszustw związanych z tożsamością poprzez wytwarzanie fałszywych dokumentów tożsamości lub podszywanie się pod inne osoby przez telefon.

Jak pokazuje powyższy wykres sporządzony przez serwis Statista na podstawie najnowszego raportu rocznego firmy Sumsub, dostawcy usług weryfikacji tożsamości, w latach 2022–2023 w wielu krajach na całym świecie liczba przypadków oszustw związanych z tożsamością typu „deepfake” gwałtownie wzrosła.

Na przykład liczba prób oszustw na Filipinach wzrosła o 4500 procent rok do roku, a na kolejnych miejscach znalazły się takie kraje jak Wietnam, Stany Zjednoczone i Belgia. Ponieważ możliwości tzw. sztucznej inteligencji mogą jeszcze bardziej wzrosnąć, czego dowodem są produkty takie jak generator wideo AI Sora, próby oszustw typu deepfake mogą również przenieść się na inne obszary.

W ostatnich latach zaobserwowaliśmy, że deepfakes stają się coraz bardziej przekonujące i tendencja ta będzie się nadal utrzymywać i przerodzić w nowe rodzaje oszustw, jak widać w przypadku deepfake’ów głosowych. Zarówno konsumenci, jak i firmy muszą zachować szczególną czujność w przypadku oszustw syntetycznych i szukać wielowarstwowych rozwiązań zapobiegających oszustwom, a nie tylko wykrywania deepfake.

— mówi we wspomnianym raporcie Pavel Goldman-Kalaydin, dyrektor ds. sztucznej inteligencji i uczenia maszynowego w firmie Sumsub

Oceny te podziela wielu ekspertów ds. cyberbezpieczeństwa. Na przykład ankieta przeprowadzona wśród 199 liderów ds. cyberbezpieczeństwa uczestniczących w dorocznym spotkaniu poświęconym cyberbezpieczeństwu Światowego Forum Ekonomicznego w 2023 roku wykazała, że 46 procent respondentów jest najbardziej zaniepokojonych „rozwojem możliwości kontradyktoryjnych – phishingu, rozwoju złośliwego oprogramowania, deepfake’ów” pod względem zagrożeń związanych ze sztuczną inteligencją, który stwarza nowe obszary i techniki oszustw w obszarze cyberbezpieczeństwa.

➔ Obserwuj nas w Google News, aby być na bieżąco!

źródło: Statista