Wykrywanie deepfake’ów od HONOR już w kwietniu

Pierwsza na rynku funkcja wykrywania deepfake’ów od firmy HONOR będzie dostępna od kwietnia 2025 roku.

Technologie wspierające użytkowników w wykrywaniu deepfake AI
Technologie wspierające użytkowników w wykrywaniu deepfake AI

rzełomowa technologia wykrywania deepfake’ów AI od firmy HONOR będzie dostępna na całym świecie od kwietnia 2025 roku. Rozwiązanie to umożliwia użytkownikom zwalczanie rosnącego zagrożenia deepfake’ami. Wykorzystując opartą na sztucznej inteligencji analizę treści wideo i obrazów w czasie rzeczywistym, funkcja zapewnia natychmiastowe ostrzeżenia przed potencjalnymi treściami tego typu.

Chociaż rozwój sztucznej inteligencji przyniósł niesamowite postępy, stwarza on również niewidoczne wyzwania, takie jak rozprzestrzenianie się deepfake’ów. Według Entrust Cybersecurity Institute, w 2024 r. co pięć minut dochodzi do ataku typu deepfake. Te zmanipulowane obrazy, nagrania audio i filmy stają się coraz trudniejsze do wykrycia, a badanie Deloitte 2024 Connected Consumer Study ujawniło, że 59% respondentów ma trudności z odróżnieniem treści stworzonych przez człowieka od treści wygenerowanych przez sztuczną inteligencję. 

Nie może zatem dziwić, że 84% osób zaznajomionych z generatywną sztuczną inteligencją uważa, że takie treści powinny być oznaczone. Marka HONOR uważa, że proaktywne środki wykrywania deepfake’ów i współpraca branżowa mają kluczowe znaczenie w kontekście przeciwdziałania zagrożeniom cyfrowego świata. Liderzy branży podzielają ten pogląd, a organizacje takie jak Content Provenance and Authenticity (C2PA) pracują nad opracowaniem standardów technicznych, mających na celu certyfikację źródła i historii treści cyfrowych, w tym zasobów tworzonych przez sztuczną inteligencję.

➔ PRZECZYTAJ TAKŻE: Technologie ochrony oczu AI Defocus oraz wykrywania materiałów deepfake od HONOR

Wykorzystanie rozwiązań rozpoznających deepfake’i na urządzeniach mobilnych będzie potężną bronią do walki z nimi. Zwracanie uwagi na wady materiałów, które mogą pozostać niezauważone przez ludzkie oko, takie jak nienaturalny kontakt wzrokowy, oświetlenie, klarowność obrazu i odtwarzanie wideo, mogą powstrzymać ludzi przed dalszym zaangażowaniem i uchronić ich przed zagrożeniem.
— powiedział Marco Kamiya, przedstawiciel Organizacji Narodów Zjednoczonych do spraw Rozwoju Przemysłowego.

Działanie marek przeciw zagrożeniom deepfake AI
Działanie marek przeciw zagrożeniom deepfake AI

Technologia wykrywania deepfake’ów AI firmy HONOR zadebiutowała na targach IFA 2024. Funkcja ta analizuje subtelne niespójności, często niewidoczne dla ludzkiego oka, w tym niedoskonałości syntetyczne na poziomie pikseli, artefakty kompozycji, ciągłość między klatkami oraz spójność fryzury i rysów twarzy. Po wykryciu zmanipulowanej zawartości natychmiast zostanie wydane ostrzeżenie, które pomoże ochronić użytkowników przed potencjalnym ryzykiem płynącym z nierozpoznania deepfake’a. 

➔ Obserwuj nas w Google News, aby być na bieżąco!

źródło: HONOR