Avast stawia tamę deepfake’om? Nowe narzędzie AI ma wykrywać oszustwa wideo w czasie rzeczywistym

Deepfake’i stały się niebezpiecznym narzędziem oszustwa. Fałszywe wypowiedzi i zmanipulowane filmy trafiają do użytkowników w trakcie codziennego scrollowania. Dlatego Avast uruchamia Deepfake Guard.

Nowe narzędzie AI ma wykrywać oszustwa deepfake bezpośrednio na komputerach z systemem Windows.

Deepfake’i jako nowa broń oszustów

Dane, które stoją za premierą, nie są przypadkowe. Laboratorium badawcze Gen Threat Labs zidentyfikowało w czwartym kwartale 2025 roku aż 159 378 unikalnych oszustw deepfake. Co istotne, większość z nich pojawiała się w trakcie normalnego oglądania treści wideo, a nie w formie podejrzanych załączników czy linków phishingowych. Najwięcej zablokowanych materiałów pochodziło z YouTube’a, następnie z Facebooka i platformy X.

To poważna zmiana. Cyberprzestępcy przestali liczyć na nieuwagę użytkownika klikającego w podejrzany plik. Zamiast tego wchodzą w przestrzeń, w której wciąż czujemy się względnie bezpiecznie – do codziennie wyświetlanych treści w ulubionych aplikacjach. A deepfake’i, generowane dziś z użyciem ogólnodostępnych narzędzi sztucznej inteligencji, potrafią być przekonujące jak nigdy wcześniej.

Przeczytaj także: Czym są systemy AI wysokiego ryzyka i dlaczego AI Act poświęca im tyle uwagi?

Jak działa Deepfake Guard?

Deepfake Guard to funkcja oparta na sztucznej inteligencji, która analizuje ścieżkę dźwiękową w materiałach wideo i szuka oznak manipulacji typowych dla oszustw. Najważniejsze jest to, że analiza odbywa się lokalnie na urządzeniu użytkownika, a nie w chmurze. Ma to dwa skutki: szybszą reakcję systemu oraz większą ochronę prywatności.

Narzędzie działa w czasie rzeczywistym i ostrzega użytkownika, gdy wykryje, że dźwięk w filmie może być zmanipulowany w sposób sugerujący próbę oszustwa. Nie chodzi więc o ocenę artystycznej autentyczności nagrania, ale o wykrycie intencji – presji czasu, fałszywego autorytetu czy próby wyłudzenia pieniędzy lub danych.

Deepfake Guard został dołączony do pakietu Avast Premium Security i obsługuje analizę anglojęzycznych materiałów wideo na takich platformach jak YouTube, Facebook, Instagram, TikTok, Twitch, Vimeo, DailyMotion czy X.

Zielone napisy na czarnym tle, takie jak deep fake, hoax, fake news
Liczba fałszywych treści w internecie rośnie w szybkim tempie / fot. shutterstock.com

AI na urządzeniu, a nie w chmurze

Avast wyraźnie stawia na podejście on-device AI. Deepfake Guard został zoptymalizowany pod kątem nowej generacji komputerów AI PC, wyposażonych w procesory Intel Core Ultra oraz układy Qualcomm Snapdragon X. W tych konfiguracjach detekcja działa automatycznie i bez zauważalnego wpływu na wydajność.

Użytkownicy bardziej klasycznych komputerów z Windows 11 również mogą skorzystać z ochrony, choć w ich przypadku funkcja może wymagać ręcznej aktywacji i wiązać się z minimalnym obciążeniem systemu.

To kompromis, który pokazuje kierunek całej branży. Coraz więcej mechanizmów bezpieczeństwa będzie działać bezpośrednio na sprzęcie użytkownika, zamiast polegać wyłącznie na analizie serwerowej.

Skala problemu rośnie szybciej niż regulacje

Premiera Deepfake Guard nie jest reakcją na chwilowy trend. Według badań Surfshark straty wynikające z oszustw deepfake wzrosły z 360 mln dolarów w 2024 roku do 1,1 mld dolarów w 2025 roku, a aż 83% tych strat pochodziło z mediów społecznościowych.

Z kolei Deloitte prognozuje, że do 2027 roku globalne straty związane z oszustwami wykorzystującymi generatywną AI mogą sięgnąć 40 miliardów dolarów.

Równolegle rozwija się zjawisko deepfake as a service. Platformy oferujące gotowe narzędzia do generowania fałszywych nagrań sprawiają, że bariera wejścia dla cyberprzestępców jest dziś wyjątkowo niska. To już nie domena wyspecjalizowanych grup, ale narzędzie dostępne niemal dla każdego.

Ściana z reklamą rozwiązań AI Avast
Deepfake Guard, Scam Guardian i Scam Guardian Pro – Avast wprowadza szereg nowych narzędzi / fot. shutterstock.com

Ekosystem ochrony, nie pojedyncza funkcja

Deepfake Guard jest tylko jednym z elementów szerszej strategii firmy. Równolegle Avast rozszerzył globalnie dostępność narzędzi Scam Guardian i Scam Guardian Pro na urządzeniach mobilnych. Od początku 2025 roku ponad 80% ataków blokowanych przez Gen Threat Labs na smartfonach stanowiły oszustwa i ataki socjotechniczne.

To pokazuje, że walka z deepfake’ami nie dotyczy wyłącznie komputerów PC. Oszustwa rozlewają się na wszystkie ekrany, z których korzystamy. Odpowiedzią musi być więc wielowarstwowa ochrona, działająca tam, gdzie użytkownik faktycznie konsumuje treści.

Przeczytaj także: Modele AI potrafią celowo oszukiwać. To nie tylko halucynacje, ale zaplanowana dezinformacja!

Deepfake’i to nie problem technologii czy zaufania?

Jak podkreśla Leena Elias, Chief Product Officer w Gen, deepfake’i są tylko symptomem większego zjawiska. Sama technologia generatywnej AI nie jest z natury szkodliwa. Problem pojawia się wtedy, gdy zostaje użyta do manipulowania emocjami, wywierania presji i nadużywania zaufania.

Deepfake Guard nie rozwiąże całego problemu. Ale może odegrać niebagatelną rolę w tym, by użytkownik dostał ostrzeżenie w odpowiednim momencie. Zanim kliknie, zapłaci lub poda swoje dane. Bez odpowiednich narzędzi oraz skutecznych regulacji skala problemu będzie rosnąć, podobnie jak potencjalne straty finansowe i społeczne.



Porozmawiaj z nami o sztucznej inteligencji
Dołącz do grupy "AI Business" na Facebooku


Polecamy e-book o AI


Sztuczna inteligencja w biznesie - przewodnik
AI w marketingu – jak zwiększyć sprzedaż i zaangażowanie klientów?
Test Turinga: Czy AI jest już inteligentniejsze od człowieka?

Newsletter
AI Business

Bądź na bieżąco z możliwościami sztucznej inteligencji w biznesie.
Zapisz się na bezpłatny newsletter.



Latest Posts