Jak oszustwa typu deepfake napędzają nową falę nadużyć finansowych

0

Od fałszywych porwań po oszustwa romantyczne z wykorzystaniem sztucznej inteligencji — deepfake’i napędzają nową falę niebezpiecznych oszustw. Dowiedz się, jak rozpoznać sygnały ostrzegawcze.


Spis treści


Oszuści wykorzystują technologię deepfake do odtwarzania głosu Twojego dziecka w fałszywych porwaniach, podszywania się pod inne osoby za pomocą filmów generowanych przez sztuczną inteligencję oraz podszywania się pod kadrę kierowniczą w celu kradzieży milionów. Dowiedz się, jak rozpoznać oszustwa z wykorzystaniem deepfake’ów, i skorzystaj z Avast Deepfake Guard, aby zweryfikować, co jest prawdziwe, zanim będzie za późno.

Technologia deepfake’ów zaczęła się jako zabawna sztuczka imprezowa: umieść swoją twarz w filmie Marvela, zamień głosy dla zabawy lub poproś papieża, aby zaprezentował kurtkę Balenciaga.

Jednak obecnie pomaga ona cyberprzestępcom w tworzeniu jeszcze bardziej przekonujących oszustw. Według Sumsub w pierwszych miesiącach 2025 r. liczba oszustw deepfake w Stanach Zjednoczonych wzrosła o 700%.

Ryzyko jest większe, niż mogłoby się wydawać. Ludzie mogą wykorzystywać tę technologię do podszywania się pod bliskich lub nawet tworzenia zupełnie nowych „osób” wyłącznie w celu oszukania innych. Przyjrzyjmy się, w jaki sposób oszuści wykorzystują sztuczną inteligencję deepfake, aby oszukać Twoje oczy, uszy i portfel.

Fałszywe twarze i prawdziwe problemy

Deepfake to syntetyczne media tworzone przy użyciu sztucznej inteligencji, które sprawiają, że oszustwa stają się prawdziwą sztuką. Przestępcy wykorzystują technologię deepfake opartą na sztucznej inteligencji do tworzenia syntetycznych tożsamości przy użyciu generowanych przez sztuczną inteligencję obrazów, głosów i częściowych prawdziwych danych (takich jak skradziony numer ubezpieczenia społecznego lub adres). Następnie wykorzystują te fałszywe tożsamości, aby ubiegać się o pracę, otwierać konta bankowe lub nakłaniać niczego niepodejrzewających użytkowników do wysyłania pieniędzy.

Przykład: Północnokoreańscy pracownicy IT zostali przyłapani na wykorzystywaniu filmów deepfake do ubiegania się o pracę zdalną w branży technologicznej w Stanach Zjednoczonych w 2023 roku. W ten sposób mogli przekazywać pieniądze i własność intelektualną reżimowi.

Co gorsza, zagrożenie to rośnie. Według Sumsub, w pierwszych miesiącach 2025 r. liczba oszustw związanych z syntetycznymi dokumentami tożsamości wzrosła w Stanach Zjednoczonych o 300%.

Oszust w zarządzie

Wyobraź sobie, że dyrektor finansowy Twojej firmy wysyła Ci wiadomość z informacją o pilnej płatności dla dostawcy. Sprawdzasz wiadomość wideo. To wyraźnie on. Głos, twarz — wszystko się zgadza.

Tyle że… to nie jest prawdziwe.

Coś podobnego przydarzyło się firmie Ferrari na początku tego roku. Jeden z członków kadry kierowniczej otrzymał wiadomość głosową WhatsApp podszywającą się pod dyrektora generalnego Ferrari. Na szczęście zorientował się, że to oszustwo, zanim było za późno.

Oszustwa w stylu hollywoodzkim

Gwiazdy również nie są bezpieczne przed oszustwami z wykorzystaniem deepfake’ów. Oszuści wykorzystują filmy i głosy generowane przez sztuczną inteligencję, aby zamienić je w niechętnych rzeczników oszustw.

  • Ktoś wykorzystał wizerunek Keanu Reevesa w oszustwie romantycznym, które kosztowało kobietę około 100 000 dolarów — i jej małżeństwo.
  • Filmy deepfake z Elonem Muskiem często promują podejrzane schematy kryptowalutowe.
  • Nie zapominajmy też o Taylor Swift, która padła ofiarą niepokojącej sprawy związanej z deepfake porno.

Filmy te osiągają miliony wyświetleń, zanim zostaną zgłoszone. Tymczasem ofiary ufają znanym twarzom, a oszuści na tym zarabiają.

Nowa (fałszywa) twarz na zjeździe rodzinnym

W okrutnej odmianie klasycznego „oszustwa wnuczkowego” oszuści wykorzystują technologię deepfake do naśladowania członków rodziny w trudnej sytuacji. Tak stało się w przypadku jednej z kobiet z Florydy, która otrzymała telefon brzmiący dokładnie jak głos jej córki, twierdzącej, że miała wypadek samochodowy. Następnie rzekomy prawnik zażądał 15 000 dolarów w gotówce na kaucję.

Aby zrealizować ten plan, oszuści wykorzystują krótkie fragmenty głosowe (łatwo pobrane z Instagrama, TikToka lub YouTube) do klonowania głosów z przerażającą dokładnością.

Sztuczna miłość od pierwszego wejrzenia

Deepfake przenosi catfishing i inne oszustwa romantyczne na wyższy poziom, a przestępcy tworzą fałszywe profile przy użyciu obrazów i głosów generowanych przez sztuczną inteligencję. Niektórzy klonują nawet głosy celebrytów lub influencerów. Ofiary wierzą, że spotkały kogoś wyjątkowego… dopóki nie pojawiają się prośby o pieniądze.

Na przykład kobieta z Los Angeles wysłała ponad 80 000 dolarów oszustowi podszywającemu się pod gwiazdę serialu „General Hospital” Steve’a Burtona, aby pomóc mu opłacić dom, który, jak sądziła, będą dzielić razem.

Co się stanie, jeśli dam się nabrać na jedno z tych oszustw z wykorzystaniem deepfake’ów?

Nie jesteś sam i nie jesteś głupi. Ta technologia została zaprojektowana tak, aby oszukać nawet osoby najbardziej obeznane z technologią. Dlatego ochrona przed oszustwami oparta na sztucznej inteligencji jest ważniejsza niż kiedykolwiek.

Oto, co jest stawką:

  • Straty finansowe: te oszustwa mogą kosztować od kilkuset dolarów do wszystkich oszczędności życia.
  • Narażenie tożsamości: Twoje dane osobowe mogą zostać wykorzystane do przyszłych oszustw i dalszego ryzyka kradzieży tożsamości.
  • Cena emocjonalna: po oszustwie często pojawiają się uczucia wstydu, niepokoju i nieufności. Oszustwa romantyczne lub rodzinne są zazwyczaj szczególnie dotkliwe.

Co należy zrobić, jeśli rozmawiasz z deepfake’iem?

W momencie, gdy podejrzewasz, że coś jest nie tak, przerwij rozmowę i podejmij natychmiastowe działania. Oto, co należy zrobić:

  1. Zablokuj oszusta: natychmiast przerwij wszelką komunikację.
  2. Skontaktuj się z poszkodowanymi firmami: należy powiadomić banki, pracodawców lub wszelkie usługi, które mogły zostać naruszone.
  3. Zgłoś sprawę na policję: zgłoszenia na policję pomagają śledzić oszustów i mogą pomóc w odzyskaniu strat.

Zgłoś sprawę do specjalistów z NASK

Jak chronić się przed deepfake’ami twarzy i głosów

Być może nie uda Ci się uniknąć tych ataków, ale możesz się przed nimi chronić. Oto kilka sposobów na przechytrzenie botów:

  • Zwróć uwagę na oznaki: robotyczne lub zbyt płynne głosy, dziwne ruchy oczu i zła jakość wideo powinny wzbudzić podejrzenia.
  • Zadaj sobie pytanie: „Czy to prawdopodobne?”: Czy Scarlett Johansson naprawdę zadzwoniłaby do Ciebie przez FaceTime w sprawie aplikacji kryptograficznej?
  • Uważaj na dziwne prośby: prośby o pieniądze, hasła lub podjęcie pilnych działań są sygnałem ostrzegawczym.
  • Korzystaj z uwierzytelniania wieloskładnikowego: MFA jest szczególnie ważne w przypadku poczty elektronicznej i bankowości.
  • Ustalcie rodzinne „hasło bezpieczeństwa”: Wybierzcie tajną frazę, którą znają tylko najbliżsi.

Nie daj się oszukać (deepfake’owi)

Oszuści mogą dysponować sztuczną inteligencją, ale my też. Avast Deepfake Guard wykrywa te podstępne oszustwa deepfake w czasie rzeczywistym, bezpośrednio na urządzeniu, zapewniając większą szybkość i prywatność, a także ostrzega Cię, zanim padniesz ofiarą. Deepfake Guard jest teraz zawarty w Avast Premium Security i obsługuje analizę wideo w języku angielskim na głównych platformach, w tym Facebook, DailyMotion, Instagram, TikTok, Twitch, Vimeo, X i YouTube.

Często zadawane pytania

Jak powszechne są deepfake’i?

Deepfake’i stają się bardzo powszechne — 60% konsumentów spotkało się z nimi w ciągu ostatniego roku.

Czy deepfake’i mogą być ścigane?

To, czy deepfake’i mogą być ścigane, często zależy od konkretnej sytuacji. Sprawcy mogą zostać oskarżeni o oszustwo, kradzież tożsamości lub zniesławienie, chociaż globalne przepisy prawne wciąż ewoluują.

Czy Google blokuje deepfake’i?

Google częściowo blokuje deepfake’i i niedawno ogłosiło, że podejmuje kroki w celu usunięcia wyraźnych deepfake’ów z wyników wyszukiwania. YouTube i platformy reklamowe Google zakazują deepfake’ów mających na celu wprowadzenie w błąd, ale technologia wykrywania nadal nie nadąża.

Ile strat spowodowanych deepfake’ami odnotowano w 2025 roku?

Według Światowego Forum Ekonomicznego oszustwa związane z deepfake’ami spowodowały na całym świecie straty finansowe w wysokości ponad 200 milionów dolarów tylko w pierwszym kwartale 2025 roku.


AVG Polska

Przedsiębiorstwo Informatyczne CORE

Producent, importer i reseller oprogramowania, wydawca serwisów internetowych. Działa od 2001 roku. Oficjalny dystrybutor AVG. Programy rozprowadzane są przez siatkę ponad 1300 resellerów na terenie całej Polski, zapewniona jest pełna polska pomoc techniczna oraz wsparcie handlowe i marketingowe.

Zostaw wiadomość


The reCAPTCHA verification period has expired. Please reload the page.