Spis treści

29 października 20258 min.
Max Cyrek
Max Cyrek

Deepfake: przykłady. Jak może wyglądać?

Deepfake: przykłady. Jak może wyglądać?

Dziś deepfake’i to nie tylko rozrywka na mediach społecznościowych – to potężne narzędzie wykorzystywane w branży filmowej, polityce, marketingu, ale także w najbardziej niebezpiecznych przestępstwach cyfrowych. Od klonowania głosów dyrektorów firm po fałszywe nagrania polityków, od nielegalnej pornografii po wyrafinowane oszustwa finansowe – świat deepfake’ów jest fascynujący i przerażający zarazem.

Z tego artykułu dowiesz się m.in.:

Najważniejsze informacje:

  • Zastosowania deepfake’ów obejmują rozrywkę, dubbing i postprodukcję filmową, gdzie można realistycznie odmładzać aktorów albo zmieniać język wypowiedzi bez ponownych nagrań. Deepfake’i są też używane w reklamie do personalizacji przekazu oraz w edukacji i muzeach do ożywiania postaci historycznych w formie interaktywnych przewodników.
  • Przykłady deepfake’ów obejmują filmy, w których aktor jest cyfrowo odmłodzony o kilkadziesiąt lat, realistyczne podmiany twarzy celebrytów w viralowych nagraniach oraz fałszywe przemówienia polityków wyglądające jak nagrania z prawdziwych konferencji. Pojawiają się też deepfake’i audio, które klonują głos znanych osób.
  • Zagrożenia wynikające z deepfake’ów dotyczą dezinformacji, oszustw finansowych i szantażu wizerunkowego. Fałszywe wypowiedzi przypisywane politykom mogą wpływać na opinię publiczną i wybory, a podrobiony głos prezesa może wyłudzić przelew od działu finansowego. Deepfake’i podważają też zaufanie do dowodów wideo.

Jakie są zastosowania deepfake’ów?

Technologia deepfake, mimo swojej kontrowersyjnej reputacji, znajduje coraz szersze zastosowanie w różnych dziedzinach życia – od branży rozrywkowej po edukację, od marketingu po naukę. Nie wszystkie zastosowania są złośliwe, a niektóre wręcz rewolucjonizują sposób, w jaki tworzymy i konsumujemy treści.

W branży filmowej deepfake’i stały się narzędziem do tworzenia realistycznych efektów specjalnych bez astronomicznych budżetów. Kampania Gillette z młodym Deionem Sandersem z 1989 roku czy projekt Belgijskiego Związku Piłki Nożnej, który przywrócił do życia dwóch zmarłych menedżerów drużyny, to przykłady komercyjnego wykorzystania deepfake w pozytywnym kontekście[1]. W filmie “Rogue One: Gwiezdne Wojny – Historie” technologia podobna do deepfake została użyta do odtworzenia postaci Wielkiego Moffa Tarkina, granego przez zmarłego Petera Cushinga.

W edukacji deepfake’i otwierają fascynujące możliwości. Muzeum Dalego wykorzystało tę technologię do stworzenia interaktywnej wersji artysty, z którą zwiedzający mogą rozmawiać, tworząc głębsze połączenie z historią sztuki[2]. Podobne projekty mogą przywracać do życia historyczne postacie – wyobraź sobie lekcję historii, gdzie Juliusz Cezar osobiście opowiada o swoich podbojach, lub wykład fizyki prowadzony przez Alberta Einsteina. Technologia ta może również pomóc w zachowaniu głosów i wizerunków bliskich osób cierpiących na choroby degeneracyjne, zanim utracą zdolność mówienia.

Marketing i reklama odkryły w deepfake’ach nowe możliwości personalizacji. Marki mogą tworzyć spersonalizowane wideo-komunikaty od celebrytów dla poszczególnych klientów, zwiększając zaangażowanie i budując relacje. Jednak to ostrze ma dwie strony – ta sama technologia jest wykorzystywana w fałszywych reklamach, gdzie celebryci rzekomo promują produkty bez swojej zgody.

W komunikacji osobistej powstają aplikacje wykorzystujące technologie deepfake do tworzenia “voice skins” – syntezatorów głosu, które pozwalają osobom transpłciowym mówić głosem lepiej odzwierciedlającym ich tożsamość w forach internetowych[3]. To niezwykle istotne zastosowanie technologii dla dobra jednostek.

Jednak ciemna strona zastosowań deepfake’ów jest równie rozległa. W polityce technologia ta stała się narzędziem dezinformacji i manipulacji opinią publiczną. Fałszywe nagrania polityków wypowiadających kontrowersyjne słowa mogą wpływać na wyniki wyborów i destabilizować demokracje. W 2024 roku liczba przypadków wykorzystania deepfake’ów w krajach z wyborami wzrosła dramatycznie – w USA o 303%, w Indiach o 280%[4].

W przestępczości zorganizowanej deepfake’i służą do wyłudzania pieniędzy. Oszuści wykorzystują sklonowane głosy menedżerów do autoryzacji fałszywych przelewów, co kosztuje firmy miliony dolarów. Średnie straty biznesów z powodu deepfake’ów wynoszą prawie 450 tysięcy dolarów[5], a w przypadku dużych przedsiębiorstw mogą sięgać 680 tysięcy dolarów.

Najbardziej niepokojące jest wykorzystanie technologii deepfake do tworzenia pornografii bez zgody. Według raportu z 2019 roku, aż 96% wszystkich deepfake’ów w internecie to właśnie taka treść[6], a ofiarami są przede wszystkim kobiety – od celebrytek po zwykłe osoby, których zdjęcia zostały wykorzystane bez ich wiedzy. W Korei Południowej problem ten osiągnął rozmiary epidemii, z ponad 800 zgłoszonymi przypadkami przestępstw seksualnych związanych z deepfake’ami w 2024 roku[7].

Deepfake’i to narzędzie o niezwykłym potencjale, które może służyć zarówno innowacjom w rozrywce i edukacji, jak i najbardziej szkodliwym formom oszustw i nękania. Kluczowe jest, aby społeczeństwo, regulatorzy i platformy technologiczne współpracowały nad minimalizacją szkód przy jednoczesnym zachowaniu przestrzeni dla legalnych i etycznych zastosowań tej technologii.

Borys Bednarek, Head of SEO & TL Performance Marketing

Jakie są przykłady deepfake’ów?

Historia deepfake’ów pełna jest przypadków, które zmieniły sposób, w jaki postrzegamy prawdę w erze cyfrowej. Od viralowych filmów po kampanie dezinformacyjne – poniższe przykłady pokazują pełne spektrum możliwości i zagrożeń związanych z tą technologią.

infografika przedstawiająca przykłady deepfake'ów

DeepTomCruise na TikToku – rozrywka, która otworzyła oczy światu

W lutym 2021 roku na platformie TikTok pojawiło się konto @deeptomcruise, które opublikowało serię filmów przedstawiających Toma Cruise’a wykonującego sztuczki magiczne, grającego w golfa i opowiadającego żarty o Michaile Gorbaczowie[8]. Filmy były niezwykle przekonujące – charakterystyczny śmiech aktora, jego maniery oraz głos wydawały się identyczne z oryginałem. Filmy zgromadziły łącznie ponad 11 milionów wyświetleń[9], zanim belgijski artysta efektów wizualnych Chris Umé ujawnił, że to wszystko było deepfake’iem stworzonym przy współpracy z sobowtórem Cruise’a, Milesem Fisherem. Umé spędził dwa i pół miesiąca trenując model AI na tysiącach zdjęć i filmów Toma Cruise’a z różnych kątów i w różnych warunkach oświetleniowych[10]. Ten przypadek pokazał światu, że technologia deepfake osiągnęła poziom, na którym przeciętny widz nie jest w stanie odróżnić prawdy od fałszu.

Robocall z głosem Joe Bidena – atak na demokrację

Na początku 2024 roku, tuż przed prawyborami prezydenckimi w New Hampshire, tysiące wyborców otrzymało automatyczne połączenia telefoniczne z głosem prezydenta Joe Bidena, który namawiał ich do pozostania w domu i oszczędzania głosu na wybory w listopadzie[11]. Nagranie było niesamowicie przekonujące – intonacja, a nawet lekka chrypka w głosie były identyczne z prawdziwym Bidenem.

Prezydent nigdy tego nie nagrał. Koszt stworzenia tego deepfake’u wyniósł zaledwie 1 dolar, a cały proces zajął mniej niż 20 minut[12]. To był sygnał alarmowy, pokazujący, jak łatwo i tanio można dziś przeprowadzić atak na demokratyczny proces wyborczy, wykorzystując technologię deepfake do manipulacji opinią publiczną.

Prezydent Zełenski “kapitulujący” – wojna informacyjna

W marcu 2022 roku, w szczycie rosyjskiej inwazji na Ukrainę, w internecie zaczął krążyć szokujący film. Prezydent Ukrainy Wołodymyr Zełenski, w swoim charakterystycznym stylu, przemawiał do narodu, nakazując żołnierzom złożenie broni i kapitulację przed Rosją[13]. Film trafił nawet na zhakowaną stronę ukraińskiej telewizji informacyjnej.

Zełenski szybko opublikował własne nagranie wideo, w którym zapewnił naród, że Ukraina nie ma zamiaru się poddawać. Ten przypadek pokazał, jak deepfake’i mogą być wykorzystywane jako broń w wojnie informacyjnej, mającej na celu osłabienie morale przeciwnika i wpływanie na opinię międzynarodową.

Oszustwo w firmie Arup – 25 milionów dolarów strat

W 2024 roku pracownik brytyjskiej firmy inżynieryjnej Arup uczestniczył w wideokonferencji z dyrektorem finansowym firmy i kilkoma innymi członkami zarządu. Otrzymał polecenie przelania 25 milionów dolarów na konta bankowe w Hong Kongu[14]. Przelew został zrealizowany.

Wszyscy uczestnicy spotkania – dyrektor finansowy, menedżerowie – byli wygenerowani. To był najbardziej spektakularny przypadek oszustwa z wykorzystaniem technologii deepfake, który pokazał, że nawet profesjonaliści w dużych korporacjach mogą paść ofiarą wyrafinowanych ataków wykorzystujących fałszywe nagrania wideo. Tego typu oszustwa stały się jednym z głównych zagrożeń dla bezpieczeństwa finansowego firm na całym świecie.

Taylor Swift – deepfake pornograficzny, który wstrząsnął internetem

W styczniu 2024 roku na platformie X (dawniej Twitter) pojawiły się AI-generowane, wyraźnie seksualne obrazy przedstawiające Taylor Swift[15]. Jeden z postów został wyświetlony ponad 45 milionów razy, zanim został usunięty. Obrazy powstały przy użyciu narzędzi takich jak Microsoft Designer i rozprzestrzeniły się błyskawicznie na inne platformy, w tym Facebook, Reddit i Instagram. Incydent wywołał ogromne oburzenie i spowodował, że Biały Dom wezwał do podjęcia działań przeciwko tego typu treściom. To był jeden z najbardziej głośnych przypadków wykorzystania deepfake’ów do tworzenia nielegalnej pornografii bez zgody, zjawiska, które dotyka przede wszystkim kobiety – zarówno celebrytki, jak i zwykłe osoby.

Jakie zagrożenia wynikają z deepfake’ów?

66% Amerykanów napotkało deepfake’i mające na celu wprowadzenie ich w błąd[16], co pokazuje, że technologia ta już jest potężnym narzędziem propagandy politycznej. Fałszywe nagrania polityków mogą wpływać na wyniki wyborów, podważać zaufanie do instytucji demokratycznych i wywoływać konflikty społeczne. Badania pokazują, że fałszywe informacje rozprzestrzeniają się szybciej niż prawdziwe[17], a deepfake’i, wzbudzające silne reakcje emocjonalne, są szczególnie skuteczne w tym zakresie.

Drugie zagrożenie to oszustwa finansowe na niespotykaną dotąd skalę. Przypadki takie jak przelew 25 milionów dolarów w firmie Arup[18] pokazują, że deepfake’i to nie tylko teoretyczne zagrożenie. Według badań, 49% firm globalnie doświadczyło incydentów związanych z audio lub wideo deepfake’ami w 2024 roku[19], a średnie straty wynoszą 450 tysięcy dolarów. W sektorze fintech liczba przypadków deepfake’ów wzrosła o 533% rok do roku, a w iGaming aż o 1520%[20].

Trzecie, niezwykle poważne zagrożenie to wykorzystanie seksualne i nękanie, szczególnie kobiet. Według raportu Sensity AI z 2019 roku, 96% wszystkich deepfake’ów online to pornografia, a niemal wszystkie te treści przedstawiają kobiety bez ich zgody[21]. W Korei Południowej problem deepfake’ów seksualnych osiągnął rozmiary epidemii – policja zgłosiła ponad 800 przypadków przestępstw w ciągu zaledwie siedmiu miesięcy 2024 roku, przy czym większość ofiar i sprawców to nastolatki[22]. Psychologiczne skutki bycia ofiarą takiego ataku mogą być druzgocące i długotrwałe.

Czwarte zagrożenie związane z deepfake’ami to erozja zaufania do mediów i instytucji. Jeśli nie można wierzyć własnym oczom i uszom, ludzie zaczynają kwestionować autentyczność wszystkich materiałów – nawet prawdziwych. Ten paradoks został już zaobserwowany: politycy oskarżeni o kontrowersyjne wypowiedzi czy działania mogą bronić się, twierdząc że nagrania są deepfake’ami, nawet jeśli są autentyczne. To zjawisko zwane “liar’s dividend” – oszuści zyskują możliwość zaprzeczania prawdzie.

Piąte zagrożenie to wpływ na rynek pracy i ekonomię. Fałszywe deepfake’i mogą niszczyć reputacje firm, powodować panikę na rynkach finansowych i wpływać na kursy akcji. W 2023 roku fałszywe zdjęcie AI przedstawiające eksplozję w Pentagonie spowodowało krótkotrwały spadek indeksu S&P 500[23]. Deepfake’i mogą również służyć do szpiegostwa korporacyjnego, kradzieży własności intelektualnej czy sabotażu konkurencji.

Deepfake’i mogą być wykorzystywane do tworzenia fałszywych nagrań przedstawicieli wojska lub rządów, co może prowadzić do nieporozumień międzynarodowych, a nawet konfliktów zbrojnych. Wyobraźmy sobie scenariusz, w którym deepfake przedstawiający przywódcę państwa wypowiadającego wojnę wywołuje reakcję militarną, zanim zdąży się ustalić, że nagranie było fałszywe.

Oszuści wykorzystują technologię klonowania głosu, aby przekonać seniorów, że dzwoni ich wnuk lub krewny w potrzebie, prosząc o pilny przelew pieniędzy. Według McAfee, 53% ludzi udostępnia swoje nagrania głosu online przynajmniej raz w tygodniu[24], dając przestępcom łatwy dostęp do materiału źródłowego.

W miarę jak systemy detekcji stają się lepsze, twórcy deepfake’ów rozwijają metody obchodzenia tych zabezpieczeń. To perpetuum mobile, w którym społeczeństwo zawsze pozostaje o krok w tyle. Nawet najlepsze systemy wykrywania osiągają jedynie 96% skuteczności[25], co oznacza, że 4% deepfake’ów pozostaje niewykrytych. A dla oszustów i manipulatorów te 4% to wystarczająco duża furtka.

Zagrożenia związane z deepfake’ami to teraźniejszość, z którą musimy się zmierzyć. Bez skutecznych narzędzi do wykrywania, regulacji prawnych, edukacji społeczeństwa i międzynarodowej współpracy, technologia ta może stać się jednym z najbardziej destabilizujących wynalazków naszych czasów.

FAQ

Przypisy

  1. https://www.businessinsider.in/tech/news/chris-um-who-created-tom-cruise-deepfake-videos-on-tiktok-now-owns-an-ai-company/articleshow/85170929.cms
  2. https://isabellafassiobazzi.medium.com/the-brighter-side-of-deepfakes-8dbc701a1313
  3. https://mitsloan.mit.edu/ideas-made-to-matter/deepfakes-explained
  4. https://sumsub.com/newsroom/deepfake-cases-surge-in-countries-holding-2024-elections-sumsub-research-shows/
  5. https://regulaforensics.com/blog/impact-of-deepfakes-on-idv-regula-survey/
  6. https://www.britannica.com/technology/deepfake
  7. https://en.wikipedia.org/wiki/Deepfake_pornography
  8. https://www.nbcnews.com/tech/tech-news/creator-viral-tom-cruise-deepfakes-speaks-rcna356
  9. https://fortune.com/2021/03/01/why-deepfake-creators-love-tom-cruise/
  10. https://www.cnn.com/2021/08/06/tech/tom-cruise-deepfake-tiktok-company/index.html
  11. https://arya.ai/blog/top-deepfake-incidents
  12. https://www.security.org/resources/deepfake-statistics/
  13. https://arya.ai/blog/top-deepfake-incidents
  14. https://www.security.org/resources/deepfake-statistics/
  15. https://arya.ai/blog/top-deepfake-incidents
  16. https://www.spiralytics.com/blog/deepfake-statistics/
  17. https://www.security.org/resources/deepfake-statistics/
  18. https://eithos.eu/deepfake-technology-1-history-useful-to-know/
  19. https://regulaforensics.com/blog/impact-of-deepfakes-on-idv-regula-survey/
  20. https://sumsub.com/newsroom/deepfake-cases-surge-in-countries-holding-2024-elections-sumsub-research-shows/
  21. https://www.britannica.com/technology/deepfake
  22. https://en.wikipedia.org/wiki/Deepfake_pornography
  23. https://arya.ai/blog/top-deepfake-incidents
  24. https://www.security.org/resources/deepfake-statistics/
  25. https://aimmediahouse.com/market-industry/5-ai-deepfake-detector-tools-for-2024

Formularz kontaktowy

Rozwijaj swoją firmę

we współpracy z Cyrek Digital
Wyslij zapytanie
Pola wymagane
Max Cyrek
Max Cyrek
CEO
"Do not accept ‘just’ high quality. Anyone can do that. If the sky is the limit, find a higher sky.”

Razem z całym zespołem Cyrek Digital pomagam firmom w cyfrowej transformacji. Specjalizuje się w technicznym SEO. Na działania marketingowe patrzę zawsze przez pryzmat biznesowy.

zobacz artykuły
Skontaktuj się ze mną
Masz pytania? Napisz do mnie.
Oceń tekst
Średnia ocena: artykuł nieoceniony. 0

Być może zainteresują Cię:

Mapa strony