Spis treści

05 listopada 202412 min.
Max Cyrek
Max Cyrek
Aktualizacja wpisu: 29 października 2025

Deepfake – co to jest?

Deepfake – co to jest?

Minęły czasy, gdy deepfake’i były pomysłem rodem z science fiction; od wielu lat są rzeczywistością i są jednym z najniebezpieczniejszych narzędzi w rękach cyberprzestępców. Czy jesteśmy gotowi na świat, w którym nie możemy wierzyć własnym oczom i uszom?

Z tego artykułu dowiesz się m.in.:

Najważniejsze informacje:

  • Deepfake to technologia wykorzystująca sztuczną inteligencję i głębokie uczenie do tworzenia realistycznych, ale fałszywych materiałów wideo, audio lub obrazów, które mogą przekonująco przedstawiać osoby mówiące lub robiące rzeczy, których nigdy nie zrobiły.
  • Historia deepfake’ów rozpoczęła się w 2017 roku, gdy użytkownik Reddit o pseudonimie “deepfakes” opublikował pierwsze zmanipulowane filmy pornograficzne z twarzami celebrytów, co zapoczątkowało erę masowego wykorzystania technologii deepfake w całym świecie.
  • Technologia deepfake opiera się na generative adversarial networks (GAN), gdzie dwie sieci neuronowe współpracują – jedna tworzy fałszywe obrazy, a druga próbuje je wykryć, co prowadzi do tworzenia coraz bardziej realistycznych efektów.
  • Główne rodzaje deepfake’ów obejmują: zamianę twarzy w filmach, syntezę głosu, deepfake’i całego ciała, manipulację ruchami twarzy oraz fałszywe nagrania audio, które są wykorzystywane zarówno w branży filmowej, jak i do oszustw i manipulacji opinią publiczną.
  • Regulacje prawne dotyczące deepfake’ów różnią się w zależności od kraju – niektóre państwa wprowadziły specjalne ustawy penalizujące wykorzystywanie deepfake do dezinformacji, wyłudzania pieniędzy czy tworzenia niekonsensulanej pornografii, ale większość jurysdykcji wciąż nie ma wystarczających przepisów.
  • Przeciwdziałanie deepfake’om wymaga wielowarstwowego podejścia, w tym edukacji społeczeństwa, wykorzystania narzędzi opartych na sztucznej inteligencji do wykrywania deepfake, weryfikacji źródeł informacji oraz specjalistycznej wiedzy pozwalającej rozpoznać deepfake po nienaturalnych ruchach oczu, błędach w oświetleniu czy niespójnościach obrazu i dźwięku.

Deepfake – definicja

Deepfake to syntetyczne media stworzone za pomocą sztucznej inteligencji, które przedstawiają zdarzenia lub osoby w sposób, który nigdy nie miał miejsca w rzeczywistości. Termin ten łączy słowo “deep” z angielskiego “deep learning” (głębokie uczenie) oraz “fake” (fałszywy), wskazując na wykorzystanie zaawansowanych algorytmów uczenia maszynowego do tworzenia realistycznych, ale nieprawdziwych treści.

Deepfake to sztuczne media wytworzone za pomocą algorytmów sztucznej inteligencji i głębokiego uczenia, które manipulują obrazem lub dźwiękiem w celu stworzenia realistycznych, ale całkowicie fałszywych treści wizualnych lub audio.

Definicja deepfake

Technologia deepfake wykorzystuje sieci neuronowe do analizowania ogromnych zbiorów danych i nauczenia się naśladowania mimiki twarzy, gestów, głosu oraz manierów konkretnej osoby. W praktyce oznacza to, że za jej pomocą można stworzyć przekonujące wideo pokazujące polityka wygłaszającego przemówienie, którego nigdy nie napisał, lub nagranie audio z głosem dyrektora firmy wydającego polecenia, których nigdy nie wydał. Nie trzeba nawet mówić, że potencjalne zagrożenia są ogromne, a kwestie etyczne domagają się natychmiastowego rozwiązania.

Jaka jest historia deepfake’ów?

Świat stanął w ogniu, gdy w 2024 roku pracownik firmy Arup przelał 25 milionów dolarów oszustom[1], przekonany, że rozmawia przez wideoczat z dyrektorem finansowym i kolegami z zarządu. Później okazało się, że wszyscy uczestnicy spotkania byli deepfake’ami. W 2024 roku liczba incydentów związanych z deepfake’ami wzrosła o 245% w skali roku[2], a straty firm z powodu tego typu oszustw sięgają średnio 450 tysięcy dolarów[3].

Pierwsza fala publicznej świadomości dotyczącej technologii deepfake pojawiła się w 2017 roku, gdy platformy internetowe zalały fałszywe filmy pornograficzne, w których twarze celebrytów zostały wymienione na ciała aktorów filmów dla dorosłych[4]. Od tego czasu technologia znacząco ewoluowała. W 2023 roku w internecie zostało udostępnionych ponad 500 tysięcy deepfake’ów w formie wideo i audio w mediach społecznościowych[5]. Co niepokojące, badania pokazują, że ludzie potrafią rozpoznać deepfake jedynie w 55,54% przypadków[6], co czyni tę technologię wyjątkowo skutecznym narzędziem dezinformacji.

Historia deepfake’ów to fascynująca opowieść o tym, jak technologia stworzona do badań naukowych zamieniła się w jedno z największych zagrożeń dla prawdy i bezpieczeństwa w erze cyfrowej. Wszystko zaczęło się na długo przed 2017 rokiem – już w 1997 roku naukowcy stworzyli program “Video Rewrite”, który automatycznie modyfikował nagrania wideo, aby usta mówiącej osoby synchronizowały się z inną ścieżką audio[7]. To był zalążek tego, co dziś nazywamy deepfake’ami.

Prawdziwy przełom nastąpił w 2014 roku, gdy Ian Goodfellow i jego zespół zaprezentowali światu generative adversarial networks (GAN)[8]. Ta technologia była rewolucyjna – dwa algorytmy uczące się współpracowały ze sobą niczym mistrz i uczeń. Jeden tworzył fałszywe obrazy, drugi starał się je wykryć. W tym procesie oba stawały się coraz lepsze, aż wytworzone obrazy osiągały poziom praktycznie niemożliwy do odróżnienia od rzeczywistości.

Moment, który na zawsze zmienił postrzeganie tej technologii, nadszedł jesienią 2017 roku. Użytkownik Reddit o pseudonimie “deepfakes” opublikował serię filmów pornograficznych, w których twarze znanych aktorek – Gal Gadot, Emmy Watson, Scarlett Johansson – zostały wymienione na ciała występujących w filmach dla dorosłych[9]. Dedykowany subreddit r/deepfakes błyskawicznie zyskał 90 tysięcy członków[10]. Internet eksplodował. W ciągu kilku miesięcy powstała aplikacja FakeApp, która umożliwiła każdemu tworzenie deepfake’ów bez specjalistycznej wiedzy programistycznej.

W 2018 roku technologia wkroczyła do mainstreamu. Powstały pierwsze głośne przypadki wykorzystania deepfake do dezinformacji politycznej – fałszywe wideo Baracka Obamy “wypowiadającego” obraźliwe słowa pod adresem Donalda Trumpa obiegło Internet[11]. W tym samym roku pojawiły się pierwsze przypadki oszustw finansowych – w sierpniu 2019 roku dyrektor europejskiej firmy przelał 243 tysiące dolarów oszustom, przekonany że rozmawia przez telefon ze swoim szefem, którego głos został sklonowany za pomocą technologii deepfake[12].

Od 2017 do 2023 roku liczba deepfake’ów online wzrosła o 550%, osiągając około 95 820 filmów[13]. Co więcej, według raportu z 2019 roku, aż 96% wszystkich deepfake’ów w Internecie to pornografia tworzona bez zgody osób, których wizerunki zostały wykorzystane[14]. Liczba deepfake’ów praktycznie podwajała się co sześć miesięcy.

Rok 2024 przyniósł niepokojące zjawisko masowego wykorzystywania deepfake’ów w kontekście wyborów. W krajach, w których odbywały się wybory prezydenckie, zanotowano dramatyczny wzrost incydentów: w USA o 303%, w Indiach o 280%, w Indonezji aż o 1550%[15]. W Stanach Zjednoczonych tysiące wyborców w New Hampshire otrzymało fałszywe robocalle z głosem prezydenta Bidena, zniechęcającym ich do głosowania[16]. Koszt stworzenia tego nagrania? Zaledwie 1 dolar i mniej niż 20 minut pracy.

Dziś deepfake’i to nie tylko problem technologiczny, ale społeczny. W Korei Południowej w 2024 roku zgłoszono 297 przypadków przestępstw seksualnych związanych z deepfake’ami w ciągu zaledwie siedmiu miesięcy – niemal dwukrotnie więcej niż w całym 2021 roku[17]. Technologia, która miała służyć nauce i rozrywce, stała się narzędziem wykorzystywanym do manipulacji opinią publiczną, oszustw finansowych i nękania ludzi, zwłaszcza kobiet.

Jak działa deepfake?

Jeśli kiedykolwiek zastanawiałeś się, jak możliwe jest stworzenie wideo, w którym Tom Cruise wykonuje sztuczki karciane na TikToku (a nie jest to prawdziwy Tom Cruise), odpowiedzią są generative adversarial networks – technologia, która brzmi jak coś z filmu science fiction, ale działa całkowicie realnie.

Wyobraź sobie dwóch artystów AI pracujących razem. Pierwszy – nazwijmy go “Fałszerzem” – uczy się tworzyć fałszywe obrazy lub nagrania wideo. Drugi – “Detektywem” – próbuje wykryć, które obrazy są fałszywe. Fałszerz tworzy obraz, Detektyw go ocenia i wskazuje błędy. Fałszerz poprawia się, tworzy lepszy obraz. Detektyw znowu szuka błędów. Ten proces powtarza się tysiące razy, aż Fałszerz staje się tak dobry, że Detektyw nie potrafi już odróżnić prawdziwych obrazów od fałszywych. I właśnie tak powstaje deepfake.

Ale to dopiero początek. Aby stworzyć przekonujący deepfake konkretnej osoby, algorytmy potrzebują danych – dużo danych. System musi przeanalizować setki, a czasem tysiące zdjęć i filmów tej osoby, aby nauczyć się jej unikalnych cech: jak poruszają się mięśnie twarzy, gdy się uśmiecha, jak unosi brwi, jak nachyla głowę. Wszystkie te szczegóły są mapowane i zapamiętywane przez sieci neuronowe.

Obecnie najbardziej popularnym narzędziem do tworzenia deepfake’ów jest DeepFaceLab – oprogramowanie open source, które według niektórych źródeł odpowiada za ponad 95% wszystkich deepfake’ów wideo w internecie[18]. Program wykorzystuje autoencodery do analizowania obrazu twarzy i rekonstruowania jej w nowym kontekście. Proces ten wymaga sporej mocy obliczeniowej, ale dzięki postępom w technologii GPU (procesorów graficznych), to co kiedyś wymagało dni obliczeń, dziś można zrobić w godziny.

W przypadku deepfake’ów audio sprawa wygląda nieco inaczej. Technologie takie jak WaveNet, Tacotron czy DeepVoice analizują charakterystyczne cechy głosu – wysokość, ton, tempo mówienia, akcent – i potrafią je odtworzyć z zaledwie trzech sekund oryginalnego nagrania, osiągając 85% zgodności[19]. To właśnie dzięki tej technologii oszuści mogą zadzwonić do pracownika firmy, podszywając się pod jego szefa i polecić przelew pieniędzy.

Kluczową rolę w tworzeniu realistycznych efektów wizualnych odgrywa również tzw. face mapping – technologia mapowania punktów charakterystycznych twarzy. System identyfikuje do 70 różnych punktów na twarzy (kąciki oczu, ust, nos, linia szczęki) i śledzi ich ruchy w czasie rzeczywistym. Następnie te same ruchy są aplikowane na twarz innej osoby, zachowując naturalne proporcje i mimikę.

Najnowsze osiągnięcia w dziedzinie deepfake’ów pozwalają już na tworzenie realistycznych obrazów i filmów w czasie rzeczywistym. Intel opracował system FakeCatcher, który analizuje “przepływ krwi” w pikselach wideo i potrafi wykryć deepfake’a w czasie rzeczywistym z dokładnością 96%[20]. To pokazuje, jak dynamicznie rozwija się zarówno technologia tworzenia, jak i wykrywania deepfake.

Deepfake’i przestały być domeną ekspertów z zakresu sztucznej inteligencji. Dziś każdy z podstawową wiedzą technologiczną i dostępem do łatwo dostępnych narzędzi może stworzyć przekonujący deepfake w ciągu kilku godzin. To demokratyzacja technologii, która niesie ze sobą ogromne zagrożenia związane z manipulacją, dezinformacją i oszustwami.

Borys Bednarek, Head of SEO & TL Performance Marketing

Jakie są rodzaje deepfake’ów?

Świat deepfake’ów to nie jeden jednolity typ manipulacji – to cały ekosystem różnych technik, z których każda służy innemu celowi i wykorzystuje inne metody działania. Zrozumienie tych kategorii jest kluczowe dla skutecznego wykrywania i przeciwdziałania zagrożeniom związanym z tą technologią.

infografika przedstawiająca rodzaje deepfake'ów

Face swap – zamiana twarzy

To najbardziej rozpoznawalny rodzaj deepfake’u, w którym twarz jednej osoby zostaje nałożona na ciało innej w nagraniu wideo. Technologia wykorzystuje algorytmy uczenia maszynowego do analizowania ruchów twarzy i ich realistycznego przenoszenia. Właśnie ta metoda była używana w pierwszych deepfake’ach pornograficznych z 2017 roku oraz w wirusowych filmach z TikToka pokazujących “Toma Cruise’a”. W praktyce oznacza to, że możliwe jest umieszczenie twarzy prezydenta kraju na ciele aktora w filmie propagandowym, co stanowi poważne zagrożenie dla manipulacji opinią publiczną i wpływu na wyniki wyborów.

Voice cloning – klonowanie głosu

Deepfake’i audio wykorzystują techniki syntezy mowy do odtworzenia głosu konkretnej osoby. Według badań McAfee, aż 53% ludzi udostępnia swoje nagrania głosu online co najmniej raz w tygodniu[21], co daje oszustom łatwy dostęp do materiału źródłowego. Wystarczy zaledwie 3 sekundy nagrania, aby stworzyć klona głosu z 85% zgodnością. Ta metoda jest najczęściej wykorzystywana do oszustw finansowych – w 2019 roku liczba ataków wykorzystujących sklonowane głosy znacząco wzrosła, a straty firm sięgają milionów dolarów.

Full body deepfake – deepfake całego ciała

Bardziej zaawansowana forma manipulacji, która nie ogranicza się do twarzy, ale odtwarza ruchy całego ciała innej osoby. Technologia wykorzystuje zaawansowane modele głębokiego uczenia do śledzenia i replikowania gestów, sposobu chodzenia i poruszania się. Ta metoda jest szczególnie niebezpieczna w kontekście tworzenia fałszywych materiałów wideo udziałem znanych osób publicznych lub wykorzystywania ich w kampaniach dezinformacji.

Lip-sync deepfake – synchronizacja ruchu warg

Ten rodzaj deepfake’u modyfikuje ruchy ust osoby na nagraniu, aby pasowały do innej ścieżki audio. Program “Synthesizing Obama” z 2017 roku był jednym z pierwszych przykładów tej technologii, tworząc fotorealistyczne filmy z Barackiem Obamą “wypowiadającym” słowa, których nigdy nie powiedział. Metoda ta jest wykorzystywana zarówno w branży filmowej do tworzenia efektów specjalnych, jak i do produkcji fałszywych informacji w kampaniach politycznych.

Puppet-master deepfake – kontrola ruchów twarzy

Najbardziej zaawansowana forma deepfake’u, która pozwala na kontrolowanie mimiki twarzy osoby w czasie rzeczywistym. Badacze z Face2Face w 2016 roku stworzyli system, który pozwalał na przenoszenie ekspresji twarzy jednej osoby na drugą w czasie rzeczywistym podczas rozmowy wideo. Ta technologia stanowi ogromne zagrożenie dla bezpieczeństwa weryfikacji tożsamości w systemach bankowości elektronicznej i spotkań biznesowych online.

Text-based deepfake – fałszywe treści tekstowe

Choć mniej spektakularne niż wideo czy audio, deepfake’i tekstowe wykorzystują modele językowe AI do generowania przekonujących fałszywych treści, które mogą imitować styl pisania konkretnej osoby. Badania pokazują, że ludzie potrafią wykryć zmanipulowane teksty tylko w 57% przypadków[22], co czyni tę formę szczególnie trudną do zidentyfikowania.

Jakie prawa regulują deepfake’i?

Świat prawa dopiero nadgania technologię deepfake, a regulacje prawne różnią się dramatycznie w zależności od kraju i kontynentu. To prawdziwy wyścig z czasem – podczas gdy technologia rozwija się w tempie wykładniczym, systemy prawne, znane z swojej ostrożności i długotrwałych procesów legislacyjnych, próbują za nią nadążyć.

W Stanach Zjednoczonych sytuacja jest mocno pofragmentowana. Nie istnieje jedno federalne prawo regulujące deepfake’i, ale kilka stanów wprowadziło własne przepisy. Kalifornia, jako pierwszy stan, przyjęła w 2019 roku AB-730, które zabrania publikowania deepfake’ów polityków w okresie 60 dni przed wyborami z zamiarem manipulacji opinią publiczną. Stan ten ma również przepisy chroniące osoby przed wykorzystaniem ich wizerunku w pornografii deepfake bez zgody. Teksas poszedł o krok dalej, penalizując tworzenie i dystrybucję deepfake’ów z intencją oszustwa lub krzywdzenia innych. Virginia w 2019 roku jako pierwszy stan zakazała tzw. “revenge porn” w formie deepfake’ów.

Unia Europejska przyjęła bardziej kompleksowe podejście. Digital Services Act (DSA), który wszedł w pełni w życie w 2024 roku, nakłada na duże platformy cyfrowe obowiązek identyfikowania i oznaczania treści generowanych przez AI, w tym deepfake’ów. Rozporządzenie AI Act, przełomowa regulacja przyjęta w 2024 roku, klasyfikuje systemy AI służące do tworzenia deepfake’ów jako “wysokie ryzyko” i wymaga przejrzystości – każdy deepfake musi być wyraźnie oznaczony jako treść syntetyczna. Ponadto RODO (GDPR) chroni obywateli UE przed nieuprawnionym wykorzystaniem ich danych biometrycznych, co obejmuje wykorzystanie twarzy lub głosu w deepfake’ach.

W Wielkiej Brytanii prawo jest jeszcze na etapie rozwoju, ale istniejące przepisy jak Protection from Harassment Act czy Malicious Communications Act mogą być stosowane w przypadkach wykorzystania deepfake’ów do nękania. Online Safety Bill, który przeszedł przez parlament w 2023 roku, nakłada na platformy internetowe obowiązek ochrony użytkowników przed szkodliwymi treściami, w tym deepfake’ami.

Chiny, pomimo reputacji kraju o ścisłej kontroli Internetu, wprowadziły jedne z pierwszych szczegółowych regulacji dotyczących deepfake’ów już w 2020 roku. Prawo wymaga, aby wszystkie deepfake’i były wyraźnie oznaczone i zabrania ich wykorzystania do rozprzestrzeniania fałszywych informacji. Naruszenie tych przepisów może skutkować wysokimi grzywnami i karami więzienia.

Korea Południowa zareagowała na epidemię deepfake’ów pornograficznych wprowadzając w wrześniu 2024 roku radykalne zmiany w prawie. Nowe przepisy penalizują nie tylko tworzenie i dystrybucję, ale nawet samo posiadanie lub oglądanie deepfake’ów seksualnych[23]. W kraju tym odnotowano ponad 800 przypadków przestępstw związanych z deepfake’ami do końca września 2024 roku, co stanowi drastyczny wzrost z 156 przypadków w 2021 roku.

Problem w tym, że prawo międzynarodowe praktycznie nie istnieje w tym zakresie. Deepfake stworzony w jednym kraju może błyskawicznie rozprzestrzenić się globalnie przez internet, podczas gdy sprawcy mogą działać z jurysdykcji, która nie ma żadnych przepisów dotyczących tej technologii. To tworzy “szarą strefę”, w której oszuści i manipulatorzy czują się bezkarni.

Dodatkowo, w wielu krajach istniejące przepisy dotyczące zniesławienia, oszustwa czy naruszenia prywatności teoretycznie mogą być stosowane wobec twórców deepfake’ów, ale w praktyce egzekwowanie tych praw jest niezwykle trudne. Problemy z atrybucją (ustaleniem, kto stworzył deepfake’a), transgranicznym charakterem przestępstw i szybkością rozprzestrzeniania się treści w internecie sprawiają, że wymiar sprawiedliwości często pozostaje w tyle.

Jak przeciwdziałać deepfake’om?

Walka z deepfake’ami to nie pojedyncze rozwiązanie, ale cały arsenał strategii obronnych, które muszą działać równolegle. 49% firm globalnie doświadczyło incydentów związanych z audio lub wideo deepfake’ami w 2024 roku[24], przeciwdziałanie tym zagrożeniom stało się priorytetem dla organizacji na całym świecie.

Pierwsza linia obrony to edukacja społeczeństwa. Badania pokazują, że aż 71% ludzi nie wie, czym są deepfake’i[25]. To przerażająca statystyka, biorąc pod uwagę, że 66% Amerykanów napotkało zmanipulowane filmy i obrazy mające na celu wprowadzenie ich w błąd[26]. Programy edukacyjne powinny uczyć ludzi rozpoznawać podstawowe znaki ostrzegawcze: nienaturalne ruchy oczu, dziwne odbleski w okularach, niespójności w oświetleniu, niesynchronizację między ruchami warg a dźwiękiem. Jednak badania pokazują, że nawet trening zwiększa skuteczność wykrywania jedynie o 3,84%[27], co podkreśla, że sama edukacja nie wystarczy.

Drugim filarem są technologie wykrywania oparte na sztucznej inteligencji. Powstaje cały ekosystem narzędzi do wykrywania deepfake. Intel’s FakeCatcher wykorzystuje unikalną metodę analizowania “przepływu krwi” w pikselach wideo i osiąga 96% dokładności w czasie rzeczywistym[28]. Sensity’s Sentinel oferuje wykrywanie w chmurze z wykorzystaniem analizy punktów charakterystycznych twarzy, sprawdzania spójności czasowej i detekcji migotania. Microsoft Video Authenticator analizuje granice łączenia i subtelne elementy w skali szarości niewidoczne dla ludzkiego oka. TrueMedia.org, platforma non-profit stworzona w odpowiedzi na wybory w USA w 2024 roku, oferuje darmowe narzędzie do wykrywania deepfake z dokładnością ponad 90%[29].

Reality Defender, która otrzymała 15 milionów dolarów finansowania w rundzie Series A i została finalistą RSAC 2024 Innovation Sandbox, używa probabilistycznego wykrywania i może analizować treści wideo, obrazy, audio i tekst bez potrzeby wcześniejszego uwierzytelniania[30]. Platformy te wykorzystują zaawansowane algorytmy uczenia maszynowego trenowane na ogromnych zbiorach danych zawierających zarówno prawdziwe, jak i fałszywe materiały.

Zadbać należy o wielowarstwowe podejście do weryfikacji tożsamości w organizacjach. Według badań, 80% firm nie ma protokołów obsługi ataków deepfake[31], a 52% organizacji nie jest pewnych, czy rozpoznałoby deepfake’a swojego CEO[32]. Skuteczne przeciwdziałanie wymaga implementacji metod weryfikacji wieloczynnikowej: połączeń zwrotnych na znane numery, tajnych haseł uzgodnionych wcześniej, systemów blockchain do autentykacji mediów, czy cyfrowych znaków wodnych osadzanych w oryginalnych treściach.

Ważna jest też budowa kultury sceptycyzmu informacyjnego. W dobie, gdy ludzie mogą wykryć wysokiej jakości deepfake’i wideo tylko w 24,5% przypadków[33], kluczowe staje się weryfikowanie informacji z wielu niezależnych źródeł, sprawdzanie wiarygodności nadawcy i zachowanie zdrowej dozy krytycyzmu wobec szokujących treści – zwłaszcza tych wywołujących silne emocje i presję czasu.

Wdrażanie systemów Content Authenticity Initiative (CAI), która wykorzystuje metadane i kryptografię do śledzenia pochodzenia mediów cyfrowych. Serwisy społecznościowe zaczynają oznaczać treści generowane przez AI, choć enforcement tych polityk pozostawia wiele do życzenia.

Wreszcie, współpraca międzysektorowa i międzynarodowa to klucz do skutecznego przeciwdziałania zagrożeniom. Według Gartner, deepfake’i w biometrii twarzy skłaniają przedsiębiorstwa do przyjmowania bardziej solidnych podejść[34]. Należy rozwijać międzynarodowe standardy wykrywania i autentykacji, organizować konkursy na tworzenie skuteczniejszych narzędzi detekcji (jak konkurs z 2019 roku, który przyciągnął ponad 2000 uczestników i wygenerował 35 000 modeli[35]), oraz budować bazy danych znanych deepfake’ów do trenowania systemów wykrywania.

FAQ

Przypisy

  1. https://www.security.org/resources/deepfake-statistics/
  2. https://sumsub.com/newsroom/deepfake-cases-surge-in-countries-holding-2024-elections-sumsub-research-shows/
  3. https://regulaforensics.com/blog/impact-of-deepfakes-on-idv-regula-survey/
  4. https://en.wikipedia.org/wiki/Deepfake
  5. https://www.britannica.com/technology/deepfake
  6. https://www.sciencedirect.com/science/article/pii/S2451958824001714
  7. https://en.wikipedia.org/wiki/Deepfake
  8. https://www.realitydefender.com/insights/history-of-deepfakes
  9. https://www.eyerys.com/articles/timeline/reddit-user-starts-deepfake
  10. https://timreview.ca/article/1282
  11. https://eithos.eu/deepfake-technology-1-history-useful-to-know/
  12. https://eithos.eu/deepfake-technology-1-history-useful-to-know/
  13. https://sqmagazine.co.uk/deepfake-statistics/
  14. https://www.britannica.com/technology/deepfake
  15. https://sumsub.com/newsroom/deepfake-cases-surge-in-countries-holding-2024-elections-sumsub-research-shows/
  16. https://www.security.org/resources/deepfake-statistics/
  17. https://sqmagazine.co.uk/deepfake-statistics/
  18. https://www.security.org/resources/deepfake-statistics/
  19. https://www.security.org/resources/deepfake-statistics/
  20. https://www.security.org/resources/deepfake-statistics/
  21. https://www.europol.europa.eu/cms/sites/default/files/documents/Europol_Innovation_Lab_Facing_Reality_Law_Enforcement_And_The_Challenge_Of_Deepfakes.pdf
  22. https://www.sciencedirect.com/science/article/pii/S2451958824001714
  23. https://en.wikipedia.org/wiki/Deepfake_pornography
  24. https://regulaforensics.com/blog/impact-of-deepfakes-on-idv-regula-survey/
  25. https://www.spiralytics.com/blog/deepfake-statistics/
  26. https://www.spiralytics.com/blog/deepfake-statistics/
  27. https://www.sciencedirect.com/science/article/pii/S2451958824001714
  28. https://aimmediahouse.com/market-industry/5-ai-deepfake-detector-tools-for-2024
  29. https://aimmediahouse.com/market-industry/5-ai-deepfake-detector-tools-for-2024
  30. https://socradar.io/top-10-ai-deepfake-detection-tools-2025/
  31. https://www.security.org/resources/deepfake-statistics/
  32. https://www.eftsure.com/statistics/deepfake-statistics/
  33. https://sqmagazine.co.uk/deepfake-statistics/
  34. https://www.eftsure.com/statistics/deepfake-statistics/
  35. Https://www.gao.gov/products/gao-24-107292

Formularz kontaktowy

Rozwijaj swoją firmę

we współpracy z Cyrek Digital
Wyslij zapytanie
Pola wymagane
Max Cyrek
Max Cyrek
CEO
"Do not accept ‘just’ high quality. Anyone can do that. If the sky is the limit, find a higher sky.”

Razem z całym zespołem Cyrek Digital pomagam firmom w cyfrowej transformacji. Specjalizuje się w technicznym SEO. Na działania marketingowe patrzę zawsze przez pryzmat biznesowy.

zobacz artykuły
Skontaktuj się ze mną
Masz pytania? Napisz do mnie.
Oceń tekst
Średnia ocena: artykuł nieoceniony. 0

Być może zainteresują Cię:

Mapa strony