
Co to jest DeepFake? Połączenie fałszu ze sztuczną inteligencją
Nazwa Deepfake pochodzi od zbitki dwóch anglojęzycznych terminów – deep learning („głębokie uczenie”, gałąź technologii uczenia maszynowego) oraz fake, czyli „fałszywy”.
Najprostszą odpowiedzią na pytanie, co to jest DeepFake będzie to, że jest to technika obróbki obrazu, która polega na połączeniu ze sobą obrazów twarzy ludzkich przy użyciu sztucznej inteligencji.
Jak działa technologia DeepFake? W telegraficznym skrócie polega to na tym, że obraz twarzy jednej osoby nakładany jest na obraz twarzy innej osoby z uwzględnieniem jej mimiki oraz ruchów ciała. Technologia ta pojawiła się w 2017 roku wraz z opublikowaniem filmów pornograficznych, w których twarze aktorek zostały podmienione na twarze celebrytek. m.in. Gal Gadot, Maisie Willliams i Taylor Swift.
Od tamtej pory, wraz z rozwojem tej technologii, lawinowo przyrasta ilość DeepFaków w internecie. Przypadki użycia DeepFake można podzielić w ramach celu, który przyświeca twórcom danego filmiku:
- rozrywkowe – mają rozbawić widownie, dotyczą z reguły postaci fikcyjnych znanych z popkultury,
- edukacyjne – wykorzystywane m.in. do krzewienia informacji dotyczących zagrożeń, które niesie ze sobą technologia DeepFake,
- dezinformacyjne – fake newsy, mają za zadanie wprowadzać odbiorców w błąd
- dyskredytujące – mają za zadanie ośmieszyć lub skompromitować określone osoby, lub organizacje.
Coraz większa popularność tej technologii wiąże się również z rosnącą świadomością, czym są zagrożenia deepfake i jakie mogą mieć konsekwencje w życiu codziennym.
Vid 1. na kanale YouTube BuzzFeedVideo, w którym na twarz aktora za pomocą technologii DeepFake nałożono twarz Baracka Obamy. Film miał na celu edukację odbiorców na temat zagrożeń płynących z możliwości wykorzystania sztucznej inteligencji do tworzenia fake newsów.
Sztuczna inteligencja i manipulacja obrazem idą ze sobą doskonale w parze. Dlatego też technologia DeepFake, nieustannie rozwija się i dzisiaj pomału obcowanie z jej wytworami w internecie staje się naszą codziennością.
Wystarczy spojrzeć na to, jak sztuczna inteligencja w wyszukiwarce Google czy Bing zaczyna być implementowana i jak zmienia obraz tego, jak wyszukujemy rzeczy w internecie.
DeepFake a cyberbezpieczeństwo
Błyskawiczny rozwój sztucznej inteligencji pozwala zakładać, że produkcje wideo wykorzystujące technologię DeepFake wkrótce staną się niemożliwe do odróżnienia od materiałów rzeczywistych.
Wpływ DeepFake na bezpieczeństwo na poziomie globalnym, międzynarodowym, jak i pojedynczych jednostek może być olbrzymi. Technologia ta może zostać wykorzystana m.in. do manipulowania opinią publiczną lub propagowania nieprawdziwych informacji wśród społeczności, co znacząco zwiększa zagrożenia deepfake w skali globalnej:
- w kwestiach politycznych, wykorzystanie wizerunku polityków do kreowania fake newsów może doprowadzić do skandali dyplomatycznych oraz wzrostu napięć między państwami. W skrajnych wypadkach może dojść np. do wypowiedzenia wojny lub zapowiedzi wykorzystania broni masowego rażenia;
- DeepFake może przyczynić się również do szerzenia dezinformacji i chaosu w tym do manipulowania opinią publiczną lub propagowaniu nieprawdziwych informacji wśród społeczności, wykorzystując do tego wizerunek uznawanych autorytetów naukowych;
- do 2019 roku 96% filmów wykorzystujących technologię DeepFake zawierało treści pornograficzne. Powstał szereg aplikacji wykorzystujących tę technologię, które mogą być używane bez wiedzy i zgody ofiar do generowania treści pornograficznych z ich udziałem;
- treści generowane przy pomocy technologii DeepFake mogą być wykorzystywane do szantażu, wyłudzeń, niszczenia reputacji i naruszania dóbr osobistych.
Jak widzisz, etyczne aspekty DeepFake i wykorzystania tej technologii rodzą wiele kontrowersji.
Technologia DeepFake może być wykorzystana w celach komercyjnych, nie łamiąc przy tym norm etycznych. Przykładem może być wykorzystanie wizerunku zmarłych aktorów podczas realizacji nagrań do nowego filmu.
Wykorzystanie technologii DeepFake do tego, aby dokończyć film i tym samym nie zmarnować kapitału wykorzystanego do jego nakręcenia, jednocześnie oddając hołd zmarłemu aktorowi przy jednoczesnej zgodzie spadkobierców jego wizerunku, zdaje się nie wzbudzać kontrowersji natury etycznej. Niemniej jednak, jak w przypadku każdej technologii – w niewłaściwych rękach, DeepFake może wyrządzić wiele krzywd i stanowi realne niebezpieczeństwo dla nas wszystkich.
Przypadki użycia DeepFake
Przypadki użycia DeepFake w przestrzeni publicznej są coraz częstsze i również coraz częściej wykorzystywane są do szerzenia dezinformacji lub wyłudzeń. Technologia DeepFake nie pozostaje również obojętna na brand safety Twojej marki, w końcu może zostać wykorzystana nie tylko do dyskredytowania osób, ale również całych firm i związanych z nimi brandów.
Deepfake a d dezinformacja
Przykładów prób szerzenia dezinformacji przy pomocy technologii DeepFake nie trzeba szukać daleko. W trakcie konfliktu Rosji oraz Ukrainy technologia ta wykorzystywana jest nader często.
Pierwszym przykładem DeepFake’a w trakcie konfliktu był opublikowany w marcu 2022 roku filmik, na którym fikcyjny prezydent Ukrainy ogłaszał kapitulację. W tym przypadku słaba jakość nagrania ewidentnie wskazująca na nieprawdziwość nagrania oraz edukacja i wyczulenie społeczeństwa na tego typu próby manipulacji sprawiła, że filmiku nikt nie potraktował poważnie.
DeepFake w nieodpowiednich rękach osób o złych intencjach może być wykorzystywany do szerzenia nieprawdziwych informacji oraz manipulowania opinią społeczną. Nawet słabe jakościowo nagrania mogą być niebezpieczne i wyrządzić nieodwracalne szkody w społeczeństwach.
Wideo wygenerowane przy pomocy technologii DeepFake może dyskredytować polityków, niszczyć fortuny zbudowane przez wpływowych biznesmenów, a nawet wywoływać konflikty. Dlatego też umiejętność krytycznego myślenia i selekcji informacji jest w dzisiejszych czasach kluczowa.
Wyłudzenia na wnuczka, policjanta i sztuczną inteligencję
Wyobraź sobie, że dzwoni do Ciebie Twój znajomy. Prosi Cię o przesłanie kilkunastu złotych, ale nie za pomocą aplikacji bankowej, ale poprzez kliknięcie linku, który przesyła w wiadomości.
Problem w tym, że przez telefon trudno jest zobaczyć to, jak ktoś wygląda, ale przynajmniej słyszysz głos, który nijak ma się do tego, jak brzmi Twój znajomy. Co, jednak gdyby połączenie oprócz dźwięku zawierałoby również obraz video, na którym rozpoznałbyś swojego znajomego, a głos w głośniku Twojego telefonu brzmiałby dokładnie tak, jak głos Twojego znajomego?
Z DeepFake taki scenariusz jest możliwy. Przy pomocy dzisiejszej technologii wystarczy tylko kilkanaście sekund nagrania mowy, aby pomyślnie skopiować i wygenerować bota mówiącego głosem dowolnej osoby na świecie.
Wystarczy więc tak naprawdę kilkunastosekundowy filmik z wakacji, na którym widać i słychać Cię lub dowolną osobę z Twojego kręgu znajomych, lub rodziny, aby wykorzystać to nagranie do podjęcia próby wyłudzenia lub szantażu.
Sprawdź czym jest internetowy scam i jak go odróżnić od prawdziwej okazji!
Manipulowanie opinią publiczną
Jednym z najnowszych przypadków wykorzystania DeepFake jest viralowe nagranie, w którym znane gwiazdy rzekomo bojkotują Kanye Westa. Wideo przedstawia m.in. Scarlett Johansson, Brada Pitta i Jennifer Aniston, którzy wyrażają swoje oburzenie wobec kontrowersyjnych wypowiedzi rapera. Materiał szybko rozprzestrzenił się w mediach społecznościowych, zdobywając miliony wyświetleń.
Problem w tym, że żadne z tych nagrań nie jest prawdziwe. To w pełni syntetyczne wypowiedzi wygenerowane za pomocą AI, które na pierwszy rzut oka wyglądają niezwykle realistycznie. Scarlett Johansson była jedną z pierwszych osób, które oficjalnie skomentowały sytuację, podkreślając, że nigdy nie wypowiadała się na temat Westa i że jest to przykład niebezpiecznego nadużycia technologii.
Vid. 2. Film na kanale YouTube przedstawiający realistycznie wyglądające nagranie, w którym znani celebryci, tacy jak Scarlett Johansson, Adam Sandler i Jerry Seinfeld, rzekomo jednoczą się w kampanii przeciwko Kanye Westowi, potępiając jego antysemickie wypowiedzi. W rzeczywistości nagranie zostało w całości wygenerowane przez sztuczną inteligencję
Przypadek ten pokazuje, jak łatwo dziś zmanipulować opinię publiczną i stworzyć alternatywną rzeczywistość. Choć nagranie miało raczej satyryczny charakter, otworzyło dyskusję na temat odpowiedzialności za treści generowane przez AI. Czy powinniśmy traktować takie materiały jako formę żartu, czy raczej jako groźne narzędzie dezinformacji?
DeepFake przestaje być tylko ciekawostką – to realna broń w rękach tych, którzy chcą wpływać na rzeczywistość.
Prawo i etyka DeepFake
DeepFake to technologia, która wzbudza coraz większe obawy zarówno pod kątem prawnym, jak i etycznym. W wielu krajach nie istnieją jeszcze jednoznaczne regulacje określające granice dopuszczalnego wykorzystania tej technologii. Jednak Unia Europejska podjęła już kroki w celu uporządkowania tej kwestii w ramach AI Act – pierwszego kompleksowego aktu prawnego regulującego sztuczną inteligencję.
AI Act (Akt o Sztucznej Inteligencji) to unijna regulacja, której celem jest stworzenie jasnych zasad dotyczących użycia AI w różnych sektorach. Dokument ten klasyfikuje zastosowania AI według poziomu ryzyka – od minimalnego do niedopuszczalnego. DeepFake został uznany za jedną z technologii wysokiego ryzyka, co oznacza, że podlega szczególnym ograniczeniom.
Zgodnie z AI Act:
- Użytkownicy DeepFake będą musieli wyraźnie oznaczać, że treść została wygenerowana przez AI, co ma zapobiegać dezinformacji i oszustwom.
- Zakazane będą DeepFake’i wykorzystywane do manipulacji opinią publiczną, zwłaszcza w kontekście politycznym i wyborczym.
- Firmy korzystające z DeepFake w reklamie lub marketingu będą musiały spełnić dodatkowe wymogi przejrzystości, aby konsumenci byli świadomi, że treść nie jest autentyczna.
To krok w kierunku większej odpowiedzialności, ale wciąż pozostaje wiele pytań o egzekwowanie tych przepisów i ich skuteczność w walce z nadużyciami.
W Polsce od 2 lutego 2025 obowiązują niektóre przepisy AI Act, ale na wprowadzenie do porządku prawnego przepisów dotyczących Deepfake musimy jeszcze poczekać. Z tego powodu trzeba bazować na istniejących już przepisach prawa cywilnego i karnego. Przykładowo, wykorzystanie technologii Deepfake zostać podciągnięte pod naruszenie dóbr osobistych poprzez spreparowanie zdjęcia, filmu lub nagrania głosu zgodnie z Kodeksem Cywilnym.
Dodatkowo, jeżeli nagrania zostaną wykorzystane do popełnienia przestępstwa takiego jak oszustwo, wyłudzenie lub szantaż odpowiednie organy mogą wszcząć postępowanie, aby ukarać sprawców na drodze postępowania karno-sądowego.
Oprócz kwestii prawnych pojawia się także problem etyczny. DeepFake może być wykorzystywany do manipulowania opinią publiczną, szantażu czy niszczenia reputacji osób publicznych i prywatnych. Czy społeczeństwo jest gotowe na rzeczywistość, w której nie można już wierzyć własnym oczom? Jak odróżnić prawdę od technologicznej iluzji? To pytania, na które nie ma jeszcze jednoznacznych odpowiedzi.
Z nami Twoja komunikacja nabierze sensu!
Jak rozpoznać DeepFake?
Wraz z rozwojem sztucznej inteligencji rozpoznawanie DeepFake może stawać się coraz trudniejsze. O tym, jak sprawdzić, czy grafika została wygenerowana przez AI, pisaliśmy tu. Jeżeli chodzi o filmy, też istnieje kilka wskazówek, którymi warto kierować się, gdy natrafimy na podejrzane treści w internecie.
Treść nagrania
W pierwszej kolejności zwróć uwagę na treść nagrania. Twój zdrowy rozsądek oraz ogólna wiedza o otaczającym Cię świecie mogą okazać się pomocne przy wykrywaniu zmanipulowanych nagrań. Jeżeli treść nagrania i słowa padające z niego są niewiarygodne lub nie pasują do konkretnej osoby, która zdaje się przemawiać na filmiku, możesz zacząć podejrzewać, że do czynienia masz z DeepFakem, a nie rzeczywistym nagraniem.
Nienaturalne ruchy i mimika na filmie
Sztuczna inteligencja i manipulacja obrazem to stosunkowo nowe połączenie. Dlatego też technologia ta jeszcze niekoniecznie dobrze radzi sobie ze skomplikowaną mimiką i odwzorowaniem mikroekspresji, takich jak drgnięcia ust, mrugnięcia czy ruchy związane z poruszaniem głową.
Jeszcze większe problemy technologia DeepFake ma z odwzorowaniem ruchów dłoni , palców itd. dlatego najczęściej wykorzystywane są filmiki, w których pojawia się wyłącznie tułów wraz z głową.
Jeżeli uważnie przyjrzysz się DeepFakom zauważysz punktowe rozmycia na twarzy lub na jej krawędziach. Pomocne w ich zauważeniu może okazać się bardzo powolne odtwarzanie filmu, np. klatka po klatce. Pomocne tutaj okazać się może bezpłatne narzędzie watchframebyframe.com.
Czy Deepfake zagraża marketingowi?
Technologia DeepFake bez wątpienia wpłynie na to, jak wygląda świat dookoła nas. Miejmy nadzieję jednak, że nie poprzez to, jak wykorzystywana będzie przez nieodpowiednie osoby do działalności przestępczej lub nawet terrorystycznej.
DeepFake może również zrobić wiele dobrego np. w świecie marketingu internetowego. Przykładem może być reklama mająca na celu szerzenie świadomości na temat malarii z wykorzystaniem wizerunku Davida Beckhama mówiącego w dziewięciu językach.
Kolejnym zastosowaniem technologii może być branża eventowa lub artystyczna. Na ten przykład w Dali Museum w Petersburgu goście witani są przez samego Salvadora Dali, którego wizerunek stworzony został właśnie przy pomocy technologii DeepFake oraz ponad 6 tysiącom klatek pochodzących z nagranych wywiadów z malarzem. Dodatkowo postać malarza jest interaktywna, a samo video posiada ponad 190 tysięcy możliwych reakcji zależących od tego, w jaki sposób na powitanie zareagują wchodzący do muzeum goście.
Technologia DeepFake pozwala też na znaczną redukcję kosztów produkcji reklam. W branży modowej marki mogą generować realistyczne obrazy i filmy bez konieczności organizowania drogich sesji zdjęciowych, wynajmowania modeli czy rezerwowania studia. Dzięki DeepFake możliwe jest szybkie tworzenie kampanii promocyjnych, w których cyfrowo wygenerowane twarze znanych osób prezentują produkty, nawet bez ich fizycznego udziału. Firmy mogą też dostosowywać treści do różnych grup odbiorców, np. prezentując ubrania na modelach o różnych sylwetkach i karnacjach, co zwiększa personalizację i dociera do szerszej publiczności.
Z drugiej strony, wykorzystanie DeepFake w marketingu budzi wątpliwości etyczne i może prowadzić do utraty zaufania konsumentów. Jeśli klienci dowiedzą się, że twarz influencera w reklamie nie należy do prawdziwej osoby, lecz została wygenerowana przez AI, mogą poczuć się oszukani. DeepFake stwarza również ryzyko oszustw – fałszywe recenzje produktów czy reklamy z udziałem rzekomych celebrytów mogą wprowadzać odbiorców w błąd. Brak transparentności w stosowaniu tej technologii może prowadzić do kryzysów wizerunkowych, jeśli konsumenci uznają, że marka celowo ich manipulowała. Dlatego firmy korzystające z DeepFake muszą działać odpowiedzialnie, jasno informując, kiedy treść została stworzona przez AI.
Przyszłość technologii Deepfake
DeepFake to technologia, która rozwija się w błyskawicznym tempie. Algorytmy stają się coraz doskonalsze, co sprawia, że fałszywe wideo i audio są niemal niemożliwe do odróżnienia od rzeczywistych nagrań.
Jakie zastosowania DeepFake może mieć w przyszłości? W wielu branżach – od filmowej (cyfrowe rekonstrukcje aktorów) po edukacyjną (wirtualne lekcje z historycznymi postaciami). Ale równocześnie rosną obawy o cyberprzestępczość, dezinformację i nadużycia polityczne. Wraz z rozwojem tej technologii możemy spodziewać się tego, że zacznie za nią nadganiać prawo, które w jakiś sposób ureguluje dostęp do tej technologii lub zasady jej wykorzystania.
Czy AI Act wystarczy, aby kontrolować tę technologię? Czy konsumenci będą w stanie rozróżniać prawdziwe i fałszywe treści? Odpowiedzi na te pytania wciąż pozostają otwarte.
W miarę dalszego rozwoju tej technologii coraz istotniejsze będzie zrozumienie, czym są zagrożenia deepfake i jak skutecznie się przed nimi chronić.