Fascynuje nas
technologia
 

01 września 2021

Deepfake – czy zrewolucjonizuje cyberzagrożenia?

Fałszywe wystąpienia angielskiej królowej Elżbiety II i przedstawicieli państw, sfabrykowane komunikaty służbowe, filmy pornograficzne wykorzystujące wizerunki hollywoodzkich gwiazd, jak na przykład Scarlet Johannson czy Jennifer Lawrence – to niektóre z zastosowań techniki obróbki obrazu powszechnie znanej jako Deepfake. Jest ona także wykorzystywana do przeprowadzania ataków związanych z zakupem kart podarunkowych – od początku pandemii wywołanej koronawirusem nastąpił wzrost liczby tego rodzaju ataków o 820%. Jednocześnie zdaniem ekspertów, technologia Deepfake może zrewolucjonizować skalę cyberzagrożeń.

- Obecnie tworzone filmy trudno odróżnić od oryginału, a cyberprzestępcy z pewnością będą wykorzystywać udoskonalone techniki, by atakować firmy i osoby prywatne

eksperci ESET

Deepfake to sposób obróbki obrazu wykorzystujący sztuczną inteligencję i uczenie maszynowe do nakładania obrazów ruchomych i nieruchomych na obrazy lub filmy źródłowe. W efekcie mogą powstać na przykład filmy z udziałem dowolnej osoby, która z jego nagraniem nie miała nic wspólnego, a widzowie nie będą w stanie odróżnić oryginalnego nagrania od fałszywego. Materiały stworzone z użyciem tej technologii mogą mieć wieloraki charakter. Zarówno pozytywny, na przykład rozrywkowy czy edukacyjny – w formie spotkania „na żywo” i rozmowy z Salvadorem Dali w ramach wystawy multimedialnej. Jednak mogą również przybrać postać negatywną, w tym dezinformacyjną (tworzenia fake newsów) czy wręcz dyskredytacyjną, których celem jest ośmieszanie czy atak na osoby publiczne, instytucje, a nawet państwa.

W ostatnim czasie techniki deepfake zyskały uznanie wśród twórców serialu „Mandalorian”. Jeden z internautów na swoim kanale YouTube opublikował udoskonalone przez siebie serialowe sceny ukazujące odmłodzonego Marka Hamilla w roli Luke Skywalkera, co spotkało się z pozytywną reakcją twórców serialu, jak i fanów uniwersum. Niestety spora część aktywności wykorzystująca materiały deepfake nie jest tak pozytywna. Obecna technologia i możliwości sztucznej inteligencji umożliwiają stworzenie filmów na tyle wiarygodnych, że staną się one kolejnym orężem dla cyberprzestępców.

Gdy bot może wypowiedzieć wojnę

W ostatnich latach technologia deepfake rozwinęła się do tego stopnia, że obecnie coraz trudniej stwierdzić, czy ma się do czynienia ze sfabrykowanym filmem czy z faktycznym nagraniem przedstawiającym prawdziwe osoby. Przykładami są film z orędziem Elżbiety II czy materiał przedstawiający przemówienie Baracka Obamy, które w krótkim czasie ukazało się na wielu różnych portalach internetowych. Film z wypowiedzą byłego prezydenta Stanów Zjednoczonych dotyczył nomen omen kwestii zagrożeń, jakie mogą spowodować dezinformacja i fałszywe wiadomości publikowane w Internecie. W materiale opublikowanym przez kanał BuzzFeedVideos głosem 44. Prezydenta USA był amerykański reżyser i aktor Jordan Peele. Obecnie jednak sztuczna inteligencja jest w stanie wygenerować głos na podstawie archiwalnych wypowiedzi osoby, która ma pojawić się w sfałszowanym filmie.

- Tak zaawansowana technologia może stać się w przyszłości niebezpiecznym narzędziem w rękach cyberprzestępców i oszustów internetowych. Publikowanie filmów z rzekomych wystąpień ważnych polityków może wywołać realne szkody na szczeblu polityki międzynarodowej. Tego rodzaju filmy bazujące na technologii deepfake mogą przyczynić się do powstawania konfliktów i skandali dyplomatycznych, a przez to wpływać na opinie i zachowania społeczne. Filmy z wykorzystaniem deepfake publikowane w czasie trwania kampanii wyborczych mogą z kolei przełożyć się na wyniki wyborów.

Kamil Sadkowski
starszy specjalista ds. cyberbezpieczeństwa ESET

Deepfake źródłem fałszywych filmów pornograficznych z udziałem celebrytów

Materiały pornograficzne od zawsze generowały największy ruch w przestrzeni wirtualnej. Nic dziwnego, że technologia deepfake tak szybko odnalazła się w tej sferze działalności Internetu. Według raportu holenderskiej firmy Deeptrace, zajmującej się cyberbezpieczeństwem, aż 96% sfabrykowanych filmów stworzonych z wykorzystaniem technologii deepfake to właśnie treści pornograficzne. Najczęściej do produkcji tego rodzaju materiału wykorzystuje się wizerunek gwiazd kina, sportsmenek a nawet przedstawicielek rządów. Wśród ofiar sfabrykowanych filmów pornograficznych znalazły się w ostatnich latach popularne amerykańskie aktorki, jak np. Scarlet Johansson, Gal Gadot, Natalie Dormer czy Jennifer Lawrence. Chociaż wiele stron, jak np. Reddit, stara się wyeliminować tego rodzaju treści i od 2018 roku serwis usuwa wszelkie nowe filmy i zdjęcia, to wciąż pojawiają się sfałszowane obrazy, których usunięcie ze strefy wirtualnej jest bardzo trudne.

- Mimo, że tego rodzaju zdjęcia są sfałszowane i dalekie od rzeczywistości, to w dalszym ciągu mogą zostać wykorzystane na przykład do szantażu lub agresji wobec drugiej osoby.

Kamil Sadkowski
starszy specjalista ds. cyberbezpieczeństwa ESET

Technologia deepfake w arsenale cyberprzestępców

Technologia, która umożliwia stworzenie złośliwego obrazu, nagrania audio czy filmu, którego bohaterowie są łudząco podobni do innych osób to szansa na nowy poziom zagrożeń ze strony cyberprzestępców. Szczególnie wobec faktu, że w mediach społecznościowych mogą oni czerpać praktycznie nieograniczone zasoby materiałów źródłowych do tworzenia deepfakes. Oprogramowanie wykorzystujące uczenie maszynowe może przeczesywać np. Facebooka czy Instagram i wyłapywać interesujące zdjęcia czy filmy potencjalnych „aktorów”. Na tej podstawie może stworzyć bardzo wyraźny głos, obraz i film z udziałem danej osoby, ale ze specjalnie spreparowaną fałszywą komunikacją imitującą na przykład znalezienie się w poważnych tarapatach – jako ofiary porwania czy wypadku. W kolejnym kroku wygenerowana zostaje fałszywa prośba o pomoc, na przykład finansową, skierowaną do jej bliskich, czyli ofiar ataku.

W przypadku ataków na firmy technologia deepfake umożliwia stworzenie bardzo realistycznych, fałszywych rozmów telefonicznych, w których przełożony prosi na przykład o zrealizowanie przelewu. W ten sposób w 2019 roku przestępcy wyłudzili 243 tys. dolarów od jednej z brytyjskich firm energetycznych. Innym rodzajem jest atak specjalnych botów wykorzystujący karty podarunkowe. W praktyce wygląda to tak, że bot podszywający się pod szefa instruuje pracownika by zamówił określone karty podarunkowe. Podczas konferencji Black Hat USA 2021, dr Matthew Canham, profesor ds. cyberbezpieczeństwa Institute of Simulation and Training, University of Central Florida, przedstawił badanie, w którym stwierdził, że od czasu pandemii Covid-19 nastąpił wzrost tego procederu o 820%.

- Wraz z rozwojem i coraz powszechniejszym stosowaniem technologii deepfake, skuteczność ataków tego typu może diametralnie wzrosnąć. Dotychczasowe przykłady pokazują, że deepfake wszedł do arsenału cyberprzestępców, a ochrona przed nim będzie trudna. Istnieją jednak sposoby, by spróbować się uchronić przed tego typu atakiem.

Kamil Sadkowski
starszy specjalista ds. cyberbezpieczeństwa ESET

Obrona przed deepfake jest możliwa

Aby uniknąć oszustw opartych o technologię deepfake konieczne jest stosowanie kilku proaktywnych kroków.

  1. Stworzenie z bliskimi osobami, takimi jak członkowie rodziny czy współpracownicy tajnego słowa lub hasła, które będzie stanowiło dowód, że sytuacja z filmu czy nagrania jest prawdziwa. Pozwoli to na szybką weryfikację rzeczywistego stanu zagrożenia i uniknięcie na przykład wyłudzenia pieniędzy.
  2. Uzgodnienie z bliskimi czy współpracownikami katalogu działań, o które nigdy nie zostaną poproszeni poprzez komunikat na przykład w mediach społecznościowych czy SMS. Konieczne jest poinformowanie wszystkich zainteresowanych o pełnym zakresie tych niepożądanych działań.
  3. Wdrożenie kanałów uwierzytelniania wieloskładnikowego, aby zweryfikować każde żądanie. Jeśli komunikacja rozpoczyna się od wiadomości tekstowej, najbezpieczniejsze jest potwierdzenie informacji poprzez kontakt z adresatem wiadomości w formie rozmowy przez uzgodniony wcześniej i bezpieczny kanał komunikacji.
  4. Stałe podnoszenie kompetencji z zakresu bezpieczeństwa, na przykład w formie szkoleń kadry pod kątem zabezpieczeń i cyberprzestępczości. Uświadamianie, czym jest deepfake oraz jak przeciwdziałać temu zagrożeniu.
  5. Wspomaganie i rozwój systemów bezpieczeństwa w środowiskach teleinformatycznych.

Bartosz Różalski
product manager

Masz pytania?
Skontaktuj się ze mną:
rozalski.b@dagma.pl
32 259 11 37