27.11.2023 Prawo w mediach
Deepfake. Potężna, nowa broń w wojnie informacyjnej
Krzysztof Fiedorek
Jednym z najnowszych zagrożeń dla wiarygodności informacji jest technologia deepfake. Deepfake to rodzaj fałszywych materiałów wideo lub audio, w których wydaje się, że osoba na nagraniu mówi lub zachowuje się w sposób, który nie jest zgodny z rzeczywistością.
Read this article
Technologia deepfake wykorzystuje algorytmy uczenia maszynowego do manipulowania obrazami i dźwiękiem. Algorytmy te są szkolone na ogromnych zbiorach danych, takich jak filmy i nagrania audio. Dzięki temu są w stanie nauczyć się imitować konkretne osoby z bardzo dużą dokładnością.
Deepfake może być wykorzystywany do różnych celów, zarówno pozytywnych, jak i negatywnych. Z jednej strony może być wykorzystywany do celów rozrywkowych, np. do tworzenia filmów komediowych lub parodii. Z drugiej strony, deepfake może być wykorzystywany do manipulacji opinią publiczną lub do szkodzenia reputacji osób publicznych.
Deepfake. Przykłady z życia wzięte
Możliwości manipulacji, jakie daje nowa technologia, są coraz potężniejsze, a efekty coraz bardziej wiarygodne i trudne do odróżenienia od prawdziwych nagrań i faktycznie wypowiedzianych słów czy sfilmowanych wydarzeń. Jedne z najbardziej znanych przykładów, wykorzystanych do szerzenia dezinformacji i wzniecania konfliktów to:
- Mark Zuckerberg, tłumaczący że ma kontrolę nad światem i naszymi danymi osobowymi;
- Barack Obama, wygłaszający niepochlebne słowa o Donaldzie Trumpie;
- Kim Kardashian odpowiadająca hejterom;
- Nancy Pelosi, rzekomo nietrzeźwa podczas publicznego wystąpienia;
- Donald Trump pouczający Belgów;
- Włodymir Zełeński wzywający ukraińskich żołnierzy do złożenia broni.
Deepfake jako zagrożenie dla demokracji
Deepfake może stanowić poważne zagrożenie dla demokracji. Technologia ta może być wykorzystywana do rozpowszechniania dezinformacji i manipulowania opinią publiczną.
Przykładowo, deepfake może być wykorzystany do stworzenia fałszywego nagrania wideo, w którym polityk mówi lub robi coś, co w rzeczywistości nigdy nie powiedział lub nie zrobił. Takie nagranie może zostać wykorzystane do osłabienia jego reputacji lub do wpływania na wyniki wyborów.
Deepfake może być również wykorzystywany do zastraszania lub szantażu osób publicznych. Przykładowo, deepfake może zostać wykorzystany do stworzenia fałszywego nagrania wideo, w którym osoba publiczna występuje w roli pornoaktora lub pornoaktorka. Takie nagranie może zostać wykorzystane do szantażu tej osoby i wymuszenia na niej określonego zachowania.
Jak rozpoznać deepfake?
Istnieje kilka sposobów, aby rozpoznać deepfake. Jednym z nich jest zwrócenie uwagi na szczegóły obrazu lub dźwięku. W przypadku deepfake mogą wystąpić pewne nieprawidłowości, takie jak:
- niewłaściwe proporcje twarzy lub ciała
- nienaturalne ruchy twarzy lub ust
- nienaturalne dźwięki
Innym sposobem na rozpoznanie deepfake jest sprawdzenie, czy nagranie pochodzi z wiarygodnego źródła. Jeśli nagranie pochodzi z nieznanego źródła lub jest udostępniane przez nieznane osoby, to istnieje duże prawdopodobieństwo, że jest to deepfake.
Jak walczyć z deepfake?
Istnieje kilka sposobów, aby walczyć z deepfake. Jednym z nich jest edukacja społeczeństwa na temat tej technologii. Ludzie powinni być świadomi zagrożenia, jakie stanowi deepfake i powinni nauczyć się rozpoznawać fałszywe materiały.
Jednak obecne zaledwie co czwarty mieszkaniec Unii Europejskiej deklaruje, że zdarzyło mu się weryfikować prawdziwość informacji znalezionej w mediach społecznościowych lub innym miejscu internetu. W Polsce ten odsetek jest znacznie poniżej unijnej średniej. Zaledwie 16%.
W naszym kraju dodatkowo mierzymy się z drugim problemem. Z kryzysem zaufania do mediów tradycyjnych. Tych, które powinny pomagać nam w weryfikowaniu prawdziwości informacji. Jednak coraz częściej traktowane są same jako źródło fake newsów. Z wielu powodów. Głównie przez zaangażowanie po jednej ze stron politycznego sporu, ale również z uwagi na wcale nie tak rzadkie przypadki niewystarczającego researchu i... padania ofiarą fake newsów.
Mamy problem z oceną wiarygodności informacji
Jedna czwarta odbiorców czerpie informacje ze źródeł, w których dużym wyzwaniem jest weryfikacja wiarygodności. Prawdziwym problemem pozostaje kwestia fake newsów. Tak wskazuje 77 proc. ankietowanych, przy czym 51 proc. deklaruje, że ma problem z oceną, co jest, a co nie jest informacją prawdziwą - wynika z badania Deloitte Digital Consumer Trends.
Z opublikowanych w lutym 2023 roku badań Digital Poland dowiedzieć się można, jak bardzo skuteczne są media społecznościowe jako kanał rozprzestrzeniania się fałszywek:
- Fake news ma o 70% większe szanse na udostępnienie.
- Skutkiem jest to, że fałszywa informacja rozchodzi się w nich sześciokrotnie szybciej od prawdy.
Dlatego innym - i być może jedynym skutecznym - sposobem na walkę z deepfake jest rozwój technologii, która mogłaby wykrywać fałszywe materiały. Obecnie trwają badania nad sztuczną inteligencją, która mogłaby być wykorzystywana do rozpoznawania deepfake.
PRZERWA NA REKLAMĘ
Najnowsze w dziale Prawo w mediach:
Phishing w branży kryptowalut. Fałszywe rekrutacje kradną dane
Piotr Rozmiarek
Badacze zajmujący się bezpieczeństwem wykryli kampanię socjotechniczną, wymierzoną w osoby poszukujące pracy w branży Web3. Atak ma na celu zorganizowanie fałszywych rozmów kwalifikacyjnych za pośrednictwem aplikacji do spotkań, która instaluje złośliwe oprogramowanie kradnące informacje.
Legal Design. Prawnicze teksty ludzkim głosem brzmią coraz wyraźniej
Sonia Stępień
Legal design jako metoda oraz - szerzej - filozofia - skupia się na rozwiązaniach przyjaznych człowiekowi. Odbiorca będący na końcu łańcucha procesu prawnego dostaje do ręki umowy, regulaminy i pisma, których często nie rozumie. Legal design chce to zmienić. I zmienia coraz skuteczniej.
Pozwy SLAPP w Europie. Jak ucisza się dziennikarzy i aktywistów
Krzysztof Fiedorek
W Europie rośnie liczba strategicznych pozwów, które mają na celu zastraszenie dziennikarzy, aktywistów i organizacji społeczeństwa obywatelskiego. Jak wynika z raportu CASE SLAPPs Report 2024, w latach 2010–2023 zidentyfikowano aż 1049 takich przypadków. Najwięcej - w Polsce.
Podobne artykuły:
Prawne aspekty monitoringu mediów
mec. Agata Kowalska
Zgodnie z teorią agenda-setting (ustalania porządku spraw) środki masowego komunikowania ustalają hierarchię wydarzeń, faktów i ocen, zarówno w świadomości indywidualnego odbiorcy przekazu, jak również opinii publicznej.
Algorytmy dyskryminują i wykluczają. To ma społeczne konsekwencje
dr Kuba Piwowar
Algorytmy otaczają nas z każdej strony. Na ich podstawie Netflix proponuje nam film do obejrzenia, a bank ocenia naszą zdolność kredytową. Może się wydawać, że decyzja podjęta bez większego udziału człowieka będzie zawsze obiektywna. Jednak okazuje się, że algorytmy mogą wykluczać. Dlaczego tak się dzieje? Jakie są tego skutki? Jak sobie z tym radzić?
Ochrona sygnalistów w Polsce
Robert Ciesielski
Minimalne wymogi i standardy dotyczące ochrony sygnalistów zostały wprowadzone do prawa wspólnotowego w 2019 roku. Pierwsze polskie firmy będą musiały się podporządkować nowym regulacjom już 17 grudnia 2021 roku. Z pomocą przychodzą im systemy whistleblowingowe.
Oszuści z Facebooka, LinkedIn i X. Schematy działań cyberprzestępców
Piotr Rozmiarek
Fałszywe oferty pracy, nieistniejące akcje charytatywne, rozdawanie pieniędzy oraz cyberincydenty. Oszuści stosują różne schematy w celu kradzieży pieniędzy i wrażliwych danych. Zespół Bitdefender przygotował poradnik do skutecznej obrony przed cyberprzestępcami na social mediach.