8.07.2024 Prawo w mediach
Deepfake, Lip Sync i artefakty. Jak oszuści używają sztucznej inteligencji
grg/ mick, PAP Nauka w Polsce
W internecie pojawia się coraz więcej przestępstw typu deepfake - ostrzegają eksperci z instytutu badań Naukowej i Akademickiej Sieci Komputerowej. Technika oszustw polega na wykorzystaniu głosu i twarzy znanych osób, obrobionych przy pomocy sztucznej inteligencji.

Eksperci z NASK poinformowali, że w internecie pojawia się coraz więcej oszustw opartych na filmach, w których używa się wizerunku osób publicznych, jak np. piłkarz Robert Lewandowski czy ministra zdrowia Izabela Leszczyna. W filmach używa się techniki "lip sync" (synchronizacja ruchu ust - PAP), tak by sztucznie wygenerowany głos zgadzał się z ruchem ust i gestykulacją - wyjaśniono. Sam termin deepfake wynika z połączenia techniki sztucznej inteligencji "deep learning" (z ang. zaawansowane uczenie się) oraz fake (z ang. fałszywy).
W komentarzu NASK przytacza przykład z marca br., kiedy to w serwisie społecznościowym pojawił się film typu deepfake z właścicielem i prezesem firmy InPost Rafałem Brzoską. Pomimo szybkiej reakcji pokrzywdzonego i zgłoszenia sprawy do administratorów serwisu Meta, film był dostępny na platformie przez wiele dni.
- Technologie umożliwiają obecnie przestępcom łatwe manipulacje materiałami audiowizualnymi. W przypadku technologii typu +text-to-speech+, wystarczy im zaledwie kilka sekund nagranego głosu, aby stworzyć nowy podkład dźwiękowy, który może być zsynchronizowany z materiałem wideo, na przykład z dowolnego przemówienia czy wiecu politycznego. Dla technologii +speech-to-speech+, w której intonacja, emocje zawarte w głosie są bardziej złożone, do wykonania podróbki potrzebny jest dłuższy fragment, około jednej minuty oryginalnego materiału" - wyjaśniła kierowniczka zespołu NASK ds. analizy deepfake Ewelina Bartuzi-Trokielewicz.
Eksperci przekazali, że w maju br. ponownie nastąpił wysyp filmów typu deepfake, które wykorzystują wizerunek znanych osób jak np. influencera Kamila Labuddy, prezydenta Andrzeja Dudy czy ponownie Rafała Brzoski. Jak dodali, na kradzież wizerunku i głosu są narażone osoby znane, jak np. aktorzy, celebryci czy biznesmeni oraz cieszące się zaufaniem w pewnych kręgach i traktowane jako autorytet.
- Użytkownicy mediów społecznościowych powinni ostrożnie podchodzić do treści wideo, które wydają się niezweryfikowane lub podejrzane. Dotyczy to zwłaszcza tych materiałów, które mają potencjalny wpływ na publiczne postrzeganie znaczących postaci i instytucji - przestrzegła ekspertka NASK.
Jak podkreślono tego typu oszustwa stają się coraz trudniejsze do wykrycia. Rozwijająca się sztuczna inteligencja pozwala coraz dokładniej podkładać sztucznie wygenerowany głos, jednak eksperci zaznaczyli, że nie jest to niemożliwe. Należy oglądany film sprawdzić od strony technicznej i analizować jego przekaz.
Wśród zastrzeżeń technicznych sugerujących oszustwo eksperci wymieniają: zniekształcenie obraz w okolicy ust, problem w odwzorowaniu uzębienia, nienaturalny ruch głową i mimika, błędy w odmianie słów czy nietypową intonację.
- Coraz częściej oszuści stosują też technikę dodawania szumów i różnego rodzaju plam na nagraniach, co ma na celu zakłócenie klarowności przekazu obrazu, ukrycie artefaktów generowanych przez sztuczną inteligencję oraz dezorientację algorytmów automatycznej detekcji deepfake`ów - dodała Bartuzi-Trokielewicz.
NASK dodał, że w filmach zastosowane są różne socjotechniki mające nakłonić odbiorcę, jak np.: obietnica szybkiego zysku, wyjątkowość oferty połączona z ograniczonym dostępem w czasie, ponaglanie do działania oraz odwoływanie się do emocji odbiorcy.
W przypadku zaobserwowania takiego materiału NASK zachęca do szybkiej reakcji oraz poinformowania odpowiednich organów, które mogą uchronić innych od zostania ofiarą oszustwa. Można np. zgłosić materiał do zespołu CERT Polska poprzez sms (numer: 8080) lub stronę incydent.cert.pl. Istnieje możliwość przesłania materiału na adres mailowy instytutu (deepfake@nask.pl), który pozwoli na analizę materiału w celu opracowania możliwości zapobiegania takim praktykom w przyszłości.
Źródło: naukawpolsce.pl
PRZERWA NA REKLAMĘ
Najnowsze w dziale Prawo w mediach:
Phishing w branży kryptowalut. Fałszywe rekrutacje kradną dane
Piotr Rozmiarek
Badacze zajmujący się bezpieczeństwem wykryli kampanię socjotechniczną, wymierzoną w osoby poszukujące pracy w branży Web3. Atak ma na celu zorganizowanie fałszywych rozmów kwalifikacyjnych za pośrednictwem aplikacji do spotkań, która instaluje złośliwe oprogramowanie kradnące informacje.
Legal Design. Prawnicze teksty ludzkim głosem brzmią coraz wyraźniej
Sonia Stępień
Legal design jako metoda oraz - szerzej - filozofia - skupia się na rozwiązaniach przyjaznych człowiekowi. Odbiorca będący na końcu łańcucha procesu prawnego dostaje do ręki umowy, regulaminy i pisma, których często nie rozumie. Legal design chce to zmienić. I zmienia coraz skuteczniej.
Pozwy SLAPP w Europie. Jak ucisza się dziennikarzy i aktywistów
Krzysztof Fiedorek
W Europie rośnie liczba strategicznych pozwów, które mają na celu zastraszenie dziennikarzy, aktywistów i organizacji społeczeństwa obywatelskiego. Jak wynika z raportu CASE SLAPPs Report 2024, w latach 2010–2023 zidentyfikowano aż 1049 takich przypadków. Najwięcej - w Polsce.
Podobne artykuły:
Co ePrivacy będzie oznaczać w praktyce?
Milena Wilkowska
Rozporządzenie ePrivacy ma dostosować przepisy w zakresie ochrony prywatności i danych w komunikacji elektronicznej do obecnych realiów rynkowych i postępu technicznego.
Prawo autorskie i kserowanie pomocy naukowych. Czy to legalne?
Paweł Kowalewicz
Co polskie prawo mówi o korzystaniu z pomocy naukowych, które krótko mówiąc, nie są oryginalne, a skserowane czy ściągnięte z internetu? Czy prawo autorskie dopuszcza takie wyjątki ze względu na szczytny cel edukacyjny? Fundacja Legalna Kultura przygotowała poradnik, który przyda się nie tylko studentom.
Ochrona sygnalistów. Ważne zmiany w prawie już obowiązują
Karolina Siudyła
Wprowadzone zmiany w przepisach prawa pracy są wynikiem implementacji unijnej dyrektywy o ochronie sygnalistów. Nakładają nowe obowiązki na przedsiębiorstwa. Ustawa o ochronie sygnalistów obowiązuje przedsiębiorców od 25 września 2024 roku.
Ochrona sygnalistów w Polsce
Robert Ciesielski
Minimalne wymogi i standardy dotyczące ochrony sygnalistów zostały wprowadzone do prawa wspólnotowego w 2019 roku. Pierwsze polskie firmy będą musiały się podporządkować nowym regulacjom już 17 grudnia 2021 roku. Z pomocą przychodzą im systemy whistleblowingowe.