menu szukaj
tygodnik internetowy ISSN 2544-5839
nowe artykuły w każdy poniedziałek
tytuł monitorowany przez IMM i PSMM
zamknij
Czytaj gazety  PDF. Na kmputerze, czytniku, tablecie i smartfonie.

8.07.2024 Prawo w mediach

Deepfake, Lip Sync i artefakty. Jak oszuści używają sztucznej inteligencji

grg/ mick, PAP Nauka w Polsce

W internecie pojawia się coraz więcej przestępstw typu deepfake - ostrzegają eksperci z instytutu badań Naukowej i Akademickiej Sieci Komputerowej. Technika oszustw polega na wykorzystaniu głosu i twarzy znanych osób, obrobionych przy pomocy sztucznej inteligencji.

Deepfake, Lip Sync i artefakty. Jak oszuści używają sztucznej inteligencjiilustracja: bing.com/create

Eksperci z NASK poinformowali, że w internecie pojawia się coraz więcej oszustw opartych na filmach, w których używa się wizerunku osób publicznych, jak np. piłkarz Robert Lewandowski czy ministra zdrowia Izabela Leszczyna. W filmach używa się techniki "lip sync" (synchronizacja ruchu ust - PAP), tak by sztucznie wygenerowany głos zgadzał się z ruchem ust i gestykulacją - wyjaśniono. Sam termin deepfake wynika z połączenia techniki sztucznej inteligencji "deep learning" (z ang. zaawansowane uczenie się) oraz fake (z ang. fałszywy).

W komentarzu NASK przytacza przykład z marca br., kiedy to w serwisie społecznościowym pojawił się film typu deepfake z właścicielem i prezesem firmy InPost Rafałem Brzoską. Pomimo szybkiej reakcji pokrzywdzonego i zgłoszenia sprawy do administratorów serwisu Meta, film był dostępny na platformie przez wiele dni.

- Technologie umożliwiają obecnie przestępcom łatwe manipulacje materiałami audiowizualnymi. W przypadku technologii typu +text-to-speech+, wystarczy im zaledwie kilka sekund nagranego głosu, aby stworzyć nowy podkład dźwiękowy, który może być zsynchronizowany z materiałem wideo, na przykład z dowolnego przemówienia czy wiecu politycznego. Dla technologii +speech-to-speech+, w której intonacja, emocje zawarte w głosie są bardziej złożone, do wykonania podróbki potrzebny jest dłuższy fragment, około jednej minuty oryginalnego materiału" - wyjaśniła kierowniczka zespołu NASK ds. analizy deepfake Ewelina Bartuzi-Trokielewicz.

REKLAMA

Eksperci przekazali, że w maju br. ponownie nastąpił wysyp filmów typu deepfake, które wykorzystują wizerunek znanych osób jak np. influencera Kamila Labuddy, prezydenta Andrzeja Dudy czy ponownie Rafała Brzoski. Jak dodali, na kradzież wizerunku i głosu są narażone osoby znane, jak np. aktorzy, celebryci czy biznesmeni oraz cieszące się zaufaniem w pewnych kręgach i traktowane jako autorytet.

- Użytkownicy mediów społecznościowych powinni ostrożnie podchodzić do treści wideo, które wydają się niezweryfikowane lub podejrzane. Dotyczy to zwłaszcza tych materiałów, które mają potencjalny wpływ na publiczne postrzeganie znaczących postaci i instytucji - przestrzegła ekspertka NASK.

Jak podkreślono tego typu oszustwa stają się coraz trudniejsze do wykrycia. Rozwijająca się sztuczna inteligencja pozwala coraz dokładniej podkładać sztucznie wygenerowany głos, jednak eksperci zaznaczyli, że nie jest to niemożliwe. Należy oglądany film sprawdzić od strony technicznej i analizować jego przekaz.

Wśród zastrzeżeń technicznych sugerujących oszustwo eksperci wymieniają: zniekształcenie obraz w okolicy ust, problem w odwzorowaniu uzębienia, nienaturalny ruch głową i mimika, błędy w odmianie słów czy nietypową intonację.

REKLAMA

- Coraz częściej oszuści stosują też technikę dodawania szumów i różnego rodzaju plam na nagraniach, co ma na celu zakłócenie klarowności przekazu obrazu, ukrycie artefaktów generowanych przez sztuczną inteligencję oraz dezorientację algorytmów automatycznej detekcji deepfake`ów - dodała Bartuzi-Trokielewicz.

NASK dodał, że w filmach zastosowane są różne socjotechniki mające nakłonić odbiorcę, jak np.: obietnica szybkiego zysku, wyjątkowość oferty połączona z ograniczonym dostępem w czasie, ponaglanie do działania oraz odwoływanie się do emocji odbiorcy.

W przypadku zaobserwowania takiego materiału NASK zachęca do szybkiej reakcji oraz poinformowania odpowiednich organów, które mogą uchronić innych od zostania ofiarą oszustwa. Można np. zgłosić materiał do zespołu CERT Polska poprzez sms (numer: 8080) lub stronę incydent.cert.pl. Istnieje możliwość przesłania materiału na adres mailowy instytutu (deepfake@nask.pl), który pozwoli na analizę materiału w celu opracowania możliwości zapobiegania takim praktykom w przyszłości.

Źródło: naukawpolsce.pl

Udostępnij znajomym:

dodaj na Facebook prześlij przez Messenger dodaj na Twitter dodaj na LinkedIn

PRZERWA NA REKLAMĘ

Zobacz artykuły na podobny temat:

Zadania rzeczników prasowych w urzędach administracji rządowej

Kancelaria Prezesa Rady Ministrów
Rozporządzenie Rady Ministrów z dnia 8 stycznia 2002 roku w sprawie organizacji i zadań rzeczników prasowych w urzędach administracji rządowej.

Czym wyróżnia się dobra kancelaria adwokacka?

przebindowski.com.pl
W dzisiejszych czasach coraz częściej korzystamy z usług prawniczych. Niezależnie od tego, czy wymaga tego sytuacja życiowa, chcemy uzyskać lepsze efekty swoich działań, czy próbujemy dojść swoich praw. Przedstawiamy kilka rzeczy, którymi kancelaria adwokacka powinna zwrócić Waszą uwagę. [artykuł sponsorowany]

Oszustwa reklamowe i dezinformacja w internecie. Jak z nimi walczyć

Stowarzyszenie Komunikacji Marketingowej SAR
Przedstawiciele największych stowarzyszeń branży marketingowej i mediowej podpisali deklarację mającą na celu wypracowanie kodeksu dobrych praktyk przeciwdziałania dezinformacji i oszustwom reklamowym (ad frauds) w internecie.

Big Data w Polsce. Firmy nie mają pomysłu na wykorzystanie danych

KF
Do stosowania rozwiązań z zakresu Big Data przyznaje się tylko od 11 do 16 proc. rodzimych firm. Tak wynika z badania firm OVH i Intel. Spośród firm, które jeszcze nie korzystały z Big Data, po technologię tę zamierza w tym roku sięgnąć tylko 2 proc. Tymczasem do zbierania danych o klientach przyznają się niemal wszystkie duże i małe firmy.

Czy moje strony internetowe są prasą?

Romuald Szczypek
Warto przez chwilę zastanowić się nad tym, co jeszcze w Polsce nie podlega rejestracji. Nie znajdziemy chyba żadnego tematu.

Ochrona wizerunku dzieci w internecie. Nowy etap regulacji prawnych

SOS Wioski Dziecięce
Ministerstwo Sprawiedliwości opublikowało właśnie wytyczne do standardów ochrony dzieci. Nowa legislacja - jak podkreślają komentatorzy i uczestnicy konsultacji nowych przepisów - to kolejny krok na drodze do społecznego uznania i szacunku wobec podmiotowości osób małoletnich.

Media lokalne - procesy sądowe

Bartłomiej Dwornik
Dziennikarze śledczy lokalnych redakcji przeważnie pozostają w cieniu kolegów z redakcji ogólnopolskich, choć bywa często tak, że to właśnie oni jako pierwsi wpadają na trop jakiejś afery.

więcej w dziale: Prawo w mediach

dołącz do nas

Facebook LinkedIn X Twitter Google RSS

praca w mediach

Wydawca, redaktor
praca stacjonarna i online Dziennikarz, reporter
oferty mediów lokalnych, regionalnych i ogólnopolskich Więcej

reklama

WhitePress - zarabiaj na swojej stronie
Dwornik.pl • szkolenia • warsztaty • marketing internetowy



Sklep reportera

Sklep reportera

Niedrogie laptopy, notebooki i netbooki
Niedrogie laptopy, notebooki i netbooki
do pisania
Cyfrowe lustrzanki i aparaty kompaktowe
Cyfrowe lustrzanki i aparaty kompaktowe
dla fotoreportera
Książki i e-booki o mediach
Książki i e-booki o mediach
do czytania
Drony wideo i latające kamery
Drony wideo i latające kamery
dla operatora
więcej produktów

zarabiaj

Zarabiaj przez internet

więcej ofert
gazety w PDF i epub

Czytaj gazety w PDF i EPUB

Okładka Gość Niedzielny
Gość Niedzielny
Okładka Książki. Magazyn do Czytania
Książki. Magazyn do Czytania
Okładka National Geographic
National Geographic
Okładka National Geographic Traveler
National Geographic Traveler
więcej e-gazet

Reporterzy.info

Dla głodnych wiedzy

Nasze serwisy

Współpraca


© Dwornik.pl Bartłomiej Dwornik 2oo1-2o24
stats