menu szukaj
tygodnik internetowy ISSN 2544-5839
nowe artykuły w każdy poniedziałek
tytuł monitorowany przez IMM i PSMM
zamknij
Work in media. Find a job in the world of communications.

19.02.2024 Prawo w mediach

Jak ochronić się przed deepfake?

Newseria Innowacje

Deepfake stanie się w najbliższych latach jednym z podstawowych narzędzi w rękach cyberprzestępców. Technika łączenia zdjęć, filmów i głosu – często wykorzystywana w celach rozrywkowych – może być także groźnym instrumentem służącym dezinformacji, ale i atakom wyłudzającym dane czy pieniądze.

Jak ochronić się przed deepfake?ilustracja: bing.com/create

Walka z takimi zagrożeniami staje się przedmiotem prac wielu naukowców. Badacze z Uniwersytetu Waszyngtona w St. Louis opracowali mechanizm obronny AntiFake, który ma zapobiegać nieautoryzowanej syntezie mowy, utrudniając sztucznej inteligencji odczytanie kluczowych cech głosu. Zapotrzebowanie na takie narzędzia będzie rosło wraz z rozwojem rynku generatywnej SI.

– Pojęcie „deepfake” składa się z dwóch członów. Pierwszy z nich, deep, odnosi się do głębokich sieci neuronowych, które stanowią najbardziej rozwinięty aspekt uczenia maszynowego. Fake oznacza tworzenie fałszywego obrazu twarzy lub głosu. W naszym kontekście słowo to oznacza, że cyberprzestępca może wykorzystać głębokie sieci neuronowe, aby podrobić mowę danej osoby – mówi w wywiadzie dla agencji Newseria Innowacje Zhiyuan Yu, doktorant na Wydziale Informatyki Uniwersytetu Waszyngtona w St. Louis. – Zastosowanie deepfake’ów do celów złośliwych ataków może przybrać wiele form. Jedną z nich jest wykorzystanie ich do rozpowszechniania fałszywych informacji i mowy nienawiści, również na podstawie głosu osób powszechnie znanych. Przykładowo przestępca użył głosu prezydenta B idena, aby wypowiedzieć Rosji wojnę. Mieliśmy również do czynienia z sytuacjami, kiedy cyberprzestępca wykorzystał głos użytkownika, aby przejść weryfikację tożsamości w banku. Takie sytuacje stały się częścią naszego życia.

REKLAMA

Eksperci WithSecure przewidują, że w 2024 roku dojdzie do nasilenia problemu dezinformacji z użyciem technologii deepfake. Będzie się tak działo głównie z uwagi na to, że to rok wyborów prezydenckich w USA oraz do Parlamentu Europejskiego.

– W obliczu zagrożeń związanych z deepfake’ami proponujemy aktywne przeciwdziałanie im za pomocą technologii AntiFake. Powstałe dotychczas rozwiązania systemowe opierają się na wykrywaniu zagrożeń – mówi Zhiyuan Yu. – Wykorzystują techniki analizy sygnału mowy lub metody wykrywania oparte o fizykę, aby rozróżnić, czy dana próbka jest autentyczną wypowiedzą danej osoby, czy została wygenerowana przez sztuczną inteligencję. Nasza technologia AntiFake opiera się jednak na zupełnie innej metodzie proaktywnej.

Wykorzystana przez twórców metoda bazuje na dodaniu niewielkich zakłóceń do próbek mowy. Oznacza to, że gdy cyberprzestępca użyje ich do syntezy mowy, wygenerowana próbka będzie brzmiała zupełnie inaczej niż użytkownik. Nie uda się więc za jej pomocą oszukać rodziny ani obejść głosowej weryfikacji tożsamości.

– Niewiele osób ma dostęp do wykrywaczy deepfake’ów. Wyobraźmy sobie, że dostajemy e-mail, który zawiera próbkę głosu, lub otrzymujemy taką próbkę na portalu społecznościowym – podkreśla badacz. – Niewiele osób poszuka wtedy wykrywacza w sieci, aby przekonać się, czy próbka jest autentyczna. Według nas ważne jest przede wszystkim zapobieganie takim atakom. Jeśli przestępcy nie uda się wygenerować próbki głosu, który brzmi jak głos danej osoby, do ataku wcale nie dojdzie.

Od strony technologicznej rozwiązanie bazuje na dodaniu zakłóceń do próbek dźwięku. Projektując system, twórcy musieli się zmierzyć z kilkoma problemami projektowymi. Pierwszym było to, jakiego rodzaju zakłócenia powinny zostać nałożone na dźwięk tak, by były niewychwytywalne dla ucha, a jednak skuteczne.

– To prawda, że im więcej zakłóceń, tym lepsza ochrona, jednak gdy oryginalna próbka będzie się składać z samych zakłóceń, użytkownik nie może z niej w ogóle korzystać – mówi Zhiyuan Yu.

Ważne było też to, by stworzyć rozwiązanie uniwersalne, które sprawdzi się w różnego rodzaju syntezatorach mowy.

– Zastosowaliśmy model uczenia zespołowego, na potrzeby którego zebraliśmy różne modele i stwierdziliśmy, że enkoder mowy jest bardzo ważnym elementem syntezatora. Przekształca on próbki mowy na wektory, które odzwierciedlają cechy mowy danej osoby. Jest on najważniejszym elementem syntezatora stanowiącym o tożsamości osoby mówiącej w wygenerowanej mowie. Chcieliśmy zmodyfikować osadzone fragmenty z zastosowaniem enkodera. Użyliśmy czterech różnych enkoderów, aby zapewnić uniwersalne zastosowanie do różnych próbek głosu – wyjaśnia naukowiec z Uniwersytetu Waszyngtona w St. Louis.

Amazon Prime
Kod źródłowy technologii opracowanej na Wydziale Informatyki Uniwersytetu Waszyngtona w St. Louis jest ogólnodostępny. W testach prowadzonych na najpopularniejszych syntezatorach AntiFake wykazał 95-proc. skuteczność. Poza tym narzędzie to było testowane na 24 uczestnikach, aby potwierdzić, że jest dostępne dla różnych populacji. Jak wyjaśnia ekspert, głównym ograniczeniem tego rozwiązania jest to, że cyberprzestępcy mogą próbować obejść zabezpieczenie, usuwając zakłócenia z próbki. Istnieje też ryzyko, że pojawią się nieco inaczej skonstruowane syntezatory, co do których tak pomyślana technologia nie będzie już skuteczna. Zdaniem ekspertów będą jednak w dalszym ciągu toczyć się prace nad wyeliminowaniem ryzyka ataków za pomocą deepfake’ów. Obecnie AntiFake potrafi chronić krótkie nagrania, ale nic nie&nb sp;stoi na przeszkodzie, aby rozwijać go do ochrony dłuższych nagrań, a nawet muzyki.

– Jesteśmy przekonani, że niedługo pojawi się wiele innych opracowań, które będą miały na celu zapobieganie takim problemom. Nasza grupa pracuje właśnie nad ochroną przed nieuprawnionym generowaniem piosenek i utworów muzycznych, ponieważ dostajemy wiadomości od producentów i ludzi pracujących w branży muzycznej z zapytaniami, czy nasz mechanizm AntiFake można wykorzystać na ich potrzeby. Ciągle więc pracujemy nad rozszerzeniem ochrony na inne dziedziny – podkreśla Zhiyuan Yu.

Future Market Insights szacował, że wartość rynku generatywnej sztucznej inteligencji zamknie się w 2023 roku w kwocie 10,9 mld dol. W ciągu najbliższych 10 lat jego wzrost będzie spektakularny, bo utrzyma się na poziomie średnio 31,3 proc. rocznie. Oznacza to, że w 2033 roku przychody rynku przekroczą 167,4 mld dol. Autorzy raportu zwracają jednak uwagę na to, że treści generowane przez sztuczną inteligencję mogą być wykorzystywane w złośliwy sposób, na przykład w fałszywych filmach, dezinformacji lub naruszeniach własności intelektualnej.

Udostępnij znajomym:

dodaj na Facebook prześlij przez Messenger dodaj na Twitter dodaj na LinkedIn

PRZERWA NA REKLAMĘ

Najnowsze w dziale Prawo w mediach:

Pozwy SLAPP w Europie. Jak ucisza się dziennikarzy i aktywistów

Krzysztof Fiedorek
W Europie rośnie liczba strategicznych pozwów, które mają na celu zastraszenie dziennikarzy, aktywistów i organizacji społeczeństwa obywatelskiego. Jak wynika z raportu CASE SLAPPs Report 2024, w latach 2010–2023 zidentyfikowano aż 1049 takich przypadków. Najwięcej - w Polsce.

Dlaczego ludzie szerzą dezinformację? Wyniki badań DigiPatch

Ewelina Krajczyńska-Wujec
Osoby silnie motywowane potrzebą władzy częściej udostępniają posty w mediach społecznościowych, w tym dezinformację. Sama władza, podobnie jak potrzeba zdobycia prestiżu i uznania, nie wiąże się z częstotliwością rozpowszechniania fałszywych informacji - wynika z badań z udziałem prof. Małgorzaty Kossowskiej z Uniwersytetu Jagiellońskiego.

Twórczość AI i prawa autorskie. Dylematy i wyzwania Artificial Creativity

Newseria
Algorytmy potrafią tworzyć muzykę dopasowaną do preferencji i nastroju, malować obrazy, a nawet pisać poezję czy scenariusze filmowe. To rodzi szereg wyzwań dotyczących praw autorskich. Są także wątpliwości dotyczące ochrony dzieł, z których AI się uczy. Narzucanie prawnych zakazów i obostrzeń może jednak nie przynieść efektów.

Podobne artykuły:

AI Act wchodzi w życie. Prawne regulacje sztucznej inteligencji

PAP Nauka w Polsce
1 sierpnia 2024, 20 dni po publikacji AI Act w Dzienniku Urzędowym UE, przepisy, które regulują kwestie wykorzystania sztucznej inteligencji, wchodzą w życie. W pełni zaczną obowiązywać za dwa lata. Nowe prawo dzieli różne rodzaje AI na cztery grupy.

Projekt społeczny ZdezINFORMOWANI

Dominika Bałazińska
Siła mediów jest ogromna, pozwala na kształtowanie sytuacji społeczno-politycznych. Edukacja z zakresu korzystania z nich jest niezbędna, aby zwiększyć świadomość posługiwania się informacją, ponieważ młodzi ludzie nie są przygotowani do życia w świecie pełnym wiadomości. [materiał zewnętrzny]

Rynek cyberbezpieczeństwa i prywatność w sieci w Polsce w 2022

BARD
Wartość rynku cyberbezpieczeństwa w 2022 roku przekroczy 2 mld zł - uważają w najnowszym raporcie analitycy PMR. Jednocześnie, z badania ClickMeeting wynika, że ponad 57 proc. Polaków uważa, że już dba właściwie o swoją prywatność w sieci.

Czym wyróżnia się dobra kancelaria adwokacka?

przebindowski.com.pl
W dzisiejszych czasach coraz częściej korzystamy z usług prawniczych. Niezależnie od tego, czy wymaga tego sytuacja życiowa, chcemy uzyskać lepsze efekty swoich działań, czy próbujemy dojść swoich praw. Przedstawiamy kilka rzeczy, którymi kancelaria adwokacka powinna zwrócić Waszą uwagę. [artykuł sponsorowany]

więcej w dziale: Prawo w mediach

dołącz do nas

Facebook LinkedIn X Twitter Google Instagram Threads Youtube Google News Blue Sky Social RSS

Reporterzy.info - internetowy magazyn medioznawczy. Świat komunikacji od kuchni. Media, dziennikarstwo, PR i marketing. Dane, raporty, analizy, porady. Historia i rynek, prawo, fotografia, oferty pracy.


praca w mediach

Wydawca, redaktor
praca stacjonarna i online Dziennikarz, reporter
oferty mediów lokalnych, regionalnych i ogólnopolskich Grafik, Social Media, SEO, reklama
Warszawa • Białystok • Bydgoszcz • Gdańsk • Katowice • Kielce • Kraków • Lublin • Łódź • Olsztyn • Opole • Poznań • Rzeszów • Szczecin • Toruń • Wrocław • Zielona Góra • Praca zdalna Więcej

reklama

Amazon Prime
Dwornik.pl • szkolenia • warsztaty • marketing internetowy



Sklep reportera

Sklep reportera

Niedrogie laptopy, notebooki i netbooki
Niedrogie laptopy, notebooki i netbooki
do pisania
Cyfrowe lustrzanki i aparaty kompaktowe
Cyfrowe lustrzanki i aparaty kompaktowe
dla fotoreportera
Książki i e-booki o mediach
Książki i e-booki o mediach
do czytania
Drony wideo i latające kamery
Drony wideo i latające kamery
dla pilota
Gimbale do stabilizacji wideo
Gimbale do stabilizacji wideo
dla operatora
Oprogramowanie i aplikacje
Oprogramowanie i aplikacje
dla twórców
więcej produktów

zarabiaj

Zarabiaj przez internet

więcej ofert
gazety w PDF i epub

Czytaj gazety w PDF i EPUB

Okładka Auto Świat
Auto Świat
Okładka Gitarzysta
Gitarzysta
Okładka Kuchnia
Kuchnia
Okładka NIE
NIE
Okładka Polityka
Polityka
Okładka Świat Motocykli
Świat Motocykli
więcej e-gazet

Reporterzy.info

Dla głodnych wiedzy

Nasze serwisy

Współpraca


© Dwornik.pl Bartłomiej Dwornik 2oo1-2o25