menu szukaj
tygodnik internetowy ISSN 2544-5839
nowe artykuły w każdy poniedziałek
tytuł monitorowany przez IMM i PSMM
zamknij
Work in media. Find a job in the world of communications.

29.05.2023 Prawo w mediach

Projekt APAKT. Sztuczna inteligencja w moderacji nielegalnych treści

Ludwika Tomala, Nauka w Polsce

Bazujący na sztucznej inteligencji program, przygotowany przez polskich naukowców, pomoże w pracy moderatorom, którzy czyszczą internet z nielegalnych treści. Program ma rozpoznawać wideo, obrazy i teksty o charakterze pedofilskim.

Projekt APAKT. Sztuczna inteligencja w moderacji nielegalnych treściilustracja Steve Johnson/CC0/Unslpash

Program, który powstaje w ramach projektu APAKT, ograniczy kontakt moderatorów z takimi materiałami. W Państwowym Instytucie Badawczym NASK działa Dyżurnet.pl - zespół, którego zadaniem jest blokowanie w internecie nielegalnych materiałów, szczególnie związanych z wykorzystywaniem seksualnym dzieci. Należy tam zgłaszać tego rodzaju treści, które znajdzie się w sieci.

- Moderatorzy Dyżurnet.pl przez wiele godzin każdego dnia przeglądają nielegalne treści - czy to zgłoszone przez użytkowników, czy to wskazane przez scrapery, czyli algorytmy, które same wyszukują w sieci materiały o specyficznych parametrach - mówi dr Inez Okulska z Pionu Sztucznej Inteligencji NASK. Tłumaczy, że takich zgłaszanych treści jest bardzo dużo, a ktoś musi je zawsze przejrzeć, aby ocenić, czy materiał ten rzeczywiście przedstawia nielegalne treści i czy należy go zablokować. A osobę, która to udostępniła - ścigać.

AUTOPROMOCJA. Zajrzyj na nasz Youtube. Poznaj #59sec REPORT
Jak obrazy hakują twój mózg? [PL NAPISY] 👇

Martyna Różycka, szefowa Dyżurnet.pl, tłumaczy, że najpilniejszym zadaniem jest wychwycenie spośród zgłoszeń materiałów, które nie były wcześniej zgłaszane, a które pokazują seksualne wykorzystywanie dzieci. Jeśli takie materiały powstały niedawno, to może jakiemuś dziecku nadal wyrządzana jest krzywda. Trzeba wtedy jak najszybciej znaleźć sprawcę i chronić potencjalną ofiarę.

- Większość jednak materiałów, które trzeba blokować, to treści, które powstały lata temu, jednak wciąż są kopiowane i udostępniane w kolejnych miejscach - mówi Różycka.

Aby usprawnić pracę moderatorów - i ochronić ich przed kontaktem z obciążającymi psychiczne treściami - NASK we współpracy z Politechniką Warszawską postanowił wykorzystać sztuczną inteligencję. Opracowany przez badaczy algorytm, w ramach projektu APAKT, ma za zadanie automatycznie analizować nielegalne treści, które trafiają do moderatorów i proponować, w jakiej kolejności zająć się zgłoszeniami - zaczynając od tych wymagających najszybszej interwencji.

I tak na przykład program będzie mógł wskazać z 90-procentową pewnością, że dany plik przypomina znany już wcześniej materiał. Dzięki temu moderator będzie mógł szybko ocenić i potwierdzić, czy zgadza się z oceną programu. To zaoszczędzi nie tylko czas, ale również ochroni kondycję psychiczną moderatorów, którzy nie będą musieli samodzielne porównywać, czy rzeczywiście już kiedyś coś podobnego pojawiło się w bazie.

Model ten nie jest - w odróżnieniu od wielu systemów AI - wyłącznie "czarną skrzynką", która wypluwa odpowiedzi bez żadnej możliwości skontrolowania, skąd wzięła się jej decyzja. APAKT będzie w stanie wyjaśnić, dlaczego uznał dany materiał tekstowy za pedofilski. Bo, co nieoczywiste, system ten jest w stanie sklasyfikować nie tylko materiały wideo i zdjęcia, ale także teksty narracyjne opisujące seksualne wykorzystanie dzieci.

- Prezentowanie pedofilii na poziomie wideo oraz zdjęć jest w Polsce nielegalne. Jeśli jednak chodzi o tekst, to kwestia ta nie jest precyzyjnie uregulowana w polskim prawie - zwraca uwagę dr Okulska.

Badaczka wymienia, że są dwa rodzaje problematycznych tekstów związanych z pedofilią. Jednym z nich są teksty groomingowe.

- Chodzi o nagabywanie osoby nieletniej przez dorosłą w celu pozyskania nagich zdjęć lub skłonienia do kontaktów seksualnych - opowiada dr Okulska i tłumaczy, że grooming jest karalny i takimi sprawami zajmuje się prokuratura. Dodaje jednak, że istnieje inny problem - teksty, które opowiadają historie o treściach erotycznych czy pornograficznych, ale z udziałem osób nieletnich.

- W takich tekstach dużo rzeczy dzieje się w szkole, między osobą starszą i dzieckiem. Dużo jest też tam wątków kazirodztwa - opisuje dr Okulska. I dodaje, że sposób podawania treści w bardzo wielu tego typu tekstach jest szkodliwy.

- Moderatorzy nie mają wątpliwości - takie teksty są szkodliwe społecznie. Treści te propagują pedofilię, zachowania, które są absolutnie niedopuszczalne i nigdy nie powinny być normalizowane. Naszym zdaniem powinno być jasno powiedziane, że są to treści nielegalne - ocenia Martyna Różycka.

REKLAMA
A dr Okulska tłumaczy: - Nie dość, że takie teksty są źle napisane i grafomańskie, to jeszcze opowieść jest w nich zwykle budowana stopniowo. Zanim moderator zdąży się zorientować, czy dany tekst jest niewinny czy promuje pedofilię, musi sporo przeczytać, wczuć się w bohaterów. Treści, które przeczyta, zostają w jego pamięci. A to nieprzyjemne, ciężkie tematy. Moderatorzy mają opiekę psychologiczną, ale naturalna była chęć, aby wprowadzić modele, które moderatorom ułatwią pracę.

Badaczka wyjaśnia, że program APAKT będzie w stanie wskazać moderatorowi konkretne fragmenty tekstu, które świadczą o tym, że materiał rzeczywiście opisuje sceny seksualne z wykorzystaniem nieletnich. Program ten ma sam wskazać szkodliwe elementy.

Dr Okulska opowiada o tym, że prace nad programem APAKT były o tyle skomplikowane, że algorytm musiał być trenowany na materiałach pedofilskich, których przechowywanie jest nielegalne lub kontrowersyjne. A jedynym zespołem w Polsce, który może bezpośrednio analizować treści pornograficzne z udziałem dzieci jest Dyżurnet.pl (zgodnie z Ustawą o Krajowym systemie Cyberbezpieczeństwa).

- Naukowcy tworzący modele nie mogli i nie chcieli mieć dostępu do danych Dyżurnet.pl, na których uczyły się algorytmy. A można się domyślić, że tworzenie algorytmów klasyfikujących pewne obiekty bez możliwości podejrzenia tych obiektów jest bardzo trudne. To praca z opaską na oczach - mówi dr Okulska.

Dodaje jednak, że dzięki temu ograniczeniu w części dotyczącej materiałów pisanych opracowano innowacyjny sposób reprezentacji tekstu na potrzeby AI. Jak opisuje, ekspercko skonfigurowane wektory StyloMetrix pozwalają na wysokiej jakości klasyfikację, ale jednocześnie nie skupiają się wyłącznie na znaczeniu. Są wyjaśnialne, głównie na poziomie gramatycznym, statystycznym – a więc w kontekście takich tematów "bezpieczne" dla badacza.

Dodaje, że sztuczna inteligencja nie działa jeszcze na etapie zbierania danych, ale na etapie selekcji materiałów wstępnie wybranych do oceny. Badania realizowane są w ramach grantu NCBR, program ma być gotowy do użytku w ciągu kilku miesięcy. Skuteczność na razie oceniana jest na ok. 80 proc.

REKLAMA
Badacze liczą również, że programem APAKT zainteresują się dostawcy internetu czy właściciele dużych portali, którzy - w świetle projektu nowej ustawy - odpowiadać mają za blokowanie dostępu osobom nieletnim do pornografii. Ale program może się również przydać policji czy biegłym sądowym.

Programem zainteresowane mogą być też zagraniczne instytucje zajmujące się usuwaniem w internetu treści o charakterze pedofilskim. APAKT radzi sobie bowiem z wykrywaniem pedofilii na wideo i zdjęciach niezależnie od języka. Jeśli chodzi o wykrywanie treści w tekstach - program działa na razie jedynie w języku polskim, natomiast wykorzystany w nim m.in. model RoBERTa czy wektory StyloMetrix obecnie dostępne są zarówno w języku angielskim, jak i ukraińskim.


***
artykuł pochodzi z portalu Naukawpolsce.pl
Udostępniany jest na wolnej licencji.

Udostępnij znajomym:

dodaj na Facebook prześlij przez Messenger dodaj na Twitter dodaj na LinkedIn

PRZERWA NA REKLAMĘ
Czytaj prasę w PDF

Najnowsze w dziale Prawo w mediach:

Zatrucie SEO. Hakerzy wykorzystują wyszukiwarki do ataków na firmy

Piotr Rozmiarek
Wyszukiwarki pomagają nam szybko znaleźć informacje, ale mogą być również wykorzystywane przez cyberprzestępców. Zatruwanie SEO to taktyka, w której atakujący manipulują rankingami wyszukiwarek, aby umieścić szkodliwe witryny na szczycie wyników wyszukiwania.

Phishing w branży kryptowalut. Fałszywe rekrutacje kradną dane

Piotr Rozmiarek
Badacze zajmujący się bezpieczeństwem wykryli kampanię socjotechniczną, wymierzoną w osoby poszukujące pracy w branży Web3. Atak ma na celu zorganizowanie fałszywych rozmów kwalifikacyjnych za pośrednictwem aplikacji do spotkań, która instaluje złośliwe oprogramowanie kradnące informacje.

Legal Design. Prawnicze teksty ludzkim głosem brzmią coraz wyraźniej

Sonia Stępień
Legal design jako metoda oraz - szerzej - filozofia - skupia się na rozwiązaniach przyjaznych człowiekowi. Odbiorca będący na końcu łańcucha procesu prawnego dostaje do ręki umowy, regulaminy i pisma, których często nie rozumie. Legal design chce to zmienić. I zmienia coraz skuteczniej.

Podobne artykuły:

Hejt w polskim internecie. Raport Kantar TNS dla Sprite

Newseria
Ponad połowa młodych Polaków (16-19 lat) doświadczyła hejtu w ciągu ostatnich 12 miesięcy. Jeszcze więcej osób przyznaje, że osobiście używało stwierdzeń noszących znamiona hejtu. Przedmiotem nienawistnych komentarzy są najczęściej wygląd, styl ubierania się, narodowość, seksualność, poglądy polityczne oraz wyznanie.

Kodeks Etyki Dziennikarskiej Stowarzyszenia Dziennikarzy Polskich

Stowarzyszenie Dziennikarzy Polskich
Przyjmując zasady Karty Etycznej Mediów i deklaracji Międzynarodowej Federacji Dziennikarzy, uznajemy, że: zadaniem dziennikarzy jest przekazywanie rzetelnych i bezstronnych informacji oraz różnorodnych opinii, a także

Piractwo telewizyjne w internecie. 3,2 miliarda złotych strat rocznie

Dorota Zawadzka
2,4 mln osób zapłaciło w ostatnim roku za treści oglądane online, nie wiedząc, że korzystały z nielegalnej usługi. Ponad 75 procent internautów korzysta z serwisów nielegalnych.

Trendy cyberbezpieczeństwa. Analiza DXC Technology

Katarzyna Kuczyńska
Październik to Globalny Miesiąc Cyberbezpieczeństwa. To doskonała okazja dla wszystkich organizacji, by zweryfikować swoje plany w zakresie ochrony przed cyberzagrożeniami, sprawdzić, co udało się już zrobić i przygotować na następne lata.

więcej w dziale: Prawo w mediach

dołącz do nas

Facebook LinkedIn X Twitter TikTok Instagram Threads Youtube Google News Blue Sky Social RSS

Reporterzy.info - internetowy magazyn medioznawczy. Świat komunikacji od kuchni. Media, dziennikarstwo, PR i marketing. Dane, raporty, analizy, porady. Historia i rynek, prawo, fotografia, oferty pracy.


praca w mediach

Wydawca, redaktor
praca stacjonarna i online Dziennikarz, reporter
oferty mediów lokalnych, regionalnych i ogólnopolskich Grafik, Social Media, SEO, reklama
Warszawa • Białystok • Bydgoszcz • Gdańsk • Katowice • Kielce • Kraków • Lublin • Łódź • Olsztyn • Opole • Poznań • Rzeszów • Szczecin • Toruń • Wrocław • Zielona Góra • Praca zdalna Więcej

reklama


Dwornik.pl • szkolenia • warsztaty • marketing internetowy



Sklep reportera

Sklep reportera

Niedrogie laptopy, notebooki i netbooki
Niedrogie laptopy, notebooki i netbooki
do pisania
Cyfrowe lustrzanki i aparaty kompaktowe
Cyfrowe lustrzanki i aparaty kompaktowe
dla fotoreportera
Książki i e-booki o mediach
Książki i e-booki o mediach
do czytania
Drony wideo i latające kamery
Drony wideo i latające kamery
dla pilota
Gimbale do stabilizacji wideo
Gimbale do stabilizacji wideo
dla operatora
Oprogramowanie i aplikacje
Oprogramowanie i aplikacje
dla twórców
więcej produktów

zarabiaj

Zarabiaj przez internet

więcej ofert
gazety w PDF i epub

Czytaj gazety w PDF i EPUB

Okładka Dziennik Gazeta Prawna
Dziennik Gazeta Prawna
Okładka Gazeta Bankowa
Gazeta Bankowa
Okładka Gazeta Polska Codziennie
Gazeta Polska Codziennie
Okładka Gazeta Wyborcza
Gazeta Wyborcza
Okładka Kuchnia
Kuchnia
Okładka Tygodnik Solidarność
Tygodnik Solidarność
więcej e-gazet

Reporterzy.info

Dla głodnych wiedzy

Nasze serwisy

Współpraca


© Dwornik.pl Bartłomiej Dwornik 2oo1-2o25