menu
tygodnik internetowy
ISSN 2544-5839
zamknij
Czytaj gazety  PDF. Na kmputerze, czytniku, tablecie i smartfonie.

20.11.2023 Rynek medialny

Mowa nienawiści i ekstremizm. Luki w politykach platform social media

NB

Naukowcy z Uniwersytetu Huddersfield w Wielkiej Brytanii wykazali, że użytkownicy mediów społecznościowych nawet przez połowę czasu tam spędzanego mogą mieć styczność z przekazami z mową nienawiści i treściami ekstremistycznymi. To daje średnio około 70 minut dziennie.

Mowa nienawiści i ekstremizm. Luki w politykach platform social mediailustracja: bing.com/create

Naukowcy wskazują na dużą rozbieżność między negatywnymi doświadczeniami osób korzystających z portali społecznościowych a wprowadzonym przez te serwisy poziomem zabezpieczeń przed rozpowszechnianiem niepożądanych treści.

- Szacunkowa liczba osób, które obecnie korzystają z mediów społecznościowych na świecie, wynosi około 60 proc., co oznacza, że korzystają z nich właściwie wszyscy, jeśli odliczymy osoby zbyt młode, żeby mieć konto w mediach społecznościowych, i osoby będące podeszłym wieku. Mówimy więc o populacji w wieku od około 16 lat do 70- czy 80-latków, która stale rośnie - mówi agencji Newseria Innowacje Thomas Williams z Uniwersytetu Huddersfield w Wielkiej Brytanii. - Z biegiem lat media społecznościowe stały się częścią życia codziennego i komunikacji, również w pracy. Wiele osób realizuje się zawodowo w mediach społecznościowych. Należą one więc do istotnych elementów naszego życia społecznego w internecie.

Badanie opublikowane przez Global Network on Extremism and Technology miało na celu porównanie doświadczeń użytkowników social mediów pod względem narażenia na treści nienawistne i ekstremistyczne (w tym promujące rasizm, antysemityzm i ksenofobię) a zabezpieczeniami wprowadzonymi przez te serwisy.


Doświadczenia użytkowników zbadano za pomocą kwestionariusza zawierającego skalę narażenia na ekstremalne treści (OECE). Składał się z:

  • 12 pytań na temat mowy nienawiści,
  • 8 dotyczących treści ekstremistycznych.

Każde pytanie dotyczące mowy nienawiści dotyczyło innego tematu, np. konkretnych ras, płci i religii. Część kwestionariusza dotycząca komunikacji ekstremistycznej skupiała się na materiałach, które wychwalają, wspierają lub reprezentują skrajną ideologię lub grupę. Miarą doświadczeń użytkowników była sześciopunktowa skala Likerta – od odpowiedzi „nigdy” do „zawsze”.

Wyniki kwestionariusza naukowcy zestawili następnie z działaniami portali w zakresie polityki ochronnej. Największe serwisy, takie jak Facebook, Twitter, YouTube, Pinterest czy Instagram, w wytycznych dla swoich społeczności otwarcie zaznaczają, że nie tolerują mowy nienawiści i ekstremizmu. Choć serwisy ciągle ulepszają swoje środki ochronne, okazuje się, że użytkownicy są bardzo narażeni na niepożądane treści.

- Po porównaniu wyników stwierdziliśmy, że prawie wszystkie portale społecznościowe, z których korzysta większość populacji, stwierdzają, że nie tolerują żadnych form mowy nienawiści ani wymiany treści ekstremistycznych, a jednak uczestnicy naszego badania zgłaszali, że byli narażeni na takie treści dosyć często - podkreśla Thomas Williams. - Było tak w przypadku około 48 proc. czasu korzystania z mediów społecznościowych. Skoro przeciętny użytkownik spędza w social mediach 2,5 godziny dziennie, oznacza to około 70 minut dziennie narażenia na materiały o charakterze ekstremistycznym.

Naukowcy są zdania, że istnieje kilka możliwych wyjaśnień rozbieżności między doświadczeniami użytkowników a polityką ochronną portali społecznościowych. W przypadku firm, których siedzibą są Stany Zjednoczone, problemem mogą być uwarunkowania prawne. Znane serwisy, takie jak Facebook, Twitter czy Reddit, są chronione ustawą Communications Decency Act z 1996 roku, która zapewnia ochronę witryn mediów społecznościowych w zakresie treści i nakłada odpowiedzialność za publikacje na użytkowników, którzy je zamieszczają. Ci z kolei mają konstytucyjne prawo do wolności słowa, co teoretycznie może chronić osoby promujące treści nienawistne i skrajne.

REKLAMATania Książka
Kolejną podnoszoną przez naukowców kwestią jest to, że serwisy społecznościowe wykrywają znaczną ilość niepożądanych treści i usuwają je, zanim użytkownicy zdążą się z nimi zapoznać. Raport Facebooka wskazuje, że jest to:

  • 82 proc. mowy nienawiści
  • 99,1 proc. treści ekstremistycznych.

W przypadku Instagrama te wartości wynoszą odpowiednio 95,3 proc. i 95,1 proc. Jednak ta pozostała, niewielka część, która nie jest natychmiast wyłapywana, stanowi prawie połowę treści, na które użytkownicy zgłaszają narażenie. Poza tym okazuje się, że moderowanie treści jest skuteczniejsze w przypadku komunikacji i propagandy ekstremistycznej. Mowa nienawiści jest dla serwisów trudniejsza do wykrycia, dlatego to na nią użytkownicy portali są narażeni w większym stopniu.

- Wyniki badania są niepokojące i zaskakujące, dlatego że im bardziej jesteśmy narażeni na szkodliwe treści, tym większa szansa, że trafią one do osób podatnych na nie, do osób, które można nakłonić lub zachęcić do przyłączenia się do zwolenników tych ideologii. Prowadzi to także do wzrostu liczby osób prezentujących postawy radykalne i większego prawdopodobieństwa wystąpienia aktów przemocy, jeśli proces radykalizacji będzie postępował - zauważa badacz z Uniwersytetu Huddersfield.

Jego zdaniem można skuteczniej ograniczyć ilość niepożądanych treści docierających do użytkowników serwisów społecznościowych.

Czytaj prasę w PDF
– Portale mogą korzystać z badań naukowych, które wskazują na luki w obecnych politykach bezpieczeństwa. Następnie mogą na tej podstawie wprowadzać strategie bezpieczeństwa. Z kolei użytkownicy mogą korzystać z mechanizmów wewnętrznych portali i zgłaszać materiały o charakterze ekstremistycznym, szkodliwe i cechujące się nienawiścią wobec określonych grup lub treści nawołujące do przemocy. Jeśli wystarczająca liczba osób będzie to robić, moderatorzy portali otrzymają te zgłoszenia i, miejmy nadzieję, będą usuwać te treści, co z kolei sprawi, że nie zobaczą ich kolejne osoby, które potencjalnie mogłyby ulec radykalizacji – mówi Thomas Williams. – Dzięki poznawaniu procesu radykalizacji osób w internecie, który odbywa się przez kontakt z dużymi ilościami materiałów o charakterze ekstremistycznym, możemy podjąć działania w przyszłości, wskazując potencjalne ulepszenia działań zabezpieczających, które pomogą portalom społecznościowym zapewnić bezpieczeństwo.

Największe serwisy zabezpieczają publikowane treści, zatrudniając moderatorów, którzy aktywnie reagują na przejawy mowy nienawiści i ekstremizmu, ale w coraz większym stopniu wykorzystują też do tego sztuczną inteligencję. Rzadko jednak ujawniają, jak wdrażają wielojęzyczne modele językowe i na ile są one skuteczne w moderowaniu treści na skalę globalną. Niedawne badanie przeprowadzone przez Centrum Demokracji i Technologii pokazuje, że wielojęzyczne modele językowe, na których opiera się moderowanie treści przez SI, może mieć wiele ograniczeń. Jest to widoczne zwłaszcza w społecznościach posługujących się językami mniej reprezentowanymi w internecie, a więc dającymi SI mniejsze szanse na dostosowanie swoich modeli do tych języków. Jednym z nich jest język baskijski.

Przykładowo „uso” oznacza w nim gołębicę, a może być rozumiane jako obelga używana wobec mężczyzn prezentujących się kobieco. System moderacji sztucznej inteligencji opierający się na anglojęzycznych danych szkoleniowych może nie zrozumieć kontekstu tego słowa. Dostosuje je do symboliki gołębicy stosowanej w języku angielskim, czyli oznaczającej pokój. W efekcie SI nie zakwalifikuje słowa „uso” jako treści homofobicznych.

Udostępnij znajomym:

dodaj na Facebook prześlij przez Messenger dodaj na Twitter dodaj na LinkedIn

PRZERWA NA REKLAMĘ
Czytaj prasę w PDF

Najnowsze w dziale Rynek medialny:

Treści od użytkowników w sieci. Pole minowe dla dziennikarzy

Krzysztof Fiedorek
Ponad 40% internautów ocenia wiarygodność informacji na bazie liczby polubień i wyświetleń. Tradycyjne kanały są pierwszym źródłem newsów tylko dla co piątego z nas. Raport Reuters Institute pokazuje skalę i ryzyka, jakie User Generated Content niesie dla mediów. I podpowiada, jak nie wpaść w pułapkę.

Social media w 2025. Różnice pokoleniowe widać jak na dłoni

KFi
Coraz więcej osób deklaruje, że zmniejsza czas spędzany w social mediach. I choć nie oznacza to masowego odpływu, trend jest wyraźny. Z najnowszego raportu GWI wynika, że już 31% użytkowników deklaruje ograniczanie czasu w mediach społecznościowych. Między wierszami widać też frustrację.

Czy robot może być dobrym szefem? Naukowcy z SWPS to sprawdzili

SWPS
Czy robot może skutecznie zarządzać zespołem? Badacze z Uniwersytetu SWPS sprawdzili, co się dzieje, gdy to robot zostaje szefem. Badania pokazują, że choć maszyny potrafią wzbudzać posłuszeństwo, nie dorównują ludziom pod względem autorytetu i efektywności. Skutki są intrygujące.

Podobne artykuły:

Pułapka egoistyczna. Nowa technika wpływu społecznego

Krzysztof Fiedorek
Trzej psychologowie Uniwersytetu SWPS opisali metodę wpływu społecznego, zgodnie z którą chętniej wykonamy zadanie, jeśli mamy wykazać się przy tym ważną dla nas cechą np.: lojalnością, inteligencją czy rozsądkiem.

Internet zdominował informacje lokalne. Telewizja w odwrocie

Joanna Trybuchowska
Internauci informacji na temat swojego regionu najchętniej szukają w sieci. W przeciągu dwóch lat znacznie poszerzył się zakres informacji oraz odsetek osób dzielących się nimi.

"Polska". Sukces czy porażka?

Jarosław Jakimczyk
Nowy dziennik ogólnopolski, wydawany przez Grupę Wydawniczą Polskapresse, powinien wyjaśnić zagadkę dalszych kierunków rozwoju rynku prasowego w naszym kraju.

Media regionalne - sukcesy i porażki

dr Lidia Pokrzycka, Katarzyna Bernat
W małym środowisku dziennikarze nie są ludźmi anonimowymi. To utrudnienia prowadzenie dziennikarstwa śledczego, ale pozwala szybciej zdobywać informacje.

więcej w dziale: Rynek medialny

dołącz do nas

Facebook LinkedIn X Twitter TikTok Instagram Threads Youtube Google News Blue Sky Social RSS

Reporterzy.info - internetowy magazyn medioznawczy. Świat komunikacji od kuchni. Media, dziennikarstwo, PR i marketing. Dane, raporty, analizy, porady. Historia i rynek, prawo, fotografia, oferty pracy.


praca w mediach

Wydawca, redaktor
praca stacjonarna i online Dziennikarz, reporter
oferty mediów lokalnych, regionalnych i ogólnopolskich Grafik, Social Media, SEO, reklama
Warszawa • Białystok • Bydgoszcz • Gdańsk • Katowice • Kielce • Kraków • Lublin • Łódź • Olsztyn • Opole • Poznań • Rzeszów • Szczecin • Toruń • Wrocław • Zielona Góra • Praca zdalna Więcej

reklama

Cyfrowej.pl



Sklep reportera

Sklep reportera

Niedrogie laptopy, notebooki i netbooki
Niedrogie laptopy, notebooki i netbooki
do pisania
Cyfrowe lustrzanki i aparaty kompaktowe
Cyfrowe lustrzanki i aparaty kompaktowe
dla fotoreportera
Książki i e-booki o mediach
Książki i e-booki o mediach
do czytania
Drony wideo i latające kamery
Drony wideo i latające kamery
dla pilota
Gimbale do stabilizacji wideo
Gimbale do stabilizacji wideo
dla operatora
Oprogramowanie i aplikacje
Oprogramowanie i aplikacje
dla twórców
więcej produktów

zarabiaj

Zarabiaj przez internet

więcej ofert
gazety w PDF i epub

Czytaj gazety w PDF i EPUB

Okładka Auto Świat
Auto Świat
Okładka Forbes
Forbes
Okładka Gość Niedzielny
Gość Niedzielny
Okładka Newsweek Polska
Newsweek Polska
Okładka O Czym Lekarze Ci Nie Powiedzą
O Czym Lekarze Ci Nie Powiedzą
Okładka Świat Nauki
Świat Nauki
więcej e-gazet

Reporterzy.info

Dla głodnych wiedzy

Nasze serwisy

Współpraca


© Dwornik.pl Bartłomiej Dwornik 2oo1-2o25