menu szukaj
tygodnik internetowy ISSN 2544-5839
nowe artykuły w każdy poniedziałek
tytuł monitorowany przez IMM i PSMM
zamknij
Work in media. Find a job in the world of communications.

20.11.2023 Rynek medialny

Mowa nienawiści i ekstremizm. Luki w politykach platform social media

NB

Naukowcy z Uniwersytetu Huddersfield w Wielkiej Brytanii wykazali, że użytkownicy mediów społecznościowych nawet przez połowę czasu tam spędzanego mogą mieć styczność z przekazami z mową nienawiści i treściami ekstremistycznymi. To daje średnio około 70 minut dziennie.

Mowa nienawiści i ekstremizm. Luki w politykach platform social mediailustracja: bing.com/create

Naukowcy wskazują na dużą rozbieżność między negatywnymi doświadczeniami osób korzystających z portali społecznościowych a wprowadzonym przez te serwisy poziomem zabezpieczeń przed rozpowszechnianiem niepożądanych treści.

- Szacunkowa liczba osób, które obecnie korzystają z mediów społecznościowych na świecie, wynosi około 60 proc., co oznacza, że korzystają z nich właściwie wszyscy, jeśli odliczymy osoby zbyt młode, żeby mieć konto w mediach społecznościowych, i osoby będące podeszłym wieku. Mówimy więc o populacji w wieku od około 16 lat do 70- czy 80-latków, która stale rośnie - mówi agencji Newseria Innowacje Thomas Williams z Uniwersytetu Huddersfield w Wielkiej Brytanii. - Z biegiem lat media społecznościowe stały się częścią życia codziennego i komunikacji, również w pracy. Wiele osób realizuje się zawodowo w mediach społecznościowych. Należą one więc do istotnych elementów naszego życia społecznego w internecie.

Badanie opublikowane przez Global Network on Extremism and Technology miało na celu porównanie doświadczeń użytkowników social mediów pod względem narażenia na treści nienawistne i ekstremistyczne (w tym promujące rasizm, antysemityzm i ksenofobię) a zabezpieczeniami wprowadzonymi przez te serwisy.

AUTOPROMOCJA. Masz minutę? Poznaj nasz format #59sec REPORT na Youtube

Doświadczenia użytkowników zbadano za pomocą kwestionariusza zawierającego skalę narażenia na ekstremalne treści (OECE). Składał się z:

  • 12 pytań na temat mowy nienawiści,
  • 8 dotyczących treści ekstremistycznych.

Każde pytanie dotyczące mowy nienawiści dotyczyło innego tematu, np. konkretnych ras, płci i religii. Część kwestionariusza dotycząca komunikacji ekstremistycznej skupiała się na materiałach, które wychwalają, wspierają lub reprezentują skrajną ideologię lub grupę. Miarą doświadczeń użytkowników była sześciopunktowa skala Likerta – od odpowiedzi „nigdy” do „zawsze”.

Wyniki kwestionariusza naukowcy zestawili następnie z działaniami portali w zakresie polityki ochronnej. Największe serwisy, takie jak Facebook, Twitter, YouTube, Pinterest czy Instagram, w wytycznych dla swoich społeczności otwarcie zaznaczają, że nie tolerują mowy nienawiści i ekstremizmu. Choć serwisy ciągle ulepszają swoje środki ochronne, okazuje się, że użytkownicy są bardzo narażeni na niepożądane treści.

- Po porównaniu wyników stwierdziliśmy, że prawie wszystkie portale społecznościowe, z których korzysta większość populacji, stwierdzają, że nie tolerują żadnych form mowy nienawiści ani wymiany treści ekstremistycznych, a jednak uczestnicy naszego badania zgłaszali, że byli narażeni na takie treści dosyć często - podkreśla Thomas Williams. - Było tak w przypadku około 48 proc. czasu korzystania z mediów społecznościowych. Skoro przeciętny użytkownik spędza w social mediach 2,5 godziny dziennie, oznacza to około 70 minut dziennie narażenia na materiały o charakterze ekstremistycznym.

Naukowcy są zdania, że istnieje kilka możliwych wyjaśnień rozbieżności między doświadczeniami użytkowników a polityką ochronną portali społecznościowych. W przypadku firm, których siedzibą są Stany Zjednoczone, problemem mogą być uwarunkowania prawne. Znane serwisy, takie jak Facebook, Twitter czy Reddit, są chronione ustawą Communications Decency Act z 1996 roku, która zapewnia ochronę witryn mediów społecznościowych w zakresie treści i nakłada odpowiedzialność za publikacje na użytkowników, którzy je zamieszczają. Ci z kolei mają konstytucyjne prawo do wolności słowa, co teoretycznie może chronić osoby promujące treści nienawistne i skrajne.

REKLAMA

Kolejną podnoszoną przez naukowców kwestią jest to, że serwisy społecznościowe wykrywają znaczną ilość niepożądanych treści i usuwają je, zanim użytkownicy zdążą się z nimi zapoznać. Raport Facebooka wskazuje, że jest to:

  • 82 proc. mowy nienawiści
  • 99,1 proc. treści ekstremistycznych.

W przypadku Instagrama te wartości wynoszą odpowiednio 95,3 proc. i 95,1 proc. Jednak ta pozostała, niewielka część, która nie jest natychmiast wyłapywana, stanowi prawie połowę treści, na które użytkownicy zgłaszają narażenie. Poza tym okazuje się, że moderowanie treści jest skuteczniejsze w przypadku komunikacji i propagandy ekstremistycznej. Mowa nienawiści jest dla serwisów trudniejsza do wykrycia, dlatego to na nią użytkownicy portali są narażeni w większym stopniu.

- Wyniki badania są niepokojące i zaskakujące, dlatego że im bardziej jesteśmy narażeni na szkodliwe treści, tym większa szansa, że trafią one do osób podatnych na nie, do osób, które można nakłonić lub zachęcić do przyłączenia się do zwolenników tych ideologii. Prowadzi to także do wzrostu liczby osób prezentujących postawy radykalne i większego prawdopodobieństwa wystąpienia aktów przemocy, jeśli proces radykalizacji będzie postępował - zauważa badacz z Uniwersytetu Huddersfield.

Jego zdaniem można skuteczniej ograniczyć ilość niepożądanych treści docierających do użytkowników serwisów społecznościowych.

REKLAMA

– Portale mogą korzystać z badań naukowych, które wskazują na luki w obecnych politykach bezpieczeństwa. Następnie mogą na tej podstawie wprowadzać strategie bezpieczeństwa. Z kolei użytkownicy mogą korzystać z mechanizmów wewnętrznych portali i zgłaszać materiały o charakterze ekstremistycznym, szkodliwe i cechujące się nienawiścią wobec określonych grup lub treści nawołujące do przemocy. Jeśli wystarczająca liczba osób będzie to robić, moderatorzy portali otrzymają te zgłoszenia i, miejmy nadzieję, będą usuwać te treści, co z kolei sprawi, że nie zobaczą ich kolejne osoby, które potencjalnie mogłyby ulec radykalizacji – mówi Thomas Williams. – Dzięki poznawaniu procesu radykalizacji osób w internecie, który odbywa się przez kontakt z dużymi ilościami materiałów o charakterze ekstremistycznym, możemy podjąć działania w przyszłości, wskazując potencjalne ulepszenia działań zabezpieczających, które pomogą portalom społecznościowym zapewnić bezpieczeństwo.

Największe serwisy zabezpieczają publikowane treści, zatrudniając moderatorów, którzy aktywnie reagują na przejawy mowy nienawiści i ekstremizmu, ale w coraz większym stopniu wykorzystują też do tego sztuczną inteligencję. Rzadko jednak ujawniają, jak wdrażają wielojęzyczne modele językowe i na ile są one skuteczne w moderowaniu treści na skalę globalną. Niedawne badanie przeprowadzone przez Centrum Demokracji i Technologii pokazuje, że wielojęzyczne modele językowe, na których opiera się moderowanie treści przez SI, może mieć wiele ograniczeń. Jest to widoczne zwłaszcza w społecznościach posługujących się językami mniej reprezentowanymi w internecie, a więc dającymi SI mniejsze szanse na dostosowanie swoich modeli do tych języków. Jednym z nich jest język baskijski.

Przykładowo „uso” oznacza w nim gołębicę, a może być rozumiane jako obelga używana wobec mężczyzn prezentujących się kobieco. System moderacji sztucznej inteligencji opierający się na anglojęzycznych danych szkoleniowych może nie zrozumieć kontekstu tego słowa. Dostosuje je do symboliki gołębicy stosowanej w języku angielskim, czyli oznaczającej pokój. W efekcie SI nie zakwalifikuje słowa „uso” jako treści homofobicznych.

Udostępnij znajomym:

dodaj na Facebook prześlij przez Messenger dodaj na Twitter dodaj na LinkedIn

PRZERWA NA REKLAMĘ

Najnowsze w dziale Rynek medialny:

Clickbait pod lupą. Jak przez 25 lat zmieniały się nagłówki w internecie

Krzysztof Fiedorek
Badacze z Max Planck Institute przenalizowali 40 milionów nagłówków z ostatnich 25 lat. Są coraz dłuższe, bardziej emocjonalne i negatywne, z wyraźnym wpływem stylu clickbaitowego. Nawet renomowane media stosują strategie i tricki przyciągające uwagę.

Gen Z zmusi marki do mówienia prawdy. Raport i prognozy GWI

Krzysztof Fiedorek
Cenią autentyczność i transparentność marek, preferując firmy zaangażowane społecznie. Młodzi ludzie traktują technologię jako narzędzie rozwoju, a nie tylko rozrywki. W relacjach stawiają na prawdziwe więzi, mimo intensywnej obecności online. Co wiemy o Gen Z i jakie ta wiedza ma znaczenie w marketingu? I nie tylko w nim.

Deepfake zaciera granicę prawdy i fałszu. Wyniki badań ludzkiej percepcji

KFi
Badania wskazują, że jedynie 60% deepfake'owych obrazów może zostać prawidłowo rozpoznanych przez człowieka. W miarę jak AI zaczyna dominować w produkcji treści, rośnie problem zmęczenia rozróżnianiem – użytkownicy tracą pewność oceny autentyczności informacji i popadają w cynizm.

Podobne artykuły:

Wojna i komunikacja. Edycja specjalna badania Kryzysometr

Dagmara Gac
Aż 9 na 10 organizacji uczestniczących w specjalnej edycji badania „Kryzysometr” miało od czasu inwazji Rosji na Ukrainę do czynienia z różnego rodzaju trudnościami, które wymagały wprowadzenia specjalnych działań komunikacyjnych. Dużym wyzwaniem jest również walka z fake newsami i hejtem.

VOD i usługi streamingowe. Raport Deloitte Digital Media Trends

Magdalena Biedrzycka-Doliwa
Po wybuchu pandemii 23 proc. amerykańskich klientów zasubskrybowało co najmniej jedną nową płatną usługę wideo. W Polsce już 55 proc. dorosłych konsumentów korzysta z różnego rodzaju subskrypcji VOD.

TV Puls inwestuje i rusza na podbój rynku

Bartosz Chochołowski
"Planujemy zainwestować w rozwój TV Puls miliony złotych. Mam nadzieję, że będzie rentowna do czerwca 2009" - zapowiada Farrell Meisel, prezes zarządu TV Puls.

Przyszłość dziennikarstwa i mediów. Prognozy Reuters Institute

KFi
74% wydawców obawia się spadku ruchu z wyszukiwarek. Płatnych subskrybentów nie przybywa, jak kiedyś, a relacje z gigantami technologicznymi stają się coraz bardziej skomplikowane. Raport "Journalism, Media, and Technology Trends and Predictions 2025" prognozuje, co czeka świat mediów w 2025 roku.

więcej w dziale: Rynek medialny

dołącz do nas

Facebook LinkedIn X Twitter TikTok Instagram Threads Youtube Google News Blue Sky Social RSS

Reporterzy.info - internetowy magazyn medioznawczy. Świat komunikacji od kuchni. Media, dziennikarstwo, PR i marketing. Dane, raporty, analizy, porady. Historia i rynek, prawo, fotografia, oferty pracy.


praca w mediach

Wydawca, redaktor
praca stacjonarna i online Dziennikarz, reporter
oferty mediów lokalnych, regionalnych i ogólnopolskich Grafik, Social Media, SEO, reklama
Warszawa • Białystok • Bydgoszcz • Gdańsk • Katowice • Kielce • Kraków • Lublin • Łódź • Olsztyn • Opole • Poznań • Rzeszów • Szczecin • Toruń • Wrocław • Zielona Góra • Praca zdalna Więcej

reklama


Dwornik.pl • szkolenia • warsztaty • marketing internetowy



Sklep reportera

Sklep reportera

Niedrogie laptopy, notebooki i netbooki
Niedrogie laptopy, notebooki i netbooki
do pisania
Cyfrowe lustrzanki i aparaty kompaktowe
Cyfrowe lustrzanki i aparaty kompaktowe
dla fotoreportera
Książki i e-booki o mediach
Książki i e-booki o mediach
do czytania
Drony wideo i latające kamery
Drony wideo i latające kamery
dla pilota
Gimbale do stabilizacji wideo
Gimbale do stabilizacji wideo
dla operatora
Oprogramowanie i aplikacje
Oprogramowanie i aplikacje
dla twórców
więcej produktów

reklama



gazety w PDF i epub

Czytaj gazety w PDF i EPUB

Okładka Kuchnia
Kuchnia
Okładka National Geographic Traveler
National Geographic Traveler
Okładka Przegląd
Przegląd
Okładka Sieci
Sieci
Okładka Super Express
Super Express
Okładka Świat Nauki
Świat Nauki
więcej e-gazet

Reporterzy.info

Dla głodnych wiedzy

Nasze serwisy

Współpraca


© Dwornik.pl Bartłomiej Dwornik 2oo1-2o25