20.08.2018 Prawo w mediach
Rozpoznać fake news. Technologie do tworzenia fałszywych informacji
BARD
Do fałszowania informacji coraz częściej wykorzystywana jest sztuczna inteligencja. Istnieje już oprogramowanie, dzięki któremu można manipulować wystąpieniami publicznymi polityków. Boty coraz częściej są wykorzystywane także w Polsce, a hejt i trolling to jedne z największych zagrożeń dla internetu.

Walkę z fake newsami zapowiedziały największe firmy, ale na co dzień z wyzwaniem oddzielenia prawdziwych informacji od tych fałszywych zmagają się firmy monitorujące media.
- Czasami trudno rozpoznać, czy komentarz pochodzi z fejkowego konta, czy z konta użytkownika, który jest bardzo mocno przeświadczony o słusznej prawdzie tylko jednej strony - mówi agencji informacyjnej Newseria Innowacje Sebastian Bykowski, wiceprezes zarządu i dyrektor generalny PRESS-SERVICE Monitoring Mediów. - Narzędzia służące do śledzenia historii, obserwacji i analizy profili mogą nam dostarczyć wiele informacji, które są w stanie w dużym stopniu przybliżyć nas do oceny, czy to jest konto fejkowe, czy to jest konto rzeczywiste jakiegoś oponenta danej dyskusji.
W dobie coraz powszechniejszych fake newsów, botów upubliczniających zmanipulowane informacje oraz trolli internetowych dotarcie do wiarygodnych i miarodajnych danych w internecie nie jest łatwe. Firmy profesjonalnie zajmujące się monitoringiem mediów, w tym także tych społecznościowych, dysponują nowoczesnymi narzędziami, dzięki którym są w stanie wychwytywać fałszywe konta i informacje. Chociaż zadaniem firm monitorujących media jest przede wszystkim znalezienie każdej możliwej informacji, jaka pojawia się w przestrzeni medialnej, coraz częściej klienci chcą wiedzieć, która informacja jest prawdziwa, a która może być fałszywa.
- Analitycy dokonują selekcji i badania historii przekazów na poszczególnych kontach. To jest stosunkowo skomplikowany proces, ponieważ należy zbadać historię danego konta, liczbę doniesień, wpisów, jakie prowadzi w określonym czasie, czy one są skierowane wyłącznie do jakiejś grupy odbiorców, czy charakteryzują się jakąś jedną linią przekazu - mówi Sebastian Bykowski. - Kiedy się okazuje, że dany serwis produkuje szczególnej jakości treść, np. bardzo negatywną treść i agresywne przekazy, alarmujemy na ten temat naszego klienta, wskazując mu, że są określone media bardzo aktywne albo na tle innych o wiele bardziej aktywne.
Sztuczna inteligencja fałszuje informacje
Do fałszowania informacji coraz częściej wykorzystywana jest także sztuczna inteligencja. Istnieje już oprogramowanie, dzięki któremu można manipulować wystąpieniami publicznymi polityków. Po internecie krąży nagranie przemówienia Baracka Obamy, który wypowiada dokładnie te same słowa, będąc w różnym wieku - materiał zmontowano za pomocą specjalistycznego oprogramowania. To oznacza, że można już sfałszować publiczne wystąpienie każdego polityka.
Przykładem wykorzystania zasady działania fałszywych informacji na szeroką skalę jest afera Facebooka z początku 2018 roku. Firmie Cambidge Analytica udało się pozyskać dane przeszło 50 mln użytkowników Facebooka, które wykorzystała do stworzenia spersonalizowanych reklam zachęcających do podejmowania konkretnych decyzji wyborczych. Dzięki temu prawdopodobnie udało się wpłynąć na wyniki głosowania dotyczącego brexitu oraz ostatnich wyborów prezydenckich w USA.
- W polityce były i są wyspecjalizowane podmioty, które zajmują się tworzeniem określonych treści i jak najszerszym komentowaniem ich, ale jest pewnego rodzaju zmiana i widoczna tendencja, że pojawia się coraz więcej botów, różnego rodzaju automatycznych serwisów, których zadaniem jest rozpropagowywanie, kopiowanie treści negatywnych w jak najszybszym i najszerszym zasięgu - tłumaczy ekspert. - Jeśli dołożymy do tego różnego rodzaju narzędzia mikrotargetowania i reklamy ukierunkowanej na konkretne grupy odbiorców z określonym przekazem, to wszystko naprawdę potrafi się uzupełnić w nasilony negatywny przekaz.
- Szef Facebooka Mark Zuckerberg stanął przed komisjami senackimi USA, aby wyjaśnić, jak doszło do wykorzystania danych użytkowników serwisu, tłumaczył się również przed Parlamentem Europejskim.
- W wyniku wybuchu afery administratorzy Facebooka usunęli 583 mln fałszywych kont oraz miliardy wpisów łamiących standardy społeczności serwisu.
- Zuckerberg zapowiada kolejne etapy walki z botami oraz trollami internetowymi.
Boty coraz częściej są wykorzystywane także w Polsce, zwłaszcza w polityce.
- Na początku sierpnia 2018 roku zauważono, że kampanię Patryka Jakiego z PiS-u krytykowali użytkownicy Twittera m.in. z Pakistanu, Nepalu czy wysp Reunion.
- Na przełomie października i listopada 2017 roku zauważono, że konto Rafała Trzaskowskiego z PO zaczęło śledzić 10 tysięcy nieaktywnych kont twitterowych, które zidentyfikowano jako potencjalne boty, które mogą być wykorzystane podczas kampanii samorządowej.
- Wiele badań, które się w ostatnim czasie ukazuje, m.in. autorstwa profesorów z Oksfordu, pokazuje, że Polska zaczyna nie odbiegać od innych krajów, gdzie agresywny sposób negatywnej promocji określonych treści jest realizowany - podsumowuje Sebastian Bykowski. - To bez dwóch zdań bardzo negatywne zjawisko. Myślę, że patrząc na dzisiejszy świat komunikacji, to właśnie ten hejt, trolling, jest jednym z największych zagrożeń dla demokratyzacji internetu i przez to również życia publicznego.
Według raportu Transparency Market Research rynek narzędzi do monitorowania mediów przekroczy w 2022 r. wartość 4,2 mld dol. przy średniorocznym tempie wzrostu na poziomie 13,6 proc.
Fake news w Polsce i w Europie
Trzy czwarte Polaków przyznaje, że z fake newsami, czyli informacjami nieprawdziwymi lub zniekształcającymi rzeczywistość, spotyka się raz w tygodniu lub częściej. Tylko 14% ankietowanych uważa, że ten problem nie dotyczy ich w ogóle - wynika z opublikowanych przez Kantar Public wyników badania Eurobarometr.
Na pytanie "Czy obecność wiadomości i informacji, które zniekształcają rzeczywistość lub które nawet są nieprawdziwe, stanowi problem w Pana(i) kraju?" twierdząco odpowiedziało aż 84 procent ankietowanych w Polsce.
- 49% - zdecydowanie tak
- 35% - raczej tak
- 9% - raczej nie
- 3% - zdecydowanie nie
- 4% - nie wiem/nie mam zdania
Pod tym względem plasujemy się w połowie unijnej skali, uzyskując wyniki porównywalne z europejską średnią (44% - zdecydowanie tak, 41 - raczej tak).
Wyniki badania Eurobarometr potwierdzają wnioski z przeprowadzonej niedawno przez Press Club Polska analizy zaufania do informacji w mediach. Wynika z niego, że najbardziej ufamy mediom, jeśli chodzi o informacje o charakterze społecznym, najmniej - polityczne.
- informacje społeczne - zaufanie: 68%, brak zaufania: 30%
- informacje ekonomiczne - 57% do 40%
- informacje polityczne - 46% do 49%
Przedstawienie kontekstu problemu, neutralny język czy nawet popularność źródła informacji, jak wynika z badania opublikowanego przez Press Club Polska, mają znaczenie drugorzędne. Na wiarygodność informacji w mediach najbardziej wpływają natomiast: prezentowanie opinii niezależnych ekspertów, autorytetów w danej dziedzinie, odwoływanie się do badań naukowych i prezentowanie różnych źródeł informacji.
PRZERWA NA REKLAMĘ
Najnowsze w dziale Prawo w mediach:
Pozwy SLAPP w Europie. Jak ucisza się dziennikarzy i aktywistów
Krzysztof Fiedorek
W Europie rośnie liczba strategicznych pozwów, które mają na celu zastraszenie dziennikarzy, aktywistów i organizacji społeczeństwa obywatelskiego. Jak wynika z raportu CASE SLAPPs Report 2024, w latach 2010–2023 zidentyfikowano aż 1049 takich przypadków. Najwięcej - w Polsce.
Dlaczego ludzie szerzą dezinformację? Wyniki badań DigiPatch
Ewelina Krajczyńska-Wujec
Osoby silnie motywowane potrzebą władzy częściej udostępniają posty w mediach społecznościowych, w tym dezinformację. Sama władza, podobnie jak potrzeba zdobycia prestiżu i uznania, nie wiąże się z częstotliwością rozpowszechniania fałszywych informacji - wynika z badań z udziałem prof. Małgorzaty Kossowskiej z Uniwersytetu Jagiellońskiego.
Twórczość AI i prawa autorskie. Dylematy i wyzwania Artificial Creativity
Newseria
Algorytmy potrafią tworzyć muzykę dopasowaną do preferencji i nastroju, malować obrazy, a nawet pisać poezję czy scenariusze filmowe. To rodzi szereg wyzwań dotyczących praw autorskich. Są także wątpliwości dotyczące ochrony dzieł, z których AI się uczy. Narzucanie prawnych zakazów i obostrzeń może jednak nie przynieść efektów.
Podobne artykuły:
Czego nie chroni prawo autorskie? Porady prawne Legalnej Kultury
Paweł Kowalewicz
Tyle się mówi (i pisze) o różniej maści przedmiotach prawa autorskiego i jemu praw pokrewnych. Utwory pierwotne, utwory zależne, artystyczne wykonania, fonogramy itd., itd. Niewiele osób zdaje sobie jednak sprawę, że Ustawa o prawie autorskim i prawach pokrewnych wskazuje na konkretne kategorie „wytworów”, które nie są objęte taką ochroną.
Za dużo reklam w telewizji
Bartłomiej Dwornik
Komisja Europejska uważa, że w polskiej telewizji jest za dużo reklam i zażądała od Warszawy wyjaśnień w tej sprawie.
Europejska Karta Praw Człowieka. Artykuł 10
Komisja Europejska
Każdy ma prawo do wolności wyrażania opinii. Prawo to obejmuje wolność posiadania poglądów oraz otrzymywania i przekazywania informacji i idei bez ingerencji władz publicznych i bez względu na granice państwowe.
RODO w mediach. Przepisy utrudniły planowanie i realizację kampanii
BARD
Większość polskich portali informacyjnych i sklepów internetowych postawiła na pozyskiwanie zgody w praktyce tak zaprojektowanej, że trudno byłoby jej nie udzielić