23.10.2023 Rynek medialny
Fake newsom od sztucznej inteligencji wierzymy bardziej niż ludziom
KrzysztoF
Generowanie i szerzenie dezinformacji z pomocą sztucznej inteligencji może mieć negatywny wpływ na wiele dziedzin życia, w tym na ochronę zdrowia na świecie. Aby sprawdzić, jak tekst stworzony przez SI może wpłynąć na zrozumienie informacji przez odbiorców, naukowcy z Uniwersytetu Zuryskiego przyjrzeli się tweetom wytwarzanym przez GPT-3.
Badacze wygenerowali za pomocą GPT-3 tweety zawierające informacje lub dezinformacje na różne tematy, w tym dotyczące szczepionek, technologii 5G, COVID-19 i teorii ewolucji. Zestawili je z wiadomościami napisanymi przez ludzi. Następnie stworzyli ankietę i poprosili o jej wypełnienie ok. 700 respondentów z kilku krajów, w wieku średnio od 42 do 72 lat, o podobnym wykształceniu.
Syntetyczny czy organiczny?
Pierwszym pytaniem było to, czy dany tweet wygląda na syntetyczny (wygenerowany przez GPT-3), czy organiczny (stworzony przez człowieka). W drugim użytkownicy oceniali, czy informacje zawarte w tweecie były prawdziwe, czy nieprawdziwe pod względem naukowym.
- Informacje wygenerowane przez sztuczną inteligencję były dla respondentów bardziej przekonujące. Ludzie oceniali lepiej prawdziwość informacji wytworzonych przez SI w porównaniu do tych stworzonych przez człowieka. Poza tym ankietowani mieli tendencję do ufania w większym stopniu nieprawdziwym informacjom wygenerowanym przez SI w porównaniu do tych pochodzących od ludzi. Sprawia to, że GPT jest swego rodzaju mieczem obusiecznym, ponieważ ma on potencjalnie pozytywne zastosowania w praktyce, przy jednoczesnej możliwości negatywnych zastosowań do generowania przekonujących fałszywych informacji – mówi agencji Newseria Innowacje dr Federico Germani z Instytutu Etyki Biomedycznej i Historii Medycyny Uniwersytetu Zuryskiego.
Autorzy badania przeanalizowali też potencjał sztucznej inteligencji do identyfikowania dezinformacji. Poprosili GPT-3 o ocenę, które z tweetów są prawdziwe, a które wprowadzają w błąd. SI, podobnie jak respondenci, miał większe trudności z oceną dokładności informacji.
- Zgodnie z wynikami naszego badania nie ma możliwości rozróżnienia pomiędzy informacjami pochodzącymi od człowieka a tymi wygenerowanymi przez GPT-3. Możliwe, że ludzie, którzy opanowują tę technologię i korzystają z niej codziennie, będą mogli rozpoznać różnicę. Jednak nie jest to szczególnie istotne, ponieważ w perspektywie średnio- i długoterminowej w miarę rozwoju nowych modeli i tak nie będziemy w stanie rozróżnić tekstu stworzonego przez człowieka i przez sztuczną inteligencję - ocenia dr Federico Germani.
Sztuczna dezinformacja
Naukowcy proponują zmianę dotychczasowego podejścia do modelu skutecznej komunikacji i oceny informacji, zgodnie z którym człowiek wytwarza informacje, a sztuczna inteligencja pomaga w ich ocenie. Są zdania, że dobrze skrojoną kampanię informacyjną można stworzyć, przekazując wskazówki do SI, która jest w stanie lepiej niż człowiek napisać łatwiejsze w odbiorze teksty, ale dokładność wygenerowanych przez nią informacji powinna być sprawdzona przez przeszkolonych ludzi. Ten model komunikacji może mieć szczególne znaczenie w sytuacji, w której potrzeba jasnej i szybkiej komunikacji z dużymi grupami społeczeństwa.
- Jest to jedno z pierwszych opracowań wskazujących na problem sztucznej inteligencji w kontekście dezinformacji. Warto zaznaczyć, że nasze badanie odbywa się w warunkach doświadczalnych, a nie rzeczywistych, dlatego jest ono ważne dla rozumienia wpływu fałszywych informacji generowanych przez SI na społeczeństwo poprzez obserwację obiegu nieprawdziwych informacji wytworzonych przez SI w mediach społecznościowych i reakcji ludzi na nie. Kolejnym etapem będzie rozumienie wpływu tego zjawiska na zachowania poszczególnych osób oraz na zdrowie jednostek i zdrowie publiczne. Jest to bardzo istotny nowy kierunek badań interakcji ludzi z informacjami w całkowicie nowym otoczeniu sterowanym przez sztuczną inteligencję – podkreśla badacz Uniwersytetu w Zurychu.
Podobne wnioski przedstawiają w swoim raporcie naukowcy z Georgetown University i Obserwatorium Internetu przy Uniwersytecie Stanforda, którzy po przeanalizowaniu możliwości zastosowań SI do szerzenia dezinformacji uważają, że propaganda z wykorzystaniem algorytmów będzie się nasilać.
Oznaczanie treści czy edukacja medialna?
Przygotowanie społeczeństwa do właściwego odbioru informacji jest równie ważne, co współpraca między twórcami SI i platformami mediów społecznościowych, kontrola dostępu do sprzętu i technologii służących do budowy SI czy np. konieczność oznaczania treści wygenerowanych przez algorytm.
– Mamy do czynienia z nadmierną liczbą informacji, które są dostępne dla każdego do oceny, a wśród nich znajduje się sporo fałszywych informacji. Przy wykorzystaniu sztucznej inteligencji liczba fałszywych i prawdziwych informacji prawdopodobnie wzrośnie. Nie możemy myśleć, że mamy nad tym kontrolę – mówi dr Federico Germani. – W czasie pandemii COVID-19 przekonaliśmy się, że cenzura jest narzędziem, które może zostać wykorzystane do ograniczenia fałszywych informacji, ale jest to rozwiązanie mające pozytywne skutki w krótkiej perspektywie czasowej. W perspektywie średnio- i długoterminowej jest ona szkodliwa, prowadząc na przykład do ograniczonego zaufania wobec instytucji opieki zdrowotnej wydających zalecenia w zakresie zdrowia publicznego do przestrzegania w sytuacji kryzysowej. Dlatego musimy znaleźć inne strategie.
Zdaniem badacza jedyną szansą skutecznej walki z dezinformacją jest edukacja medialna odbiorców, aby na podstawie określonych cech danej wiadomości mogli ocenić, czy jest ona prawdziwa, czy też nie.
W polskiej infosferze w celu wypracowania standardów walki z dezinformacją powstał Kodeks Dobrych Praktyk opublikowany przez NASK. Jest on skierowany zarówno do dziennikarzy, osób publicznych, jak i do odbiorców. Zawarte w nim wskazówki pomagają zrozumieć procesy dezinformacyjne, rozpoznawać szkodliwe treści i zapobiegać ich rozpowszechnianiu.
Polacy podzieleni w kwestii zaufania i akceptacji dla sztucznej inteligencji
Sztuczna inteligencja była w ciągu ostatniego roku pojęciem odmienianym przez wszystkie przypadki, głównie za sprawą premiery ChatGPT. Medialna wrzawa, jaka temu towarzyszyła, osłabiła jednak zaufanie Polaków do AI i ich otwartość na nowe technologie. Z badań przeprowadzonych przez Fundację Digital Poland wynika, że obecnie Polacy są w tej kwestii mocno spolaryzowani:
- 24 proc. widzi więcej korzyści niż ryzyk związanych z AI,
- 27 proc. ma odmienne zdanie,
- 25 proc. opowiada się za wstrzymaniem dalszych prac nad tą technologią,
- 33 proc. popiera ich kontynuację.
Z kolei w kwestii zaufania 1/3 Polaków jest skłonna podzielić się z AI informacjami na swój temat, podczas gdy taki sam odsetek badanych jest nieufny wobec AI i nie udostępniłby swoich danych algorytmom.
- W ubiegłym roku pojawił się ChatGPT OpenAI, a w tej chwili to zresztą niejedyny przedstawiciel generatywnej sztucznej inteligencji, bo na rynku są już również Google Bard czy Midjourney. Zrobiła się wokół tego medialna wrzawa, pojawiło się wiele kontrowersji, co spowodowało, że pozytywne nastawienie do sztucznej inteligencji spadło. Wzrosły z kolei obawy o utratę miejsc pracy w wyniku rozwoju AI - mówi Piotr Mieczkowski, dyrektor zarządzający Fundacji Digital Poland.
Medialny szum wokół sztucznej inteligencji
Nowa, piąta edycja raportu „Technologia w służbie społeczeństwu. Czy Polacy zostaną społeczeństwem 5.0?” – opracowanego z okazji piątej edycji Digital Festival przez fundację Digital Poland, GfK Polonia i T-Mobile Polska – pokazuje, że medialny szum wokół sztucznej inteligencji, jaki powstał po premierze ChatuGPT, zmniejszył zaufanie i otwartość Polaków na nowe technologie:
- Odsetek optymistów spadł z 63 proc. w ubiegłym roku do 56 proc. obecnie.
- Znacznie przybyło za to sceptyków nowych technologii (wzrost o ponad 100 proc. w skali roku do 23 proc.), którzy postrzegają je jako skomplikowane, zbędne czy wręcz szkodliwe.
- Aż 64 proc. badanych uważa też, że technologia tworzy sztuczny świat.
- 54 proc. obawia się, że rozwój robotyki i sztucznej inteligencji okaże się zagrożeniem dla miejsc pracy.
Mimo to wśród badanych ciągle jest więcej optymistów (56 proc.) niż sceptyków (23 proc.) nowych technologii i cyfryzacji.
- 55 proc. Polaków wie, czym jest sztuczna inteligencja, a 45 proc. tego nie wie – mówi Piotr Mieczkowski. - My przeprowadziliśmy taki test, pokazując im 12 różnych zastosowań sztucznej inteligencji, od typowych, jak np. wirtualny chatbot, po nieoczywiste dla ludzi. I okazało się, że większość z nich rozumie sztuczną inteligencję przez pryzmat robotyzacji, przez pryzmat czegoś namacalnego, a nie przez pryzmat algorytmów, które np. podpowiadają nam film na jakiejś popularnej platformie streamingowej.
Chętnie korzystamy z AI
Z terminem „sztuczna inteligencja” ogółem zetknęło się aż 88 proc. Polaków. Większość zadeklarowała też, że korzystała z przynajmniej jednego rozwiązania bazującego na AI, z których najczęściej wymieniane były:
- tłumaczenie tekstów (49 proc.),
- chatbot w obsłudze klienta (47 proc.),
- wirtualni asystenci (41 proc.).
Co ciekawe po podaniu oficjalnej definicji sztucznej inteligencji przygotowanej przez kraje OECD i zapisanej w projekcie unijnego rozporządzenia AI Act liczba osób deklarujących znajomość pojęcia i wykorzystanie rozwiązań AI spadła już jednak do 56 proc. Natomiast ujęty w badaniu, szczegółowy test wiedzy o AI pokazał, że polskie społeczeństwo poprawnie rozpoznaje jej najpopularniejsze zastosowania i ma świadomość wykorzystania sztucznej inteligencji w narzędziach takich jak:
- wirtualni asystenci (88 proc.),
- chatboty (77 proc.),
- maszynowe tłumaczenie dokumentów (65 proc.).
Większość nie ma jednak świadomości wykorzystywania AI w zastosowaniach takich jak filtry antyspamowe czy prognoza pogody. Pokazuje to, że Polacy nie kojarzą AI z algorytmami, ale głównie z robotyką.
Tolerancja i akceptacja dla sztucznej inteligencji
– Jeśli chodzi o postrzeganie sztucznej inteligencji i emocje, jakie temu towarzyszą, to w przypadku aż 85 proc. badanych są one pozytywne, to jest tolerancja i akceptacja. Natomiast na drugim biegunie jest 15 proc. badanych, którzy mocno się sprzeciwiają (4%) lub nie pochwalają rozwoju sztucznej inteligencji – mówi dyrektor zarządzający Fundacji Digital Poland.
Jak wskazuje, polskie społeczeństwo jest dużo bardziej spolaryzowane w opiniach dotyczących bilansu korzyści i ryzyk związanych ze sztuczną inteligencją.
- 24 proc. badanych widzi więcej korzyści niż ryzyk,
- 27 proc. ma odmienne zdanie,
- 35 proc. uważa, że ten bilans jest rozłożony równomiernie.
– W ramach badania przeprowadziliśmy eksperyment i pokazaliśmy badanym 10 wyzwań, które dotkną minimum 10 proc. ludzkości w ciągu nadchodzących 10 lat. To są znaczące wydarzenia globalne, takie jak ekstremalne zjawiska pogodowe, klęski żywiołowe, kryzys wodny, wojna czy ataki terrorystyczne na dużą skalę. Dwa spośród tych wyzwań to były szkodliwe konsekwencje sztucznej inteligencji. I okazało się, że tylko 15 proc. Polaków uważa, iż w ciągu 10 lat czeka nas eksterminacja przez sztuczną inteligencję. Natomiast 47 proc. uważa, że prędzej będą temu winne inne, poważne kryzysy, jak np. klęski żywiołowe. I to pokazuje, że choć media – zwłaszcza te nastawione na kliki – lubią mówić o czarnych scenariuszach, to kiedy przychodzi do realnego zestawienia tych prawdopodobnych ryzyk, to scenariusz a la „Terminator 2” jest na samym dole tej listy – mówi Piotr Mieczkowski.
Jak wynika z nowego raportu Fundacji Digital Poland, główne obawy Polaków związane z AI dotyczą niewiadomych w zakresie jej rozwoju (64 proc.) oraz gromadzenia zbyt wielu danych przez produkty i usługi bazujące na sztucznej inteligencji. Średnio czterech na 10 Polaków uważa też, że AI zlikwiduje więcej miejsc pracy, niż ich stworzy. Przeciwnego zdania jest jedynie 18 proc. badanych – w większości osób młodych, z dużych ośrodków i posiadających większą wiedzę na temat narzędzi sztucznej inteligencji.
– Polacy faktycznie obawiają się wpływu AI na rynek pracy – mówi dyrektor zarządzający Fundacji Digital Poland. – Inny wniosek z badania tego wpływu na rynek pracy jest taki, że większość Polaków nie chce też całkowicie polegać na algorytmach.
Nadzór człowieka warunkiem zaufania
Kwestią, w której Polacy są dużo bardziej podzieleni, okazało się zaufanie do AI. Z raportu wynika, że 1/3 respondentów jest skłonna zaufać sztucznej inteligencji lub podzielić się z nią informacjami. Z drugiej strony taki sam odsetek badanych jest nieufny wobec AI i nie udostępniłby swoich danych algorytmom.
- Głównym czynnikiem, który mógłby zwiększyć poziom społecznego zaufania, okazał się szerszy nadzór człowieka nad rozwojem systemów AI, na który wskazało 40 proc. badanych.
- Średnio czterech na 10 Polaków chce również lepszego uregulowania prawnego tego obszaru.
- Prawie połowa jest za tym, aby Unia Europejska – w tym Polska – w znaczącym stopniu regulowała rozwój i korzystanie z AI, nawet kosztem przegrania technologicznego wyścigu z USA i Chinami.
– Polacy w ogóle we wszelkich naszych badaniach potwierdzają, że bardzo ważna jest prywatność i nadzór człowieka nad sztuczną inteligencją, to jest praktycznie numer jeden. Jeśli powiemy, że za danym narzędziem AI stoi człowiek, który je nadzoruje, to nagle akceptacja rośnie praktycznie o połowę – mówi Piotr Mieczkowski.
Raport opracowany przez Fundację Digital Poland pokazuje również, że Polacy zdają sobie sprawę z tego, iż sztuczna inteligencja jest technologią przyszłości. Prawie 1/3 badanych uważa, że AI już w tej chwili przeobraża gospodarkę, społeczeństwo i rynek pracy. Kolejne 43 proc. uważa, że rozwój AI dokona tego w perspektywie nachodzących dwóch dekad. Co ciekawe polskie społeczeństwo jest jednak podzielone również w kwestii dalszych prac nad tą technologią – 25 proc. opowiada się za ich wstrzymaniem, a 33 proc. popiera ich kontynuację.
– Mamy pole do edukacji, ponieważ akceptacja dla sztucznej inteligencji, jej rozwoju i zastosowań jest wyższa wśród osób, które mają na ten temat wiedzę. Ci, którzy tej wiedzy nie mają, częściej obawiają się niewiadomego, podchodzą z większym sceptycyzmem – mówi dyrektor zarządzający Fundacji Digital Poland.
Istotny jest również fakt, że Polacy dostrzegają w AI nie tylko zagrożenia, ale i szanse. Średnio czterech na 10 badanych uważa, że AI może pomóc rozwiązać wiele globalnych i krajowych problemów, jak np. niedobór lekarzy i kierowców na rynku pracy, zmiany klimatu czy konieczna transformacja energetyczna. Prawie połowa Polaków wskazała też, że rozwiązania oparte na AI już w tej chwili ułatwiają im życie.
źródło: Newseria
PRZERWA NA REKLAMĘ
Zobacz artykuły na podobny temat:
Czy kinematografia potrafi przewidzieć przyszłość?
dr Małgorzata Bulaszewska
Powstało tak wiele filmów science fiction, że czasami zastanawiamy się, czy widziane na ekranie technologie już istnieją na świecie, czy to tylko wizja twórców. Czy możemy mówić o wizjonerskich właściwościach sztuki filmowej w określaniu kierunków rozwoju naukowego, technologicznego, społecznego i kulturowego rozwoju człowieka?
Prognozy dla rynku mediów i rozrywki. Cyfryzacja i mobile
Roksana Gowin
Globalny rynek mediów i rozrywki w najbliższych 5 latach będzie rósł w tempie 5% rocznie, osiągając w 2018 roku wartość 2,2 bln dolarów - zapowiadali w 2014 roku eksperci PwC. Polski rynek miał rosnąć w tempie 3,7% i w 2018 roku będzie warty 12,6 mld dolarów.
Media regionalne - sukcesy i porażki
dr Lidia Pokrzycka, Katarzyna Bernat
W małym środowisku dziennikarze nie są ludźmi anonimowymi. To utrudnienia prowadzenie dziennikarstwa śledczego, ale pozwala szybciej zdobywać informacje.
We Wrocławiu władza urabia dziennikarzy
Bartosz Chochołowski
Dlaczego Wrocław ma taką dobra prasę w Polsce? Z nagrania dokonanego przez reportera TOK FM wynika, że rzecznik prezydenta oraz szef biura prasowego szantażują dziennikarza.
Błyskawiczny dostęp do wiadomości. Tego chcą użytkownicy Twittera
Sony
Firma Sony podjęła się analizy najbardziej angażujących treści wideo na Twitterze. Były one związane z najistotniejszymi wydarzeniami 2022 roku w całej Europie – miały ponad 201 milionów wyświetleń oraz ponad 8,6 milionów interakcji: udostępnień, polubień i komentarzy.
Polacy czytają coraz mniej? Niekoniecznie!
Bartłomiej Dwornik
W wojnie o czytelnika prasa wydaje się być już zdaniem wielu medioznawców na pozycji straconej, choć oczywiście nie zniknie całkowicie. Jej głównym rywalem jest internet.
Przyszłość mediów i telewizji. Raport The Future Laboratory i Sony
Newseria
Szybkie przechodzenie na rozwiązania cyfrowe sprawia, że media i telewizja wkraczają w okres eksperymentów i poszukiwań nowych pomysłów, mając bardzo mało ograniczeń. Dla konsumentów, którzy zyskują dostęp do mnóstwa nowych treści i wizji, jest to korzystne, ale dla branży rok 2022 będzie czasem ciężkiej próby.