menu szukaj
tygodnik internetowy ISSN 2544-5839
nowe artykuły w każdy poniedziałek
tytuł monitorowany przez IMM i PSMM
zamknij
Czytaj gazety  PDF. Na kmputerze, czytniku, tablecie i smartfonie.

23.10.2023 Rynek medialny

Fake newsom od sztucznej inteligencji wierzymy bardziej niż ludziom

KrzysztoF

Generowanie i szerzenie dezinformacji z pomocą sztucznej inteligencji może mieć negatywny wpływ na wiele dziedzin życia, w tym na ochronę zdrowia na świecie. Aby sprawdzić, jak tekst stworzony przez SI może wpłynąć na zrozumienie informacji przez odbiorców, naukowcy z Uniwersytetu Zuryskiego przyjrzeli się tweetom wytwarzanym przez GPT-3.

Fake newsom od sztucznej inteligencji wierzymy bardziej niż ludziomilustracja: bing.com/create

Badacze wygenerowali za pomocą GPT-3 tweety zawierające informacje lub dezinformacje na różne tematy, w tym dotyczące szczepionek, technologii 5G, COVID-19 i teorii ewolucji. Zestawili je z wiadomościami napisanymi przez ludzi. Następnie stworzyli ankietę i poprosili o jej wypełnienie ok. 700 respondentów z kilku krajów, w wieku średnio od 42 do 72 lat, o podobnym wykształceniu.

Syntetyczny czy organiczny?


Pierwszym pytaniem było to, czy dany tweet wygląda na syntetyczny (wygenerowany przez GPT-3), czy organiczny (stworzony przez człowieka). W drugim użytkownicy oceniali, czy informacje zawarte w tweecie były prawdziwe, czy nieprawdziwe pod względem naukowym.

- Informacje wygenerowane przez sztuczną inteligencję były dla respondentów bardziej przekonujące. Ludzie oceniali lepiej prawdziwość informacji wytworzonych przez SI w porównaniu do tych stworzonych przez człowieka. Poza tym ankietowani mieli tendencję do ufania w większym stopniu nieprawdziwym informacjom wygenerowanym przez SI w porównaniu do tych pochodzących od ludzi. Sprawia to, że GPT jest swego rodzaju mieczem obusiecznym, ponieważ ma on potencjalnie pozytywne zastosowania w praktyce, przy jednoczesnej możliwości negatywnych zastosowań do generowania przekonujących fałszywych informacji – mówi agencji Newseria Innowacje dr Federico Germani z Instytutu Etyki Biomedycznej i Historii Medycyny Uniwersytetu Zuryskiego.

REKLAMA

Autorzy badania przeanalizowali też potencjał sztucznej inteligencji do identyfikowania dezinformacji. Poprosili GPT-3 o ocenę, które z tweetów są prawdziwe, a które wprowadzają w błąd. SI, podobnie jak respondenci, miał większe trudności z oceną dokładności informacji.

- Zgodnie z wynikami naszego badania nie ma możliwości rozróżnienia pomiędzy informacjami pochodzącymi od człowieka a tymi wygenerowanymi przez GPT-3. Możliwe, że ludzie, którzy opanowują tę technologię i korzystają z niej codziennie, będą mogli rozpoznać różnicę. Jednak nie jest to szczególnie istotne, ponieważ w perspektywie średnio- i długoterminowej w miarę rozwoju nowych modeli i tak nie będziemy w stanie rozróżnić tekstu stworzonego przez człowieka i przez sztuczną inteligencję - ocenia dr Federico Germani.

Sztuczna dezinformacja


Naukowcy proponują zmianę dotychczasowego podejścia do modelu skutecznej komunikacji i oceny informacji, zgodnie z którym człowiek wytwarza informacje, a sztuczna inteligencja pomaga w ich ocenie. Są zdania, że dobrze skrojoną kampanię informacyjną można stworzyć, przekazując wskazówki do SI, która jest w stanie lepiej niż człowiek napisać łatwiejsze w odbiorze teksty, ale dokładność wygenerowanych przez nią informacji powinna być sprawdzona przez przeszkolonych ludzi. Ten model komunikacji może mieć szczególne znaczenie w sytuacji, w której potrzeba jasnej i szybkiej komunikacji z dużymi grupami społeczeństwa.

- Jest to jedno z pierwszych opracowań wskazujących na problem sztucznej inteligencji w kontekście dezinformacji. Warto zaznaczyć, że nasze badanie odbywa się w warunkach doświadczalnych, a nie rzeczywistych, dlatego jest ono ważne dla rozumienia wpływu fałszywych informacji generowanych przez SI na społeczeństwo poprzez obserwację obiegu nieprawdziwych informacji wytworzonych przez SI w mediach społecznościowych i reakcji ludzi na nie. Kolejnym etapem będzie rozumienie wpływu tego zjawiska na zachowania poszczególnych osób oraz na zdrowie jednostek i zdrowie publiczne. Jest to bardzo istotny nowy kierunek badań interakcji ludzi z informacjami w całkowicie nowym otoczeniu sterowanym przez sztuczną inteligencję – podkreśla badacz Uniwersytetu w Zurychu.

Podobne wnioski przedstawiają w swoim raporcie naukowcy z Georgetown University i Obserwatorium Internetu przy Uniwersytecie Stanforda, którzy po przeanalizowaniu możliwości zastosowań SI do szerzenia dezinformacji uważają, że propaganda z wykorzystaniem algorytmów będzie się nasilać.

Oznaczanie treści czy edukacja medialna?


Przygotowanie społeczeństwa do właściwego odbioru informacji jest równie ważne, co współpraca między twórcami SI i platformami mediów społecznościowych, kontrola dostępu do sprzętu i technologii służących do budowy SI czy np. konieczność oznaczania treści wygenerowanych przez algorytm.

– Mamy do czynienia z nadmierną liczbą informacji, które są dostępne dla każdego do oceny, a wśród nich znajduje się sporo fałszywych informacji. Przy wykorzystaniu sztucznej inteligencji liczba fałszywych i prawdziwych informacji prawdopodobnie wzrośnie. Nie możemy myśleć, że mamy nad tym kontrolę – mówi dr Federico Germani. – W czasie pandemii COVID-19 przekonaliśmy się, że cenzura jest narzędziem, które może zostać wykorzystane do ograniczenia fałszywych informacji, ale jest to rozwiązanie mające pozytywne skutki w krótkiej perspektywie czasowej. W perspektywie średnio- i długoterminowej jest ona szkodliwa, prowadząc na przykład do ograniczonego zaufania wobec instytucji opieki zdrowotnej wydających zalecenia w zakresie zdrowia publicznego do przestrzegania w sytuacji kryzysowej. Dlatego musimy znaleźć inne strategie.

REKLAMA

Zdaniem badacza jedyną szansą skutecznej walki z dezinformacją jest edukacja medialna odbiorców, aby na podstawie określonych cech danej wiadomości mogli ocenić, czy jest ona prawdziwa, czy też nie.

W polskiej infosferze w celu wypracowania standardów walki z dezinformacją powstał Kodeks Dobrych Praktyk opublikowany przez NASK. Jest on skierowany zarówno do dziennikarzy, osób publicznych, jak i do odbiorców. Zawarte w nim wskazówki pomagają zrozumieć procesy dezinformacyjne, rozpoznawać szkodliwe treści i zapobiegać ich rozpowszechnianiu.

Polacy podzieleni w kwestii zaufania i akceptacji dla sztucznej inteligencji


Sztuczna inteligencja była w ciągu ostatniego roku pojęciem odmienianym przez wszystkie przypadki, głównie za sprawą premiery ChatGPT. Medialna wrzawa, jaka temu towarzyszyła, osłabiła jednak zaufanie Polaków do AI i ich otwartość na nowe technologie. Z badań przeprowadzonych przez Fundację Digital Poland wynika, że obecnie Polacy są w tej kwestii mocno spolaryzowani:

  • 24 proc. widzi więcej korzyści niż ryzyk związanych z AI,
  • 27 proc. ma odmienne zdanie,
  • 25 proc. opowiada się za wstrzymaniem dalszych prac nad tą technologią,
  • 33 proc. popiera ich kontynuację.

Z kolei w kwestii zaufania 1/3 Polaków jest skłonna podzielić się z AI informacjami na swój temat, podczas gdy taki sam odsetek badanych jest nieufny wobec AI i nie udostępniłby swoich danych algorytmom.

- W ubiegłym roku pojawił się ChatGPT OpenAI, a w tej chwili to zresztą niejedyny przedstawiciel generatywnej sztucznej inteligencji, bo na rynku są już również Google Bard czy Midjourney. Zrobiła się wokół tego medialna wrzawa, pojawiło się wiele kontrowersji, co spowodowało, że pozytywne nastawienie do sztucznej inteligencji spadło. Wzrosły z kolei obawy o utratę miejsc pracy w wyniku rozwoju AI - mówi Piotr Mieczkowski, dyrektor zarządzający Fundacji Digital Poland.

Medialny szum wokół sztucznej inteligencji


Nowa, piąta edycja raportu „Technologia w służbie społeczeństwu. Czy Polacy zostaną społeczeństwem 5.0?” – opracowanego z okazji piątej edycji Digital Festival przez fundację Digital Poland, GfK Polonia i T-Mobile Polska – pokazuje, że medialny szum wokół sztucznej inteligencji, jaki powstał po premierze ChatuGPT, zmniejszył zaufanie i otwartość Polaków na nowe technologie:

  • Odsetek optymistów spadł z 63 proc. w ubiegłym roku do 56 proc. obecnie.
  • Znacznie przybyło za to sceptyków nowych technologii (wzrost o ponad 100 proc. w skali roku do 23 proc.), którzy postrzegają je jako skomplikowane, zbędne czy wręcz szkodliwe.
  • 64 proc. badanych uważa też, że technologia tworzy sztuczny świat.
  • 54 proc. obawia się, że rozwój robotyki i sztucznej inteligencji okaże się zagrożeniem dla miejsc pracy.

Mimo to wśród badanych ciągle jest więcej optymistów (56 proc.) niż sceptyków (23 proc.) nowych technologii i cyfryzacji.

- 55 proc. Polaków wie, czym jest sztuczna inteligencja, a 45 proc. tego nie wie – mówi Piotr Mieczkowski. - My przeprowadziliśmy taki test, pokazując im 12 różnych zastosowań sztucznej inteligencji, od typowych, jak np. wirtualny chatbot, po nieoczywiste dla ludzi. I okazało się, że większość z nich rozumie sztuczną inteligencję przez pryzmat robotyzacji, przez pryzmat czegoś namacalnego, a nie przez pryzmat algorytmów, które np. podpowiadają nam film na jakiejś popularnej platformie streamingowej.

Chętnie korzystamy z AI


Z terminem „sztuczna inteligencja” ogółem zetknęło się aż 88 proc. Polaków. Większość zadeklarowała też, że korzystała z przynajmniej jednego rozwiązania bazującego na AI, z których najczęściej wymieniane były:

  • tłumaczenie tekstów (49 proc.),
  • chatbot w obsłudze klienta (47 proc.),
  • wirtualni asystenci (41 proc.).

Co ciekawe po podaniu oficjalnej definicji sztucznej inteligencji przygotowanej przez kraje OECD i zapisanej w projekcie unijnego rozporządzenia AI Act liczba osób deklarujących znajomość pojęcia i wykorzystanie rozwiązań AI spadła już jednak do 56 proc. Natomiast ujęty w badaniu, szczegółowy test wiedzy o AI pokazał, że polskie społeczeństwo poprawnie rozpoznaje jej najpopularniejsze zastosowania i ma świadomość wykorzystania sztucznej inteligencji w narzędziach takich jak:

  • wirtualni asystenci (88 proc.),
  • chatboty (77 proc.),
  • maszynowe tłumaczenie dokumentów (65 proc.).

REKLAMA

Większość nie ma jednak świadomości wykorzystywania AI w zastosowaniach takich jak filtry antyspamowe czy prognoza pogody. Pokazuje to, że Polacy nie kojarzą AI z algorytmami, ale głównie z robotyką.

Tolerancja i akceptacja dla sztucznej inteligencji


– Jeśli chodzi o postrzeganie sztucznej inteligencji i emocje, jakie temu towarzyszą, to w przypadku aż 85 proc. badanych są one pozytywne, to jest tolerancja i akceptacja. Natomiast na drugim biegunie jest 15 proc. badanych, którzy mocno się sprzeciwiają (4%) lub nie pochwalają rozwoju sztucznej inteligencji – mówi dyrektor zarządzający Fundacji Digital Poland.

Jak wskazuje, polskie społeczeństwo jest dużo bardziej spolaryzowane w opiniach dotyczących bilansu korzyści i ryzyk związanych ze sztuczną inteligencją.

  • 24 proc. badanych widzi więcej korzyści niż ryzyk,
  • 27 proc. ma odmienne zdanie,
  • 35 proc. uważa, że ten bilans jest rozłożony równomiernie.

– W ramach badania przeprowadziliśmy eksperyment i pokazaliśmy badanym 10 wyzwań, które dotkną minimum 10 proc. ludzkości w ciągu nadchodzących 10 lat. To są znaczące wydarzenia globalne, takie jak ekstremalne zjawiska pogodowe, klęski żywiołowe, kryzys wodny, wojna czy ataki terrorystyczne na dużą skalę. Dwa spośród tych wyzwań to były szkodliwe konsekwencje sztucznej inteligencji. I okazało się, że tylko 15 proc. Polaków uważa, iż w ciągu 10 lat czeka nas eksterminacja przez sztuczną inteligencję. Natomiast 47 proc. uważa, że prędzej będą temu winne inne, poważne kryzysy, jak np. klęski żywiołowe. I to pokazuje, że choć media – zwłaszcza te nastawione na kliki – lubią mówić o czarnych scenariuszach, to kiedy przychodzi do realnego zestawienia tych prawdopodobnych ryzyk, to scenariusz a la „Terminator 2”​ jest na samym dole tej listy – mówi Piotr Mieczkowski.

Jak wynika z nowego raportu Fundacji Digital Poland, główne obawy Polaków związane z AI dotyczą niewiadomych w zakresie jej rozwoju (64 proc.) oraz gromadzenia zbyt wielu danych przez produkty i usługi bazujące na sztucznej inteligencji. Średnio czterech na 10 Polaków uważa też, że AI zlikwiduje więcej miejsc pracy, niż ich stworzy. Przeciwnego zdania jest jedynie 18 proc. badanych – w większości osób młodych, z dużych ośrodków i posiadających większą wiedzę na temat narzędzi sztucznej inteligencji.

– Polacy faktycznie obawiają się wpływu AI na rynek pracy – mówi dyrektor zarządzający Fundacji Digital Poland. – Inny wniosek z badania tego wpływu na rynek pracy jest taki, że większość Polaków nie chce też całkowicie polegać na algorytmach.

Nadzór człowieka warunkiem zaufania


Kwestią, w której Polacy są dużo bardziej podzieleni, okazało się zaufanie do AI. Z raportu wynika, że 1/3 respondentów jest skłonna zaufać sztucznej inteligencji lub podzielić się z nią informacjami. Z drugiej strony taki sam odsetek badanych jest nieufny wobec AI i nie udostępniłby swoich danych algorytmom.

  • Głównym czynnikiem, który mógłby zwiększyć poziom społecznego zaufania, okazał się szerszy nadzór człowieka nad rozwojem systemów AI, na który wskazało 40 proc. badanych.
  • Średnio czterech na 10 Polaków chce również lepszego uregulowania prawnego tego obszaru.
  • Prawie połowa jest za tym, aby Unia Europejska – w tym Polska – w znaczącym stopniu regulowała rozwój i korzystanie z AI, nawet kosztem przegrania technologicznego wyścigu z USA i Chinami.

– Polacy w ogóle we wszelkich naszych badaniach potwierdzają, że bardzo ważna jest prywatność i nadzór człowieka nad sztuczną inteligencją, to jest praktycznie numer jeden. Jeśli powiemy, że za danym narzędziem AI stoi człowiek, który je nadzoruje, to nagle akceptacja rośnie praktycznie o połowę – mówi Piotr Mieczkowski.

REKLAMA

Raport opracowany przez Fundację Digital Poland pokazuje również, że Polacy zdają sobie sprawę z tego, iż sztuczna inteligencja jest technologią przyszłości. Prawie 1/3 badanych uważa, że AI już w tej chwili przeobraża gospodarkę, społeczeństwo i rynek pracy. Kolejne 43 proc. uważa, że rozwój AI dokona tego w perspektywie nachodzących dwóch dekad. Co ciekawe polskie społeczeństwo jest jednak podzielone również w kwestii dalszych prac nad tą technologią – 25 proc. opowiada się za ich wstrzymaniem, a 33 proc. popiera ich kontynuację.

– Mamy pole do edukacji, ponieważ akceptacja dla sztucznej inteligencji, jej rozwoju i zastosowań jest wyższa wśród osób, które mają na ten temat wiedzę. Ci, którzy tej wiedzy nie mają, częściej obawiają się niewiadomego, podchodzą z większym sceptycyzmem – mówi dyrektor zarządzający Fundacji Digital Poland.

Istotny jest również fakt, że Polacy dostrzegają w AI nie tylko zagrożenia, ale i szanse. Średnio czterech na 10 badanych uważa, że AI może pomóc rozwiązać wiele globalnych i krajowych problemów, jak np. niedobór lekarzy i kierowców na rynku pracy, zmiany klimatu czy konieczna transformacja energetyczna. Prawie połowa Polaków wskazała też, że rozwiązania oparte na AI już w tej chwili ułatwiają im życie.

źródło: Newseria

Udostępnij znajomym:

dodaj na Facebook prześlij przez Messenger dodaj na Twitter dodaj na LinkedIn

PRZERWA NA REKLAMĘ

Zobacz artykuły na podobny temat:

"Nikt nie powinien znać prawdy" [FILM DOKUMENTALNY]

BARD
Według Białoruskiego Stowarzyszenia Dziennikarzy, około 554 zatrzymań dziennikarzy miało miejsce w Białorusi między sierpniem 2020 i lipcem 2023 roku. 73 pracownikom mediów postawiono zarzuty kryminalne. 33 z nich jest w więzieniach do dziś.

Informacje lokalne z internetu. Badanie PBI

Joanna Trybuchowska
Internauci informacji na temat swojego regionu najchętniej szukają w internecie. W przeciągu dwóch lat znacznie poszerzył się zakres informacji na ten temat. Wzrósł także odsetek osób dzielących się nimi za pośrednictwem sieci.

Reklama w podcastach. Badanie Tandem Media

Paulina Rydzek
Podcasty to nie tylko rosnące medium, z którego w 2020 r. korzystało już 9 milionów internautów w Polsce. Coraz chętniej po ofertę podcastową sięgają też reklamodawcy - tym bardziej, że zdecydowana większość słuchaczy podcastów akceptuje związane z nimi reklamy i odwiedza wymieniane w audycjach strony internetowe, a także chętnie śledzi działalność podcasterów w mediach społecznościowych.

Etykieta online. Co wiemy o uczestnikach spotkań przez internet

Marta Wujek
Jest poprawa. Rok temu 73 proc. ankietowanym zdarzało się podczas spotkań online zajmować swoimi sprawami w tle spotkania, dziś 69 proc. osób podczas spotkania wycisza telefon i inne urządzenia elektroniczne - wynika z badania przeprowadzonego przez ClickMeeting.

Piano Media. System płatności za dostęp do treści w polskim internecie

Bartłomiej Dwornik
W nocy z 3 na 4 września, polscy użytkownicy zaczęli płacić za dostęp do treści i usług dostarczanych przez sześciu wydawców prasowych i jednego nadawcę radiowego.

Jak dziennikarze korzystają z mediów społecznościowych

Multi Communications
Do częstego profesjonalnego korzystania z mediów społecznościowych w pracy zawodowej przyznaje się 2/3 dziennikarzy w naszym kraju. Największym zaufaniem obdarzają blogi.

Dlaczego znani influencerzy potrzebują managera?

Pamela Tomicka
Jak duże grono „fanów” trzeba mieć, aby zacząć myśleć o takiej współpracy? Jakie są zalety, a jakie koszty takiego rozwiązania? Zdradza od kuchni WhitePress, zajmujący się Influencer managementem kilkunastu popularnych twórców.

więcej w dziale: Rynek medialny

dołącz do nas

Facebook LinkedIn X Twitter Google RSS

praca w mediach

Wydawca, influencer
Whitepress Dziennikarz
oferty mediów lokalnych, regionalnych i ogólnopolskich Więcej

reklama

rectangle Broń.pl
Dwornik.pl • szkolenia • warsztaty • marketing internetowy

zarabiaj

Zarabiaj przez internet

więcej ofert



Reporterzy.info

Dla głodnych wiedzy

Nasze serwisy

Współpraca


© Dwornik.pl Bartłomiej Dwornik 2oo1-2o24