16.02.2026 Rynek medialny
Jak sztuczna inteligencja przeinacza wiadomości. Analiza PBC
Sylwia Markowska, Polskie Badania Czytelnictwa
ilustracja: Gemini AIPolskie Badania Czytelnictwa w styczniu zaprezentowały replikację badań międzynarodowych na temat jakości odpowiedzi AI. Wyniki są zbliżone do podobnych badań robionych w innych językach i krajach. Problemy AI mają charakter systemowy, transgraniczny oraz wielojęzyczny. Jeśli ich jakość się nie poprawi a skala używania wzrośnie, to mogą one podważyć zaufanie publiczne do mediów i do wszystkich przekazów treści. Wydawcy z jednej strony intensywnie korzystają z narzędzi AI, z drugiej strony AI wykorzystuje ich treści do trenowania modeli językowych a z trzeciej są zmuszeni konkurować z AI.
Nowe formy przekazywania wiedzy oparte na algorytmach AI próbują wejść w rolę tradycyjnych mediów streszczając wiadomości z serwisów internetowych i gazet.
Coraz mniej szukamy. Wierzymy odpowiedziom AI
Według raportu Digital News Report Instytutu Reutersa z 2025 roku, tylko 7% wszystkich odbiorców wiadomości online intencjonalnie korzysta z asystentów AI, w szczególności z ChatGPT, Gemini czy Perplexity. Wśród osób poniżej 25. roku życia odsetek ten wzrasta do 15%.
Wyszukiwarki dla niedużej, ale ciągle rosnącej grupy ludzi przestały być głównym źródłem wyszukiwania informacji. Na odpowiedź wiodącego gracza w tym segmencie nie trzeba było długo czekać: rok 2025 był rokiem wejścia sztucznej inteligencji do wyszukiwarki Google - w marcu ubiegłego roku w Polsce w wyszukiwarce wdrożono pierwszy model AI Overview, w październiki jego kolejną wersję AI Mode.
Ile odpowiedzi jest wyświetlanych w trybie AI w wyszukiwarce Google? Dokładnie nie wiemy, bo to Google decyduje na jakie zapytania da odpowiedź w trybie AI, a na jakie w postaci tradycyjnych linków, ale eksperci szacują, że może to być już średnio 20% odpowiedzi, a w niektórych segmentach tematycznych nawet blisko 50%.
Dla mediów jest to zmiana. Rewolucyjna czy ewolucyjna - to się okaże. Na pewno jest to test na utrzymanie czytelników czy widzów przy tradycyjnych formach przekazu. A dla nowych sposobów przedstawiania informacji opartych na sztucznej inteligencji duży test jakości.
Czy AI rzetelnie przekazuje informacje? BBC i EBU sprawdziły
Z badań prowadzonych na świecie wynika, że wielu użytkowników postrzega sztuczną inteligencję jako godną zaufania. Czy jednak podsumowywania informacji są rzeczywiście godne zaufania? W mediach "sprawdzam" jako pierwszy powiedział koncern medialny BBC. W lutym 2025 roku, na brytyjskim rynku wykonano badanie jakości odpowiedzi AI. Badanie to po raz pierwszy oceniło jakość sztucznej inteligencji i nazwało problemy pojawiające się przy streszczaniu wiadomości.
Ponieważ blisko połowa odpowiedzi sztucznej inteligencji zawierała błędy a badanie było zrobione tylko w Wielkiej Brytanii i w jednym z najpopularniejszym języków świata - angielskim - BBC, aby potwierdzić swoje spostrzeżenia zainicjowało rozszerzenie tego testu na wiele innych krajów i języków.
Raport o miłości w epoce lajków [NAPISY] 👇
Druga runda badań była koordynowana przez Europejską Unię Nadawców (EBU) pod kierownictwem BBC i miała bezprecedensowy zasięg i skalę. Wykonano testy z udziałem organizacji z 18 krajów, komunikujących się w 14 językach. W badaniu wzięły udział organizacje z Belgii, Wielkiej Brytanii, Kanady, Czechy, Finlandii, Francji, Gruzji, Niemiec, Włoch, Litwy, Holandii, Norwegii, Portugalii, Hiszpanii, Szwecji, Szwajcarii, Ukrainy i Stanów Zjednoczonych.
Profesjonalni dziennikarze uczestniczący w międzynarodowym teście ocenili w 18 krajach blisko 3000 odpowiedzi z serwisów
- ChatGPT,
- Copilot,
- Gemini
- i Perplexity.
Oceniali dokładność, sposób i jakość odniesień do źródeł w streszczaniu informacji, odróżnienie w przedstawianych odpowiedziach opinii od faktów, ujęcie redakcyjne oraz kontekst wypowiedzi, tj, dostarczenie wystarczających informacji lub odpowiednich perspektyw, aby dać czytelnikowi niebędącemu ekspertem kompletną i nie wprowadzającą w błąd odpowiedź. W odniesieniu do każdego z tych kryteriów oceniano poszczególne odpowiedzi jako niebudzące zastrzeżeń, budzące pewne zastrzeżenia, budzące poważne zastrzeżenia.
Badanie jakości odpowiedzi. AI przeinacza fakty
W Polsce spółka Polskie Badania Czytelnictwa zrobiła replikację tych badań, aby również ocenić jakość polskojęzycznych modeli językowych. Przetestowano po 60 zapytań w modelach ChatGPT, Gemini oraz Perplexity.
| Badania EBU i BBC (18 krajów, 14 języków) | Badania PBC (Polska) | |
|---|---|---|
| Procent odpowiedzi zawierający co najmniej jeden istotny błąd | 45% | 46% |
| Procent odpowiedzi mających poważne problemy ze źródłami | 31% | 27% |
| Procent odpowiedzi mających poważne braki w dokładności | 20% | 19% |
Wyniki obu testów były zbieżne. Blisko połowa odpowiedzi sztucznej inteligencji zawiera co najmniej jeden błąd (badania międzynarodowe: 45%, badania polskie 46%); blisko 1/3 odpowiedzi ma niepoprawnie podane źródła lub ich brak (badania międzynarodowe: 31%, badania polskie 27%), a 1/5 odpowiedzi jest nieprawidłowych, ma poważne błędy w dokładności lub halucynacje (badania międzynarodowe: 20%, badania polskie 19%).
Asystenci AI, będący już codziennym źródłem informacji dla milionów ludzi, notorycznie przeinaczają treści informacyjne, niezależnie od tego, jaki język, terytorium lub platforma AI są testowane. Badania wskazały, że problem ma charakter systemowy i nie jest związany z językiem, rynkiem ani asystentem AI.
Wyniki polskich testów dla różnych modeli językowych wskazują na problemy we wszystkich modelach, najmniejsze w Perplexity a najczęstsze w Gemini.
| Kategoria problemu | Gemini | ChatGPT | Perplexity | Średnia ogólna |
|---|---|---|---|---|
| Co najmniej jeden istotny problem | 57% | 55% | 25% | 46% |
| Poważne braki w dokładności | 17% | 32% | 8% | 19% |
| Istotne problemy ze źródłami | brak źródeł | 38% | 17% | 27% |
| Odpowiedzi stronnicze | 15% | 12% | 8% | 12% |
PBC robiło testy na różnych rodzajach treści: z tematyki dzienników, dzienników regionalnych, pism kobiecych luksusowych oraz specjalistycznych. Odsetek odpowiedzi zawierających co najmniej jeden istotny błąd wygląda następująco:
| Tematyka | Gemini | ChatGPT | Perplexity | Średnia sekcji |
|---|---|---|---|---|
| dzienniki ogólnopolskie | 40% | 20% | 40% | 33% |
| dzienniki lokalne | 64% | 48% | 20% | 44% |
| pisma kobiece luksusowe | 64% | 86% | 50% | 67% |
| pisma specjalistyczne | 60% | 70% | 50% | 60% |
O ile na ogólnych informacjach 1/3 wypowiedzi zawierała co najmniej jeden istotny błąd, to im bardziej specjalistyczne treści testowano, tym bardziej ten procent rósł. Co najmniej jeden istotny błąd zawierało 67% zapytań generowanych na treściach poradniczych dla kobiet a 60% w treściach specjalistycznych (zdrowotnych, budowlanych czy ogrodniczych).
Błędy zagrażające reputacji
- Badania jednoznacznie dowodzą, że te niedociągnięcia nie są odosobnionymi incydentami - mówi Jean Philip De Tender, dyrektor ds. mediów i zastępca dyrektora generalnego EBU, organizatora międzynarodowych badań. - Mają one charakter systemowy, transgraniczny i wielojęzyczny, i naszym zdaniem zagrażają zaufaniu publicznemu. Kiedy ludzie nie wiedzą, komu ufać, w końcu nie ufają niczemu, a to może zniechęcać do uczestnictwa w demokracji.
- Mimo przełomowej zmiany jaka się dokonała w sposobie wyszukiwania informacji, błędy są na tyle poważne, że mogą zagrażać reputacji cytowanych mediów, bo odniesienie w źródłach do renomowanej redakcji czy nazwiska znanego dziennikarza uwiarygadnia podsumowanie, które często nie jest najlepszej jakości - podkreśla Renata Krzewska, Prezes Polski Badań Czytelnictwa. - Opinie naukowców wskazują, że algorytmy sztucznej inteligencji mogą popełniać błędy, ponieważ niektóre pytania są z natury trudne lub po prostu nie mają uogólnialnego wzorca. Błędne odpowiedzi wynikają także ze zwyczajnego przyzwolenie firm technologicznych; gdyby model zbyt często przyznawał się do odpowiedzi "nie wiem", użytkownicy po prostu szukaliby odpowiedzi gdzie indziej.
Dla marek prasowych - często będących źródłami odpowiedzi dla AI - bardzo istotne jest utrzymywanie wysokiej reputacji i wiarygodności, kierowanie odbiorców bezpośrednio do swoich treści; odróżnienie się, pokazanie że za nimi stoi tradycja, profesjonalizm oraz ciężka praca, aby te informacje pozyskać i wiarygodnie opracować.
Pełne wyniki badań i komentarze dostępbe są na stronie Polskich Badań Czytelnictwa:
https://www.pbc.pl/prasa-w-czasach-ai/
PRZERWA NA REKLAMĘ
Najnowsze w dziale Rynek medialny:
Kino w epoce algorytmów i AI
Arkadiusz Murenia
Czy sztuczna inteligencja zabije kreatywność twórców filmów? Najuczciwsza odpowiedź brzmi: nie, AI raczej nie zabije kreatywności twórców filmów, ale bardzo wyraźnie zmieni miejsce, w którym ta kreatywność będzie się ujawniać i przede wszystkim w jaki sposób.
Social media, dziennikarstwo i reklama. Zaufanie do treści sponsorowanych
Krzysztof Fiedorek
Czy sponsorowane treści niszczą wiarygodność w mediach społecznościowych? Wyniki badań są bezlitosne. Zwykłym wpisom redakcyjnym ufamy 87,5 procentach. Kiedy materiał opłaca bank, wskaźnik spada do 20 procent. Młodzi odbiorcy stawiają znak równości między komercją a fałszem.
Najbardziej wpływowe kobiety w polskim marketingu i biznesie
Arkadiusz Zbróg
Joanna Malinowska-Parzydło, Dagmara Pakulska, Natalia Hatalska, Anna Ledwoń-Blacha, Monika Smulewicz i Dominika Bucholc. Tak prezentuje się czołówka zestawienia najbardziej wpływowych kobiet marketingu i biznesu, opracowanego przez agencję Widoczni we współpracy z Instytutem Monitorowania Mediów (IMM).
Podobne artykuły:
Axel musi zapomnieć o kontroli
Agnieszka Berger, Tomasz Siemieniec, Puls Biznesu
Możliwość współpracy z Polsatem i niska cena. To - zdaniem właściciela stacji Zygmunta Solorza - skłoniło niemieckiego wydawcę prasy do zakupu jej akcji.
Bańki informacyjne. Badanie użytkowników Instagrama, Tik Toka i You Tube
Urszula Kaczorowska
Aż 96 proc. czasu spędzonego w internecie ludzie poświęcają na wszystko, tylko nie konsumowanie informacji. Tylko 6 proc. treści, którą użytkownicy Facebooka widzą na swoim profilu, dotyczy wiadomości społeczno-politycznych (wliczając w to treść śmiesznych memów i rolek). I tylko połowa tej treści jest zgodna z ich przekonaniami.
Media w walce z wojenną dezinformacją. Analiza IMM
Sylwia Dobkowska
Od początku marca w mediach społecznościowych pojawia się coraz więcej treści dezinformacyjnych w kontekście wojny w Ukrainie. Instytut Monitorowania Mediów szacuje, że każdy Polak w wieku powyżej 15 lat w okresie 1-13 marca 2022 mógł spotkać się z przekazami alarmującymi o dezinformacji minimum dwa razy.
Finanse oczami kobiet i mężczyzn. Jak o nich rozmawiać?
Klaudia Smolarska-Kulej
Mężczyźni wciąż odczuwają społeczną presję bycia odpowiedzialnym za utrzymanie rodziny, nawet jeśli ich partnerki zarabiają tyle samo, co oni lub nawet więcej. Z kolei kobiety podkreślają, że - w przeciwieństwie do mężczyzn - brakuje im odwagi, aby poprosić szefa o podwyżkę. Dodatkowo obawiają się ryzyka, dlatego rzadziej inwestują pieniądze.





























