19.05.2025 Rynek medialny
Algorytmy personalizacji. Naukowcy zbadali, kto rozumie media cyfrowe
KFi
ilustracja: DALL-EW erze cyfrowej dominacji, gdzie każde kliknięcie i przesunięcie palca zostawia ślad, temat personalizacji treści zyskuje nowy wymiar. Vaclav Moravec z Uniwersytetu Karola w Pradze i zespół badaczy z Czech, Chorwacji, Polski, Słowacji i Ukrainy zbadali, jak różne grupy społeczne rozumieją zjawisko personalizacji treści online. Na podstawie danych zebranych od 1213 obywateli Czech, autorzy pokazują, że świadomość tego, jak działają algorytmy personalizujące przekaz w mediach, jest bardzo zróżnicowana społecznie. Wyniki badania opublikowali w artykule „Algorithmic personalization: a study of knowledge gaps and digital media literacy” na łamach Humanities and Social Sciences Communications, wchodzącego w skład Nature Portfolio.
Personalizacja treści: szansa czy zagrożenie?
Zasadniczym celem badania była analiza wiedzy obywateli na temat tego, jak internetowe serwisy dostosowują treści do użytkowników. Personalizacja opiera się na danych od historii wyszukiwania po lokalizację i preferencje zakupowe i służy zwiększeniu trafności przekazu. Ale choć korzyści są oczywiste (szybszy dostęp do interesujących informacji, dopasowane reklamy), to rośnie też niepokój związany z utratą prywatności i manipulacją informacyjną.
Autorzy raportu „Algorithmic personalization” podkreślają, że zrozumienie mechanizmów personalizacji jest kluczowe nie tylko dla ochrony danych osobowych, lecz również dla zdolności krytycznego odbioru treści. Osoby świadome mogą wpływać na algorytmy, ograniczać manipulacje i lepiej chronić swoją prywatność.
Kto wie więcej? Społeczne różnice w wiedzy o algorytmach
Badacze zastosowali trzystopniowy system analizy, oparty na modelu informacyjnym, metodzie logiki rozmytej oraz klasyfikacji społecznej. Pytali respondentów o:
- świadomość, że treści w sieci są personalizowane,
- znajomość technicznych sposobów dostosowywania treści,
- poczucie kontroli nad tym, co widzą w internecie.
Na podstawie tych trzech obszarów badacze opracowali miary wiedzy, które uwzględniają zarówno obiektywną znajomość działania algorytmów, jak i subiektywne odczucia użytkowników co do wpływu, jaki mają na swoje cyfrowe otoczenie. Autorzy badania wykorzystali dane z 1213 ankiet, analizując je z uwzględnieniem zmiennych demograficznych: wieku, płci i poziomu wykształcenia. Wyniki pozwoliły określić poziom wiedzy o personalizacji dla różnych grup społecznych z precyzją wyrażoną w wartościach liczbowych między 0 a 1 im wyższa wartość, tym większa świadomość użytkownika.
| Grupa społeczna | Poziom wiedzy o personalizacji |
|---|---|
| Mężczyźni 35 44 lata, wyższe wykształcenie | 0,812 (powyżej przeciętnej) |
| Kobiety 15 24 lata, wyższe wykształcenie | 0,821 0,812 |
| Osoby z wykształceniem zawodowym | 0,661 0,672 (niskie wyniki) |
Różnice te pokazują, że młodsi użytkownicy z wyższym wykształceniem lepiej rozumieją, jak działają algorytmy personalizujące treści. Z kolei osoby z niższym wykształceniem częściej deklarują brak kontroli nad tym, co widzą online. To rodzi pytania o równość informacyjną i potrzebę edukacji.
Przykład z życia. Netflix i iluzja wyboru
Wyobraźmy sobie dwóch użytkowników Netflixa trzydziestolatkę z wyższym wykształceniem i pięćdziesięcioletniego pracownika fizycznego. Choć oboje włączają tę samą platformę, algorytm pokazuje im zupełnie różne rekomendacje. Ona widzi dokumenty polityczne i filmy niezależne, on komedie i programy rozrywkowe. Oboje są przekonani, że mają wybór, ale w rzeczywistości oglądają to, co algorytm uznał za stosowne. Jeśli nie są świadomi tego mechanizmu, mogą błędnie sądzić, że to wynik ich „wolnej woli”.
To właśnie ten problem porusza raport Moravca i współautorów niewidzialna ręka algorytmu prowadzi użytkownika, który często nie zdaje sobie z tego sprawy.
Edukacja jako odpowiedź
Zespół badawczy proponuje konkretne rozwiązania. Opracowany przez nich system analityczno-informacyjny umożliwia ocenę wiedzy obywateli w sposób zniuansowany, uwzględniający różnice demograficzne. Co istotne:
- system działa niezależnie od liczby kryteriów czy pytań,
- można go dostosować do innych regionów lub krajów,
- daje możliwość wdrażania programów edukacyjnych „szytych na miarę” danej grupy społecznej.
Dzięki temu narzędziu możliwe jest np. zidentyfikowanie grup najbardziej narażonych na manipulację i objęcie ich specjalnymi programami z zakresu edukacji medialnej. Jak pokazuje raport „Algorithmic personalization”, takie działania są konieczne zwłaszcza wobec ryzyka, że personalizacja pogłębia podziały społeczne, zamyka użytkowników w bańkach informacyjnych i ułatwia rozprzestrzenianie dezinformacji.
Wśród planów badaczy znajduje się opracowanie oprogramowania, które umożliwi praktyczne zastosowanie metodologii w różnych kontekstach. Kolejnym krokiem ma być analiza czynników, które wpływają na akceptację spersonalizowanych treści, oraz badania nad związkami między percepcją ryzyka dezinformacji a poziomem zaufania do mediów.
Badanie Moravca i współautorów to nie tylko naukowa analiza, ale też apel do decydentów od organizacji pozarządowych po instytucje państwowe by nie ignorowali różnic w kompetencjach cyfrowych. Im większa świadomość mechanizmów działania algorytmów, tym mniejsze ryzyko, że społeczeństwo stanie się bezwolnym odbiorcą spreparowanego przekazu.
* * *
Więcej o badaniu: Moravec V., Hynek N., Skare M., Gavurova B., Polishchuk V. (2025). Algorithmic personalization: a study of knowledge gaps and digital media literacy. Humanities and Social Sciences Communications. https://doi.org/10.1057/s41599-025-04593-6
PRZERWA NA REKLAMĘ
Najnowsze w dziale Rynek medialny:
AI zmienia zasady gry. Nowe oblicze wyszukiwania w internecie
KFi
Połowa konsumentów w USA korzysta już z wyszukiwania wspieranego sztuczną inteligencją. Do 2028 roku decyzje zakupowe o wartości 750 miliardów dolarów będą zapadać właśnie za pośrednictwem AI. Takie wnioski przedstawia raport McKinsey "Winning in the age of AI search".
Jak uciszyć fake newsy? Młodzi Latynosi popierają cenzurę internetu
Krzysztof Fiedorek
W Brazylii sąd zamknął platformę X, odcinając 40 milionów użytkowników. W Kolumbii 70% obywateli chce kontroli informacji, a w Chile aż 75% młodych popiera cenzurę fake newsów. Czy bezpieczeństwo informacyjne zamiast wolności słowa to początek nowego trendu? [BADANIE]
Kobiety i komunikacja. Czy ktoś słucha Polek?
Krzysztof Fiedorek
Marki mówią, że rozumieją kobiety. Media twierdzą, że mówią ich językiem. Tymczasem raport "Polki 2025" pokazuje, że większość przekazów wciąż trafia obok. Kobiety nie chcą pustych haseł. Oczekują dialogu, który naprawdę ich dotyczy.
Podobne artykuły:
Influencer Power Index w czasach koronawirusa. Raport MediaCom
Paweł Usakowski
Czy i jak zmienił się wizerunek influencerów podczas epidemii koronawirusa? Wskaźnik COVID Index pokazuje, że Robert Lewandowski istotnie umocnił swoją już wysoką pozycję, na drugim biegunie znaleźli się m.in. Maffashion i Patryk Vega, którzy odnotowali spadki w wielu badanych wymiarach wizerunkowych.
Pułapki myślenia. Zrozum siebie dzięki testom osobowości [FRAGMENT]
patronat Reporterzy.info
Przedstawiamy fragmenty książki "Jak ominąć PUŁAPKI MYŚLENIA i uwolnić się od schematów" Romaina Coique, francuskiego przedsiębiorcy działający w obszarze nowych technologii i rozwoju osobistego. Polską edycję wydaje Wydawnictwo RM. Patronem medialnym jest tygodnik Reporterzy.info.
Sztuczna inteligencja w mediach. Kiedy AI zastąpi dziennikarzy?
Y Dzięgielewski
Jednym z największych wyzwań w tworzeniu treści jest po prostu nieustanna kreatywność. Zazwyczaj to autor ustala „background” i strukturę tekstu, dostosowaną do wytycznych. Co więcej, musi też ten tekst napisać i oddać do korekty. Przy dwóch ostatnich czynnościach od niedawna pomoże nam AI.
Strona nie jest mobile-friendly? W trzy sekundy zniechęci użytkownika
infoWire.pl
Być może już niedługo komputery stacjonarne będą służyć nam tylko do pracy, a szukać interesujących treści w internecie będziemy wyłącznie na urządzeniach mobilnych. Generowany na nich ruch w sieci już od kilku lat przewyższa ten pochodzący z urządzeń stacjonarnych




































