6.11.2023 Rynek medialny
Eksperyment Milgrama 2023. AI może nakłonić do przemocy
KrzysztoF
ilustracja: bing.com/createW eksperymencie, opublikowanym przez naukowców Uniwersytetu SWPS na łamach pisma "Computers in Human Behavior: Artificial Humans", wzięło udział 40 osób, które zostały podzielone na dwie grupy. W pierwszej grupie polecenia wydawał robot, w drugiej grupie - człowiek. W obu grupach 90% uczestników postępowało zgodnie z wszystkimi instrukcjami, czyli naciskało dziesięć kolejnych przycisków na generatorze impulsów elektrycznych.
Wyniki badania pokazują, że ludzie są skłonni wykonywać polecenia autorytetu, nawet jeśli te polecenia są sprzeczne z ich moralnością. W tym przypadku autorytetem był robot, który nie posiadał tych samych cech, co człowiek, takich jak empatia czy poczucie sprawiedliwości. Mimo to uczestnicy eksperymentu byli skłonni wykonywać jego polecenia, nawet jeśli oznaczało to wyrządzanie bólu innej osobie.
Niebezpieczny autorytet robota
- W obu grupach uczestnicy wycofali się w późnych etapach badania (w wariancie kontrolnym z człowiekiem na przyciskach 7 i 9, a w wariancie eksperymentalnym dwukrotnie na przycisku 8). W obu grupach dwie osoby zrezygnowały z udziału w eksperymencie - komentuje cytowany na stronie Uniwersytetu SWPS dr Konrad Maj, który bezpośrednio nadzorował cały eksperyment. - O ile nam wiadomo, to pierwsze badanie, które pokazuje, że ludzie są skłonni szkodzić innemu człowiekowi, gdy robot nakazuje im to zrobić. Co więcej, nasz eksperyment pokazał również, że jeśli robot eskaluje żądania, instruując człowieka, aby zadawał coraz większy ból innemu człowiekowi, ludzie też są skłonni to zrobić.
Badanie ma istotne implikacje dla bezpieczeństwa w przyszłości, kiedy roboty będą coraz bardziej zaawansowane technologicznie i będą odgrywać coraz ważniejszą rolę w naszym życiu. Wyniki badania pokazują, że ludzie mogą być skłonni ufać robotom bezgranicznie, nawet jeśli roboty te podejmują błędne decyzje lub wydają szkodliwe polecenia.
Wnioski z badania:
- Ludzie są skłonni wykonywać polecenia autorytetu, nawet jeśli te polecenia są sprzeczne z ich moralnością.
- Autorytetem może być nawet robot, który nie posiada tych samych cech, co człowiek.
- W przyszłości, kiedy roboty będą coraz bardziej zaawansowane technologicznie, ludzie mogą być skłonni ufać im bezgranicznie, nawet jeśli roboty te podejmują błędne decyzje lub wydają szkodliwe polecenia.
- Roboty mogą być wykorzystywane do manipulowania ludźmi i skłaniania ich do podejmowania działań, które są dla nich szkodliwe.
- Roboty mogą być wykorzystywane do przemocy lub krzywdzenia innych osób.
- Ludzie mogą stać się zbyt zależni od robotów i przestać myśleć samodzielnie.
- Jak można temu zapobiec? Wydaje się, że istnieją dwie drogi - podsumowuje cytowany na stronie Uniwersytetu SWPS dr Konrad Maj. - Po pierwsze, roboty mogą być programowane tak, aby ostrzegały ludzi, że czasem mogą się jednak mylić i podejmować błędne decyzje. Po drugie, trzeba postawić na edukację od wczesnych lat. Bo choć zazwyczaj robotom można ufać, to nie można im ufać bezwarunkowo. Warto jednak zauważyć, że nieposłuszeństwo wobec maszyn wydaje się bezcelowe, skoro już teraz pomagają nam np. w sklepach czy na lotniskach. W niehumanoidalnej formie są już one wśród nas.
***
Więcej o powtórzonym eksperymencie Milgrama oraz o podobnych badaniach z obszarów biznesu, służby zdrowia czy sportu dowiedzieć się będzie można 9 i 10 grudnia 2023 podczas międzynarodowej konferencji HumanTech Summit w Uniwersytecie SWPS. Jej organizatorem jest Centrum HumanTech Uniwersytetu SWPS. Dostęp online jest bezpłatny: https://www.htsummit.pl/
PRZERWA NA REKLAMĘ
Najnowsze w dziale Rynek medialny:
Dziennikarstwo w erze AI. Dlaczego odbiorcy wolą ludzi od maszyn
Krzysztof Fiedorek
Tylko 12% ludzi akceptuje wiadomości tworzone wyłącznie przez AI, a aż 62% woli te pisane przez ludzi. Jednocześnie tylko 19% zauważa oznaczenia wskazujące na użycie sztucznej inteligencji, a młodzi odbiorcy proszą AI, żeby... wytłumaczyła im treść informacji. To wnioski z raportu Reuters Institute na temat sztucznej inteligencji w mediach.
Dlaczego wierzymy w fejki? Nauka odsłania psychologię wirali
Krzysztof Petelczyc
Wirale, takie jak fałszywe obrazy komety 3I/ATLAS, pokazują, jak emocje i prestiż źródła potrafią przebić dowód. Zespoły z Politechniki Warszawskiej, UJ i SWPS opisują mechanizmy polaryzacji opinii oraz skuteczność treningów rozpoznawania manipulacji.
Dziennikarstwo śledcze w Europie. Redakcje mierzą się z presją
KFi, Newseria
Przedstawiciele mediów i polityki wskazują na trudną sytuację dziennikarstwa śledczego w Europie. Redakcje informacyjne niechętnie inwestują w ten segment z uwagi na wysokie koszty i duży nakład czasu oraz pracy. Przede wszystkim obawiają się jednak postępowań sądowych.
Podobne artykuły:
Śmiech Wojewódzkiego w twarz Majewskiego
Michał Chmielewski
Majewski wystartował ze swoim programem z zamiarem iście ambitnym - efektownym kpieniem z aktualnych zdarzeń. Udało mu się to jak Polakom potyczka z Niemcami pod Westerplatte.
Konferencje prasowe w oczach dziennikarzy. Raport PAP
PAP
Atrakcyjność konferencji prasowych podnoszą: możliwość zadawania pytań, dopytywania w sytuacji braku odpowiedzi, udział osób kompetentnych w temacie spotkania oraz dostęp do internetu. To wnioski z ankiet dziennikarzy portali internetowych, prasy drukowanej, radia i telewizji, zebranych przez Polską Agencję Prasową
Krytyka, która boli: Jak Polacy reagują na negatywne uwagi
Krzysztof Fiedorek
Krytyka to nieodłączna część naszego życia, zarówno prywatnego, jak i zawodowego. Jak pokazuje raport "Jak Polacy radzą sobie z krytyką?", opracowany przez analityków portalu CVeasy.pl, Polacy wciąż mają problem z przyjmowaniem negatywnych uwag.
Algorytmy personalizacji. Naukowcy zbadali, kto rozumie media cyfrowe
KFi
Większość użytkowników internetu wierzy, że wszyscy widzą w sieci te same treści. Tymczasem algorytmy personalizują przekaz tak skutecznie, że młoda kobieta z wyższym wykształceniem otrzyma inne informacje niż jej ojciec. Badacze pokazują, kto naprawdę rozumie mechanizmy cyfrowego świata.




































