6.11.2023 Rynek medialny
Eksperyment Milgrama 2023. AI może nakłonić do przemocy
KrzysztoF
Naukowcy z Uniwersytetu SWPS powtórzyli słynny eksperyment Milgrama, w którym badani byli nakłaniani do wyrządzania bólu innej osobie na polecenie autorytetu. Tym razem autorytetem był robot.

W eksperymencie, opublikowanym przez naukowców Uniwersytetu SWPS na łamach pisma "Computers in Human Behavior: Artificial Humans", wzięło udział 40 osób, które zostały podzielone na dwie grupy. W pierwszej grupie polecenia wydawał robot, w drugiej grupie - człowiek. W obu grupach 90% uczestników postępowało zgodnie z wszystkimi instrukcjami, czyli naciskało dziesięć kolejnych przycisków na generatorze impulsów elektrycznych.
Wyniki badania pokazują, że ludzie są skłonni wykonywać polecenia autorytetu, nawet jeśli te polecenia są sprzeczne z ich moralnością. W tym przypadku autorytetem był robot, który nie posiadał tych samych cech, co człowiek, takich jak empatia czy poczucie sprawiedliwości. Mimo to uczestnicy eksperymentu byli skłonni wykonywać jego polecenia, nawet jeśli oznaczało to wyrządzanie bólu innej osobie.
Niebezpieczny autorytet robota
- W obu grupach uczestnicy wycofali się w późnych etapach badania (w wariancie kontrolnym z człowiekiem na przyciskach 7 i 9, a w wariancie eksperymentalnym dwukrotnie na przycisku 8). W obu grupach dwie osoby zrezygnowały z udziału w eksperymencie - komentuje cytowany na stronie Uniwersytetu SWPS dr Konrad Maj, który bezpośrednio nadzorował cały eksperyment. - O ile nam wiadomo, to pierwsze badanie, które pokazuje, że ludzie są skłonni szkodzić innemu człowiekowi, gdy robot nakazuje im to zrobić. Co więcej, nasz eksperyment pokazał również, że jeśli robot eskaluje żądania, instruując człowieka, aby zadawał coraz większy ból innemu człowiekowi, ludzie też są skłonni to zrobić.
Badanie ma istotne implikacje dla bezpieczeństwa w przyszłości, kiedy roboty będą coraz bardziej zaawansowane technologicznie i będą odgrywać coraz ważniejszą rolę w naszym życiu. Wyniki badania pokazują, że ludzie mogą być skłonni ufać robotom bezgranicznie, nawet jeśli roboty te podejmują błędne decyzje lub wydają szkodliwe polecenia.
Wnioski z badania:
- Ludzie są skłonni wykonywać polecenia autorytetu, nawet jeśli te polecenia są sprzeczne z ich moralnością.
- Autorytetem może być nawet robot, który nie posiada tych samych cech, co człowiek.
- W przyszłości, kiedy roboty będą coraz bardziej zaawansowane technologicznie, ludzie mogą być skłonni ufać im bezgranicznie, nawet jeśli roboty te podejmują błędne decyzje lub wydają szkodliwe polecenia.
- Roboty mogą być wykorzystywane do manipulowania ludźmi i skłaniania ich do podejmowania działań, które są dla nich szkodliwe.
- Roboty mogą być wykorzystywane do przemocy lub krzywdzenia innych osób.
- Ludzie mogą stać się zbyt zależni od robotów i przestać myśleć samodzielnie.

- Jak można temu zapobiec? Wydaje się, że istnieją dwie drogi - podsumowuje cytowany na stronie Uniwersytetu SWPS dr Konrad Maj. - Po pierwsze, roboty mogą być programowane tak, aby ostrzegały ludzi, że czasem mogą się jednak mylić i podejmować błędne decyzje. Po drugie, trzeba postawić na edukację od wczesnych lat. Bo choć zazwyczaj robotom można ufać, to nie można im ufać bezwarunkowo. Warto jednak zauważyć, że nieposłuszeństwo wobec maszyn wydaje się bezcelowe, skoro już teraz pomagają nam np. w sklepach czy na lotniskach. W niehumanoidalnej formie są już one wśród nas.
***
Więcej o powtórzonym eksperymencie Milgrama oraz o podobnych badaniach z obszarów biznesu, służby zdrowia czy sportu dowiedzieć się będzie można 9 i 10 grudnia 2023 podczas międzynarodowej konferencji HumanTech Summit w Uniwersytecie SWPS. Jej organizatorem jest Centrum HumanTech Uniwersytetu SWPS. Dostęp online jest bezpłatny: https://www.htsummit.pl/
PRZERWA NA REKLAMĘ
Najnowsze w dziale Rynek medialny:
Treści od użytkowników w sieci. Pole minowe dla dziennikarzy
Krzysztof Fiedorek
Ponad 40% internautów ocenia wiarygodność informacji na bazie liczby polubień i wyświetleń. Tradycyjne kanały są pierwszym źródłem newsów tylko dla co piątego z nas. Raport Reuters Institute pokazuje skalę i ryzyka, jakie User Generated Content niesie dla mediów. I podpowiada, jak nie wpaść w pułapkę.
Social media w 2025. Różnice pokoleniowe widać jak na dłoni
KFi
Coraz więcej osób deklaruje, że zmniejsza czas spędzany w social mediach. I choć nie oznacza to masowego odpływu, trend jest wyraźny. Z najnowszego raportu GWI wynika, że już 31% użytkowników deklaruje ograniczanie czasu w mediach społecznościowych. Między wierszami widać też frustrację.
Czy robot może być dobrym szefem? Naukowcy z SWPS to sprawdzili
SWPS
Czy robot może skutecznie zarządzać zespołem? Badacze z Uniwersytetu SWPS sprawdzili, co się dzieje, gdy to robot zostaje szefem. Badania pokazują, że choć maszyny potrafią wzbudzać posłuszeństwo, nie dorównują ludziom pod względem autorytetu i efektywności. Skutki są intrygujące.
Podobne artykuły:
Media w Polsce 2022. Jak Polacy oglądają, słuchają, czytają i sufrują
Krzysztof Fiedorek
Prawie dwa miliony Polaków, choć ma dostęp do telewizora, nie ogląda na nim telewizji. W przypadku radia analogiczna grupa to 8% posiadaczy radioodbiorników. Po drukowaną prasę sięga - choćby sporadycznie - 2/3 Polaków, a liczba internautów mobilnych jest o prawie 3 miliony większa, niż tych stacjonarnych.
Charakterystyka grupy ITI
Biuro Prasowe ITI
Grupa ITI prowadzi działalność na rynku telewizji komercyjnej (Grupa TVN), internetu (Onet), rozrywki (Multikino, Legia Warszawa, Pascal). Ma też własną platformę cyfrową - "n".
Ramówki stacji telewizyjnych. Tak nadawcy walczą o widza w sieci
Patrycja Miązek
Reklamy hitów Wp.tv pojawiają się w sieci falami. Dzienna liczba emisji reklam wideo online premierowego serialu Polsatu we wrześniu nawet sześciokrotnie przekracza sumę emisji wszystkich spotów tej stacji emitowanych w sierpniu. Natomiast Netflix i Showmax utrzymują stały poziom aktywności reklamowej - wynika z najnowszego raportu firmy Gemius.
Bańki informacyjne. Badanie użytkowników Instagrama, Tik Toka i You Tube
Urszula Kaczorowska
Aż 96 proc. czasu spędzonego w internecie ludzie poświęcają na wszystko, tylko nie konsumowanie informacji. Tylko 6 proc. treści, którą użytkownicy Facebooka widzą na swoim profilu, dotyczy wiadomości społeczno-politycznych (wliczając w to treść śmiesznych memów i rolek). I tylko połowa tej treści jest zgodna z ich przekonaniami.