6.11.2023 Rynek medialny
Eksperyment Milgrama 2023. AI może nakłonić do przemocy
KrzysztoF

W eksperymencie, opublikowanym przez naukowców Uniwersytetu SWPS na łamach pisma "Computers in Human Behavior: Artificial Humans", wzięło udział 40 osób, które zostały podzielone na dwie grupy. W pierwszej grupie polecenia wydawał robot, w drugiej grupie - człowiek. W obu grupach 90% uczestników postępowało zgodnie z wszystkimi instrukcjami, czyli naciskało dziesięć kolejnych przycisków na generatorze impulsów elektrycznych.
Wyniki badania pokazują, że ludzie są skłonni wykonywać polecenia autorytetu, nawet jeśli te polecenia są sprzeczne z ich moralnością. W tym przypadku autorytetem był robot, który nie posiadał tych samych cech, co człowiek, takich jak empatia czy poczucie sprawiedliwości. Mimo to uczestnicy eksperymentu byli skłonni wykonywać jego polecenia, nawet jeśli oznaczało to wyrządzanie bólu innej osobie.
Niebezpieczny autorytet robota
- W obu grupach uczestnicy wycofali się w późnych etapach badania (w wariancie kontrolnym z człowiekiem na przyciskach 7 i 9, a w wariancie eksperymentalnym dwukrotnie na przycisku 8). W obu grupach dwie osoby zrezygnowały z udziału w eksperymencie - komentuje cytowany na stronie Uniwersytetu SWPS dr Konrad Maj, który bezpośrednio nadzorował cały eksperyment. - O ile nam wiadomo, to pierwsze badanie, które pokazuje, że ludzie są skłonni szkodzić innemu człowiekowi, gdy robot nakazuje im to zrobić. Co więcej, nasz eksperyment pokazał również, że jeśli robot eskaluje żądania, instruując człowieka, aby zadawał coraz większy ból innemu człowiekowi, ludzie też są skłonni to zrobić.
Badanie ma istotne implikacje dla bezpieczeństwa w przyszłości, kiedy roboty będą coraz bardziej zaawansowane technologicznie i będą odgrywać coraz ważniejszą rolę w naszym życiu. Wyniki badania pokazują, że ludzie mogą być skłonni ufać robotom bezgranicznie, nawet jeśli roboty te podejmują błędne decyzje lub wydają szkodliwe polecenia.
Wnioski z badania:
- Ludzie są skłonni wykonywać polecenia autorytetu, nawet jeśli te polecenia są sprzeczne z ich moralnością.
- Autorytetem może być nawet robot, który nie posiada tych samych cech, co człowiek.
- W przyszłości, kiedy roboty będą coraz bardziej zaawansowane technologicznie, ludzie mogą być skłonni ufać im bezgranicznie, nawet jeśli roboty te podejmują błędne decyzje lub wydają szkodliwe polecenia.
- Roboty mogą być wykorzystywane do manipulowania ludźmi i skłaniania ich do podejmowania działań, które są dla nich szkodliwe.
- Roboty mogą być wykorzystywane do przemocy lub krzywdzenia innych osób.
- Ludzie mogą stać się zbyt zależni od robotów i przestać myśleć samodzielnie.
Zobacz, jak rodził się clickbait [PL NAPISY] 👇

- Jak można temu zapobiec? Wydaje się, że istnieją dwie drogi - podsumowuje cytowany na stronie Uniwersytetu SWPS dr Konrad Maj. - Po pierwsze, roboty mogą być programowane tak, aby ostrzegały ludzi, że czasem mogą się jednak mylić i podejmować błędne decyzje. Po drugie, trzeba postawić na edukację od wczesnych lat. Bo choć zazwyczaj robotom można ufać, to nie można im ufać bezwarunkowo. Warto jednak zauważyć, że nieposłuszeństwo wobec maszyn wydaje się bezcelowe, skoro już teraz pomagają nam np. w sklepach czy na lotniskach. W niehumanoidalnej formie są już one wśród nas.
***
Więcej o powtórzonym eksperymencie Milgrama oraz o podobnych badaniach z obszarów biznesu, służby zdrowia czy sportu dowiedzieć się będzie można 9 i 10 grudnia 2023 podczas międzynarodowej konferencji HumanTech Summit w Uniwersytecie SWPS. Jej organizatorem jest Centrum HumanTech Uniwersytetu SWPS. Dostęp online jest bezpłatny: https://www.htsummit.pl/
PRZERWA NA REKLAMĘ
Najnowsze w dziale Rynek medialny:
Cyberprzemoc i hejt pod pozorem żartu. Raport RAYUELA o młodzieży
Krzysztof Fiedorek
Badanie przeprowadzone w pięciu krajach ujawnia brutalną prawdę: przemoc w sieci nie rozkłada się równo. To cyfrowa mapa uprzedzeń, która rani najmocniej tych, którzy najbardziej odstają. "To tylko żart". Tak często zaczyna się przemoc, którą młodzi przeżywają w milczeniu.
Zaufanie do mediów społecznościowych. Youtube wygrywa z TikTokiem i X
Krzysztof Fiedorek
Czy Polacy naprawdę ufają mediom społecznościowym? Nowe badanie pokazuje ogromne różnice oceny najważniejszych kanałów. Zaufanie trafia tam, gdzie jest autentyczność, a nie algorytm. Rośnie rola ludzi, spada znaczenie marek.
Sztuczna inteligencja w redakcjach. Trzy realia ery AI w mediach
Krzysztof Fiedorek
Według raportu Europejskiej Unii Nadawców, wiele redakcji już korzysta z AI, ale nadal nie ufa jej w pełni. Odbiorcy nie chcą "robotycznych" wiadomości, a same technologie - choć szybkie - bywają kosztowne, zawodne i zaskakująco… ludzkie w błędach.
Podobne artykuły:
Rozliczenia z agencjami SEO i freelancerami. Analiza SEM House
Tomasz Biegun
Badania potwierdzają, że branża SEO idzie w dobrym kierunku – coraz mniej specjalistów rozlicza się za efekt, co wbrew pozorom jest bardzo dobrą wiadomością dla klientów. Dlaczego? Ogranicza to stosowanie technik Black Hat SEO, które mogą skutkować karami od Google.
Możliwości współpracy mediów polskich i ukraińskich
dr Lidia Pokrzycka
Właściciele mediów na Ukrainie to przede wszystkim politycy i biznesmeni prorosyjscy, co także znajduje swoje odzwierciedlenie w jakości przekazywanych informacji.
Gen Z zmusi marki do mówienia prawdy. Raport i prognozy GWI
Krzysztof Fiedorek
Cenią autentyczność i transparentność marek, preferując firmy zaangażowane społecznie. Młodzi ludzie traktują technologię jako narzędzie rozwoju, a nie tylko rozrywki. W relacjach stawiają na prawdziwe więzi, mimo intensywnej obecności online. Co wiemy o Gen Z i jakie ta wiedza ma znaczenie w marketingu? I nie tylko w nim.
Największe kryzysy wizerunkowe. Raport Alert Media Communications
Dagmara Gac
Największy kryzys wizerunkowy 2021 roku w polskim świecie publicznym dotyczył Trybunału Konstytucyjnego pod przewodnictwem Julii Przyłębskiej, zaś w sferze świata biznesu i marek osobistych na pierwszym miejscu znalazła się Barbara Kurdej-Szatan za wulgarny wpis na temat funkcjonariuszy Straży Granicznej.