menu szukaj
tygodnik internetowy ISSN 2544-5839
nowe artykuły w każdy poniedziałek
tytuł monitorowany przez IMM i PSMM
zamknij
Czytaj gazety  PDF. Na kmputerze, czytniku, tablecie i smartfonie.

8.08.2022 Prawo w mediach

Algorytmy dyskryminują i wykluczają. To ma społeczne konsekwencje

dr Kuba Piwowar, socjolog i kulturoznawca z Uniwersytetu SWPS

Algorytmy otaczają nas z każdej strony. Na ich podstawie Netflix proponuje nam film do obejrzenia, a bank ocenia naszą zdolność kredytową. Może się wydawać, że decyzja podjęta bez większego udziału człowieka będzie zawsze obiektywna. Jednak okazuje się, że algorytmy mogą wykluczać. Dlaczego tak się dzieje? Jakie są tego skutki? Jak sobie z tym radzić?

Algorytmy dyskryminują i wykluczają. To ma społeczne konsekwencjeIlustracja: Ashutosh Goyal/Pixabay

Wykluczenie algorytmiczne to zjawisko, które między innymi poprzez nieodpowiedni dobór danych do analizy powoduje, że jednym grupom ludzi – na skutek działania takiej technologii – jest lepiej, a drugim gorzej. Dzieje się tak, ponieważ społeczeństwo i kulturę trudno uchwycić w postaci danych cyfrowych. Zazwyczaj gorzej jest tym osobom, które i tak są marginalizowane w społeczeństwie – np. kobietom, osobom nieheteronormatywnym, osobom czarnoskórym czy osobom biedniejszym.

Skutki wykluczenia algorytmicznego


Algorytmy z reguły działają na olbrzymich zbiorach danych, które są przetwarzane szybko i na dużą skalę. Dlatego podejmowane decyzje mają wpływ na ogromną liczbę osób. Przykładowo system predictive policing obecny w USA, polega na tym, że jednostki policji wysyłane są w miejsca, gdzie potencjalne może pojawić się ktoś, kto popełni przestępstwo, jeszcze zanim do tego dojdzie. Chodzi o to, aby policja mogła je udaremnić lub złapać sprawcę na gorącym uczynku. Jednak system ten działa na podstawie historycznych danych dotyczących tylko wykrytych przestępstw. Dlatego wiele miejsc, w których doszło do złamania przepisów i nie zostało to zaraportowane przez policję, będzie uważane za bezpieczniejsze, choć w rzeczywistości takie nie są.

REKLAMA

Innym przykładem ze Stanów Zjednoczonych jest wprowadzenie systemu COMPAS, który miał wspomagać decyzję sędziów o wypuszczeniu skazanych z więzienia przed końcem kary. Jednym z powodów stojących za wdrożeniem takiego rozwiązania był fakt, że decyzje sędziów nie były wolne od błędów – wyroki wydawane rano bywały bardziej łagodne, a po południu surowsze. Jako możliwe wytłumaczenie tych różnic badacze podają zależność między surowością wyroków, a odczuwanym głodem. Uznano, że skoro decyzje ludzi w tak ważnych sprawach zależne są od czynników niemerytorycznych, warto wesprzeć ten proces, choć dziś już wiemy, że tylko pozornie obiektywnym zestawem danych. Dlatego celem było wprowadzenie rozwiązania, które sprawi, że tak ważne werdykty nie będą zależne od takich czynników jak głód czy sytość. Jednak problemem było to, że dane, na podstawie których działał system, nie były reprezentatywne dla całego społeczeństwa, ponieważ w więzieniach znajduje się dużo więcej mężczyzn niż kobiet, osób młodszych niż starszych, czy osób czarnoskórych niż białych.

Systemy klasyfikacyjne organizują rzeczywistość. Więc jeśli ktoś nie łapie się do jednej z przyjętych kategorii, system go nie widzi, to nie jesteśmy w stanie stworzyć solidnej polityki dla takich osób. Nie jesteśmy w stanie zobaczyć, czy skala zjawiska jest mała czy duża oraz jak często występuje. Nie widzimy kategorii ludzi, którzy chcą zostać dostrzeżeni.

Algorytmy są wokół nas


Modele te odzwierciedlają zjawiska zachodzące w społeczeństwie, np. jeśli wpiszemy w wyszukiwarkę hasło „fizyk”, to zobaczymy zdjęcia panów w białych fartuchach, a nie zdjęcie Marii Skłodowskiej-Curie czy innych znakomitych badaczek. Dzieje się tak, ponieważ tak wygląda reprezentacja tej grupy zawodowej w społeczeństwie – przeważają w niej mężczyźni.

REKLAMA

Z kolej banki profilują nas na podstawie różnych dostępnych dla nich danych, np. na podstawie naszych transakcji. Jeśli bank odnotuje, że co miesiąc wydajemy daną kwotę na samochód, to dostaniemy ofertę z propozycją ubezpieczenia go. Podobnie jest, gdy staramy się o kredyt. Decyzja podejmowana jest na podstawie profilowania nas jako kredytobiorców. Jednak problem polega na tym, że działanie algorytmów jest nietransparentne. Nie jesteśmy w stanie odwołać się od jego decyzji. Może wydawać się to nieistotne, ponieważ jeśli w danym banku nie dostaliśmy kredytu, to udamy się do innego. Jednak z drugiej strony w Polsce jest mnóstwo osób, które ledwo wiążą koniec z końcem i jedyną opcją finansowania ich podstawowych potrzeb jest pożyczka w banku, która jest bezpieczniejsza niż tzw. „chwilówka”. Dlatego jeśli bank odmówi im pomocy, to nie mogą się od tej decyzji odwołać i nie dostają informacji zwrotnej o tym, co mogą zrobić, żeby w przyszłości taki kredyt dostać.

Recepty na wykluczenie algorytmiczne


Przede wszystkim musimy skupić się na edukacji. Powinniśmy, zarówno w szkołach podstawowych, jak i liceach, uczyć analityki, oswajać z nią uczniów. Z kolej na poziomie szkolnictwa wyższego, zwłaszcza w naukach technicznych, warto wprowadzić zajęcia z etyki, które w zrozumiały sposób wytłumaczą dylematy związane z działaniem algorytmów. Możemy wziąć przykład z zachodnich krajów, w których zjawisko to zostało dostrzeżone – w Stanach Zjednoczonych są nawet kierunki studiów o etycznym AI (Artificial Intelligence – sztuczna inteligencja).

Kolejną ważną kwestią jest tworzenie odpowiedniego prawa. Unia Europejska przoduje w tym temacie, ponieważ wprowadza wiele pomysłów związanych z regulacją wykluczenia algorytmicznego, np. instytucje mają obowiązek raportować to, w jaki sposób zbierane są dane, ponieważ – jak zostało wspomniane wcześniej – od tego, z jakich danych algorytm będzie korzystał, zależą wyniki analizy.

REKLAMA

Warto również skupić się na stworzeniu poczucia odpowiedzialności wśród osób, które zajmują się danymi. W USA mówi się, że reprezentują oni zawód zaufania publicznego, ponieważ decyzje, które podejmują stworzone przez nich algorytmy, wpływają na jakość życia danych ludzi.

Dodatkowo należy zwrócić uwagę na kwestie miękkie, na to, że my – obywatele i obywatelki – powinniśmy nauczyć się, że te algorytmy są wokół nas i powinniśmy domagać się odpowiedzi na konkretne pytania, np. dlaczego o dokładnie takie informacje pyta nas bank. Być może nie dostaniemy odpowiedzi, jednak sama świadomość, że możemy o to zapytać powoduje, że stajemy się bardziej zorientowanymi konsumentami i konsumentkami, przez co, w dalszej perspektywie, produkty będą tworzone w bardziej świadomy sposób – komentuje kulturoznawca.

Materiał udostępniony przez Uniwersytet SWPS. Powstał na podstawie webinaru:
Algorytmy - dyskryminacja i wykluczenie oraz ich społeczne konsekwencje.

* * *
dr Kuba Piwowar
Doktor nauk o kulturze, socjolog. Ekspert z zakresu technologii, big data, etyki w analizie danych. Zajmuje się kulturowymi i społecznymi aspektami rozwoju sztucznej inteligencji i nowych technologii oraz algorytmiczną kulturą. Specjalista w zakresie prowadzenia procesów transformacji cyfrowej w organizacjach, analityk danych.

Wśród jego zainteresowań naukowych znajduje się zagadnienie wykluczenia z technologii ze względu na płeć, rasę, klasę i seksualność. Poza tym zajmuje się badaniami mediów i ich użytkowników, queer studies oraz gender studies. Na Uniwersytecie SWPS prowadzi zajęcia ze społeczno-kulturowych aspektów technologii, krytycznej analizy danych, metod badań medioznawczych, sztucznej inteligencji oraz nowych mediów.

Udostępnij znajomym:

dodaj na Facebook prześlij przez Messenger dodaj na Twitter dodaj na LinkedIn

PRZERWA NA REKLAMĘ

Najnowsze w dziale Prawo w mediach:

Pozwy SLAPP w Europie. Jak ucisza się dziennikarzy i aktywistów

Krzysztof Fiedorek
W Europie rośnie liczba strategicznych pozwów, które mają na celu zastraszenie dziennikarzy, aktywistów i organizacji społeczeństwa obywatelskiego. Jak wynika z raportu CASE SLAPPs Report 2024, w latach 2010–2023 zidentyfikowano aż 1049 takich przypadków. Najwięcej - w Polsce.

Dlaczego ludzie szerzą dezinformację? Wyniki badań DigiPatch

Ewelina Krajczyńska-Wujec
Osoby silnie motywowane potrzebą władzy częściej udostępniają posty w mediach społecznościowych, w tym dezinformację. Sama władza, podobnie jak potrzeba zdobycia prestiżu i uznania, nie wiąże się z częstotliwością rozpowszechniania fałszywych informacji - wynika z badań z udziałem prof. Małgorzaty Kossowskiej z Uniwersytetu Jagiellońskiego.

Twórczość AI i prawa autorskie. Dylematy i wyzwania Artificial Creativity

Newseria
Algorytmy potrafią tworzyć muzykę dopasowaną do preferencji i nastroju, malować obrazy, a nawet pisać poezję czy scenariusze filmowe. To rodzi szereg wyzwań dotyczących praw autorskich. Są także wątpliwości dotyczące ochrony dzieł, z których AI się uczy. Narzucanie prawnych zakazów i obostrzeń może jednak nie przynieść efektów.

Podobne artykuły:

Za dużo reklam w telewizji

Bartłomiej Dwornik
Komisja Europejska uważa, że w polskiej telewizji jest za dużo reklam i zażądała od Warszawy wyjaśnień w tej sprawie.

Zdjęcia w mediach społecznościowych i prawo. Porady Legalnej Kultury

Sara Dobrzańska
Czy zdjęcia publicznie udostępnione na Facebooku i Instagramie wciąż są nasze? Czy możemy publikować zdjęcia, na których są inne osoby? Na co się zgadzamy korzystając z portali społecznościowych?

Informacja publiczna a ochrona prywatności. Pojęcia - relacje

Jan A. Stefanowicz
Informacja publiczna obejmuje tylko sprawy publiczne i dokumenty urzędowe, a dostęp niej nie może obejmować podlegających ochronie danych osobowych. Źródło: Centrum Monitoringu Wolności Prasy.

Algorytmy dyskryminują i wykluczają. To ma społeczne konsekwencje

dr Kuba Piwowar
Algorytmy otaczają nas z każdej strony. Na ich podstawie Netflix proponuje nam film do obejrzenia, a bank ocenia naszą zdolność kredytową. Może się wydawać, że decyzja podjęta bez większego udziału człowieka będzie zawsze obiektywna. Jednak okazuje się, że algorytmy mogą wykluczać. Dlaczego tak się dzieje? Jakie są tego skutki? Jak sobie z tym radzić?

więcej w dziale: Prawo w mediach

dołącz do nas

Facebook LinkedIn X Twitter Google Instagram Threads Youtube Google News Blue Sky Social RSS

Reporterzy.info - internetowy magazyn medioznawczy. Świat komunikacji od kuchni. Media, dziennikarstwo, PR i marketing. Dane, raporty, analizy, porady. Historia i rynek, prawo, fotografia, oferty pracy.


praca w mediach

Wydawca, redaktor
praca stacjonarna i online Dziennikarz, reporter
oferty mediów lokalnych, regionalnych i ogólnopolskich Grafik, Social Media, SEO, reklama
Warszawa • Białystok • Bydgoszcz • Gdańsk • Katowice • Kielce • Kraków • Lublin • Łódź • Olsztyn • Opole • Poznań • Rzeszów • Szczecin • Toruń • Wrocław • Zielona Góra • Praca zdalna Więcej

reklama

webePartnres
Dwornik.pl • szkolenia • warsztaty • marketing internetowy



Sklep reportera

Sklep reportera

Niedrogie laptopy, notebooki i netbooki
Niedrogie laptopy, notebooki i netbooki
do pisania
Cyfrowe lustrzanki i aparaty kompaktowe
Cyfrowe lustrzanki i aparaty kompaktowe
dla fotoreportera
Książki i e-booki o mediach
Książki i e-booki o mediach
do czytania
Drony wideo i latające kamery
Drony wideo i latające kamery
dla pilota
Gimbale do stabilizacji wideo
Gimbale do stabilizacji wideo
dla operatora
Oprogramowanie i aplikacje
Oprogramowanie i aplikacje
dla twórców
więcej produktów

zarabiaj

Zarabiaj przez internet

więcej ofert
gazety w PDF i epub

Czytaj gazety w PDF i EPUB

Okładka 21.WIEK HISTORY
21.WIEK HISTORY
Okładka Auto Świat
Auto Świat
Okładka Gazeta Polska
Gazeta Polska
Okładka National Geographic
National Geographic
Okładka Nowa Technika Wojskowa
Nowa Technika Wojskowa
Okładka Press
Press
więcej e-gazet

Reporterzy.info

Dla głodnych wiedzy

Nasze serwisy

Współpraca


© Dwornik.pl Bartłomiej Dwornik 2oo1-2o25