5.08.2024 Prawo w mediach
AI Act wchodzi w życie. Prawne regulacje sztucznej inteligencji
PAP Nauka w Polsce
ilustracja: bing.com/createWiceminister cyfryzacji, Dariusz Standerski, przekazał na posiedzeniu sejmowej podkomisji stałej do spraw sztucznej inteligencji i przejrzystości algorytmów 24 sierpnia, iż resort jest obecnie na etapie prac legislacyjno-redakcyjnych, aby w sierpniu móc rozpocząć uzgodnienia międzyresortowe projektu wdrażającego unijne rozwiązania dotyczące sztucznej inteligencji (AI Act). Dodał, że intencją ministerstwa jest to, by projekt na poziom Rady Ministrów trafił jeszcze w tym roku.
- Chcemy poświęcić ten rok na prace nad tym aktem. Nie chcemy go wdrożyć jako pierwsi, chcemy to zrobić dobrze - wskazał Standerski.
Nowe prawo dzieli różne rodzaje AI na cztery grupy: oprogramowanie wysokiego ryzyka, technologie ograniczonego i minimalnego wpływu oraz systemy nieakceptowalne, które będą w UE zakazane.
Modele niestwarzające ryzyka systemowego, takie jak chatboty czy gry, będą podlegać niewielkim wymogom, głównie dotyczącym przejrzystości. Chodzi o to, żeby użytkownicy mieli świadomość, że mają do czynienia ze sztuczną inteligencją. Dodatkowe wymogi bezpieczeństwa nałożone zostaną na treści zmanipulowane, tzw. deepfakes, czyli materiały wygenerowane przez AI, których celem jest wprowadzenie użytkownika w błąd. Te również będą musiały być opatrzone wyraźnym oznaczeniem.
Systemy wysokiego ryzyka, np. technologie wykorzystywane w oświacie, jak systemy AI analizujące podania studentów o stypendia czy przyjęcie na studia, będą dopuszczane na rynek UE pod warunkiem spełnienia surowych wymogów. Oznacza to, że producenci będą musieli ocenić ich ryzyko jeszcze przed wprowadzeniem na unijny rynek, a obywatele - np. studenci, którzy nie dostaną świadczenia - będą mieli prawo do zaskarżenia decyzji podjętych z użyciem AI.
Zakazane będzie natomiast oprogramowanie stanowiące wyraźne zagrożenie dla praw podstawowych użytkowników. Chodzi tu o technologie pozwalające np. na monitorowanie i szpiegowanie ludzi czy wykorzystywanie ich danych wrażliwych, takich jak orientacja seksualna, pochodzenie lub wyznanie, do przewidywania ich zachowań, w tym do tzw. prognozowania kryminologicznego, czyli ryzyka popełnienia przez nich przestępstw, lub do podsuwania im treści mogących wpłynąć na ich decyzje i zachowanie.
Zabronione będzie też stosowanie tzw. systemu punktowania społecznego, służącego do oceny obywateli na podstawie ich zachowań społecznych. Tego typu technologie wykorzystywane są m.in. w Chinach, gdzie np. sąsiedzi przyznają sobie punkty za poprawne wyrzucanie śmieci na osiedlu. Zakaz będzie też dotyczył systemów monitorujących emocje ludzi w miejscach pracy, urzędach, szkołach lub na uczelniach. Takie technologie stosowane są czasem do przewidywania strajków i niepokojów społecznych.

AI nie będzie mogła być też wykorzystywana do śledzenia obywateli lub pobierania wizerunków ich twarzy z internetu lub monitoringu miejskiego, by stworzyć bazy danych służące rozpoznawaniu twarzy. Będą wyjątki, bo z systemów rozpoznawania twarzy pod pewnymi warunkami (np. przy poszukiwaniu osób podejrzanych o terroryzm) będą mogły korzystać służby. W takim przypadku zgodę będzie jednak musiał wydać sąd lub właściwy urząd.
Przepisy zakładają również powołanie nowych organów monitorujących, w tym urzędu ds. sztucznej inteligencji przy Komisji Europejskiej czy rady do spraw sztucznej inteligencji, w której zasiadać mają przedstawiciele państw unijnych.
Firmy, które nie będą przestrzegać unijnych przepisów o AI, będą musiały liczyć się z surowymi karami. Będzie to albo część rocznego globalnego obrotu firmy lub odgórnie określona grzywna w zależności od tego, która kwota będzie wyższa. Małym i średnim przedsiębiorstwom oraz start-upom grozić będą raczej kary administracyjne.
źródło: PAP Nauka w Polsce
PRZERWA NA REKLAMĘ
Najnowsze w dziale Prawo w mediach:
AI w dezinformacji. Operacja Matrioszka i personalizacja fejków
Anna Mikołajczyk-Kłębek
Rosnące wykorzystanie sztucznej inteligencji do generowania fałszywych treści oraz dezinformacja sprofilowana to trendy, które będą kształtować krajobraz dezinformacji w nadchodzących latach - uważa dr hab. Wojciech Kotowicz, ekspert z Uniwersytetu Warmińsko-Mazurskiego w Olsztynie.
Reklama suplementów diety w Polsce. Kto patrzy na ręce influencerom?
Newseria, KFi
Co trzeci polski internauta bierze pod uwagę rekomendacje influencerów przy podejmowaniu decyzji zakupowych dotyczących leków i suplementów diety. Choć promocja takich produktów jest regulowana, zdarzają się przypadki reklamy na bakier z prawem.
Prawo w marketingu. Nowe regulacje dla branży
Agnieszka Gilewska
W 2025 roku branża marketingowa staje przed wyzwaniem dostosowania strategii do coraz bardziej rygorystycznych regulacji dotyczących ochrony prywatności użytkowników, transparentności i wykorzystania sztucznej inteligencji. Jak się przygotować?
Podobne artykuły:
Legal Design. Prawnicze teksty ludzkim głosem brzmią coraz wyraźniej
Sonia Stępień
Legal design jako metoda oraz - szerzej - filozofia - skupia się na rozwiązaniach przyjaznych człowiekowi. Odbiorca będący na końcu łańcucha procesu prawnego dostaje do ręki umowy, regulaminy i pisma, których często nie rozumie. Legal design chce to zmienić. I zmienia coraz skuteczniej.
Jak rządy w Azji Południowej manipulują mediami. Raport IFJ
Krzysztof Fiedorek
Azja Południowa zmaga się z ogromnymi wyzwaniami w utrzymaniu demokracji i wolności prasy. Najnowszy raport Międzynarodowej Federacji Dziennikarzy (IFJ), „Artificial Independence: The Fight To Save Media and Democracy”, przedstawia rosnące zagrożenia dla dziennikarzy, którzy mierzą się z przemocą, presją finansową i cenzurą
Cyberzagrożenia 2023. Phishing króluje, sztuczna inteligencja na celowniku
Krzysztof Fiedorek
Raport CERT Orange Polska za rok 2023 ujawnia dynamicznie zmieniający się krajobraz cyberzagrożeń. Phishing stał się zdecydowanym liderem, odpowiadając za ponad 44% zgłoszeń. Zaawansowane techniki socjotechniczne, deepfake i natłok złośliwych reklam kuszą użytkowników obietnicą szybkich zysków lub łatwych okazji.
Hejt w polskim internecie. Raport Kantar TNS dla Sprite
Newseria
Ponad połowa młodych Polaków (16-19 lat) doświadczyła hejtu w ciągu ostatnich 12 miesięcy. Jeszcze więcej osób przyznaje, że osobiście używało stwierdzeń noszących znamiona hejtu. Przedmiotem nienawistnych komentarzy są najczęściej wygląd, styl ubierania się, narodowość, seksualność, poglądy polityczne oraz wyznanie.





























