Aktualny

8 zakazanych praktyk AI wg aktu o sztucznej inteligencji (AI Act)

Dodano: 23 października 2024
8 zakazanych praktyk AI wg aktu o sztucznej inteligencji (AI Act)

Akt o sztucznej inteligencji przewiduje listę zakazanych praktyk AI. Za ich stosowanie grozić będą wysokie kary pieniężne. Sprawdź, jakich systemów sztucznej inteligencji nie będzie można stosować w świetle AI Act.

Opracowanie: Michał Kowalski

Zakazane praktyki AI i kary za ich stosowanie

Akt o sztucznej inteligencji przewiduje w art. 5 wykaz zakazanych praktyk AI. Wskazane w tych praktykach systemy AI nie mogą być stosowane przez podmioty zarówno z sektora prywatnego jak i publicznego. Za ich stosowanie grozić będą surowe sankcje w postaci administracyjnych kar pieniężnych w wysokości:

  • do 35 000 000 euro,

  • w wysokości do 7 % jego całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego (jeżeli sprawcą naruszenia jest przedsiębiorstwo) - w zależności od tego, która z tych kwot jest wyższa.

Uwaga

Zakazane praktyki AI i kary za ich stosowanie będą obowiązywały od 2 lutego 2025 r.

Wykaz zakazanych praktyk AI

Zestawienie zakazanych praktyk w zakresie AI w tabeli:

manipulowanie zachowaniem

Nie wolno wykorzystywać systemów sztucznej inteligencji, które stosują:

  • techniki podprogowe będące poza świadomością danej osoby lub

  • celowe techniki manipulacyjne lub wprowadzające w błąd,

jeśli celem lub skutkiem jest dokonanie znaczącej zmiany zachowania osoby lub osób polegające na znaczącym ograniczeniu ich zdolności do podejmowania świadomych decyzji, co wyrządza lub może wyrządzić tym lub innym osobom poważną szkodę.

wykorzystywanie słabości

Zakazane jest stosowanie systemów AI wykorzystujących słabości osoby fizycznej lub grupy osób ze względu na:

  • wiek,

  • niepełnosprawność,

  • szczególną sytuację społeczną lub ekonomiczną,

jeśli celem lub skutkiem jest dokonanie znaczącej zmiany ich zachowania, co wyrządza lub może z uzasadnionym prawdopodobieństwem wyrządzić u tych lub innych osób poważną szkodę.

scoring społeczny

System AI nie może oceniać ludzi na podstawie zachowania społecznego lub znanych, wywnioskowanych lub przewidywanych cech osobistych bądź cech osobowości, jeśli prowadzi to do dyskryminacji.

ocena ryzyka popełnienia przestępstwa

Nie wolno wykorzystywać AI do przeprowadzania ocen ryzyka popełnienia przestępstwa wyłącznie na podstawie profilowania osoby fizycznej lub oceny jej cech osobowości i cech charakterystycznych. Nie dotyczy systemów AI wykorzystywanych do wspierania dokonywanej przez człowieka oceny udziału danej osoby w działalności przestępczej, która to ocena opiera się już na obiektywnych i weryfikowalnych faktach bezpośrednio związanych z działalnością przestępczą.

untargeted scraping

Zakazane jest stosowanie systemów, które tworzą lub rozbudowują bazy danych służące rozpoznawaniu twarzy poprzez nieukierunkowane pozyskiwanie wizerunków twarzy z internetu lub nagrań z telewizji przemysłowej.

ocena emocji

Niedopuszczalne jest stosowanie AI do wyciągania wniosków na temat emocji osoby fizycznej w miejscu pracy lub instytucjach edukacyjnych. Zakaz ten nie dotyczy przypadków, w których system AI ma zostać wdrożony lub wprowadzony do obrotu ze względów medycznych lub bezpieczeństwa.

kategoryzacja biometryczna

Nie wolno wykorzystywać AI w celu indywidualnego kategoryzowania osób fizycznych w oparciu o ich dane biometryczne, by wydedukować lub wywnioskować informacje na temat ich:

  • rasy,

  • poglądów politycznych,

  • przynależności do związków zawodowych,

  • przekonań religijnych lub światopoglądowych,

  • seksualności lub orientacji seksualnej.

zdalna identyfikacja biometryczna

Nie wolno wykorzystywać systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw. Nie dotyczy to jednak przypadków, w których niezbędne jest wykorzystywanie systemów AI do:

  • ukierunkowanego poszukiwania konkretnych ofiar uprowadzeń, handlu ludźmi lub wykorzystywania seksualnego ludzi, a także poszukiwania osób zaginionych;

  • zapobiegnięcia konkretnemu, istotnemu i bezpośredniemu zagrożeniu życia lub bezpieczeństwa fizycznego osób fizycznych lub rzeczywistemu i aktualnemu lub rzeczywistemu i dającemu się przewidzieć zagrożeniu atakiem terrorystycznym;

  • lokalizowania lub identyfikowania osoby podejrzanej o popełnienie przestępstwa w celu prowadzenia postępowania przygotowawczego lub ścigania lub wykonania kar w odniesieniu do przestępstw (o których mowa w załączniku II w AI Act), podlegających w danym państwie członkowskim karze pozbawienia wolności lub środkowi polegającemu na pozbawieniu wolności przez okres, którego górna granica wynosi co najmniej cztery lata.

Podstawa prawna: 
  • Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji) – art. 5

WIDEOSZKOLENIA »

Bezpieczne przechowywanie danych w chmurze

Bezpieczne przechowywanie danych w chmurze

Przechowywanie danych w chmurze polega na zapisywaniu i zarządzaniu danymi na zdalnych serwerach, które są dostępne przez internet. Zamiast przechowywać pliki na lokalnych dyskach twardych lub serwerach, użytkownicy mogą korzystać z infrastruktury dostarczanej przez dostawców usług chmurowych. Jest to wygodne i efektywne rozwiązanie, które zapewnia dostęp do danych z dowolnego miejsca, elastyczność, skalowalność oraz wysoki poziom bezpieczeństwa i niezawodności.

14.06.2024 czytaj więcej »

ZMIANY W PRAWIE »

Nasi partnerzy i zdobyte nagrody » 


Nagrody i wyróżnienia» 

Poznaj kluczowe zagadnienia, z jakimi możesz się zetknąć podczas codziennej pracy IODO.
E-kurs dla początkującego Inspektora Danych Osobowych. Rzetelna wiedza i praktyczne ćwiczenia.

24-h bezpłatny test portalu!
Zyskaj pełen dostęp do bazy porad i aktualności!

SPRAWDŹ »

x