Od 2 lutego 2025 r. na terenie UE obowiązuje wykaz zakazanych praktyk w zakresie sztucznej inteligencji. W związku z tym Komisja Europejska opublikowała Wytyczne dotyczące zakazanych praktyk AI. Znajdziemy w nich przykłady praktyk uznanych za niedopuszczalne z uwagi na ich potencjalne ryzyko dla europejskich wartości i praw podstawowych. Projekt wytycznych został już zatwierdzony i czeka na formalne przyjęcie.
Opracowanie: Michał Kowalski
Wytyczne mają pomóc zainteresowanym stronom zrozumieć i spełnić wymogi unijnego aktu w sprawie sztucznej inteligencji (Rozporządzenia Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828). Co istotne, nie są one wiążące i stanowią jedynie wskazówki interpretacyjne. Ostateczne interpretacje wydaje bowiem Trybunał Sprawiedliwości Unii Europejskiej (TSUE).
Wytyczne przedstawiają kategorie zakazów określonych w artykule 5 AI Act oraz precyzują szczegółowy zakres ich stosowania, interpretacje, a także zawierają przykłady niedozwolonych praktyk dla poszczególnych kategorii.
Kluczową częścią dokumentu jest analiza relacji AI Act z innymi przepisami unijnymi w szczególności RODO przepisami o ochronie konsumentów, prawem pracy oraz regulacjami dotyczącymi odpowiedzialności cywilnej. Jak wskazuje Komisja, AI Act uzupełniają inne akty prawne i nie zwalniają podmiotów z obowiązku przestrzegania dodatkowych wymagań wynikających z innych przepisów prawa unijnego.
AI Act nie wyłącza stosowania RODO.
Komisja odniosła się także do licznych wyłączeń z zakazu, formułując różne przykłady dopuszczalnych praktyk AI. Dotyczą one następujących sektorów:
bezpieczeństwa narodowego, obrony i celów wojskowych - w przypadku, gdy agencja bezpieczeństwa narodowego lub prywatny operator zostaną zobowiązani przez krajową agencję wywiadowczą do użycia systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym z myślą o bezpieczeństwie narodowym (przykładowo do zbierania danych wywiadowczych), takie użycie nie będzie objęte przepisami AI Act),
współpracy sądów i organów ścigania z państwami trzecimi,
badań i rozwoju - podczas badań i rozwoju (R&D) twórcy sztucznej inteligencji mają możliwość eksperymentowania i testowania nowych funkcji, które mogą obejmować techniki uznawane za manipulacyjne i objęte art. 5 AI Act, jeśli są stosowane w aplikacjach skierowanych do konsumentów (AI Act pozwala na takie eksperymenty, uznając, że wczesny etap badań i rozwoju jest kluczowy dla udoskonalenia technologii AI oraz zapewnienia, że spełniają one standardy bezpieczeństwa i etyczne przed ich wprowadzeniem na rynek).
osobistej działalności niezawodowej - system AI służący do rozpoznawania emocji, gdy jest wykorzystywany przez osoby fizyczne do celów wyłącznie osobistych i pozazawodowych, nadal jest klasyfikowany jako system sztucznej inteligencji o wysokim ryzyku (art. 6 AI Act) i musi być w pełni zgodny z tą regulacją (przy czym wdrażający, który korzysta z niego do czysto osobistego i nieprofesjonalnego użytku, na przykład osoba z autyzmem, nie będzie podlegał szczególnym obowiązkom na mocy AI Act).
Istotnym elementem wytycznych jest określenie mechanizmów egzekwowania zakazanych działań. Za ich kontrolę będą odpowiedzialne krajowe organy nadzoru rynku oraz Europejski Inspektor Ochrony Danych.
W przypadku złamania przepisów AI Act przewidziano wysokie kary pieniężne – do 35 milionów euro lub 7% rocznego obrotu firmy.
Serwis Ministerstwa Cyfryzacji
Przechowywanie danych w chmurze polega na zapisywaniu i zarządzaniu danymi na zdalnych serwerach, które są dostępne przez internet. Zamiast przechowywać pliki na lokalnych dyskach twardych lub serwerach, użytkownicy mogą korzystać z infrastruktury dostarczanej przez dostawców usług chmurowych. Jest to wygodne i efektywne rozwiązanie, które zapewnia dostęp do danych z dowolnego miejsca, elastyczność, skalowalność oraz wysoki poziom bezpieczeństwa i niezawodności.
© Portal Poradyodo.pl