Przełomowe przepisy UE dotyczące sztucznej inteligencji

Rada UE przyjęła 21.5.2024 r. pierwsze na świecie przepisy regulujące sztuczną inteligencję, znane jako AI Act. Nowe rozporządzenie klasyfikuje technologie AI według poziomu ryzyka, wprowadzając surowe wymagania dla najbardziej niebezpiecznych systemów. Celem przepisów jest ochrona praw obywateli oraz zapewnienie przejrzystości i odpowiedzialności w stosowaniu AI.

Tematyka: przełomowe przepisy UE, sztuczna inteligencja, AI Act, regulacje, podział ryzyka, systemy AI, ochrona praw obywateli, przejrzystość, odpowiedzialność, Europejski Urząd ds. Sztucznej Inteligencji, kary za nieprzestrzeganie, etap legislacyjny

Rada UE przyjęła 21.5.2024 r. pierwsze na świecie przepisy regulujące sztuczną inteligencję, znane jako AI Act. Nowe rozporządzenie klasyfikuje technologie AI według poziomu ryzyka, wprowadzając surowe wymagania dla najbardziej niebezpiecznych systemów. Celem przepisów jest ochrona praw obywateli oraz zapewnienie przejrzystości i odpowiedzialności w stosowaniu AI.

 

Rada UE przyjęła 21.5.2024 r. pierwsze na świecie przepisy regulujące sztuczną inteligencję. Nowe
rozporządzenie, znane jako AI Act, klasyfikuje technologie AI według poziomu ryzyka, ustanawiając surowe
wymagania dla najbardziej niebezpiecznych systemów. Przepisy mają na celu ochronę praw obywateli oraz
zapewnienie przejrzystości i odpowiedzialności w stosowaniu AI.
• Przepisy przewidują podział systemów AI na cztery kategorie ryzyka: niedopuszczalnego, wysokiego,
ograniczonego oraz minimalnego.
• Systemy AI niedopuszczalnego ryzyka, które stwarza zagrożenie dla ludzi, są zakazane na gruncie nowych
przepisów.
• Przepisy wejdą w życie 20 dni po publikacji w Dzienniku Urzędowym UE.
Podział ryzyka
Nowe przepisy określają obowiązki dostawców i użytkowników w zależności od poziomu ryzyka, które
reprezentuje sztuczna inteligencja. Mimo że wiele systemów sztucznej inteligencji stwarza minimalne ryzyko,
należy je ocenić.
Rozporządzenie dzieli systemy AI na cztery kategorie:
• systemy niedopuszczalnego ryzyka;
• systemy wysokiego ryzyka;
• systemy ograniczonego ryzyka;
• systemy minimalnego ryzyka.
Systemy AI niedopuszczalnego ryzyka
Systemy AI, które stwarzają niedopuszczalne ryzyko uważane za zagrożenie dla ludzi, są zakazane na
gruncie nowych przepisów.
Chodzi m.in. o:
• poznawczo-behawioralną manipulację ludźmi lub określonymi wrażliwymi grupami;
• identyfikację biometryczną i kategoryzację osób fizycznych;
• scoring (klasyfikację punktową) obywateli: klasyfikację ludzi na podstawie ich zachowań, statusu społeczno-
ekonomicznego lub cech osobistych;
• systemy identyfikacji biometrycznej działające w czasie rzeczywistym i zdalnie, tj. rozpoznawanie twarzy.
Przepisy dopuszczają pewne wyjątki do celów egzekwowania prawa. Systemy zdalnej identyfikacji biometrycznej
funkcjonujące w czasie rzeczywistym są dozwolone w ograniczonej liczbie poważnych przypadków, zaś te
działające ze znacznym opóźnieniem – mogą być wykorzystywane do ścigania poważnych przestępstw,
wyłącznie za zgodą sądu.
Systemy AI wysokiego ryzyka
Co do zasady, system AI uznaje się za system wysokiego ryzyka, jeżeli spełnione są oba poniższe warunki:
1.   System AI jest przeznaczony do wykorzystania jako związany z bezpieczeństwem element produktu objętego
     unijnym prawodawstwem harmonizacyjnym lub sam system AI jest takim produktem;
2.   Produkt, którego związanego z bezpieczeństwem elementem jest system AI, lub sam system AI jako produkt
     podlegają ocenie zgodności przez stronę trzecią w związku z wprowadzeniem tego produktu do obrotu lub
     oddaniem go do użytku.
Technologie wysokiego ryzyka obejmują systemy stosowane w edukacji, służbie zdrowia, rekrutacji czy finansach.
Przykładem mogą być systemy AI analizujące podania studentów o stypendia lub przyjęcie na studia. Na gruncie
nowych przepisów systemy AI wysokiego ryzyka mogą działać na rynku UE tylko po spełnieniu surowych



norm bezpieczeństwa i transparentności. Ma to na celu zapobieżenie dyskryminacji oraz zapewnienie uczciwego
traktowania obywateli.
Wymagania przejrzystości
Systemy sztucznej inteligencji tworzące nowe treści, nie zostały uznane na gruncie nowych przepisów za
prezentujące wysoki poziom ryzyka.
Muszą one jednak przestrzegać wymogów dotyczących przejrzystości oraz praw autorskich UE, poprzez:
• ujawnienie, że treść została wygenerowana przez sztuczną inteligencję;
• zaprojektowanie modelu, by nie generował on nielegalnych treści;
• publikowanie streszczeń chronionych prawem autorskim danych wykorzystywanych do szkolenia systemów
sztucznej inteligencji.
Treści multimedialne, które zostały utworzone lub przetworzone przy użyciu sztucznej inteligencji, muszą
być wyraźnie oznaczone, by odbiorcy byli świadomi i mogli rozpoznać tego rodzaju materiały.
Organy monitorujące
Organem odpowiedzialnym za nadzór nad wdrażaniem i przestrzeganiem nowych regulacji jest m.in.
Europejski Urząd ds. Sztucznej Inteligencji, który stanowi część struktury administracyjnej Dyrekcji Generalnej ds.
Sieci Komunikacyjnych, Treści i Technologii. Został on ustanowiony na podstawie Decyzji Komisji z 24.1.2024 r.
ustanawiającej Europejski Urząd ds. Sztucznej Inteligencji (Dz.Urz. UE C z 2024 r. Nr 31, s. 1459).
Kary za nieprzestrzeganie przepisów
Jak wynika z art. 99 AI Act, państwa członkowskie ustanawiają przepisy dotyczące kar i innych środków
egzekwowania prawa, które mogą również obejmować ostrzeżenia i środki niepieniężne. Przewidziane kary
muszą być skuteczne, proporcjonalne i odstraszające.
Zgodnie z powołanym przepisem:
• nieprzestrzeganie zakazu praktyk w zakresie AI, o których mowa w art. 5 AI Act, podlega administracyjnej karze
pieniężnej w wysokości do 35 mln euro lub – jeżeli sprawcą naruszenia jest przedsiębiorstwo – w wysokości do 7 %
jego całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych
kwot jest wyższa;
• nieprzestrzeganie któregokolwiek z przepisów dotyczących operatorów lub jednostek notyfikowanych, innych niż
wskazane powyżej, jest zagrożone administracyjną karą pieniężną w wysokości do 15 mln euro lub – jeżeli sprawcą
naruszenia jest przedsiębiorstwo – w wysokości do 3 % jego całkowitego rocznego światowego obrotu
z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa;
• dostarczanie nieprawidłowych, niekompletnych lub wprowadzających w błąd informacji jednostkom notyfikowanym
lub właściwym organom krajowym w odpowiedzi na ich wniosek podlega administracyjnej karze pieniężnej
w wysokości do 7,5 mln euro lub – jeżeli sprawcą naruszenia jest przedsiębiorstwo – w wysokości do 1 % jego
całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot
jest wyższa.
Etap legislacyjny
Komisja Europejska 21.4.2021 r. zaproponowała AI Act. Nowe przepisy zostały przyjęte przez Parlament Europejski
13.3.2024 r., zaś 21.5.2024 r. jednogłośnie zatwierdziła je Rada UE.
AI Act ma zostać opublikowany w Dzienniku Urzędowym UE na przełomie czerwca i lipca. Przepisy wejdą w życie
20 dni po publikacji.
Art. 113 AI Act określa szczegółowo, że:
• 6 miesięcy po wejściu w życie zaczną obowiązywać ograniczenia dotyczące systemów SI o wysokim ryzyku oraz
zakaz dla systemów AI o niedopuszczalnym ryzyku;
• 9 miesięcy od wejścia w życie powinny zostać udostępnione kodeksy postępowania Europejskiego Biura ds.
Sztucznej Inteligencji;
• 12 miesięcy po wejściu w życie zaczną obowiązywać obostrzenia dla dostawców modeli AI ogólnego
przeznaczenia, którzy wprowadzają je właśnie na rynek UE lub oddają do użytku pod własną nazwą lub znakiem
towarowym;



• 18 miesięcy po wejściu w życie zacznie obowiązywać akt wykonawczy Komisji ws. monitorowania systemów AI po
wprowadzeniu do obrotu.
Większość obostrzeń zacznie obowiązywać 24 miesiące po wejściu AI Act w życie. Wówczas wdrożone zostaną
obowiązki dotyczące systemów sztucznej inteligencji wysokiego ryzyka, a państwa członkowskie implementują
przepisy dotyczące kar.







 

Nowe przepisy dotyczące sztucznej inteligencji wprowadzone przez Radę UE mają na celu podział systemów AI na kategorie ryzyka oraz określenie obowiązków dostawców i użytkowników. Przepisy mają zapewnić bezpieczeństwo, transparentność i odpowiedzialność w wykorzystaniu AI, w tym w obszarach systemów o wysokim i niedopuszczalnym ryzyku.