Parlament Europejski przyjął w marcu 2024 roku rozporządzenie AI Act. To pierwszy globalnie akt prawny, który kompleksowo reguluje stosowanie i rozwój systemów sztucznej inteligencji. Dowiedz się, co obejmuje, jakie są zasady i harmonogram implementacji AI Act, jakie są zalety z jego zastosowania oraz szeregu pozostałych, przydatnych informacji.
Rozporządzenie AI Act – znaczenie rozporządzenia
Rozporządzenie AI Act będzie miało znaczący wpływ na rozwój i stosowanie systemów AI w Europie i na całym świecie. To ważny krok w kierunku zapewnienia, aby sztuczna inteligencja była wykorzystywana w sposób:
- odpowiedzialny,
- bezpieczny,
- etyczny,
- zgodny z prawami człowieka.
Rozporządzenie AI Act – zakres podmiotowy
Rozporządzenie AI Act obejmuje szeroki wachlarz podmiotów zaangażowanych w systemy sztucznej inteligencji (SI), w tym:
- dostawców wprowadzających systemy AI na rynek lub udostępniających je,
- użytkowników systemów AI,
- importerów i dystrybutorów systemów AI,
- upoważnionych przedstawicieli dostawców spoza UE,
- producentów wprowadzających systemy AI pod własną marką.
Rozporządzenie AI Act ma zastosowanie zarówno do podmiotów z UE, jak i spoza UE.
Rozporządzenie AI Act – najważniejsze aspekty zastosowania
Rozporządzenie AI Act w sprawie sztucznej inteligencji dotyczy systemów AI wprowadzanych na rynek UE lub działających na jej terenie, niezależnie od siedziby podmiotu. Do najważniejszych aspektów zastosowania AI Act należy zaliczyć:
ochronę użytkowników | AI Act kładzie nacisk na ochronę praw i bezpieczeństwa osób fizycznych w UE, których dotyczą systemy AI |
konieczność dostosowania się do nowych obowiązków | podmioty objęte AI Act będą musiały dostosować się do szeregu nowych obowiązków, m.in. ocenę ryzyka systemów AI |
klasyfikację ryzyk systemów AI | rozporządzenie dzieli systemy AI na cztery kategorie ryzyka: – nieakceptowalne, – wysokie, – ograniczone, – minimalne. Systemy stwarzające nieakceptowalne ryzyko, takie jak te oparte na technikach podprogowych lub wykorzystujące dane biometryczne do identyfikacji osób w tłumie, będą całkowicie zakazane |
wymogi dla systemów wysokiego ryzyka | systemy wysokiego ryzyka, np. stosowane w sektorze opieki zdrowotnej, transporcie i wymiarze sprawiedliwości, muszą spełniać szereg rygorystycznych wymagań |
wsparcie innowacji | AI Act ma również na celu wspieranie rozwoju i innowacji w dziedzinie sztucznej inteligencji. Komisja Europejska ma za zadanie opracować wytyczne i standardy dla systemów AI, a także promować badania i rozwój w tej dziedzinie |
Rozporządzenie AI Act – zasady implementacji
Rozporządzenie AI Act wprowadza jednolite zasady implementacji rozwiązań w całej Unii Europejskiej. Oznacza to, że:
- nie ma potrzeby wprowadzania dodatkowych przepisów krajowych – treść rozporządzenia będzie bezpośrednio obowiązywać we wszystkich państwach członkowskich,
- zasady stosowania sztucznej inteligencji w całej UE będą spójne i przejrzyste dla firm i obywateli.
Podobnie jak w przypadku Ogólnego Rozporządzenia o Ochronie Danych Osobowych (RODO), rozporządzenie AI Act będzie bezpośrednio stosowane we wszystkich państwach członkowskich.
Rozporządzenie AI Act – kategorie ryzyk stosowania systemów sztucznej inteligencji
Rozporządzenie AI Act w sprawie sztucznej inteligencji ustanawia cztery kategorie ryzyka dla systemów opartych na sztucznej inteligencji. Określa poziom zagrożenia stwarzanego przez takie systemy dla praw i bezpieczeństwa osób fizycznych. Każda kategoria wiąże się z określonymi obowiązkami i wymogami dla dostawców i użytkowników systemów SI.
Kategoria ryzyka | Opis |
Niskie ryzyko | Obejmuje systemy SI, które nie stwarzają znaczącego zagrożenia dla praw i bezpieczeństwa osób fizycznych, np. kalkulatory, proste gry, systemy rekomendacji oparte na popularnych produktach. |
Średnie ryzyko | Obejmuje systemy SI, które mogą mieć ograniczony wpływ na prawa i bezpieczeństwo osób fizycznych, np. chatboty, systemy rozpoznawania twarzy, systemy filtrowania treści w mediach społecznościowych. |
Wysokie ryzyko | Obejmuje systemy SI, które mogą mieć znaczący wpływ na prawa i bezpieczeństwo osób fizycznych, np. systemy wspomagania decyzji w rekrutacji, oceny zdolności kredytowej, orzekania w sprawach sądowych. |
Niedopuszczalne ryzyko | Obejmuje systemy SI, które stwarzają niedopuszczalne ryzyko dla bezpieczeństwa i praw osób fizycznych, np. systemy oparte na scoringu społecznym, systemy zdalnej identyfikacji biometrycznej w czasie rzeczywistym. Wprowadzono zakaz stosowania takich systemów. |
Rozporządzenie AI Act – kategorie wysokiego ryzyka
Załącznik III do AI Act uznaje za systemy sztucznej inteligencji wysokiego ryzyka te, które mogą mieć istotny wpływ na prawa i wolności osób fizycznych. Obejmuje to m.in.:
systemy identyfikacji biometrycznej | np. rozpoznawanie twarzy, odciski palców, tęczówki oka i inne cechy biometryczne; zakazane są systemy zdalnej identyfikacji biometrycznej w czasie rzeczywistym |
systemy zarządzania infrastrukturą krytyczną | obejmuje systemy kontroli ruchu lotniczego, sieci energetyczne, systemy zaopatrzenia w wodę itp.; wymagane są rygorystyczne środki bezpieczeństwa i nadzór człowieka |
systemy edukacyjne | m.in. systemy stosowane w rekrutacji, ocenie uczniów i personalizacji nauczania; wymagana jest przejrzystość, uczciwość i niedyskryminacja |
systemy rekrutacji i zarządzania pracownikami | obejmuje systemy oceny kandydatów, doboru pracowników i zarządzania wydajnością; wymagana jest przejrzystość, uczciwość i niedyskryminacja |
systemy oceny zdolności kredytowej i dostępu do usług | obejmuje systemy oceny ryzyka kredytowego i dostępu do innych usług finansowych i publicznych; wymagana jest przejrzystość, uczciwość i niedyskryminacja oraz prawo do wyjaśnienia decyzji |
systemy ścigania przestępstw | obejmuje systemy przewidywania przestępczości, analizy dowodów i podejmowania decyzji o aresztowaniu; wymagana jest rygorystyczna kontrola nadzoru człowieka, przejrzystość i zapobieganie uprzedzeniom |
systemy zarządzania migracją, azylem i kontrolą graniczną | obejmuje systemy oceny wniosków o azyl i przyznawanie wiz; wymagana jest rygorystyczna kontrola nadzoru człowieka, przejrzystość, uczciwość i niedyskryminacja |
systemy wymiaru sprawiedliwości i procesów demokratycznych | obejmuje systemy orzekania w sądach, przewidywania wyroków i oceny ryzyka recydywy; wymagana jest rygorystyczna kontrola nadzoru człowieka, przejrzystość, uczciwość i niedyskryminacja |
Rozporządzenie AI Act – obowiązki podmiotów wykorzystujących systemy SI wysokiego ryzyka
Rozporządzenie AI Act w sprawie sztucznej inteligencji wprowadza na podmioty wykorzystujące SI wysokiego ryzyka określone obowiązki. Są to:
- przeprowadzenie oceny ryzyka i wpływu na prawa podstawowe,
- wdrożenie odpowiednich środków bezpieczeństwa i zarządzania ryzykiem,
- zapewnienie przejrzystości działania systemów SI,
- szanowanie praw osób do informacji, dostępu, sprostowania, usunięcia danych i ograniczenia przetwarzania,
- umożliwienie osobom, których prawa zostały naruszone, wniesienia skargi do organu nadzoru i dochodzenia praw przed sądem.
Rozporządzenie AI Act – zalety zastosowania
Wprowadzenie rozporządzenia w sprawie sztucznej inteligencji przyniesie wiele korzyści, m.in.:
pewność prawna i poczucie bezpieczeństwa obywateli | firmy i obywatele będą mieli pewność co do obowiązujących zasad dotyczących sztucznej inteligencji we wszystkich państwach członkowskich. |
redukcja kosztów | bezpośrednie stosowanie przepisów przyczyni się dowyeliminowania potrzeby dostosowywania się do różnych przepisów krajowych |
wzmocnienie innowacji | ułatwienie rozwoju i wdrażania technologii sztucznej inteligencji w całej UE |
Rozporządzenie AI Act – termin wejścia w życie
Rozporządzenie AI Act w sprawie sztucznej inteligencji będzie wdrażane stopniowo w ciągu najbliższych kilku lat. Oto szczegółowy harmonogram:
Termin | Zakres obowiązywania przepisów |
20 dni od ogłoszenia w Dzienniku Urzędowym UE (około 21 czerwca 2024 r.) | – wejście w życie rozporządzenia, – zakaz stosowania systemów AI o niedopuszczalnym ryzyku, takich jak systemy oparte na scoringu społecznym i zdalnej identyfikacji biometrycznej w czasie rzeczywistym. |
6 miesięcy od wejścia w życie (grudzień 2024 r.) | – ustanowienie organów nadzoru AI w państwach członkowskich, – rozpoczęcie działalności Grupy Europejskiej ds. Sztucznej Inteligencji. |
12 miesięcy od wejścia w życie (czerwiec 2025 r.) | – obowiązki przejrzystości dla dostawców systemów AI ogólnego przeznaczenia, – obowiązki dotyczące systemów monitorowania i rejestrowania interwencji człowieka w działanie systemów AI wysokiego ryzyka, – niektóre przepisy dotyczące kar za naruszenia rozporządzenia. |
36 miesięcy od wejścia w życie (czerwiec 2027 r.) | – pełne wejście w życie obowiązków dotyczących systemów AI wysokiego ryzyka, w tym: – wymagania dotyczące oceny ryzyka i wdrażania środków bezpieczeństwa, – obowiązki dotyczące nadzoru człowieka i dokumentacji, – zasady dotyczące systemów AI stosowanych w wymiarze sprawiedliwości i procesach demokratycznych. |
Należy pamiętać, że:
- terminy te mogą ulec zmianie,
- dokładne daty wejścia w życie poszczególnych przepisów zostaną ogłoszone w późniejszym terminie,
- Komisja Europejska będzie opracowywać wytyczne i narzędzia ułatwiające wdrażanie rozporządzenia.
Rozporządzenie AI Act – podsumowanie
Rozporządzenie AI Act to kompleksowy akt prawny, który ma na celu zapewnienie bezpieczeństwa i etyki sztucznej inteligencji. Wprowadza szereg nowych wymagań dla systemów AI, a także zakazuje stosowania niektórych szkodliwych praktyk. AI Act będzie miał znaczący wpływ na rozwój i stosowanie sztucznej inteligencji w Europie i na całym świecie.
Jeśli zainteresował Cię powyższy wpis i chcesz wiedzieć więcej na poruszony w nim temat, zapraszamy do współpracy z nami. Specjaliści z naszego biura rachunkowego w Łodzi są do Twojej dyspozycji, skontaktuj się już dzisiaj i daj sobie pomóc.
FAQ – Pytania i odpowiedzi na temat: Rozporządzenie AI Act
Co to jest Rozporządzenie AI Act?
Rozporządzenie AI Act, czyli rozporządzenie w sprawie sztucznej inteligencji, to pierwszy na świecie tak kompleksowy akt prawny regulujący rozwój i stosowanie systemów AI. Celem rozporządzenia jest zapewnienie, aby sztuczna inteligencja była bezpieczna, etyczna i zgodna z prawami człowieka.
Jakie są kategorie ryzyka systemów AI?
Rozporządzenie dzieli systemy AI na cztery kategorie ryzyka:
nieakceptowalne – systemy stwarzające nieakceptowalne ryzyko, takie jak te oparte na technikach podprogowych lub wykorzystujące dane biometryczne do identyfikacji osób w tłumie, są całkowicie zakazane
wysokie – systemy wysokiego ryzyka, takie jak systemy stosowane w sektorze opieki zdrowotnej, transporcie i wymiarze sprawiedliwości, muszą spełniać szereg rygorystycznych wymagań
ograniczone – systemy o ograniczonym ryzyku, takie jak chatboty i systemy rekomendacji, podlegają mniej rygorystycznym wymaganiom
minimalne – systemy o minimalnym ryzyku, takie jak kalkulatory i gry, nie podlegają szczególnym wymogom
Jakie są obowiązki dla systemów wysokiego ryzyka?
Podmioty korzystające z systemów wysokiego ryzyka muszą m.in.:
– przeprowadzić ocenę zgodności, aby upewnić się, że systemy te są bezpieczne, niezawodne i zgodne z prawem,
– zapewnić przejrzystość działania systemów,
– stosować się do wymogów dotyczących zarządzania danymi i cyberbezpieczeństwa,
– poddać systemy nadzorowi przez człowieka.
Jaki jest zakres zakazu systemów scoringu społecznego?
Rozporządzenie zakazuje stosowania systemów scoringu społecznego, które oceniają wiarygodność społeczną osób fizycznych. Oznacza to, że systemy te nie mogą być wykorzystywane do podejmowania decyzji o takich sprawach jak dostęp do kredytów, ubezpieczeń czy zatrudnienia.
W jaki sposób rozporządzenieAI Act wspiera innowacje?
Rozporządzenie AI Act ma na celu wspieranie rozwoju i innowacji w dziedzinie sztucznej inteligencji. Komisja Europejska ma za zadanie opracować wytyczne i standardy dla systemów AI, a także promować badania i rozwój w tej dziedzinie.
Gdzie mogę znaleźć więcej informacji o AI Act?
Więcej informacji o AI Act można znaleźć na stronach internetowych Komisji Europejskiej i Parlamentu Europejskiego.