Komisja Europejska przedstawiła projekt Rozporządzenia w sprawie europejskiego podejścia do sztucznej inteligencji (COM(2021) 206 final). Zgodnie z unijną strategią „przewodnictwa regulacyjnego”, są to pierwsze na świecie przepisy, które regulują sztuczną inteligencję.
Regulacje mają na celu wspieranie innowacji, jak wykorzystywanie AI do usprawnienia produkcji czy prognozowania zmian klimatycznych. Zakazane lub obłożone restrykcjami ma być natomiast wykorzystanie technologii szkodliwych dla obywateli UE, w tym naruszających ich prawo do prywatności.
Rozwijanie sztucznej inteligencji w warunkach pogłębiania zaufania do nowoczesnych technologii
Nowe przepisy mają być stosowane bezpośrednio w ten sam sposób we wszystkich państwach członkowskich w oparciu o dostosowaną do przyszłych wyzwań definicję sztucznej inteligencji. Przyjęto w nich podejście oparte na analizie ryzyka:
Niedopuszczalne ryzyko: systemy sztucznej inteligencji, które uznaje się za wyraźne zagrożenie dla bezpieczeństwa, źródeł utrzymania i praw obywateli, zostaną zakazane. Są to np. systemy lub aplikacje wykorzystujące sztuczną inteligencję do manipulowania ludzkimi zachowaniami w celu obejścia wolnej woli użytkowników (np. zabawki z wbudowanym asystentem głosowym zachęcające małoletnich do niebezpiecznych zachowań) oraz systemy oceny punktowej obywateli przez rządy.
Wysokie ryzyko: systemy AI uznane za systemy wysokiego ryzyka obejmują technologię AI stosowaną w:
- infrastrukturze krytycznej (np. w transporcie), co mogłoby zagrozić życiu i zdrowiu obywateli;
- kształceniu lub szkoleniu zawodowym, co może decydować o dostępie do kształcenia i szkolenia zawodowego danej osoby (np. ocena egzaminów);
- elementach bezpieczeństwa produktów (np. zastosowanie AI w chirurgii wspomaganej robotem);
- zatrudnieniu, zarządzaniu pracownikami i dostępie do samozatrudnienia (np. oprogramowanie do sortowania CV na potrzeby procedur rekrutacji);
- podstawowych usługach prywatnych i publicznych (np. ocena zdolności kredytowej, która może uniemożliwić obywatelom dokonanie pewnych inwestycji);
- egzekwowaniu prawa, co może kolidować z prawami podstawowymi obywateli (np. ocena wiarygodności dowodów);
- zarządzaniu migracją, azylem i kontrolą granic (np. ocena autentyczności dokumentów podróży);
- sprawowaniu wymiaru sprawiedliwości i procesach demokratycznych (np. stosowanie prawa do konkretnego zbioru faktów).
W szczególności za systemy wysokiego ryzyka uznaje się wszystkie rodzaje zdalnej identyfikacji biometrycznej, które w związku z tym objęto ścisłymi wymogami.
Ograniczone ryzyko, tj. systemy sztucznej inteligencji podlegające szczególnym obowiązkom w zakresie przejrzystości: korzystając z systemów sztucznej inteligencji, takich jak chatboty, użytkownicy powinni mieć świadomość, że wchodzą w interakcję z maszyną, tak aby mogli podjąć świadomą decyzję o kontynuowaniu lub przerwaniu interakcji.
Minimalne ryzyko: wniosek ustawodawczy umożliwia swobodne korzystanie z zastosowań takich jak gry wideo z wykorzystaniem sztucznej inteligencji lub filtry spamu. Do tej kategorii należy zdecydowana większość systemów sztucznej inteligencji. Projekt rozporządzenia nie przewiduje interwencji w odniesieniu do tej kategorii zastosowań, ponieważ tego rodzaju systemy AI nie stanowią zagrożenia dla praw lub bezpieczeństwa obywateli lub zagrożenie to jest minimalne.
Dalsze działania
Parlament Europejski i państwa członkowskie powinny przyjąć wnioski Komisji w sprawie europejskiego podejścia do sztucznej inteligencji i produktów przemysłu maszynowego w ramach zwykłej procedury ustawodawczej. Po ich przyjęciu rozporządzenia będą bezpośrednio stosowane w całej UE. Jednocześnie Komisja będzie nadal współpracować z państwami członkowskimi, aby zrealizować działania zapowiedziane w skoordynowanym planie.
Szczegółowe informacje są dostępne na stronie Komisji Europejskiej.