Klasyfikacja ryzyka, kontrola narzędzi wysokiego ryzyka czy wymogi dotyczące transparentności. Z czym wiąże się projekt AI Act?
Projekt AI Act został przyjęty zdecydowaną większością głosów – 499 posłów opowiedziało się za, 28 przeciw, a 93 wstrzymało się od zagłosowania. Regulacje, których ostateczny kształt będzie jeszcze negocjowany z państwami członkowskimi, mają zagwarantować, że sztuczna inteligencja rozwijana oraz wykorzystywana w Europie będzie zgodna z prawami i wartościami Unii.
To pierwsze tego typu przepisy na świecie, opracowane po dwóch latach konsultacji. Komisja Europejska prowadzi obecnie negocjacje z państwami członkowskimi w celu ustalenia ostatecznego kształtu aktu o sztucznej inteligencji. Jednym z ważnych elementów przepisów będzie wymóg przejrzystości narzędzi, takich jak np. ChatGPT.
Nowe standardy dla narzędzi AI
Przepisy AI Act nałożą obowiązek oznaczania treści wygenerowanych przez sztuczną inteligencję. Powszechne staną się również narzędzia umożliwiające sprawdzenie, czy zdjęcia i obrazy są prawdziwe, czy też do ich stworzenia użyto technologii deepfake. Ponadto, twórcy systemów opartych na sztucznej inteligencji będą zobowiązani do ujawnienia treści i danych użytych do szkolenia narzędzi SI. Aplikacje AI będą również musiały spełniać określone wymogi dot. transparentności, aby użytkownicy mogli podejmować świadome decyzje i zdecydować, czy chcą kontynuować korzystanie z nich.
Nowe przepisy wprowadzą również klasyfikację ryzyka dla narzędzi sztucznej inteligencji. Wskutek tego powstała lista ośmiu konkretnych obszarów, a narzędzia należące do któregokolwiek z nich muszą zostać zarejestrowane w unijnej bazie danych i oznaczone jako systemy AI wysokiego ryzyka.
Przepisy te dotyczą też takich systemów jak np. ChatGPT. W przypadku tego najpopularniejszego narzędzia AI twórcy muszą zadbać także o to, aby model był zabezpieczony przed generowaniem nielegalnych treści. Co ciekawe, Sam Altman, dyrektor generalny OpenAI, wypowiadał się o AI Act kilka dni przed przegłosowaniem projektu. Zaznaczył on, że jeśli OpenAI nie będzie w stanie dostosować ChatGPT do nowych przepisów, istnieje możliwość, że usługa zostanie zamknięta w Europie.
Lista obejmuje: biometryczną identyfikację i kategoryzację osób, zarządzanie infrastrukturą krytyczną, edukację i szkolenia zawodowe, zatrudnienie i zarządzanie pracownikami, dostęp do usług prywatnych i publicznych, ściganie przestępstw, zarządzanie migracją oraz pomoc w interpretacji prawa.
Co ważne, wszystkie narzędzia AI wysokiego ryzyka będą kontrolowane zarówno przed wprowadzeniem na rynek, jak i w trakcie ich funkcjonowania. Ponadto wymagane będzie poinformowanie odbiorców o tym, iż korzystają oni z systemu opartego na sztucznej inteligencji.
Ochrona tożsamości i wizerunku
Według przepisów AI Act wyróżniono także modele AI o niedopuszczalnym ryzyku. Opisywane są one jako „stwarzające zagrożenie dla ludzi” i zostaną całkowicie zakazane. Zaliczają się do nich narzędzia stosujące manipulację ludźmi (jako przykład wskazano m.in. zabawki dziecięce aktywowane głosem, zachęcają do niebezpiecznych zachowań).
Kością niezgody podczas głosowania dotyczącego AI Act okazały się systemy zdalnej identyfikacji biometrycznej, także w czasie rzeczywistym. Unijne przepisy kategorycznie zakazują narzędzi AI, które mogą być wykorzystywane do punktacji społecznej, rozpoznawania twarzy i emocji, a także te wykorzystujące dane takie jak płeć, rasa czy pochodzenie etniczne. Decyzja ta wywołała gorące dyskusje na temat wyjątków dla państw członkowskich, które chciałyby wykorzystywać tę technologię w celu poszukiwania zaginionych dzieci, przestępców i terrorystów. Jednak obrońcy praw człowieka stwierdzili, że nie jest to możliwe bez ryzyka nadużyć.
Przyszłość sztucznej inteligencji
Bez wątpienia wkraczamy w nową erę ochrony praw obywateli – nowe przepisy mają na celu promowanie odpowiedzialnego i etycznego wykorzystania sztucznej inteligencji, aby cieszyć się jej możliwościami, nie narażając przy tym naszej prywatności.
Unia Europejska jest pierwszym, ale nie jedynym podmiotem, który dąży do uregulowania rozwoju sztucznej inteligencji. Przepisy w tej dziedzinie są również opracowywane w Stanach Zjednoczonych i Chinach. Negocjacje w sprawie ostatecznej treści rozporządzenia, które stanie się prawnym aktem UE, potrwają około roku.