Sztuczna inteligencja coraz częściej wpływa na nasze decyzje dotyczące zdrowia, finansów czy zatrudnienia. To właśnie w tych obszarach pojawiają się największe pytania o bezpieczeństwo. Dlatego jednym z najważniejszych pojęć w AI Act są systemy AI wysokiego ryzyka.
Nie są one zakazane, ale podlegają znacznie bardziej rygorystycznym wymogom niż większość rozwiązań dostępnych dziś na rynku. Zrozumienie tej kategorii jest szczególnie ważne dla firm, które już wykorzystują AI lub planują jej wdrożenie w newralgicznych obszarach działalności.
W artykule
Klasyfikacja systemów AI według AI Act
Odpowiedzią Unii Europejskiej na te wyzwania jest AI Act – pierwsze na świecie kompleksowe rozporządzenie regulujące rozwój i stosowanie systemów sztucznej inteligencji.
AI Act wprowadza podejście oparte na analizie ryzyka (risk-based approach). Oznacza to, że regulacje są dostosowane do potencjalnego wpływu danego systemu AI na zdrowie, bezpieczeństwo oraz prawa podstawowe osób fizycznych.
Rozporządzenie wyróżnia cztery główne kategorie systemów AI:
- systemy zakazane – ich stosowanie jest niedopuszczalne ze względu na poważne zagrożenie dla praw i wolności obywatelskich,
- systemy wysokiego ryzyka – mogą być stosowane, ale tylko po spełnieniu ściśle określonych warunków,
- systemy ograniczonego ryzyka – wymagają głównie spełnienia obowiązków informacyjnych,
- systemy niskiego ryzyka – nie podlegają szczegółowym regulacjom.
Największe znaczenie praktyczne dla biznesu mają właśnie systemy AI wysokiego ryzyka – to one obejmują wiele popularnych dziś zastosowań sztucznej inteligencji.
Przeczytaj także: Agenci AI działają szybciej niż zabezpieczenia. Firmy tracą kontrolę nad dostępem do systemów
Czym są systemy AI wysokiego ryzyka?
Systemy AI wysokiego ryzyka to takie rozwiązania, których błędne działanie lub niewłaściwe użycie może prowadzić do poważnych konsekwencji dla ludzi. AI Act zalicza do tej kategorii zarówno określone zastosowania AI, jak i systemy stanowiące element bezpieczeństwa produktów objętych oznakowaniem CE, np. wyrobów medycznych czy maszyn.
Istotne jest to, że o kwalifikacji systemu decyduje kontekst jego użycia. Nie tylko sama technologia. Ten sam model AI może być neutralnym narzędziem analitycznym w jednym przypadku i systemem wysokiego ryzyka w innym.

Obszary szczególnie narażone na wysokie ryzyko
AI Act wskazuje w załączniku III katalog obszarów, w których stosowanie AI jest uznawane za wysokiego ryzyka. Należą do nich m.in.:
- rekrutacja i zatrudnienie, w tym selekcja CV, ocena kandydatów czy monitorowanie wydajności pracowników,
- edukacja, np. systemy oceniające egzaminy, przydzielające uczniów do programów lub wykrywające ściąganie,
- opieka zdrowotna, w tym wsparcie diagnostyki i podejmowania decyzji terapeutycznych,
- dostęp do usług publicznych i prywatnych, np. scoring kredytowy czy przyznawanie świadczeń,
- infrastruktura krytyczna, taka jak energetyka, transport czy sieci wodociągowe,
- egzekwowanie prawa, migracja i kontrola graniczna,
- wymiar sprawiedliwości oraz procesy demokratyczne.
W każdym z tych obszarów decyzje podejmowane przez AI mogą mieć długofalowe skutki, których nie da się łatwo odwrócić.
Obowiązki dostawców systemów wysokiego ryzyka
Dostawcy systemów AI wysokiego ryzyka, czyli podmioty, które projektują lub wprowadzają je na rynek, muszą spełnić szereg wymagań jeszcze przed rozpoczęciem ich stosowania.
Do najważniejszych obowiązków należą:
- wdrożenie systemu zarządzania ryzykiem obejmującego cały cykl życia AI,
- zapewnienie wysokiej jakości i reprezentatywności danych treningowych,
- przygotowanie szczegółowej dokumentacji technicznej,
- wprowadzenie mechanizmów logowania działań systemu,
- zagwarantowanie nadzoru człowieka (human oversight),
- spełnienie wymogów dotyczących dokładności, odporności i cyberbezpieczeństwa,
- przeprowadzenie oceny zgodności oraz rejestracja systemu w unijnej bazie.
Celem tych wymogów nie jest blokowanie innowacji, lecz stworzenie ram, które pozwolą na bezpieczne korzystanie z AI w wrażliwych obszarach.
Przeczytaj także: Komisja Europejska uruchamia narzędzie dla sygnalistów AI Act
Odpowiedzialność użytkowników AI
AI Act nakłada obowiązki nie tylko na dostawców, ale także na użytkowników systemów wysokiego ryzyka. Organizacje korzystające z takich rozwiązań muszą używać systemów zgodnie z ich przeznaczeniem i instrukcją, a także zapewnić realny nadzór człowieka nad decyzjami AI. Ponadto muszą zadbać o jakość danych wejściowych i reagować na incydenty i przechowywać logi.
W określonych przypadkach konieczne jest też przeprowadzenie oceny wpływu na prawa podstawowe (FRIA). W praktyce oznacza to, że odpowiedzialność za AI nie kończy się na etapie zakupu technologii.

Konsekwencje braku zgodności z AI Act
Niezastosowanie się do wymogów AI Act może prowadzić do poważnych konsekwencji finansowych i organizacyjnych. W przypadku systemów AI wysokiego ryzyka kary mogą sięgać 15 mln euro lub 3% globalnego obrotu. Dodatkowo możliwe są zakazy dalszego stosowania systemu czy wycofanie go z rynku UE.
Równie istotne są konsekwencje reputacyjne. Brak zgodności z regulacjami w obszarze AI może znacząco osłabić zaufanie klientów i partnerów biznesowych.
Dlaczego warto przygotować się wcześniej?
Systemy AI wysokiego ryzyka nie są wyjątkiem, lecz coraz częstszym elementem nowoczesnych organizacji. AI Act jasno pokazuje kierunek: rozwiązania korzystające ze sztucznej inteligencji mają być przede wszystkim bezpieczne i odpowiedzialne, a nie tylko skutczne.
Dla firm oznacza to konieczność wcześniejszego audytu wykorzystywanych rozwiązań, oceny ryzyk oraz wdrożenia procedur, które pozwolą spełnić nowe wymogi. W dłuższej perspektywie to właśnie takie podejście może dać im przewagę konkurencyjną – zarówno regulacyjną, jak i wizerunkową.
Porozmawiaj z nami o sztucznej inteligencji
Dołącz do grupy "AI Business" na Facebooku
Polecamy e-book o AI
AI w marketingu – jak zwiększyć sprzedaż i zaangażowanie klientów?
Test Turinga: Czy AI jest już inteligentniejsze od człowieka?