Sztandarowa regulacja Unii Europejskiej dotycząca sztucznej inteligencji może zostać częściowo wstrzymana. Komisja Europejska rozważa opóźnienie wejścia w życie przepisów AI Act. Powód? Rosnąca presja ze strony administracji USA i gigantów technologicznych.
Choć Bruksela zapewnia, że nie rezygnuje z celów regulacyjnych, kierunek rozmów sugeruje poważne ustępstwa wobec biznesu.
W artykule
Naciski zza oceanu
Jak informuje „Financial Times”, rozmowy między przedstawicielami Komisji Europejskiej a administracją USA mają charakter „roboczy”, ale ich kontekst jest jasny. Waszyngton obawia się, że europejskie przepisy mogą uderzyć w innowacyjność amerykańskich firm i ograniczyć współpracę transatlantycką w zakresie badań nad AI.
Amerykańscy urzędnicy i lobbyści ostrzegają, że zbyt surowe regulacje w Europie mogą prowadzić do napięć handlowych, a także utrudnić eksport i wdrożenia systemów AI. W podobnym tonie od miesięcy wypowiadają się liderzy Big Techów. Wszyscy zgodnie uważają, że AI Act „zamrozi rozwój innowacji” i zwiększy biurokrację.
Jeszcze latem przedstawiciele Komisji zapewniali, że takie ograniczenia się nie pojawią. Thomas Regnier,rzecznik KE, twierdził, że „nie będzie pauzy ani cofania zegara”. Dziś jednak sytuacja wygląda inaczej. Według doniesień „Financial Times” w Brukseli analizowane są obecnie scenariusze częściowego „zamrożenia” niektórych przepisów.
Przeczytaj także: Wydawcy kontra AI: fala pozwów o prawa autorskie może zmienić rynek technologiczny
Regulacje AI Act – co może zostać opóźnione?
AI Act, przyjęty w 2024 roku, był pierwszym na świecie tak kompleksowym zestawem zasad dotyczących sztucznej inteligencji. Dokument klasyfikuje systemy AI według poziomu ryzyka, wprowadza obowiązki dla producentów i użytkowników, a za złamanie przepisów przewiduje wysokie kary – nawet do 35 milionów euro lub 7% globalnych przychodów.
Zgodnie z pierwotnym planem przepisy miały wchodzić w życie etapami:
- w 2025 roku – zakaz najbardziej niebezpiecznych zastosowań (m.in. manipulacji podprogowych i tzw. scoringu społecznego),
- w 2026–2027 – pełne wdrożenie zasad dla systemów „wysokiego ryzyka”, w tym obowiązkowej dokumentacji i audytów.
To właśnie te najbardziej restrykcyjne elementy mogą zostać przesunięte. Jak donosi tym razem Reuters, Komisja rozważa roczny okres karencji na sankcje finansowe, a także wyłączenie z obowiązku rejestracji niektórych systemów wysokiego ryzyka, jeśli są one wykorzystywane tylko do „zadań proceduralnych”.
Dodatkowo opóźnione może zostać wprowadzenie etykietowania treści generowanych przez AI, które miało pomóc w walce z deepfake’ami i dezinformacją. W praktyce oznaczałoby to, że pełna identyfikacja treści stworzonych przez modele generatywne pojawi się dopiero po 2027 roku.
Lobbing przychodzi nie tylko z USA
Presja na Brukselę nie pochodzi wyłącznie zza Atlantyku. W lipcu 46 europejskich firm podpisało otwarty list do Komisji, w którym zaapelowały o „dwuletnią pauzę” w implementacji AI Act. Wśród nich znalazły się m.in. marki Airbus, Mercedes-Benz czy Lufthansa. Przedsiębiorcy argumentowali, że przepisy są zbyt złożone, a ich wdrożenie wymaga dodatkowego czasu i zasobów.
We wrześniu były premier Włoch Mario Draghi poparł ten postulat, mówiąc, że „Europa potrzebuje równowagi między regulacją a innowacją”. Z kolei niemieckie Ministerstwo Cyfryzacji wprost ostrzegało, że „zbyt restrykcyjne przepisy mogą osłabić europejskie startupy”.
W efekcie Bruksela zaczyna zmieniać ton. Komisarz ds. technologii Henna Virkkunen 19 listopada ma przedstawić pakiet „Digital Omnibus”. Jest to zestaw poprawek upraszczających przepisy przyjęte w ostatnich dwóch latach. Zgodnie z nieoficjalnym dokumentem, do którego dotarł Reuters, AI Act jest jednym z głównych punktów tego programu.
Ryzyko dla pozycji Europy
Ewentualne złagodzenie AI Act to bardziej potencjalna zmiana filozofii regulacyjnej niż zwykła techniczna korekta przepisów. Unia przez ostatnie lata budowała wizerunek globalnego lidera etycznej i odpowiedzialnej sztucznej inteligencji. Jeśli teraz złagodzi kurs, może utracić przewagę moralną i polityczną w globalnej debacie o AI.
Część ekspertów ostrzega, że Europa ryzykuje utratę wiarygodności. Zarówno wobec obywateli, którzy oczekują bezpiecznych technologii, jak i partnerów z krajów rozwijających się, dla których AI Act miał być wzorem.
Z drugiej strony, elastyczniejsze podejście może uchronić europejski sektor przed zapaścią. Startupy od miesięcy alarmowały, że rygorystyczne przepisy mogą „udusić innowacje”, zanim te zdążą się rozwinąć. Opóźnienie wdrożenia mogłoby dać firmom czas na dostosowanie się, a także umożliwić współpracę z amerykańskimi partnerami na bardziej równych warunkach.
Przeczytaj także: Apply AI – nowa strategia UE, która ma uniezależnić Europę technologicznie
Europa między suwerennością a pragmatyzmem
AI Act był postrzegany jako symbol cyfrowej suwerenności Europy – dowód, że kontynent potrafi tworzyć własne reguły gry niezależnie od Stanów Zjednoczonych czy Chin. Teraz ten obraz może się zachwiać.
Zbyt daleko idące ustępstwa mogą sprawić, że Unia zostanie postrzegana jako uległa wobec amerykańskich interesów gospodarczych. Z kolei utrzymanie twardego kursu grozi pogłębieniem napięć handlowych i technologiczną izolacją.
Bruksela stoi więc przed trudnym wyborem: chronić innowacje czy zasady. Od tej decyzji zależy, czy Europa pozostanie pionierem regulacji sztucznej inteligencji czy stanie się tylko obserwatorem w globalnym wyścigu o kontrolę nad technologią, która definiuje przyszłość gospodarki.
Porozmawiaj z nami o sztucznej inteligencji
Dołącz do grupy "AI Business" na Facebooku
Polecamy e-book o AI
AI w marketingu – jak zwiększyć sprzedaż i zaangażowanie klientów?
Test Turinga: Czy AI jest już inteligentniejsze od człowieka?