Wdrażanie agentów AI w dużych organizacjach postępuje znacznie szybciej niż rozwój zabezpieczeń. Nowy raport CISO AI Risk Report 2026 pokazuje, że większość firm już dziś korzysta z autonomicznych narzędzi AI z dostępem do kluczowych systemów biznesowych.
Jednak niemal nikt nie potrafi powiedzieć dokładnie, jakie uprawnienia te systemy posiadają i co faktycznie robią.
W artykule
Agenci AI już mają dostęp do systemów krytycznych
Badanie przygotowane przez Cybersecurity Insiders we współpracy z Saviynt objęło 235 dyrektorów ds. bezpieczeństwa informacji (CISO) oraz liderów zespołów security w dużych przedsiębiorstwach. Wnioski są jednoznaczne – organizacje wchodzą w erę agentów AI bez odpowiednich fundamentów zarządzania tożsamością i dostępem.
Według raportu 71% ankietowanych firm potwierdza, że narzędzia AI mają dziś dostęp do podstawowych systemów operacyjnych i biznesowych, takich jak CRM, ERP czy systemy finansowe. Najczęściej wymieniane są środowiska klasy Salesforce i SAP. Problem polega na tym, że tylko 16% organizacji twierdzi, że ten dostęp jest skutecznie zarządzany i podlega realnej kontroli.
W praktyce oznacza to, że autonomiczne systemy (często wdrażane lokalnie przez zespoły biznesowe, IT lub deweloperów) działają na uprzywilejowanych kontach. Nikt nie certyfikuje, nie przegląda i nie rozlicza w czasie rzeczywistym. To poziom zaufania, którego nie otrzymałby żaden ludzki pracownik.

Kryzys widoczności tożsamości AI
Najpoważniejszym problemem okazuje się brak widoczności. Aż 92% respondentów przyznaje, że nie posiada pełnego obrazu tożsamości AI działających w ich środowisku. Jeszcze bardziej niepokojące jest to, że 95% wątpi, czy byłoby w stanie wykryć nadużycie lub powstrzymać je w czasie rzeczywistym, gdyby agent AI zachował się w sposób nieautoryzowany.
To nie są obawy czysto teoretyczne. Trzy czwarte organizacji odkryło już działające w ich infrastrukturze narzędzia typu shadow AI. Są to systemy wdrożone bez formalnej zgody zespołów bezpieczeństwa, często z osadzonymi kluczami API, tokenami OAuth lub stałymi poświadczeniami. W wielu przypadkach takie narzędzia miały szersze uprawnienia niż było to konieczne do realizacji ich zadań.
Przeczytaj także: Tesla wdraża ponad 1000 robotów Optimus w swoich fabrykach
Agenci AI – incydenty już się dzieją
Raport pokazuje, że ryzyko nie dotyczy przyszłości – ono już materializuje się dziś. 47% CISO zaobserwowało przypadki niezamierzonego lub nieautoryzowanego zachowania agentów AI. Jedna trzecia badanych organizacji doświadczyła w ciągu ostatniego roku realnego incydentu bezpieczeństwa związanego bezpośrednio z działaniem AI.
Co istotne, te zdarzenia nie zawsze miały charakter spektakularnych włamań. Często były to błędy konfiguracyjne, niekontrolowane wywołania API, modyfikacje ustawień systemowych czy nieprawidłowe przetwarzanie danych wrażliwych. Trudno o przypisanie ich jednemu „sprawcy”, bo agent AI nie zachowuje się jak człowiek ani tradycyjne konto maszynowe.
Tradycyjne IAM nie nadąża za prędkością maszyn
Jednym z najważniejszych wniosków raportu CISO AI Risk Report 2026 jest to, że klasyczne narzędzia zarządzania tożsamością i dostępem zostały zaprojektowane z myślą o użytkownikach ludzkich. Zakładają logowanie, sesje, role i okresowe przeglądy uprawnień. Tymczasem agenci AI działają w sposób ciągły, autonomiczny i z prędkością maszynową.
Mimo to 60% organizacji nadal próbuje zarządzać tożsamościami AI przy użyciu mechanizmów opartych na logowaniu lub statycznych kontach serwisowych. Tylko 25% firm stosuje dedykowane mechanizmy monitorowania i kontroli zaprojektowane specjalnie z myślą o AI, takie jak zarządzanie cyklem życia tokenów, ograniczone zakresy uprawnień czy ciągłą analizę zachowania.
Eksperci cytowani w raporcie podkreślają, że agenci AI potrafią łączyć działania w długie łańcuchy operacji i stopniowo gromadzić dostęp do kolejnych systemów. Często bez wyraźnego punktu decyzyjnego, który dałoby się łatwo audytować.

Tożsamość staje się nowym perymetrem
W odpowiedzi na te wyzwania zespoły bezpieczeństwa coraz wyraźniej przesuwają punkt ciężkości w stronę zarządzania tożsamością. Według badania 73% CISO deklaruje, że przy braku ograniczeń budżetowych zainwestowałoby w wykrywanie tożsamości API i obciążeń roboczych, a 68% w ciągłe monitorowanie i analitykę stanu zabezpieczeń.
Podobne stanowisko prezentują duzi dostawcy technologii. Microsoft otwarcie mówi o konieczności traktowania każdego agenta AI jako „tożsamości pierwszej klasy”, z jasno określonym zakresem odpowiedzialności. CyberArk określa agentów AI jako kolejną ewolucję tożsamości maszynowych, wymagającą podejścia zero trust i rygorystycznego ograniczania uprawnień.
Przeczytaj także: OpenAI zaczyna testować reklamy w ChatGPT
2026 – rok rozliczenia z AI governance?
Dodatkowym czynnikiem presji są regulacje. W 2026 roku w pełni zaczynają obowiązywać kluczowe wymogi unijnego aktu AI dla systemów wysokiego ryzyka, a podobne inicjatywy pojawiają się także poza Europą. Oznacza to, że brak kontroli nad tym, co robią autonomiczne systemy w środowiskach produkcyjnych, przestaje być wyłącznie problemem technicznym – staje się ryzykiem prawnym i reputacyjnym.
Raport CISO AI Risk Report 2026 nie pozostawia złudzeń. Agenci AI już działają w firmowych systemach, często z dostępem, którego nikt świadomie im nie przyznał. Organizacje powinny zacząć porządkować zarządzanie tożsamościami AI, ale czy zdążą to zrobić, zanim pierwszy poważny incydent wymusi tę zmianę w trybie kryzysowym?
Więcej informacji o badaniu tutaj.
Porozmawiaj z nami o sztucznej inteligencji
Dołącz do grupy "AI Business" na Facebooku
Polecamy e-book o AI
AI w marketingu – jak zwiększyć sprzedaż i zaangażowanie klientów?
Test Turinga: Czy AI jest już inteligentniejsze od człowieka?