Badanie EY AI Pulse 2025 ujawnia duży rozdźwięk między zarządami firm a konsumentami w kwestii odpowiedzialności za sztuczną inteligencję. Sprawdź dane, wnioski i konsekwencje dla biznesu.
W artykule:
Badanie EY AI Pulse 2025 ujawnia istotne różnice między percepcją sztucznej inteligencji przez konsumentów a członków zarządów firm. Mimo że 63% przedstawicieli C-suite deklaruje zrozumienie obaw klientów, tylko 23% z nich wskazuje na brak odpowiedzialności za negatywne wykorzystanie AI jako realny problem. Tymczasem aż 58% konsumentów traktuje to jako kluczową kwestię.
Konsumenci oczekują odpowiedzialności
EY wskazuje, że rozbieżności są szczególnie widoczne w obszarze ryzyk i odpowiedzialności. Podczas gdy kadra zarządzająca skupia się na potencjale AI do budowania przewagi konkurencyjnej, klienci coraz wyraźniej domagają się bezpieczeństwa i etycznych zasad wdrażania technologii.
- Brak odpowiedzialności za szkodliwe wykorzystanie AI: 23% zarządów kontra 58% konsumentów.
- Naruszenia systemów bezpieczeństwa AI: 32% zarządów kontra 64% konsumentów.
- Niewystarczająca ochrona prywatności: 31% zarządów kontra 61% konsumentów.
- Nieprzestrzeganie regulacji: 23% zarządów kontra 52% konsumentów.
Jak podkreśla Radosław Frańczak, Consulting Sales Leader EY Polska, przedsiębiorstwa, które zignorują te obawy, mogą wkrótce utracić przewagę, jaką dało im wczesne wdrażanie innowacji.
Im większa adopcja AI, tym większy rozdźwięk
Badanie wykazało, że firmy dopiero rozpoczynające wdrażanie AI są ostrożniejsze – jedynie 51% ich zarządów uważa, że ich postawy są zbieżne z oczekiwaniami klientów. W organizacjach, które mają już wdrożone systemy AI, odsetek ten rośnie do 71%.
Jednocześnie ponad połowa (51%) respondentów z grona zarządów przyznała, że opracowanie ram zarządzania technologią AI to jedno z największych wyzwań. Przykładem jest technologia Synthetic Data Generation (SDG) – korzystać z niej chce 88% firm, lecz tylko 58% rozumie towarzyszące jej ryzyka.
Regulacje wymuszają zmianę podejścia
EY przypomina, że wraz z wejściem w życie AI Act w Unii Europejskiej, firmy muszą liczyć się z realnymi konsekwencjami prawnymi. – Rozporządzenie zakazuje stosowania systemów, które manipulują użytkownikami poza ich świadomością lub wprowadzają w błąd. Kary mogą sięgać 35 mln euro lub 7% globalnego obrotu – wskazuje Justyna Wilczyńska-Baraniak, Partnerka EY Law.
Przykłady regulacji pokazują, że odpowiedzialne wykorzystanie AI staje się globalnym priorytetem:
- AI Act (Unia Europejska) – pierwsze całościowe ramy prawne dla AI, obejmujące zakazy systemów manipulacyjnych, obowiązek audytów ryzyka i przejrzystość w stosowaniu modeli ogólnego przeznaczenia. Pełne stosowanie przepisów będzie następować etapami do 2026 roku.
- Executive Orders i AI Action Plan (USA) – administracja federalna wprowadziła wytyczne dotyczące bezpieczeństwa modeli, odpowiedzialności dostawców oraz przejrzystości danych szkoleniowych. Celem jest utrzymanie globalnej konkurencyjności przy jednoczesnej ochronie konsumentów.
- China AI Regulation (Chiny) – przepisy wymagają rejestracji i zatwierdzania algorytmów generatywnych przez regulatora, a także wprowadzają obowiązki filtrowania treści niezgodnych z „wartościami społecznymi”.
- Kodeks postępowania GPAI (UE, od sierpnia 2025) – dodatkowy instrument regulacyjny dla modeli ogólnego przeznaczenia, który nakłada obowiązki raportowania i transparentności nawet przed pełnym wejściem AI Act.
Tak szeroka presja regulacyjna oznacza, że przedsiębiorstwa nie mogą już traktować kwestii odpowiedzialności jako fakultatywnych – wchodzą one w obszar twardych wymogów prawnych zarówno w Europie, jak i w innych kluczowych gospodarkach.
Badanie EY AI Pulse 2025 – dlaczego to ważne dla biznesu?
Badanie obejmowało 975 liderów C-suite odpowiedzialnych za AI w swoich organizacjach (firmy o przychodach powyżej 1 mld USD w 21 krajach na trzech kontynentach). Wyniki jasno pokazują, że rozbieżność między oczekiwaniami klientów a priorytetami zarządów staje się realnym ryzykiem biznesowym.
Brak adresowania obaw konsumentów może skutkować nie tylko utratą reputacji, ale również wymiernymi stratami finansowymi. Dla firm przemysłowych i budowlanych oznacza to konieczność wdrażania ram odpowiedzialnego korzystania z AI – od audytów zgodności po transparentną komunikację z klientami.

Dla wielu organizacji kluczowym wyzwaniem staje się znalezienie równowagi między innowacyjnością a odpowiedzialnością. Badanie EY potwierdza, że konsumenci coraz częściej oczekują od firm nie tylko oferowania nowoczesnych rozwiązań opartych na AI, ale także jasnych standardów etycznych i prawnych. To oznacza konieczność wdrożenia systemów zarządzania ryzykiem, które obejmują m.in. regularne audyty algorytmów, monitoring wpływu na prywatność i zgodność z AI Act.
Firmy, które zlekceważą te obszary, mogą utracić zaufanie rynku i kontrakty z partnerami instytucjonalnymi, dla których compliance staje się priorytetem. Warto zwrócić uwagę, że w sektorach regulowanych – takich jak finanse, przemysł czy budownictwo – presja na odpowiedzialne stosowanie AI będzie szczególnie silna. Organizacje, które już dziś zainwestują w transparentność i odpowiedzialne ramy zarządzania, mogą nie tylko ograniczyć ryzyka prawne i reputacyjne, ale także zbudować przewagę konkurencyjną opartą na wiarygodności i zaufaniu.
Źródło: EY, AI Pulse Survey 2025
Może Cię również zainteresować:
Generatywne AI bez zwrotu: 95 % firm nie odnotowuje zysków, wynika z raportu MIT
Koniec ery SEO: Spadek ruchu o 35%, a 60% wyszukiwań jest bez kliknięcia
Porozmawiaj z nami o sztucznej inteligencji
Dołącz do grupy "AI Business" na Facebooku
Polecamy e-book o AI
AI w marketingu – jak zwiększyć sprzedaż i zaangażowanie klientów?
Test Turinga: Czy AI jest już inteligentniejsze od człowieka?