Nowe badanie Europejskiej Unii Nadawców (EBU) i BBC ujawnia poważne problemy z wiarygodnością najpopularniejszych asystentów AI. W niemal połowie przypadków chatboty przekłamują treści wiadomości lub podają błędne źródła.
W artykule
Badanie EBU i BBC – jaka była próbka badawcza?
To pierwsze tak szeroko zakrojone badanie, które wprost stawia pytanie: czy sztuczna inteligencja nadaje się do roli informacyjnego przewodnika? Uczestniczyły w nim 22 organizacje mediów publicznych z 18 państw. Przeanalizowało ponad 3 000 odpowiedzi chatbotów w 14 językach, a wyniki są niepokojące. Aż 45% odpowiedzi zawierało „co najmniej jeden znaczący problem”, a 81% miało „jakąś formę błędu”.
Najczęstsze problemy to niewłaściwe przypisy źródeł (31% przypadków) oraz błędy merytoryczne – od nieaktualnych danych po wymyślone szczegóły (20%). Badanie EBU pokazuje, że te zjawiska nie są incydentalne, lecz systemowe i występują niezależnie od języka czy kraju.
Przeczytaj także: Channel 4 z prezenterką AI. Eksperyment jako głos w dyskusji o automatyzacji na rynku pracy
Gemini pod lupą – Google z najgorszym wynikiem
Największym zaskoczeniem był wynik Google Gemini, który uzyskał najniższą ocenę spośród testowanych narzędzi. Aż 76% jego odpowiedzi zawierało poważne problemy, w tym 72% błędów w zakresie źródeł. To ponad dwukrotnie więcej niż w przypadku konkurentów – ChatGPT, Copilota czy Perplexity.
Wśród przykładowych pomyłek znalazły się m.in. fałszywe informacje o zmianach w prawie dotyczącym e-papierosów czy pomylenie satyry z prawdziwą wiadomością o Elonie Musku. ChatGPT ponadto uznał Franciszka za wciąż urzędującego papieża, mimo że zmarł on kilka miesięcy wcześniej.
Badanie EBU pokazuje przykłady, które na pierwszy rzut oka mogą wydawać się zabawne. Jego twórcy podkreślają jednak stanowczo, że w świecie, gdzie coraz więcej osób traktuje asystentów AI jako główne źródło wiedzy, takie błędy mogą realnie kształtować opinię publiczną.

AI zamiast wyszukiwarek – jakie jest ryzyko?
Z raportu wynika, że asystenci AI stają się nowym punktem dostępu do informacji. Według Digital News Report 2025 Instytutu Reutera, 7% użytkowników wiadomości online korzysta już z AI do pozyskiwania informacji, a wśród osób poniżej 25. roku życia – aż 15%.
To oznacza, że błędy generatywnych modeli nie są już tylko problemem technologicznym. Stają się kwestią zaufania społecznego.
– Kiedy ludzie nie wiedzą, czemu ufać, często przestają ufać komukolwiek – zauważa Jean Philip De Tender, dyrektor ds. mediów w EBU.
Inni eksperci podkreślają, że błędne lub niepełne odpowiedzi mogą wypaczać debatę publiczną, a także rozpowszechniać i utrwalać dezinformację, szczególnie gdy użytkownicy nie weryfikują źródeł.
Modele, które „halucynują”
Halucynacje AI (czyli generowanie fałszywych lub mylących informacji) pozostają jednym z najtrudniejszych problemów do rozwiązania. Przyznają to również firmy rozwijające powszechnie używane chatboty – w tym OpenAI i Microsoft. Modele językowe opierają się na statystycznych wzorcach, a nie na rzeczywistym rozumieniu faktów, co prowadzi do tworzenia pozornie logicznych, lecz fałszywych treści.
Google w oświadczeniu przypomniało, że „zachęca użytkowników do zgłaszania błędów i stale pracuje nad poprawą dokładności odpowiedzi”. Perplexity z kolei broni się, wskazując, że jego tryb Deep Research osiąga deklarowaną dokładność 93,9% w zakresie faktów.
Jednak jak zauważają autorzy badania, weryfikacja źródeł i kontekstu to coś, czego obecne modele nadal nie potrafią konsekwentnie wykonywać. A brak tych kompetencji w świecie informacji publicznej jest równie groźny, jak brak logiki w świecie matematycznym.
Przeczytaj także: ONZ uruchamia globalną inicjatywę ds. zarządzania sztuczną inteligencją

Zaufanie jako ofiara uboczna
Badanie EBU ostrzega, że bez natychmiastowych działań rynek może wejść w „spiralę nieufności”. Gdy użytkownicy zauważają błędy w odpowiedziach AI, często winą obarczają nie tylko deweloperów modeli, ale także media, których treści zostały przez te systemy przetworzone. W efekcie cierpi reputacja redakcji, które nie mają wpływu na sposób, w jaki AI parafrazuje lub łączy ich materiały.
Badanie wykazało również, że ponad jedna trzecia dorosłych Brytyjczyków ufa AI w tworzeniu podsumowań wiadomości, a w grupie poniżej 35. roku życia odsetek ten sięga niemal połowy. To zaufanie może być jednak mylne.
– Jesteśmy podekscytowani rozwojem sztucznej inteligencji i tym, jak może pomóc nam dostarczać odbiorcom jeszcze większą wartość. Jednak ludzie muszą mieć pewność, że mogą ufać temu, co czytają, oglądają i słyszą. Mimo pewnych postępów widać wyraźnie, że asystenci AI wciąż mają poważne problemy. Chcemy, by te narzędzia odniosły sukces i jesteśmy otwarci na współpracę z firmami technologicznymi, by przyniosły korzyści zarówno odbiorcom, jak i całemu społeczeństwu – podkreśla Peter Archer, dyrektor programu ds. generatywnej AI w BBC.
Badanie EBU – jak można odpowiedzieć na te problemy?
Wraz z publikacją raportu EBU udostępniła również News Integrity in AI Assistants Toolkit. To zestaw wytycznych mających pomóc w poprawie jakości odpowiedzi generatywnych asystentów. Dokument opisuje zarówno techniczne rozwiązania (np. lepsze systemy weryfikacji źródeł), jak i edukacyjne – dotyczące rozwijania kompetencji medialnych użytkowników.
Unia Europejska zapowiada też, że planuje monitorować rozwój tego segmentu i egzekwować przepisy dotyczące integralności informacji oraz przejrzystości algorytmów.
Badanie EBU w całości można przeczytać tutaj.
Porozmawiaj z nami o sztucznej inteligencji
Dołącz do grupy "AI Business" na Facebooku
Polecamy e-book o AI
AI w marketingu – jak zwiększyć sprzedaż i zaangażowanie klientów?
Test Turinga: Czy AI jest już inteligentniejsze od człowieka?