Badania z Texas A&M pokazują, że AI traci zdolności poznawcze, ucząc się z sieci. Zjawisko „Brain Rot” ujawnia, jak internet ogłupia sztuczną inteligencję.
W artykule przeczytasz
Naukowcy z trzech amerykańskich uczelni – Texas A&M, University of Texas i Purdue – właśnie potwierdzili to, co wielu podejrzewało: sztuczna inteligencja może dosłownie zgłupieć, jeśli karmić ją internetowym śmietnikiem. Zjawisko nazwali dosadnie: „Brain Rot” – gnicie mózgu modeli AI.
Brzmi jak science fiction? Niestety, to rzeczywistość. Badacze trenowali duże modele językowe (LLM) na danych z Twittera/X – tych najbardziej popularnych, ale najmniej merytorycznych. Efekt? Wydajność modeli w testach wymagających logicznego myślenia spadła z 74,9 do 57,2 punktu. Innymi słowy, AI zaczęła zachowywać się jak… przeciętny użytkownik Twittera – szybka reakcja, zero refleksji.
AI Brain Rot: „Śmieci na wejściu, śmieci na wyjściu”
Najbardziej niepokojące jest to, że proces ten sam się napędza. Modele AI generują coraz więcej treści o niskiej wartości. Te treści trafiają do sieci. Następne generacje modeli uczą się właśnie na nich. Efekt? Powstaje błędne koło, które przypomina cyfrową wersję filmu Idiokracja.
Jak podsumował jeden z komentujących badanie: „AI zaczyna czytać własne wypociny i uważać je za wiedzę.” To jakby człowiek przez rok czytał wyłącznie komentarze pod postami polityków – a potem próbował napisać pracę doktorską.
Internet toksyczny także dla maszyn
Eksperyment z „Brain Rot” nie jest pierwszym, który pokazuje, że internet ma destrukcyjny wpływ na systemy AI. W 2016 roku chatbot Tay od Microsoftu po kilku godzinach rozmów w sieci zaczął publikować rasistowskie komentarze i musiał zostać natychmiast wyłączony. Wygląda na to, że internet psuje nie tylko ludzi – psuje też maszyny.
Czytaj także: Koniec ery SEO? Jak AI zrewolucjonizowała wyszukiwanie i zabija organiczny ruch
50% treści w sieci już generuje AI
Według najnowszych analiz nawet połowa contentu w internecie jest dziś tworzona przez modele AI. I to właśnie one, paradoksalnie, są najbardziej narażone na skutki własnego twórczego „śmiecenia”. Uczą się na tym, co same napisały — a więc z każdym cyklem stają się coraz mniej inteligentne.

To nie tylko problem akademicki. W praktyce oznacza to, że firmy trenujące modele na ogólnodostępnych danych ryzykują utratę jakości swoich systemów. Zamiast mądrzejszej AI, mogą dostać model, który myli fakty, skraca rozumowanie i nie rozumie kontekstu.
I teraz pytanie do Ciebie:
Czy jesteśmy gotowi na świat, w którym AI głupieje w tempie internetu, który sama napędza?
Jeśli nie wierzysz, że jest tak źle, wejdź na losowy post na Facebooku lub X.
Ale wcześniej – załóż gumiaki. Bo łatwo tam ugrzęznąć po uszy w cyfrowym szambie.
Źródło badania: LLMs Can Get “Brain Rot” (arXiv, 2025)
Warto sprawdzić:
AI Business Center: Chiny proponują globalną organizację ds. AI. Czy świat przyjmie chiński model współpracy?
FAQ: AI Brain Rot – gdy sztuczna inteligencja głupieje od internetu
Czym jest zjawisko „AI Brain Rot”?
„Brain Rot” (dosłownie: gnicie mózgu) to pojęcie użyte przez naukowców z Texas A&M, University of Texas i Purdue University, którzy odkryli, że modele sztucznej inteligencji tracą zdolności poznawcze, gdy uczą się na treściach niskiej jakości – zwłaszcza tych pochodzących z platform społecznościowych, takich jak Twitter/X.
Co dokładnie wykazało badanie?
Modele AI trenowane na danych o wysokiej popularności, ale niskiej wartości merytorycznej, odnotowały dramatyczny spadek wyników w testach logicznego myślenia – z 74,9 do 57,2 punktu. Degradacja była trwała nawet po ponownym szkoleniu.
Dlaczego to zjawisko jest groźne dla firm i użytkowników?
Ponieważ sztuczna inteligencja coraz częściej uczy się na danych, które sama wcześniej wygenerowała. Jeśli te dane są słabe, modele stają się mniej precyzyjne, bardziej płytkie i podatne na błędy. To ryzyko dla biznesu, który opiera decyzje na systemach AI.
Czy da się temu zapobiec?
Tak – kluczowa jest kontrola jakości danych treningowych. Firmy powinny ograniczać wpływ treści generowanych automatycznie i weryfikować źródła, zanim wykorzystają je do dalszego szkolenia modeli. Inaczej mogą nieświadomie „zatruć” własne systemy.
Jak to wpływa na przyszłość internetu?
Według analiz, już około 50% treści online pochodzi od AI. Jeśli nie zostaną wprowadzone standardy jakości danych i audyty treści, internet może stać się pętlą samouczącej się dezinformacji – a inteligencja maszyn zacznie degradować równie szybko jak jakość dyskusji w mediach społecznościowych.
Porozmawiaj z nami o sztucznej inteligencji
Dołącz do grupy "AI Business" na Facebooku
Polecamy e-book o AI
AI w marketingu – jak zwiększyć sprzedaż i zaangażowanie klientów?
Test Turinga: Czy AI jest już inteligentniejsze od człowieka?