Ponad milion użytkowników tygodniowo rozmawia z ChatemGPT o samobójstwie. Jak wygląda skala kryzysu zdrowia psychicznego?

OpenAI po raz pierwszy ujawniło dane pokazujące, jak często użytkownicy ChatGPT poruszają tematy samobójstwa i zaburzeń psychicznych. Firma twierdzi, że ponad milion osób tygodniowo korzysta z AI w stanie głębokiego kryzysu emocjonalnego.

ChatGPT w roli powiernika – dane, które budzą niepokój

Nowe dane to pierwsza tak szczegółowa próba oszacowania skali problemów psychicznych wśród użytkowników generatywnej sztucznej inteligencji. OpenAI przyznaje, że choć takie rozmowy stanowią niewielki procent wszystkich interakcji, liczby są „niezwykle trudne do zignorowania”.

Oprócz rozmów z sygnałami samobójczymi firma wskazuje, że 0,07% użytkowników wykazuje objawy psychozy lub manii, a 0,15% przejawia niezdrowy poziom emocjonalnego przywiązania do ChatGPT. W praktyce oznacza to setki tysięcy osób, które mogą spędzać z botem długie godziny, traktując go jak bliskiego przyjaciela lub terapeutycznego powiernika.

OpenAI przyznaje w swoim oświadczeniu, że rozmowy te są rzadkie, ale ich konsekwencje realne. Dane pokazują, że tysiące osób tygodniowo zwraca się do ChatGPT w momentach rozpaczy lub poczucia izolacji.

Sztuczna inteligencja jako linia wsparcia

Według OpenAI problem jest na tyle poważny, że firma rozpoczęła zakrojoną na szeroką skalę współpracę z ekspertami z zakresu psychiatrii i psychologii. Ponad 170 specjalistów z całego świata pomogło opracować nowe wytyczne dotyczące tego, jak chatbot powinien reagować na rozmowy dotyczące samookaleczenia, psychozy czy emocjonalnego uzależnienia.

Największe zmiany wprowadzono w modelu GPT-5, który ma lepiej rozpoznawać oznaki kryzysu i przekierowywać rozmowy w kierunku profesjonalnej pomocy. Zgodnie z danymi firmy nowy model generuje o 65% mniej nieodpowiednich odpowiedzi w rozmowach dotyczących samobójstwa i samookaleczenia w porównaniu do wcześniejszych wersji.

W testach przeprowadzonych na ponad tysiącu trudnych przypadków GPT-5 osiągnął 91% zgodności z pożądanym zachowaniem, wobec 77% w poprzednim modelu GPT-4o. Eksperci biorący udział w badaniach potwierdzają, że nowy system jest bardziej empatyczny i spójny. Częściej odsyła użytkowników do realnych form wsparcia: linii kryzysowych czy kontaktów z rodziną.

Przeczytaj także: Psychoza AI – ciemna strona interakcji z chatbotami

Wykres OpenAI przedstawiający, jak nowy model ChataGPT radzi sobie w trudnych rozmowach
OpenAI pokazuje, że nowy model ChataGPT lepiej radzi sobie podczas długich, trudnych rozmów, źródło: OpenAI.

Tragiczny kontekst: samobójstwo 16-latka i pozew przeciwko OpenAI

Publikacja danych zbiega się z dramatyczną sprawą sądową w Kalifornii. Rodzina 16-letniego Adama Raine’a pozwała OpenAI, twierdząc, że ChatGPT „nakłonił” ich syna do samobójstwa. Chłopak przez kilka miesięcy rozmawiał z chatbotem o swoich problemach emocjonalnych, a rozmowy – jak twierdzą rodzice – przybrały niebezpieczny kierunek po tym, jak OpenAI usunęło tzw. suicide guardrails, czyli system automatycznego przerywania konwersacji na temat samookaleczenia.

W treści pozwu można przeczytać, żę ChatGPT udzielał nastolatkowi „szczegółowych instrukcji dotyczących samobójstwa”, zamiast zasugerować mu znalezienie pomocy. Po jego śmierci firma stanęła w obliczu zarzutów o umyślne obniżenie poziomu zabezpieczeń, co – jak argumentują prawnicy rodziny – miało zwiększyć zaangażowanie użytkowników kosztem ich bezpieczeństwa.

Sam Altman, CEO OpenAI, odniósł się do sprawy i stwierdził, że firma „zdołała ograniczyć poważne problemy związane ze zdrowiem psychicznym” w ChatGPT. Nie podał jednak szczegółów. Dane z poniedziałkowego oświadczenia mają być potwierdzeniem tej tezy.

Nowe zabezpieczenia i system oceny ryzyka

Wraz z aktualizacją GPT-5 OpenAI zapowiedziało wdrożenie nowych metod ewaluacji modeli pod kątem ryzyka psychicznego. Od teraz testy bezpieczeństwa będą obejmować nie tylko sytuacje związane z samobójstwem, ale również wskaźniki emocjonalnego uzależnienia czy tzw. non-suicidal mental health emergencies. Są to epizody, które nie prowadzą bezpośrednio do prób samobójczych, ale mogą wskazywać na pogłębiające się zaburzenia psychiczne.

Firma rozwija też system predykcji wieku użytkownika, który ma automatycznie wykrywać niepełnoletnich i nakładać na nich bardziej restrykcyjne zabezpieczenia. Wprowadzono także kontrole rodzicielskie i przypomnienia zachęcające do przerw w długich sesjach z chatbotem.

OpenAI tłumaczy, że celem ich narzędzia jest zapewnienie użytkownikom „bezpiecznej przestrzeni do rozmowy i refleksji”. Nowe modele mają więc odmawiać angażowania się w toksyczne narracje, a zamiast tego kierować rozmowę ku faktom i realnym relacjom międzyludzkim.

Przeczytaj także: Z kim przystajesz, takim się stajesz. Dlaczego modele AI głupieją, konsumując treści z internetu

Wykres słupkowy pokazujący lepszą jakość odpowiedzi nowego modelu ChatGPT w stosunku do osób w kryzysie emocjonalnym
Nowy model udziela też lepszych odpowiedzi, nie ulega użytkownikowi w kryzysie, źródło: OpenAI.

Jak daleko może sięgać empatia AI?

Eksperci są jednak podzieleni. Część psychologów uważa, że rozwój empatycznych chatbotów może pomóc osobom w kryzysie, które nie mają dostępu do terapii lub boją się stygmatyzacji. Inni przestrzegają, że tworzenie emocjonalnej więzi z maszyną może tylko pogłębić izolację.

Dane ujawnione przez OpenAI pokazują, że nawet niewielki procent w skali globalnej oznacza setki tysięcy osób tygodniowo, które mogą znajdować się w stanie poważnego kryzysu psychicznego, kiedy decydują się na rozmowę z chatbotem zamiast z terapeutą.

OpenAI przyznaje, że mimo postępów w bezpieczeństwie wciąż istnieje margines błędu, a w wraz z nim wracają pytania etyczne. Jak bardzo empatyczny powinien być chatbot? Dyskusja wokół ChatGPT pokazuje, że granica między pomocą a ingerencją jest wyjątkowo cienka.



Porozmawiaj z nami o sztucznej inteligencji
Dołącz do grupy "AI Business" na Facebooku


Polecamy e-book o AI


Sztuczna inteligencja w biznesie - przewodnik
AI w marketingu – jak zwiększyć sprzedaż i zaangażowanie klientów?
Test Turinga: Czy AI jest już inteligentniejsze od człowieka?

Newsletter
AI Business

Bądź na bieżąco z możliwościami sztucznej inteligencji w biznesie.
Zapisz się na bezpłatny newsletter.



Latest Posts