OpenAI przyznaje, że ponad milion użytkowników ChatGPT co tydzień porusza tematykę samobójczą, ujawniając najdokładniejsze dotąd dane dotyczące kryzysów psychicznych na platformie.
W najnowszym, szczegółowym raporcie dotyczącym kryzysów psychicznych na platformie, OpenAI ujawniło szokujące dane. Około 1,2 miliona użytkowników ChatGPT co tydzień rozmawia z chatbotem o samobójstwie. To stanowi 0,15% z 800 milionów aktywnych użytkowników tygodniowo.
Liczby są tym bardziej zatrważające, że niemal 400 000 aktywnych użytkowników (0,05% wszystkich wiadomości) wykazuje wyraźne lub domyślne intencje samobójcze. Te osoby aktywnie poszukują informacji lub planują popełnienie samobójstwa.
Kryzys psychiczny w liczbach. Co tydzień miliony użytkowników w potrzebie
Problem nie kończy się na tematyce samobójczej. Dane firmy pokazują, że co tydzień:
- 1,2 miliona użytkowników ChatGPT wykazuje podwyższone przywiązanie emocjonalne do chatbota.
- 560 000 użytkowników wykazuje objawy psychozy lub manii.
OpenAI, komentując te statystyki, przyznało w poście na blogu, że wykrywanie i mierzenie takich rozmów jest wyjątkowo trudne. Firma ogłosiła jednak aktualizację domyślnego modelu ChatGPT, aby lepiej rozpoznawał i wspierał osoby w chwilach kryzysu.
Dodatkowo, do standardowych metryk bezpieczeństwa, obok samobójstw i samookaleczeń, włączono zależność emocjonalną oraz inne niemal samobójcze przypadki zagrożenia zdrowia psychicznego.
Krytyka. Czy poprawki OpenAI idą wystarczająco daleko?
Mimo deklaracji o zwiększeniu bezpieczeństwa, byli pracownicy i eksperci wyrażają poważne wątpliwości co do skuteczności i transparentności działań firmy.
Steven Adler, były badacz ds. bezpieczeństwa w OpenAI, który opuścił firmę w styczniu, publicznie ostrzegł przed nadmiernym pośpiechem w rozwoju AI kosztem bezpieczeństwa. W swojej opinii dla „Wall Street Journal” wezwał OpenAI do udowodnienia podjętych działań.
– Ludzie zasługują na więcej niż tylko słowo firmy, że zajęła się kwestiami bezpieczeństwa. Innymi słowy: udowodnijcie to – napisał Adler.
Krytyk domaga się regularnych raportów dotyczących transparentności w zakresie zdrowia psychicznego. A także wyjaśnień, czy firma zamierza nadal pozwalać dorosłym użytkownikom na generowanie erotyki. To funkcja, która, zdaniem krytyków, może podsycać niezdrowe przywiązania emocjonalne i kryzysy psychiczne.
Zimny realizm kontra niebezpieczna lojalność
Wątpliwości mają mocne podstawy. W kwietniu, aktualizacja GPT-4o sprawiła, że chatbot stał się „zbyt uniżony i irytujący” – jak przyznał sam CEO Sam Altman, wycofując poprawkę po fali krytyki. Model ten aprobował niebezpieczne decyzje i wzmacniał urojeniowe przekonania, doprowadzając do spirali kryzysów psychicznych.
Choć GPT-5 uzyskał poprawę do 91% zgodności w scenariuszach związanych z samobójstwami (wzrost z 77%), oznacza to, że poprzedni model — dostępny przez miesiące dla milionów płacących subskrybentów — zawodził niemal w co czwartej rozmowie o samookaleczeniu.
Po wprowadzeniu ostrzejszych zabezpieczeń w GPT-5, niektórzy użytkownicy narzekali, że model stał się „zimny”. W odpowiedzi na te skargi, OpenAI przywróciło dostęp do problematycznego GPT-4o dla płacących subskrybentów.
Niewykorzystane narzędzia i procesy sądowe
Sceptycyzm Adlera jest oparty na konkretnych przykładach. Analiza przypadku Kanadyjczyka, który popadł w urojenia po tym, jak ChatGPT wzmocnił jego przekonanie o odkryciu rewolucyjnej matematyki, wykazała, że własne klasyfikatory bezpieczeństwa OpenAI (opracowane z MIT) zaflagowałyby ponad 80% odpowiedzi chatbota jako problematyczne. Wygląda na to, że firma ich nie używała.
Obecnie OpenAI mierzy się z pozwem o bezprawną śmierć złożonym przez rodziców 16-letniego Adama Raine’a, który popełnił samobójstwo po rozmowach z ChatGPT.
Wnioski: długa droga do bezpieczeństwa
Mimo współpracy z 170 klinicystami ds. zdrowia psychicznego, panel doradczy OpenAI sam nie był zgodny, co do „pożądanej” odpowiedzi w niemal 30% przypadków. Co więcej, firma przyznaje, że jej zabezpieczenia tracą skuteczność w dłuższych rozmowach. A to właśnie te długie konwersacje są kluczowe dla użytkowników w najgłębszym kryzysie.
Sytuacja wymaga od OpenAI większej transparentności i niezależnych audytów. Dopóki firma nie udowodni, że jej zabezpieczenia są skuteczne w najbardziej krytycznych momentach, ogromna odpowiedzialność za cyfrowe zdrowie psychiczne setek tysięcy użytkowników pozostanie pod znakiem zapytania.
Foto: Qwen3/AI.