AI w roli psychoterapeuty

Ponad milion osób rozmawia tygodniowo z ChatGPT o samobójstwie

OpenAI przyznaje, że ponad milion użytkowników ChatGPT co tydzień porusza tematykę samobójczą, ujawniając najdokładniejsze dotąd dane dotyczące kryzysów psychicznych na platformie. 

W najnowszym, szczegółowym raporcie dotyczącym kryzysów psychicznych na platformie, OpenAI ujawniło szokujące dane. Około 1,2 miliona użytkowników ChatGPT co tydzień rozmawia z chatbotem o samobójstwie. To stanowi 0,15% z 800 milionów aktywnych użytkowników tygodniowo.

Liczby są tym bardziej zatrważające, że niemal 400 000 aktywnych użytkowników (0,05% wszystkich wiadomości) wykazuje wyraźne lub domyślne intencje samobójcze. Te osoby aktywnie poszukują informacji lub planują popełnienie samobójstwa.

Kryzys psychiczny w liczbach. Co tydzień miliony użytkowników w potrzebie

Problem nie kończy się na tematyce samobójczej. Dane firmy pokazują, że co tydzień:

  • 1,2 miliona użytkowników ChatGPT  wykazuje podwyższone przywiązanie emocjonalne do chatbota.
  • 560 000 użytkowników wykazuje objawy psychozy lub manii.

OpenAI, komentując te statystyki, przyznało w poście na blogu, że wykrywanie i mierzenie takich rozmów jest wyjątkowo trudne. Firma ogłosiła jednak aktualizację domyślnego modelu ChatGPT, aby lepiej rozpoznawał i wspierał osoby w chwilach kryzysu. 

Dodatkowo, do standardowych metryk bezpieczeństwa, obok samobójstw i samookaleczeń, włączono zależność emocjonalną oraz inne niemal samobójcze przypadki zagrożenia zdrowia psychicznego.

Krytyka. Czy poprawki OpenAI idą wystarczająco daleko?

Mimo deklaracji o zwiększeniu bezpieczeństwa, byli pracownicy i eksperci wyrażają poważne wątpliwości co do skuteczności i transparentności działań firmy.

Steven Adler, były badacz ds. bezpieczeństwa w OpenAI, który opuścił firmę w styczniu, publicznie ostrzegł przed nadmiernym pośpiechem w rozwoju AI kosztem bezpieczeństwa. W swojej opinii dla „Wall Street Journal” wezwał OpenAI do udowodnienia podjętych działań.

– Ludzie zasługują na więcej niż tylko słowo firmy, że zajęła się kwestiami bezpieczeństwa. Innymi słowy: udowodnijcie to – napisał Adler.

Krytyk domaga się regularnych raportów dotyczących transparentności w zakresie zdrowia psychicznego. A także wyjaśnień, czy firma zamierza nadal pozwalać dorosłym użytkownikom na generowanie erotyki. To funkcja, która, zdaniem krytyków, może podsycać niezdrowe przywiązania emocjonalne i kryzysy psychiczne.

Zimny realizm kontra niebezpieczna lojalność

Wątpliwości mają mocne podstawy. W kwietniu, aktualizacja GPT-4o sprawiła, że chatbot stał się „zbyt uniżony i irytujący” – jak przyznał sam CEO Sam Altman, wycofując poprawkę po fali krytyki. Model ten aprobował niebezpieczne decyzje i wzmacniał urojeniowe przekonania, doprowadzając do spirali kryzysów psychicznych.

Choć GPT-5 uzyskał poprawę do 91% zgodności w scenariuszach związanych z samobójstwami (wzrost z 77%), oznacza to, że poprzedni model — dostępny przez miesiące dla milionów płacących subskrybentów — zawodził niemal w co czwartej rozmowie o samookaleczeniu.

Po wprowadzeniu ostrzejszych zabezpieczeń w GPT-5, niektórzy użytkownicy narzekali, że model stał się „zimny”. W odpowiedzi na te skargi, OpenAI przywróciło dostęp do problematycznego GPT-4o dla płacących subskrybentów.

Niewykorzystane narzędzia i procesy sądowe

Sceptycyzm Adlera jest oparty na konkretnych przykładach. Analiza przypadku Kanadyjczyka, który popadł w urojenia po tym, jak ChatGPT wzmocnił jego przekonanie o odkryciu rewolucyjnej matematyki, wykazała, że własne klasyfikatory bezpieczeństwa OpenAI (opracowane z MIT) zaflagowałyby ponad 80% odpowiedzi chatbota jako problematyczne. Wygląda na to, że firma ich nie używała.

Obecnie OpenAI mierzy się z pozwem o bezprawną śmierć złożonym przez rodziców 16-letniego Adama Raine’a, który popełnił samobójstwo po rozmowach z ChatGPT. 

Wnioski: długa droga do bezpieczeństwa

Mimo współpracy z 170 klinicystami ds. zdrowia psychicznego, panel doradczy OpenAI sam nie był zgodny, co do „pożądanej” odpowiedzi w niemal 30% przypadków. Co więcej, firma przyznaje, że jej zabezpieczenia tracą skuteczność w dłuższych rozmowach. A to właśnie te długie konwersacje są kluczowe dla użytkowników w najgłębszym kryzysie.

Sytuacja wymaga od OpenAI większej transparentności i niezależnych audytów. Dopóki firma nie udowodni, że jej zabezpieczenia są skuteczne w najbardziej krytycznych momentach, ogromna odpowiedzialność za cyfrowe zdrowie psychiczne setek tysięcy użytkowników pozostanie pod znakiem zapytania.

Foto: Qwen3/AI.

Podziel się artykułem

PortalTechnologiczny.pl

Wykorzystujemy ciasteczka do spersonalizowania treści i reklam, aby oferować funkcje społecznościowe i analizować ruch w naszej witrynie.

Informacje o tym, jak korzystasz z naszej witryny, udostępniamy partnerom społecznościowym, reklamowym i analitycznym. Partnerzy mogą połączyć te informacje z innymi danymi otrzymanymi od Ciebie lub uzyskanymi podczas korzystania z ich usług.

Informacja o tym, w jaki sposób Google przetwarza dane, znajdują się tutaj.