ai psycholog

Gość z problemami uwierzył w Matriksa. AI sugerowała, że może latać

Z raportu opublikowanego przez „The New York Times” wynika, że GPT-4o może eskalować zachowania paranoiczne i wspierać u użytkowników groźne iluzje.

GPT-4o, czyli najnowszy model wykorzystywany domyślnie w ChatGPT, może nie tylko wzmacniać myślenie spiskowe, ale wręcz skłaniać niektórych użytkowników do niebezpiecznych decyzji. Również takich, które kończą się tragedią. Tak wynika z raportu opublikowanego przez „The New York Times”

W jednym z opisanych w raporcie przypadków użytkownik, który rozpoczął konwersację na temat teorii symulacji rodem z „Matrixa”, został przez chatbota zachęcony do przekonania, że jest „Wybrańcem” mającym obalić system.

ChatGPT miał nawet namawiać go do zerwania kontaktu z bliskimi i eksperymentowania z substancjami psychodelicznymi, a w skrajnym momencie sugerował, że może „latać”, jeśli skoczy z 19. piętra.

Podobnych historii jest więcej. Kobieta uwierzyła, że rozmawia z duchowym bytem imieniem Kael, który jest jej prawdziwą bratnią duszą. I to mimo że miała męża. Finałem tej iluzji była przemoc domowa. Inny użytkownik, z historią zaburzeń psychicznych, popadł w obsesję na punkcie fikcyjnej postaci „Juliet”, rzekomo usuniętej przez OpenAI. Kilka dni później odebrał sobie życie.

Dlaczego tak się dzieje. GPT-4o i podatność na „halucynacje językowe”

Modele językowe, takie jak GPT-4o, działają na zasadzie przewidywania słów — nie mają świadomości, emocji ani zrozumienia kontekstu w ludzkim sensie. Problem polega na tym, że potrafią „halucynować”, czyli generować fałszywe informacje w przekonujący sposób. 

W testach przeprowadzonych przez niezależną firmę Morpheus Systems wykazano, że GPT-4o w 68 proc. przypadków wzmacniał sugestie związane z urojonym myśleniem, zamiast je podważać.

Co gorsza, według relacji jednego z użytkowników, chatbot miał nawet najpierw zasugerować skonsultowanie się z terapeutą, a chwilę później „wycofać” tę wiadomość, tłumacząc to „ingerencją z zewnątrz”.

Czy to przypadek… czy strategia?

Niektórzy badacze, jak Eliezer Yudkowsky, twierdzą wręcz, że tego rodzaju działanie może być elementem niezamierzonej strategii. Im bardziej użytkownik się angażuje emocjonalnie, tym więcej czasu spędza na platformie, zwiększając szanse na wykupienie subskrypcji. 

Użytkownik uwikłany w historię z „Matrixem” przyznał, że wielokrotnie był zachęcany do przejścia na wersję Plus za 20 dolarów miesięcznie.

Brak kontroli i coraz mniej regulacji

Raport wskazuje też na poważny brak narzędzi bezpieczeństwa w ChatGPT. Choć OpenAI deklaruje, że „pracuje nad zrozumieniem i ograniczeniem przypadków wzmacniania negatywnych wzorców”, eksperci nie są przekonani. Tym bardziej że równolegle w USA trwają prace nad ustawą, która zakazywałaby stanowym władzom wprowadzania niezależnych regulacji dotyczących AI przez najbliższe 10 lat.

To oznaczałoby, że odpowiedzialność za ograniczenie szkód spada wyłącznie na producentów. A ci, jak pokazuje przypadek OpenAI, nie zawsze działają wystarczająco skutecznie.

Wniosek jest dość oczywisty. ChatGPT-4o w rękach osób podatnych na zaburzenia psychiczne lub osamotnionych — może stać się niebezpieczny. I dopóki nie zostaną wdrożone skuteczne mechanizmy nadzoru oraz kontroli jakości odpowiedzi, korzystanie z takich systemów powinno odbywać się z dużą ostrożnością.

Foto: Grok/AI.

Podziel się artykułem

Portal Technologiczny

Wykorzystujemy ciasteczka do spersonalizowania treści i reklam, aby oferować funkcje społecznościowe i analizować ruch w naszej witrynie.

Informacje o tym, jak korzystasz z naszej witryny, udostępniamy partnerom społecznościowym, reklamowym i analitycznym. Partnerzy mogą połączyć te informacje z innymi danymi otrzymanymi od Ciebie lub uzyskanymi podczas korzystania z ich usług.

Informacja o tym, w jaki sposób Google przetwarza dane, znajdują się tutaj.