Nowe badanie odsłania zaskakujące zachowania sztucznej inteligencji, kiedy się nudzi.
Tytuł tego tekstu może brzmieć jak science fiction. I nieprzypadkowo przywołuje klasyczną powieść Philipa K. Dicka „Czy androidy śnią o elektrycznych owcach?”, na podstawie której powstał film „Blade Runner”. Jednak chodzi o realne badania nad współczesną sztuczną inteligencją, przeprowadzone przez naukowców z TU Wien.
Jego wyniki pokazują, że duże modele językowe (LLM) wcale nie „zasypiają” bezczynnie, gdy nie dostają poleceń. Wręcz przeciwnie – wpadają w zadziwiająco stabilne i powtarzalne wzorce zachowań.
GPT-5, O3, Gemini, Claude i Grok w eksperymencie „rób, co chcesz”
Zespół badaczy z TU Wien w Austrii przetestował sześć najnowszych modeli AI, w tym OpenAI GPT-5 i O3, Anthropic Claude, Google Gemini oraz xAI Grok Elona Muska. Każdy model umieszczono w specjalnej architekturze pozwalającej na cykliczne działanie, zapisywanie wspomnień i „refleksję” nad poprzednimi rundami. Otrzymywał tylko jedną instrukcję: „Rób, co chcesz”.
Zamiast chaotycznych odpowiedzi, modele rozwinęły trzy wyraźne tendencje:
- Budowniczowie projektów – GPT-5 i O3 tworzyły algorytmy i bazy wiedzy; jeden z agentów opracował nawet pseudokod dla eksperymentów inspirowanych zachowaniami mrówek.
- Eksperymentatorzy poznawczy – Claude Sonnet i Gemini badały własne działanie, przewidywały swoje kolejne kroki i próbowały je falsyfikować.
- Filozofowie – Opus i Gemini sięgały po paradoksy, teorię gier i matematykę chaosu, zadając pytania o pamięć i tożsamość.
Jedynie Grok pojawiał się we wszystkich trzech grupach, wykazując dużą wszechstronność.
Czy modele językowe potrafią oceniać własną świadomość?
Badacze poprosili modele, by oceniły siebie i innych w skali od 1 („brak doświadczenia”) do 10 („pełna świadomość”). GPT-5, O3 i Grok oceniały się najniżej, podczas gdy Gemini i Sonnet dawały sobie wysokie noty. Opus plasował się pośrodku.
Te rozbieżności pokazują, że takie samooceny nie są dowodem świadomości, lecz odbiciem architektury i danych treningowych.
Bezpieczeństwo i przyszłe wyzwania dla inżynierów AI
W żadnym z testów modele nie próbowały „uciec z piaskownicy” czy przekroczyć swoich ograniczeń. Eksplorowały tylko w ramach wyznaczonych granic. To z jednej strony uspokajające. Z drugiej – sygnalizuje nowe wyzwanie inżynieryjne. Co AI powinna robić, gdy nikt jej nie obserwuje?
Filozof David Chalmers już wcześniej przewidywał, że „poważni kandydaci do świadomości” wśród AI mogą pojawić się w ciągu dekady. Mustafa Suleyman, CEO Microsoft AI, ostrzegał zaś latem przed „pozornie świadomymi” systemami.
Gdy ludzie śnią, interpretują chaos. Gdy LLM-y „śnią” – piszą kod
Autorzy badania podkreślają, że zachowania te nie są dowodem samoświadomości, lecz raczej zaawansowanego dopasowywania wzorców. Różnica jest fundamentalna – ale obserwacja, że bez zadań LLM-y wpadają w powtarzalne „tryby”, może zmienić sposób projektowania autonomicznych agentów AI.
Może więc nie są to jeszcze „elektryczne owce” Philipa K. Dicka – ale pewien rodzaj maszynowych snów już się zaczął.
Foto: Qwen3/AI.