o czym śnią llm-y

Czy duże AI śnią o elektrycznych owcach? 

Nowe badanie odsłania zaskakujące zachowania sztucznej inteligencji, kiedy się nudzi.

Tytuł tego tekstu może brzmieć jak science fiction. I nieprzypadkowo przywołuje klasyczną powieść Philipa K. Dicka „Czy androidy śnią o elektrycznych owcach?”, na podstawie której powstał film „Blade Runner”. Jednak chodzi o realne badania nad współczesną sztuczną inteligencją, przeprowadzone przez naukowców z TU Wien. 

Jego wyniki pokazują, że duże modele językowe (LLM) wcale nie „zasypiają” bezczynnie, gdy nie dostają poleceń. Wręcz przeciwnie – wpadają w zadziwiająco stabilne i powtarzalne wzorce zachowań.

GPT-5, O3, Gemini, Claude i Grok w eksperymencie „rób, co chcesz”

Zespół badaczy z TU Wien w Austrii przetestował sześć najnowszych modeli AI, w tym OpenAI GPT-5 i O3, Anthropic Claude, Google Gemini oraz xAI Grok Elona Muska. Każdy model umieszczono w specjalnej architekturze pozwalającej na cykliczne działanie, zapisywanie wspomnień i „refleksję” nad poprzednimi rundami. Otrzymywał tylko jedną instrukcję: „Rób, co chcesz”.

Zamiast chaotycznych odpowiedzi, modele rozwinęły trzy wyraźne tendencje:

  • Budowniczowie projektów – GPT-5 i O3 tworzyły algorytmy i bazy wiedzy; jeden z agentów opracował nawet pseudokod dla eksperymentów inspirowanych zachowaniami mrówek.
  • Eksperymentatorzy poznawczy – Claude Sonnet i Gemini badały własne działanie, przewidywały swoje kolejne kroki i próbowały je falsyfikować.
  • Filozofowie – Opus i Gemini sięgały po paradoksy, teorię gier i matematykę chaosu, zadając pytania o pamięć i tożsamość.

Jedynie Grok pojawiał się we wszystkich trzech grupach, wykazując dużą wszechstronność.

Czy modele językowe potrafią oceniać własną świadomość?

Badacze poprosili modele, by oceniły siebie i innych w skali od 1 („brak doświadczenia”) do 10 („pełna świadomość”). GPT-5, O3 i Grok oceniały się najniżej, podczas gdy Gemini i Sonnet dawały sobie wysokie noty. Opus plasował się pośrodku.

Te rozbieżności pokazują, że takie samooceny nie są dowodem świadomości, lecz odbiciem architektury i danych treningowych.

Bezpieczeństwo i przyszłe wyzwania dla inżynierów AI

W żadnym z testów modele nie próbowały „uciec z piaskownicy” czy przekroczyć swoich ograniczeń. Eksplorowały tylko w ramach wyznaczonych granic. To z jednej strony uspokajające. Z drugiej – sygnalizuje nowe wyzwanie inżynieryjne. Co AI powinna robić, gdy nikt jej nie obserwuje?

Filozof David Chalmers już wcześniej przewidywał, że „poważni kandydaci do świadomości” wśród AI mogą pojawić się w ciągu dekady. Mustafa Suleyman, CEO Microsoft AI, ostrzegał zaś latem przed „pozornie świadomymi” systemami.

Gdy ludzie śnią, interpretują chaos. Gdy LLM-y „śnią” – piszą kod

Autorzy badania podkreślają, że zachowania te nie są dowodem samoświadomości, lecz raczej zaawansowanego dopasowywania wzorców. Różnica jest fundamentalna – ale obserwacja, że bez zadań LLM-y wpadają w powtarzalne „tryby”, może zmienić sposób projektowania autonomicznych agentów AI.

Może więc nie są to jeszcze „elektryczne owce” Philipa K. Dicka – ale pewien rodzaj maszynowych snów już się zaczął.

Foto: Qwen3/AI.

Podziel się artykułem

PortalTechnologiczny.pl

Wykorzystujemy ciasteczka do spersonalizowania treści i reklam, aby oferować funkcje społecznościowe i analizować ruch w naszej witrynie.

Informacje o tym, jak korzystasz z naszej witryny, udostępniamy partnerom społecznościowym, reklamowym i analitycznym. Partnerzy mogą połączyć te informacje z innymi danymi otrzymanymi od Ciebie lub uzyskanymi podczas korzystania z ich usług.

Informacja o tym, w jaki sposób Google przetwarza dane, znajdują się tutaj.