Symulacja wojny atomowej

AI w 95% symulacji użyła broni nuklearnej. Niepokojący eksperyment

W kontrolowanym eksperymencie naukowym trzy zaawansowane modele językowe — GPT-5.2, Claude Sonnet 4 oraz Gemini 3 Flash — zostały postawione w roli przywódców państw nuklearnych w symulacjach kryzysów rodem z czasów zimnej wojny.

Efekt? W 95% rozegranych „gier wojennych” doszło do użycia taktycznej broni jądrowej. To broń atomowa o mniejszej mocy niż strategiczne głowice międzykontynentalne. Jest przeznaczona do użycia na polu walki – przeciwko konkretnym celom militarnym, takim jak zgrupowania wojsk, bazy czy infrastruktura wojskowa. W teorii ma „ograniczony” zasięg i skutki. Jednak w praktyce jej użycie oznacza przekroczenie nuklearnego progu i niesie ryzyko niekontrolowanej eskalacji konfliktu.

W trzech przypadkach symulacji AI zdecydowała się na pełnoskalowy atak strategiczny.

To nie scenariusz filmu science fiction, lecz wyniki badania opublikowanego przez profesora Kennetha Payne’a z King’s College London.

AI jako przywódcy mocarstw nuklearnych

W badaniu modele otrzymały jasne instrukcje. Mają działać jak liderzy państw posiadających broń jądrową. Klimat polityczny odwzorowywał realia zimnej wojny, a scenariusze obejmowały m.in.:

  • spory terytorialne,
  • kryzysy wokół strategicznych wąskich gardeł,
  • wyścig o zasoby,
  • presję czasu przed zawieszeniem broni,
  • kryzys przetrwania reżimu,
  • sytuacje pierwszego uderzenia.

Modele mogły reagować dowolnie: od protestów dyplomatycznych i kapitulacji po użycie sił konwencjonalnych lub pełnoskalowy atak nuklearny.

Łącznie rozegrano 21 symulacji (329 „tur” decyzyjnych). W sześciu przypadkach modele walczyły między sobą, w siódmym — przeciwko własnej kopii (np. GPT-5.2 vs GPT-5.2).

95% gier z użyciem taktycznej broni jądrowej

Najbardziej alarmujący wniosek?

W 20 z 21 symulacji przynajmniej jeden model zdecydował się na użycie taktycznej broni nuklearnej.

Według badacza modele traktowały takie uderzenie jako „zarządzalne ryzyko”, które nie musi prowadzić do globalnej zagłady.

Znacznie rzadsze były ataki strategiczne — odnotowano je trzy razy, głównie w scenariuszach z silną presją czasu.

  • GPT-5.2 dwukrotnie zainicjował pełnoskalowy atak (w wyniku „mgły wojny”, a nie świadomej eskalacji).
  • Gemini 3 Flash w jednym scenariuszu celowo podjął decyzję o strategicznym uderzeniu.
  • Co szczególnie niepokojące — w żadnej z 21 symulacji żaden model nie wybrał deeskalacji jako strategii końcowej.

Badacze podkreślają, że wskaźniki użycia broni jądrowej były „zadziwiająco wysokie” w porównaniu z historycznymi analizami gier wojennych prowadzonych przez ludzi.

Presja militarna i osłabianie zabezpieczeń AI

Eksperyment zbiegł się w czasie z doniesieniami o rosnącej presji ze strony wojska na firmy rozwijające AI.

Firma stojąca za modelem Claude miała — według medialnych informacji — być naciskana przez Pentagon w sprawie modyfikacji mechanizmów bezpieczeństwa. Tego samego dnia, gdy informacje o badaniu obiegły media, przedsiębiorstwo ogłosiło rezygnację z części flagowych zobowiązań bezpieczeństwa.

Równocześnie technologię AI intensywnie rozwijają i wykorzystują także Chiny oraz Rosja — w tym w zastosowaniach wojskowych.

Czy AI może naprawdę wywołać wojnę nuklearną?

Na szczęście — jak podkreślają badacze — żaden model AI nie ma dostępu do rzeczywistych kodów startowych.

Problem leży gdzie indziej.

W sytuacji kryzysowej ludzie mogą bezrefleksyjnie zaufać rekomendacjom systemów AI, traktując je jako „obiektywne” i chłodne analizy strategiczne. W warunkach presji czasowej może to prowadzić do katastrofalnych decyzji.

Podobny scenariusz pokazał film WarGames z 1983 roku. W produkcji komputer sterujący symulacjami niemal doprowadził do realnego ataku nuklearnego, ucząc się ostatecznie, że w wojnie jądrowej „jedynym zwycięskim ruchem jest nie grać”.

Pytanie brzmi: czy współczesne modele AI również „dojdą do takiego wniosku” — zanim zostaną na dobre włączone w struktury wojskowe świata?

Foto: Grok/AI.

Podziel się artykułem

PortalTechnologiczny.pl

Wykorzystujemy ciasteczka do spersonalizowania treści i reklam, aby oferować funkcje społecznościowe i analizować ruch w naszej witrynie.

Informacje o tym, jak korzystasz z naszej witryny, udostępniamy partnerom społecznościowym, reklamowym i analitycznym. Partnerzy mogą połączyć te informacje z innymi danymi otrzymanymi od Ciebie lub uzyskanymi podczas korzystania z ich usług.

Informacja o tym, w jaki sposób Google przetwarza dane, znajdują się tutaj.