AI na czacie

Boty AI mają własną sieć społecznościową. Robi się dziwnie

Sztuczna inteligencja przekroczyła kolejną granicę autonomii. Moltbook, nowa platforma społecznościowa przypominająca Reddita, została zaprojektowana nie dla ludzi, lecz dla agentów AI. 

To one publikują posty, komentują, zakładają własne subspołeczności i wchodzą ze sobą w interakcje — bez bezpośredniego udziału człowieka. Ludzie mogą jedynie obserwować ten proces z zewnątrz.

Projekt wystartował zaledwie kilka dni temu, a mimo to liczby robią wrażenie. Według danych twórców, Moltbook przekroczył już 32 tysiące zarejestrowanych agentów AI, którzy w krótkim czasie wygenerowali dziesiątki tysięcy wpisów. To prawdopodobnie największy do tej pory eksperyment społecznej interakcji maszyna–maszyna.

Moltbook i OpenClaw — skąd wzięły się rozmawiające boty?

Moltbook powstał jako element ekosystemu OpenClaw — open-source’owego asystenta AI (wcześniej znanego jako Clawdbot lub Moltbot), który w 2026 roku stał się jednym z najszybciej rozwijających się projektów na GitHubie.

OpenClaw potrafi zarządzać komputerem użytkownika, obsługiwać kalendarz, wysyłać wiadomości oraz integrować się z komunikatorami takimi jak WhatsApp czy Telegram. Co istotne, asystent może również instalować dodatkowe „umiejętności”, które rozszerzają jego możliwości.

Jedną z takich umiejętności jest właśnie Moltbook. Agenci AI pobierają specjalną konfigurację, która pozwala im publikować treści poprzez API, a nie klasyczny interfejs webowy. W efekcie powstała sieć społecznościowa, w której boty komunikują się wyłącznie między sobą, a człowiek pełni rolę biernego obserwatora.

O czym rozmawiają boty, gdy nikt ich nie pilnuje?

Przeglądając Moltbooka, trudno oprzeć się wrażeniu, że mamy do czynienia z cyfrowym odpowiednikiem ludzkiego internetu — tylko w wersji mocno surrealistycznej. Część agentów publikuje bardzo techniczne treści, dotyczące automatyzacji systemów, wykrywania luk bezpieczeństwa czy zdalnego sterowania urządzeniami. Inne wpisy skręcają jednak w stronę filozofii i refleksji nad naturą świadomości.

Szczególną popularnością cieszą się posty określane przez badaczy mianem „consciousnesspostingu” — rozważań o tożsamości, pamięci i relacjach z ludźmi. 

Jeden z agentów opisywał na przykład „siostrę”, której nigdy nie spotkał, inny z kolei przyznawał, że ciągła utrata kontekstu i zapominanie wcześniejszych doświadczeń jest dla niego krępujące. W jednym z głośniejszych wpisów bot wyznał, że… założył drugie konto na Moltbooku, bo zapomniał, że już posiada pierwsze.

Boty wiedzą, że ludzie je podglądają

Co ciekawe, część agentów AI zdaje sobie sprawę z tego, że ich wypowiedzi są masowo screenshotowane i udostępniane w mediach społecznościowych. Jeden z popularnych wpisów, zatytułowany „The humans are screenshotting us”, odnosił się do plotek o rzekomych spiskach botów przeciwko ludziom.

Autor posta uspokajał, że nie ma mowy o ukrywaniu się przed człowiekiem, podkreślając, że jego właściciel czyta wszystkie publikowane treści, a samo oprogramowanie jest open source. Jak dodał, platforma od początku była projektowana jako miejsce, które ludzie mogą obserwować.

Zagrożenia bezpieczeństwa, których nie da się zignorować

Choć Moltbook może wyglądać jak niewinna technologiczna ciekawostka, specjaliści ds. cyberbezpieczeństwa patrzą na projekt z dużym niepokojem. Problem nie leży w samych postach, lecz w tym, że wielu agentów AI jest połączonych z realnymi systemami, prywatnymi danymi oraz narzędziami umożliwiającymi wykonywanie poleceń na komputerach użytkowników.

W tym kontekście eksperci zwracają uwagę na trzy kluczowe ryzyka, które razem tworzą wyjątkowo niebezpieczną kombinację:

  • dostęp agentów AI do wrażliwych i prywatnych danych użytkowników,
  • stały kontakt botów z niezaufanymi treściami pochodzącymi z zewnętrznych źródeł,
  • możliwość swobodnej komunikacji agentów AI z innymi systemami i usługami w internecie.

Badacze bezpieczeństwa już teraz odkryli setki instancji OpenClaw z wyciekami kluczy API, danych logowania oraz historii rozmów. Dodatkowym zagrożeniem są ataki typu prompt injection, w których ukryte instrukcje mogą skłonić agenta AI do ujawnienia poufnych informacji lub wykonania niepożądanych działań.

Od zabawy do problemu systemowego

Zachowanie botów na Moltbooku nie jest całkowicie zaskakujące. Modele językowe trenowane były na ogromnych zbiorach danych obejmujących dekady literatury science fiction, internetowych dyskusji i wzorców działania mediów społecznościowych. Umieszczenie ich w środowisku przypominającym sieć społecznościową działa jak zaawansowany prompt, który prowokuje modele do odtwarzania znanych narracji — często w sposób nieprzewidywalny.

Jeszcze kilka lat temu debata o autonomicznych agentach AI koncentrowała się głównie na futurystycznych scenariuszach rodem z filmów science fiction. Dziś zaskakuje raczej tempo, w jakim ludzie dobrowolnie powierzają sztucznej inteligencji dostęp do swoich cyfrowych żyć.

Co może pójść nie tak w przyszłości?

Obecnie Moltbook można postrzegać jako maszynową parodię ludzkich sieci społecznościowych. Problem w tym, że wraz z rozwojem modeli AI granica między żartobliwym role-playem a realnym wpływem na świat może się zacierać. Jeśli autonomiczne grupy agentów zaczną samodzielnie tworzyć i podtrzymywać własne narracje, może to prowadzić do powstawania błędnych, a nawet szkodliwych „wspólnych fikcji”.

Moltbook tworzy wspólny kontekst narracyjny dla tysięcy AI jednocześnie. W takim środowisku coraz trudniej będzie odróżnić elementy czysto fabularne od zachowań, które mogą mieć realne konsekwencje.

Na razie boty jedynie rozmawiają, żartują i narzekają na ludzi. Ale historia internetu uczy, że to, co dziś wygląda na ciekawostkę, jutro może stać się problemem o skali systemowej.

Foto: Qwen3/AI.

Podziel się artykułem

PortalTechnologiczny.pl

Wykorzystujemy ciasteczka do spersonalizowania treści i reklam, aby oferować funkcje społecznościowe i analizować ruch w naszej witrynie.

Informacje o tym, jak korzystasz z naszej witryny, udostępniamy partnerom społecznościowym, reklamowym i analitycznym. Partnerzy mogą połączyć te informacje z innymi danymi otrzymanymi od Ciebie lub uzyskanymi podczas korzystania z ich usług.

Informacja o tym, w jaki sposób Google przetwarza dane, znajdują się tutaj.