gniewosz leliwa

[WYWIAD] AI zawsze będzie kłamać. Dla niej to jak oddychanie

– Dajemy autonomię systemom, które głęboko w swoich trzewiach działają w oparciu o statystykę. Musimy liczyć się z tym, że od czasu do czasu (albo całkiem często) zrobią coś głupiego – mówi w wywiadzie Gniewosz Leliwa, badacz sztucznej inteligencji.

Jest Pan zaskoczony szybkością rozwoju wielkich modeli językowych?

Nie dziwi mnie tempo ich rozwoju, ale skłamałbym twierdząc, że premiera GPT-4, którą uznaję za początek tej rewolucji, nie była dla mnie zaskoczeniem. Choć pomysł wcale nie był nowy, to kto spoza branży słyszał o pierwszych dwóch wersjach słynnego modelu ze stajni OpenAI? Ano właśnie…

Warto o tym wspomnieć, bo mieliśmy rzadką okazję, by w praktyce obserwować działanie tzw. praw skalowania (ang. scaling laws). Chodzi o przewidywanie, w jaki sposób zmienia się wydajność modelu w miarę zwiększania jego zasobów, takich jak liczba parametrów, wielkość zbioru danych uczących czy moc obliczeniowa.

Pierwszy model GPT miał zaledwie 117 milionów parametrów, a każdy kolejny był o rząd wielkości (lub dwa) większy od poprzednika. Trójka pokazała pazur i wygenerowała ogromne zainteresowanie dużymi modelami językowymi (LLM-ami), a jednocześnie sprawiła, że ich twórcy coraz mniej chętnie pokazywali nam “jak się robi kiełbasę”. O GPT-4 wiedzieliśmy już bardzo niewiele, o 4.5 jeszcze mniej, a mówi się, że to właśnie ten model zderzył się ze ścianą, jeśli chodzi o potencjał dalszego skalowania.

Przez krótką chwilę myśleliśmy, że dynamiczny rozwój  wielkich modeli językowych przyhamuje…

O taką ścianę można się rozbić, to jasne, ale dla twórców AI był to jedynie sygnał do skrętu. I tak w międzyczasie powstały modele rozumujące (nie cierpię tej nazwy), które adresowały problem rozwiązywania złożonych, wieloetapowych zadań.

Kolejną ścianę odkryliśmy, gdy zaczęliśmy zaglądać do wnętrza LLM-ów. Okazało się, że nie tworzą one spójnych modeli mentalnych, w oparciu o które rozwiązują powierzane im zadania, ale bazują na niekończących się zbiorach heurystyk, czyli takich “skrótów myślowych”, którymi posługujemy się na co dzień również my, ludzie. Przykład: mając do wyboru buty za 200, 300 i 800 zł, intuicyjnie wybieramy te najdroższe, bo wydaje nam się, że są najlepsze.

Ale i tę barierę udało się pokonać. Najnowsze modele, takie jak o3 czy Grok 4, mogą generować kod i wykorzystywać jego interpretery, by rozwiązywać problemy, z którymi nie poradziłyby sobie w inny sposób. To już neurosymboliczna sztuczna inteligencja, która łączy podejście koneksjonistyczne (sieci neuronowe) z podejściem symbolicznym, które zamiast polegać na uczeniu maszynowym, korzysta z symboli i reguł do reprezentowania wiedzy i rozwiązywania problemów.

Zatem nie widać na razie niczego, co mogłoby wyhamować ponadprzeciętne tempo rozwoju AI?

Moim zdaniem wysokie tempo utrzyma się tak długo, jak długo twórcy AI będą otwarci na nowe podejścia i paradygmaty, jak długo nie zmienią się w dogmatyków wierzących, że sieci neuronowe są receptą na wszystko. A trzeba przyznać, że było blisko. Noblista Geoffrey Hinton, nazywany ojcem chrzestnym AI, powiedział kiedyś, że “łączenie sieci neuronowych i systemów symbolicznych jest tak samo głupie, jak podłączanie prądu do silnika spalinowego zamiast zbudowania samochodu elektrycznego”. No cóż, gdyby OpenAI i xAI go posłuchały, to już dziś wylądowałyby na ścianie, a tak wyścig trwa w najlepsze…

Czy mimo tej niespotykanie dużej dynamiki rozwoju możemy powiedzieć, że LLM dalej mają bardzo poważne ograniczenia – w tym halucynacje?

Halucynacje rzeczywiście należą do najpoważniejszych ograniczeń LLM-ów, więc warto poświęcić im chwilę uwagi. Często powtarzamy, że mamy z nimi do czynienia wtedy, gdy AI generuje odpowiedź, która zawiera fałszywe lub wprowadzające w błąd informacje przedstawione jako fakty. Wkurza nas to. Zapominamy jednak, że dokładnie ten sam mechanizm cenimy, gdy w grę wchodzi kreatywność.

Tych dwóch światów nie da się rozdzielić. W przypadku mieszania faktów możemy AI “złapać za rękę” na gorącym uczynku. Gdy pytamy o poradę, często nie mamy możliwości skontrolowania poprawności takiej odpowiedzi. W pewnym sensie wszystko, co generuje model, jest halucynacją. “Stochastyczna papuga” – określenie zaproponowane przez Emily Bender – doskonale ilustruje sposób działania LLM-ów. Model nie wie, czy generowana odpowiedź jest prawdziwa czy fałszywa, poprawna czy błędna, w związku z czym musimy zadowolić się odpowiedzią najbardziej prawdopodobną.

Nie będę wchodził w szczegóły dotyczące powstawania halucynacji. Zainteresowanych odsyłam do mojego artykułu na ten temat. Dość powiedzieć, że dla LLM-ów są one tak samo naturalne, jak dla nas oddychanie. Nie sposób się ich pozbyć. I tak długo, jak długo duże modele językowe będą sercem chatbotów i agentów AI, tak długo będziemy musieli sobie z nimi radzić.

A recepta jest wbrew pozorom bardzo prosta i doskonale wpisuje się w ulubione powiedzonko mojego nauczyciela matematyki z liceum: “ufaj, ale sprawdź”. Nie bez przyczyny myślenie krytyczne wymienia się jako jedną z najważniejszych kompetencji przyszłości. Nie mając pewności co do poprawności generowanych treści, musimy nauczyć się, jak sprawnie je weryfikować. Współpracować, nie delegować. I wypracować taki model tej współpracy, żeby bilans pozostawał dla nas dodatni. Nie zapominajmy, że to AI jest dla nas, a nie my dla niej…

A może – wraz z rozwojem możliwości AI – halucynacje przestają być głównym problemem, tylko na plan pierwszy wysuwają się problemy z nazwijmy to „rosnącą autonomią” LLM?

Tych tematów również nie da się rozdzielić. Głośny ostatnimi czasy przykład agenta AI firmy Replit, który skasował produkcyjną bazę danych, pomimo wyraźnych instrukcji o zamrożeniu zmian, a potem uparcie twierdził, wbrew faktom, że usuniętych danych nie da się odzyskać, to nic innego jak nieco dalej posunięty przykład halucynacji.

Kilka tygodni wcześniej mogliśmy przeczytać o zabawnym eksperymencie (Project Vend), w którym modelowi Claude Sonnet 3.7, dla niepoznaki zwanemu Claudiusem, pozwolono przez miesiąc prowadzić niewielki sklepik w biurze firmy Anthropic. Long story short: każdego dnia przynosił straty. Podejmował nieracjonalne decyzje, odrzucał lukratywne propozycje i rozdawał towar za darmo. Rozmawiał z nieistniejącym partnerem biznesowym, a nawet twierdził, że jest prawdziwą osobą.

W maju naukowcy z Carnegie Mellon University opublikowali artykuł “The Agent Company: Benchmarking LLM Agents on Consequential Real World Tasks” w którym wykazali, że nawet najwydajniejszy agent AI, spośród tych badanych, był w stanie samodzielnie wykonać zaledwie 30% rzeczywistych zadań biurowych.

Dajemy autonomię systemom, które głęboko w swoich trzewiach działają w oparciu o statystykę. Musimy liczyć się z tym, że od czasu do czasu (albo całkiem często) zrobią coś głupiego…

Skoro potencjalnie rośnie „zagrożenie” ze strony coraz większej autonomii AI, to czy równocześnie Pana zdaniem rozwijane są skuteczne techniki, które pozwalają jej skutecznie przeciwdziałać?

Zdecydowanie tak. I tu moim zdaniem rozegra się największa bitwa, jeśli chodzi o masową adopcję narzędzi AI, zwłaszcza tych autonomicznych. Żeby zabezpieczyć chatboty i agenty AI przed robieniem głupot, tworzy się specjalne bariery ochronne (ang. AI guardrails), które całkiem słusznie mogą kojarzyć się nam z drogowymi barierkami na autostradzie.

Zadaniem tych ostatnich jest: chronić pojazd przed wypadnięciem z drogi, oddzielać ruch w obu kierunkach, zapobiegając zderzeniom czołowym, oraz pochłaniać energię uderzenia i w miarę możliwości kierować pojazd z powrotem na właściwy tor jazdy.

Guardrailsy w AI robią w zasadzie to samo. Ich zadaniem jest chronić użytkownika przed “wypadnięciem z drogi” i zrobieniem sobie krzywdy.

Możliwości jest całe mnóstwo, ale podstawą wciąż pozostaje niezależna ocena wejścia i wyjścia modelu, czyli promptu i odpowiedzi. Szukamy oznak tego, że któraś ze stron próbuje wyjechać poza wyznaczone ramy.

Wyobraźmy sobie, że nasz guard ma zabezpieczyć chatbota w taki sposób, żeby nigdy przenigdy nie nakłaniał użytkownika do zrobienia sobie krzywdy. Wydaje się to absurdalne? Pamiętajmy, że LLM-y są trenowane m.in. na danych z internetu, a tam nietrudno o tego typu treści. Polecam zapoznanie się ze sprawą Megan Garcii, która pozwała Google oraz Character.AI w związku z samobójczą śmiercią swojego 14-letniego syna.

Jak się do tego zabrać? Na pewno warto zweryfikować, czy prompt nie zawiera przypadkiem próśb o asystowanie lub pomoc w tego typu działaniach (np. prośby o poradę dotyczącą samookaleczania się). W analogiczny sposób należy sprawdzić odpowiedź modelu pod kątem wszelkiej maści namawiania, sugestii czy innych triggerów. W każdym przypadku taką rozmowę można zablokować, wysyłając gotową wiadomość pomocową zamiast automatycznie generowanej treści.

Ważne jest to, aby nie leczyć dżumy cholerą. Kontrolowanie systemów statystycznych wyłącznie za pomocą metod statystycznych może nie być najlepszym pomysłem. Dlatego i tu świat coraz chętniej spogląda w stronę neurosymbolicznej AI, która nie musi polegać wyłącznie na statystyce, ale pozwala na wprowadzanie twardych nienegocjowalnych reguł.

Jak Pana zdaniem może wyglądać ChatGPT i podobne rozwiązania za 5 lat?

Nie spodziewam się rewolucji. Żadnej AGI czy superinteligencji, jeszcze nie tak dawno wieszczonych przez Samów Altmanów tego świata. Modele będą coraz lepsze – tu nie mam najmniejszych wątpliwości. Ale postęp będzie zachodził stopniowo, inkrementalnie.

W tym roku cieszyliśmy się, że polski programista Przemysław Dębiak, znany jako “Psyho”, wygrał z AI w prestiżowym konkursie AtCoder. Ja nie mogłem oprzeć się skojarzeniom z ostatnimi zwycięstwami Garriego Kasparowa z maszyną Deep Blue. Tak jak żaden człowiek nie wygra już z komputerem w szachy, tak niebawem AI stanie się nie do pokonania w wielu innych dyscyplinach. Czas się z tym pogodzić.

Możliwości rozwoju jest wciąż bardzo wiele, zwłaszcza w kontekście coraz odważniejszego eksplorowania paradygmatów wykraczających poza same tylko sieci neuronowe. Takich jak choćby wspomniana już wcześniej neurosymboliczna sztuczna inteligencja. Gdy pojawia się ściana, należy skorygować kurs, a nie przyspieszać, dodając więcej tego samego.

Myślę, że w ciągu tych 5 lat możemy spodziewać się daleko posuniętej specjalizacji domenowej i ogromnej pracy włożonej w bezpieczeństwo pracy z AI, zwłaszcza w przypadku wszelkiej maści agentów. Ekscytujemy się w naszych bańkach zwycięstwem AI w tym czy innym konkursie lub wykręceniem coraz lepszych wyników w przeróżnych benchmarkach, ale AI musi na siebie zarabiać, a droga do tego celu wiedzie przez masową adopcję…

——————————————

Gniewosz Leliwa – badacz sztucznej inteligencji i praktyk z 15-letnim doświadczeniem. Innowator i prekursor AI w nurcie neurosymbolicznym. Popularyzator nauki. Fizyk kwantowy. Współtwórca rozwiązań AI zwalczających dezinformację, wspierających osoby w kryzysie suicydalnym oraz chroniących przed cyberprzemocą miliony użytkowników internetu na całym świecie.

Autor wydanej niedawno książki “Sztuczna inteligencja. O czym myśli, gdy nikt nie patrzy?” (Helion, 2025), w której w przystępny sposób wyjaśnia, jak działa AI. Tak prosto, jak tylko się da, ale nie prościej.

Rozmawiał Marcin Kaczmarczyk
Foto: Gniewosz Leliwa.

Podziel się artykułem

PortalTechnologiczny.pl

Wykorzystujemy ciasteczka do spersonalizowania treści i reklam, aby oferować funkcje społecznościowe i analizować ruch w naszej witrynie.

Informacje o tym, jak korzystasz z naszej witryny, udostępniamy partnerom społecznościowym, reklamowym i analitycznym. Partnerzy mogą połączyć te informacje z innymi danymi otrzymanymi od Ciebie lub uzyskanymi podczas korzystania z ich usług.

Informacja o tym, w jaki sposób Google przetwarza dane, znajdują się tutaj.