świat po wojnie z AI

850 ekspertów apeluje, by zatrzymać pracę nad superinteligencją

Liderzy AI wzywają do globalnej pauzy w pracach nad superinteligencją. Ostrzegają przed zagrożeniami sięgającymi od utraty kontroli nad losem ludzkości po jej możliwe wyginięcie.

Ponad 850 osób publicznych, w tym czołowi informatycy i laureaci Nagrody Turinga – Geoffrey Hinton i Yoshua Bengio – podpisało wspólne oświadczenie wzywające do globalnego spowolnienia rozwoju sztucznej superinteligencji. Sygnatariusze, wśród których znajdują się m.in. wojskowi, politycy, akademicy, postaci religijne i kulturalne, alarmują, że niekontrolowany postęp może prowadzić do ekonomicznego wyparcia ludzi, utraty wolności, a nawet zagłady.

Apel ten jest odpowiedzią na rosnący niepokój, że wyścig w kierunku maszyn przewyższających ludzką zdolność poznawczą może wymknąć się spod kontroli. Już w latach 50. ubiegłego wieku Alan Turing przewidział, że maszyny mogą ostatecznie zdominować ludzkość. To jest pogląd, który wciąż rezonuje wśród dzisiejszych badaczy AI.

Mimo tych obaw globalne mocarstwa nadal postrzegają wyścig w dziedzinie AI jako kluczowy element bezpieczeństwa narodowego i postępu technologicznego. Firmy technologiczne, takie jak Meta, wykorzystują etykietę „superinteligencji” do promowania swoich najbardziej ambitnych modeli. Dzieje się to, podczas gdy liderzy branży, jak Sam Altman z OpenAI czy Mustafa Suleyman z Microsoftu, wcześniej przyznawali, że systemy wykraczające poza ludzkie pojmowanie niosą ze sobą ryzyko egzystencjalne.

Kontrola czy zagłada? Głosy sygnatariuszy

Oświadczenie wzywa do międzynarodowego zakazu prac nad superinteligencją. Miałby zostać zniesiony dopiero po uzyskaniu szerokiego konsensusu naukowego w sprawie bezpieczeństwa i możliwości kontrolowania systemów, a także silnego publicznego poparcia. Wśród tych, którzy domagają się ograniczenia pędu technologicznego, znalazły się wyjątkowo wpływowe postacie:

Książę Harry, współzałożyciel The Archewell Foundation:

„Przyszłość sztucznej inteligencji powinna służyć ludzkości, a nie ją zastępować. Prawdziwym sprawdzianem postępu będzie nie to, jak szybko się poruszamy, ale jak mądrze sterujemy.”

Yuval Noah Harari, autor i profesor z Uniwersytetu Hebrajskiego w Jerozolimie:

„Superinteligencja prawdopodobnie złamałaby sam system operacyjny ludzkiej cywilizacji – i jest absolutnie niepotrzebna. Jeśli zamiast tego skupimy się na budowaniu kontrolowalnych narzędzi AI, aby pomagać realnym ludziom już dziś, możemy znacznie pewniej i bezpieczniej wykorzystać niesamowite korzyści płynące ze sztucznej inteligencji.”

Mark Beall, były Dyrektor ds. Strategii i Polityki AI w Departamencie Obrony USA (DoD):

„Superinteligencja bez odpowiednich zabezpieczeń może być ostatecznym wyrazem ludzkiej pychy – mocą pozbawioną moralnych ograniczeń.”

Foto: Gemini/AI.

Podziel się artykułem

PortalTechnologiczny.pl

Wykorzystujemy ciasteczka do spersonalizowania treści i reklam, aby oferować funkcje społecznościowe i analizować ruch w naszej witrynie.

Informacje o tym, jak korzystasz z naszej witryny, udostępniamy partnerom społecznościowym, reklamowym i analitycznym. Partnerzy mogą połączyć te informacje z innymi danymi otrzymanymi od Ciebie lub uzyskanymi podczas korzystania z ich usług.

Informacja o tym, w jaki sposób Google przetwarza dane, znajdują się tutaj.