spór Anthropic z Pentagonem

Amerykańska firma AI potraktowana przez Trumpa jak wróg państwa

Prezydent USA Donald Trump nakazał wszystkim federalnym agencjom natychmiastowe zaprzestanie korzystania z technologii firmy Anthropic. Głównym dużym modelem językowym (LLM) rozwijanym przez spółkę jest Claude, wykorzystywany zarówno w sektorze komercyjnym, jak i rządowym.

Równolegle Departament Wojny ogłosił zamiar formalnego uznania Anthropic za „zagrożenie dla łańcucha dostaw” (ang. supply chain risk). To bezprecedensowy krok wobec amerykańskiej firmy technologicznej.

„Zagrożenie dla łańcucha dostaw” – bezprecedensowa decyzja

W oświadczeniu z 27 lutego Anthropic potwierdził, że Sekretarz Obrony Pete Hegseth zapowiedział skierowanie sprawy do procedury oznaczenia firmy jako zagrożenia dla łańcucha dostaw.

– Uznanie Anthropic za zagrożenie dla łańcucha dostaw byłoby działaniem bezprecedensowym — historycznie zarezerwowanym dla przeciwników Stanów Zjednoczonych i nigdy wcześniej publicznie nie zastosowanym wobec amerykańskiej firmy – podkreśla spółka w oświadczeniu.

Firma zapowiedziała również, że jeśli decyzja zostanie formalnie wdrożona, zaskarży ją w sądzie.

Dwa sporne wyjątki: masowa inwigilacja i w pełni autonomiczna broń

Sednem konfliktu są dwa wyjątki, których Anthropic domagał się w ramach kontraktu wartego do 200 mln dolarów:

  1. Zakaz wykorzystania modelu Claude do masowej inwigilacji obywateli USA.
  2. Zakaz użycia modeli AI w pełni autonomicznych systemach broni, zdolnych do działania bez udziału człowieka.

– Wspieramy wszystkie zgodne z prawem zastosowania sztucznej inteligencji na potrzeby bezpieczeństwa narodowego, z wyjątkiem dwóch wąsko określonych przypadków wskazanych powyżej – czytamy w komunikacie firmy.

Anthropic twierdzi również, że proponowane wyjątki „według naszej najlepszej wiedzy nie wpłynęły dotąd na żadną misję rządową”.

Dlaczego Anthropic nie ustąpił?

W oświadczeniu spółka szczegółowo wyjaśnia swoje stanowisko.

– Nie wierzymy, że obecne modele sztucznej inteligencji z tzw. czołówki technologicznej są wystarczająco niezawodne, aby mogły być wykorzystywane w w pełni autonomicznych systemach broni. Dopuszczenie obecnych modeli do takiego użycia narażałoby amerykańskich żołnierzy oraz cywilów na niebezpieczeństwo – czytamy.

Drugi argument dotyczy praw obywatelskich.

– Uważamy, że masowa inwigilacja obywateli Stanów Zjednoczonych stanowi naruszenie fundamentalnych praw – przekonuje Anthropic.

Spółka zaznaczyła również, że żadna forma zastraszania ani kar ze strony Departamentu Obrony nie zmieni jej stanowiska w sprawie masowej inwigilacji ani w pełni autonomicznej broni.

Co oznacza decyzja dla klientów?

Według Anthropic oznaczenie jako „zagrożenie dla łańcucha dostaw” — jeśli zostanie formalnie przyjęte — może dotyczyć wyłącznie wykorzystania Claude w kontraktach realizowanych dla Departamentu Obrony, a nie działalności komercyjnej.

Firma wyjaśnia, że:

  • klienci indywidualni i komercyjni nie utracą dostępu do Claude (API, serwis claude.ai i inne produkty),
  • wykonawcy Pentagonu mogliby stracić możliwość używania Claude wyłącznie w projektach realizowanych na rzecz Departamentu Obrony; inne zastosowania pozostaną bez zmian.

Polityczny wymiar konfliktu. Musk chętnie weźmie kontrakty

We wpisie opublikowanym na platformie Truth Social Donald Trump oskarżył firmę o próbę narzucania warunków amerykańskiemu wojsku i narażanie życia Amerykanów. Agencjom federalnym wyznaczono sześciomiesięczny okres wygaszania współpracy.

Claude był dotąd jedynym modelem AI dopuszczonym do działania w sklasyfikowanych systemach wojskowych. To oznacza poważne konsekwencje m.in. dla spółki Palantir Technologies, która wykorzystywała Claude w najbardziej wrażliwych kontraktach rządowych.

Szef OpenAI, Sam Altman, przyznał, że podziela stanowisko Anthropic w sprawie „czerwonych linii” dotyczących autonomicznej broni.

Z kolei Elon Musk zadeklarował gotowość spełnienia wymogu wykorzystania AI do „wszelkich zgodnych z prawem celów”. To może otworzyć drogę do wdrożenia modelu Grok w systemach rządowych.

Historyczny precedens w relacjach rząd–Big Tech

Jeśli oznaczenie Anthropic jako „zagrożenia dla łańcucha dostaw” wejdzie w życie, będzie to pierwszy przypadek publicznego zastosowania tej procedury wobec amerykańskiej firmy rozwijającej zaawansowane modele AI.

Spór wykracza daleko poza jeden kontrakt. To test granic władzy rządu wobec prywatnych dostawców sztucznej inteligencji. A także pytanie, kto ma prawo wyznaczać etyczne granice wykorzystania AI w wojsku i systemach nadzoru.

Foto: Anthropic.

Podziel się artykułem

PortalTechnologiczny.pl

Wykorzystujemy ciasteczka do spersonalizowania treści i reklam, aby oferować funkcje społecznościowe i analizować ruch w naszej witrynie.

Informacje o tym, jak korzystasz z naszej witryny, udostępniamy partnerom społecznościowym, reklamowym i analitycznym. Partnerzy mogą połączyć te informacje z innymi danymi otrzymanymi od Ciebie lub uzyskanymi podczas korzystania z ich usług.

Informacja o tym, w jaki sposób Google przetwarza dane, znajdują się tutaj.