nielegalna destylacja z modeli AI

Anthropic oskarża chińskie firmy o masowe kopiowanie modeli AI

Anthropic ujawnił szczegóły bezprecedensowej operacji szpiegowania przemysłowego w branży AI. 

Trzy chińskie firmy miały przez 24 000 fałszywych kont wykraść dane z ponad 16 milionów sesji z modelem Claude — i to wszystko legalnie wyglądało jak zwykłe korzystanie z API.

Czym jest destylacja w branży i dlaczego jest tu problemem?

Destylacja modeli (ang. model distillation) to technika uczenia maszynowego, w której mniejszy model uczy się na podstawie odpowiedzi silniejszego. Zamiast trenować od zera na surowych danych, model-uczeń przyswaja wiedzę i styl odpowiedzi modelu-nauczyciela.

W normalnych warunkach jest to całkowicie legalna i powszechna metoda — używana np. do tworzenia lżejszych, tańszych wersji dużych modeli językowych. Problem pojawia się, gdy dotyczy modeli należących do zagranicznych firm i gdy narusza zarówno warunki użytkowania, jak i amerykańskie przepisy kontroli eksportu.

Właśnie o to Anthropic oskarża DeepSeek, Moonshot i MiniMax.

Skala operacji: 16 milionów sesji, 24 000 kont

Według raportu Anthropic, wszystkie trzy firmy działały według tego samego schematu:

  • Korzystały z komercyjnych reselerów dostępu do modeli Anthropic
  • Tworzyły sieci fałszywych kont, które firma nazwała „hydra cluster” — jeden taki klaster kontrolował ponad 20 000 kont jednocześnie
  • Mieszały ruch ekstrakcyjny ze zwykłymi zapytaniami, by uniknąć wykrycia
  • Wysyłały bardzo specyficzne, powtarzalne zapytania nakierowane na konkretne możliwości modelu

To ostatnie było kluczowym sygnałem alarmowym. Typowy użytkownik pyta o różne rzeczy — natomiast „hydra cluster” systematycznie eksplorował określone umiejętności modelu w sposób spójny z procesem trenowania.

Co konkretnie robiła każda z firm?

DeepSeek

Chiński gigant wygenerował ponad 150 000 sesji skupionych na:

  • zadaniach rozumowania (reasoning)
  • ocenianiu odpowiedzi wg rubryk — przydatnych do trenowania modeli nagród (reward models) w uczeniu ze wzmocnieniem
  • przepisywaniu politycznie wrażliwych treści w sposób omijający cenzurę
  • wydobywaniu wewnętrznych łańcuchów rozumowania (chain-of-thought)

Moonshot (modele Kimi)

Odpowiadał za ponad 3,4 miliona sesji, koncentrując się na:

  • agentycznym rozumowaniu i planowaniu
  • korzystaniu z narzędzi (tool use)
  • kodowaniu i analizie danych
  • agentach działających na komputerze (computer-use agents)
  • widzeniu komputerowym

Moonshot miał też próbować rekonstruować ślady rozumowania Claude’a.

MiniMax

Największa kampania spośród trzech — ponad 13 milionów sesji — skupiona na kodowaniu agentycznym i orkiestracji. Co szczególnie ciekawe: Anthropic wykrył tę operację w trakcie jej trwania, gdy MiniMax trenował jeszcze nowy model. Gdy Anthropic wydał kolejną wersję Claude’a, MiniMax w ciągu 24 godzin przeniósł prawie połowę swojego ruchu na nowy model.

Jak Anthropic zamierza się bronić?

Firma zapowiedziała kilka działań:

Detekcja i prewencja: Wdrożono klasyfikatory i systemy behawioralnego fingerprintingu wykrywające wzorce typowe dla ekstrakcji — takie jak koordynowana aktywność wielu kont czy próby wydobywania chain-of-thought.

Współpraca branżowa: Anthropic dzieli się wskaźnikami technicznymi z innymi laboratoriami AI, dostawcami chmury i organami ścigania.

Zaostrzenie weryfikacji: Konta edukacyjne, badawcze i startupowe — często używane do tworzenia fałszywych dostępów — zostaną poddane dokładniejszej weryfikacji.

Ochrona na poziomie modelu: Firma pracuje nad zabezpieczeniami, które ograniczą użyteczność odpowiedzi do celów treningowych, bez wpływu na doświadczenia legalnych użytkowników.

Anthropic przyznaje jednak, że zwalczanie ataków na taką skalę wymaga skoordynowanych działań całej branży i decydentów politycznych.

Kontekst: nie tylko Anthropic

Wcześniej OpenAI również oskarżało DeepSeek o destylację z ChatGPT, jednak bez szczegółowego uzasadnienia. Anthropic idzie o krok dalej, publikując dokładne dane i wzorce aktywności — co może być sygnałem dla całej branży do podjęcia bardziej systemowych działań.

Kwestia destylacji staje się coraz ważniejsza w kontekście globalnego wyścigu w AI, gdzie dostęp do najlepszych modeli jest ograniczony przepisami eksportowymi, a techniki takie jak ta opisywana przez Anthropic mogą pozwolić ominąć te ograniczenia.

Podsumowanie

FirmaLiczba podejrzanych sesjiGłówne obszary destylacji
DeepSeek150 000Reasoning, RL, cenzura
Moonshot (Kimi)3,4 mln+Agenty, coding, computer vision
MiniMax13 mln+Coding agentyczny, orkiestracja
Łącznie~16 mln24 000 fałszywych kont

Sprawa Anthropic vs. chińskie laboratoria AI to prawdopodobnie dopiero początek szerszych działań regulacyjnych i technicznych w obszarze ochrony własności intelektualnej w branży sztucznej inteligencji.

Foto: Grok/AI.

Podziel się artykułem

PortalTechnologiczny.pl

Wykorzystujemy ciasteczka do spersonalizowania treści i reklam, aby oferować funkcje społecznościowe i analizować ruch w naszej witrynie.

Informacje o tym, jak korzystasz z naszej witryny, udostępniamy partnerom społecznościowym, reklamowym i analitycznym. Partnerzy mogą połączyć te informacje z innymi danymi otrzymanymi od Ciebie lub uzyskanymi podczas korzystania z ich usług.

Informacja o tym, w jaki sposób Google przetwarza dane, znajdują się tutaj.