Najpierw OpenAI zbudowało ChatGPT, korzystając z danych w sieci bez wiedzy ich twórców. Teraz Chińczycy wzięli dane z ChatGPT.
To nie dramat, to bardziej komedia. Po tym, jak sztuczna inteligencja DeepSeek zaczęła całkiem sensowne odpowiadać na większość pytań – może z wyjątkiem tych o wydarzenia na Placu Tiananmen – czym wywołała w poniedziałek wstrząs na rynkach, zrobiło się bardzo nerwowo w amerykańskich spółkach technologicznych. Szczególnie tych skoncentrowanych na rozwoju sztucznej inteligencji.
Kluczowe pytanie, na które ich szefowie próbowali i próbują sobie dalej odpowiedzieć brzmi, jak to możliwe, że Chińczykom udało się tak szybko i tak tanio stworzyć tak dobrą sztuczną inteligencję. Bardzo szybko przy tym zaczęli podejrzewać twórców DeepSeek, że, delikatnie mówiąc, skorzystali z tego, co już ma ChatGPT i inne tego typu rozwiązania.
Najpierw Bloomberg napisał, że OpenAI i Microsoft badają, czy chiński rywal użył interfejsu API OpenAI do zintegrowania modeli sztucznej inteligencji OpenAI z własnymi modelami DeepSeek. Ponoć analitycy ds. bezpieczeństwa w firmie Microsoft wykryli, że pod koniec 2024 r. duże ilości danych były wykradane za pośrednictwem kont programistów OpenAI. Firma uważa, że konta te są powiązane z usługą DeepSeek.
Przed chwilą podejrzenia o kradzież danych zaczęły graniczyć z pewnością. Spółka OpenAI poinformowała Financial Times, że znalazła dowody łączące DeepSeek z wykorzystaniem technik destylacji w wypadku ChatGPT. To powszechnie stosowane rozwiązanie przez programistów do trenowania modeli AI. Jest bardzo wydajne i tanie. Służy do wyodrębnianie danych z większych i bardziej wydajnych modeli.
Cóż… Irytację OpenAI można zrozumieć, ale jednak jest to nieco zabawne w świetle faktu, że amerykańska spółka trenowała swoje modele na informacjach pobieranych z milionów źródeł bez informowania ich twórców o tych zabiegach. Nawet miała i ma w związku tym nie jeden proces sądowy.
Tak więc witamy w świecie powszechnej kradzieży danych.
Foto: Canva.com/AI.