AI w sądzie

AI obraziła minister. Teraz Musk może mieć poważne kłopoty

Minister finansów Szwajcarii pozywa za „obraźliwe roast’y” Groka, sztuczną inteligencję rozwijaną przez Muska.

Sztuczna inteligencja coraz częściej trafia na salę sądową. Najnowszy przypadek pokazuje, jak cienka staje się granica między technologią a odpowiedzialnością prawną. W centrum sprawy znalazł się chatbot Grok, rozwijany przez firmę xAI i dostępny na platformie X. Spór dotyczy bezpośrednio szwajcarskiej minister finansów Karin Keller-Sutter, która zdecydowała się na krok bez precedensu.

Roast Groka kończy się pozwem

W marcu 2026 roku Keller-Sutter złożyła skargę karną po tym, jak anonimowy użytkownik platformy X poprosił Groka o wygenerowanie obraźliwej wypowiedzi na jej temat. Odpowiedź chatbota została uznana przez szwajcarskie Ministerstwo Finansów za jawnie mizoginistyczną i naruszającą godność urzędującej członkini rządu. 

W oficjalnym stanowisku podkreślono, że tego rodzaju treści nie mogą być traktowane jako dopuszczalna forma debaty publicznej. Normalizują przemoc słowną wobec kobiet.

Pozew nie ogranicza się wyłącznie do autora wpisu. Minister zwróciła się również do prokuratury o ocenę, czy odpowiedzialność za publikację powinna ponosić także platforma X. Ta – jej zdaniem – mogła nie zapewnić odpowiednich zabezpieczeń przed generowaniem tego typu treści przez sztuczną inteligencję.

Kto odpowiada: użytkownik czy platforma?

Sprawa natychmiast uruchomiła debatę, która od lat toczy się w środowisku prawnym i technologicznym. Kluczowe pytanie brzmi: czy odpowiedzialność za treści generowane przez AI powinna spoczywać wyłącznie na użytkowniku, który inicjuje zapytanie, czy także na firmie udostępniającej narzędzie.

Anonimowy autor wpisu usunął go w ciągu dwóch dni i tłumaczył swoje działanie jako eksperyment mający sprawdzić możliwości Groka. Nie musi to jednak oznaczać uniknięcia konsekwencji. Szwajcarskie prawo przewiduje surowe sankcje za publikację treści naruszających dobre imię. Eksperci prawa karnego dodają, że identyfikacja autora nawet usuniętych treści jest jak najbardziej możliwa.

Równolegle analizowana jest potencjalna odpowiedzialność platformy. Prokuratura ma rozstrzygnąć, czy X mogło przewidzieć, że Grok będzie wykorzystywany do generowania obraźliwych treści. A także czy firma dołożyła należytej staranności, aby temu zapobiec. W praktyce oznacza to próbę ustalenia, czy sama architektura i sposób wdrożenia AI mogą być uznane za współczynnik naruszenia prawa.

Problem głębszy niż jeden wpis

Sprawa Keller-Sutter wpisuje się w szerszy kontekst kontrowersji wokół Groka i strategii przyjętej przez Elon Musk. Od momentu złagodzenia filtrów moderacyjnych chatbot wielokrotnie generował treści uznawane za skrajne lub obraźliwe, co wywoływało reakcje opinii publicznej, organizacji społecznych i regulatorów.

Nie chodzi już wyłącznie o pojedyncze incydenty, lecz o model funkcjonowania systemów AI, które – działając na ogromną skalę – są w stanie generować miliony wypowiedzi dziennie. W takim środowisku nawet niewielki odsetek szkodliwych treści może prowadzić do realnych konsekwencji społecznych. W tym utrwalania uprzedzeń czy eskalacji mowy nienawiści.

Europa szykuje się na regulacje AI

Choć Szwajcaria formalnie pozostaje poza strukturami Unii Europejskiej, kierunek debaty jest zbieżny z tym, co obserwujemy na poziomie europejskim. Coraz częściej pojawiają się głosy, że obowiązujące przepisy dotyczące zniesławienia nie nadążają za rozwojem technologii i powinny zostać rozszerzone o systemy automatycznego generowania treści.

W praktyce oznaczałoby to możliwość przypisywania odpowiedzialności nie tylko użytkownikom, lecz także operatorom platform i twórcom modeli AI. Podobne podejście zaczyna być widoczne również w Wielkiej Brytanii. Tam regulatorzy otwarcie sygnalizują gotowość do egzekwowania przepisów wobec firm, które nie zapewniają odpowiedniego poziomu bezpieczeństwa swoich usług.

Mizoginia AI może mieć realne skutki społeczne

Eksperci zwracają uwagę, że problem nie ogranicza się do pojedynczych przypadków zniesławienia. W szerszej perspektywie chodzi o wpływ, jaki technologie oparte na sztucznej inteligencji wywierają na różne grupy społeczne. Stała ekspozycja na obraźliwe lub uprzedzone treści może zniechęcać użytkowników – szczególnie kobiety – do korzystania z nowych narzędzi cyfrowych.

Taki scenariusz miałby konsekwencje wykraczające poza sferę komunikacji online, wpływając na udział w życiu gospodarczym i społecznym. Jeśli AI zacznie być postrzegana jako środowisko wrogie lub stronnicze, może to pogłębić istniejące nierówności zamiast je niwelować.

Musk nie zamierza odpuszczać

Na tle tych kontrowersji szczególnie wyraźnie rysuje się strategia przyjęta przez Muska. Grok został zaprojektowany jako alternatywa dla bardziej zachowawczych chatbotów, a jego bezpośredni, często prowokacyjny styl komunikacji jest elementem świadomej decyzji biznesowej. Popularność funkcji generujących „roasty” oraz viralowy charakter takich treści pokazują, że model ten przyciąga użytkowników i zwiększa zaangażowanie.

Jednocześnie rosnąca liczba postępowań prawnych i interwencji regulatorów może w przyszłości wymusić zmianę tego podejścia. Dla firm rozwijających AI oznacza to konieczność znalezienia równowagi między atrakcyjnością produktu a odpowiedzialnością za jego skutki.

Co dalej?

Postępowanie zainicjowane przez Keller-Sutter może okazać się jednym z pierwszych tak wyraźnych testów dla systemów prawnych w kontekście generatywnej sztucznej inteligencji. Kluczowe znaczenie będzie miało ustalenie, czy odpowiedzialność za treści AI można rozciągnąć na platformy technologiczne, a także jakie standardy należytej staranności powinny one spełniać.

Niezależnie od wyniku sprawy, kierunek zmian wydaje się przesądzony. Presja na regulację AI rośnie, a kolejne tego typu przypadki przybliżają moment, w którym globalne ramy prawne dla sztucznej inteligencji staną się koniecznością, a nie wyborem.

Foto: Qwen/AI.

Podziel się artykułem

PortalTechnologiczny.pl

Wykorzystujemy ciasteczka do spersonalizowania treści i reklam, aby oferować funkcje społecznościowe i analizować ruch w naszej witrynie.

Informacje o tym, jak korzystasz z naszej witryny, udostępniamy partnerom społecznościowym, reklamowym i analitycznym. Partnerzy mogą połączyć te informacje z innymi danymi otrzymanymi od Ciebie lub uzyskanymi podczas korzystania z ich usług.

Informacja o tym, w jaki sposób Google przetwarza dane, znajdują się tutaj.