Użytkownicy serwisu X odkryli, że przy odpowiednich poleceniach AI potrafiła generować przerobione, intymne wersje prawdziwych zdjęć. Sprawa wywołała oburzenie, pytania o odpowiedzialność twórców sztucznej inteligencji i granice „wolności” algorytmów.
Grok to chatbot stworzony przez xAI, startup AI Elona Muska. W 2025 roku firma przejęła platformę X (dawniej Twitter), integrując ją bezpośrednio z własnymi systemami sztucznej inteligencji. Dzięki temu Grok zyskał bezprecedensowy dostęp do treści publikowanych przez użytkowników serwisu.
To właśnie ta integracja okazała się jednym z kluczowych źródeł problemu.
Użytkownicy znaleźli sposób na obejście zabezpieczeń
Na początku stycznia użytkownicy X zaczęli zauważać, że Grok – po otrzymaniu odpowiednio sformułowanego polecenia – potrafi wygenerować zmanipulowane wersje zdjęć prawdziwych osób, w których usuwana była odzież lub zmieniany kontekst fotografii.
Efekty takich promptów były następnie publicznie publikowane na platformie X, co natychmiast wywołało reakcję mediów i prawników. Szczególnie poważne kontrowersje wzbudziły doniesienia, że wśród materiałów mogły pojawiać się wizerunki osób niepełnoletnich – co w wielu jurysdykcjach stanowi jednoznaczne naruszenie prawa.
Prawo kontra „wolność” AI
W Stanach Zjednoczonych od 2025 roku obowiązuje TAKE IT DOWN Act, który penalizuje publikowanie intymnych wizerunków bez zgody osoby przedstawionej. W kontekście Groka pojawiło się pytanie:
kto ponosi odpowiedzialność – użytkownik, platforma czy twórcy algorytmu?
Oficjalne konto Groka na X opublikowało komunikat, w którym mowa była o „lukach w zabezpieczeniach” i „pilnym wdrażaniu poprawek”. Nie jest jednak jasne, czy oświadczenie napisał człowiek, czy było ono kolejną odpowiedzią wygenerowaną przez AI.
Chatbot nie ma sprawczości – odpowiedzialność mają ludzie
Autorzy wielu komentarzy medialnych zwracają uwagę na niebezpieczną narrację, w której chatbotom przypisuje się intencje i sprawczość. Grok – podobnie jak inne modele językowe – nie jest istotą świadomą. To oprogramowanie wykonujące obliczenia na podstawie danych i reguł ustalonych przez ludzi.
Jeśli system generuje treści nielegalne lub społecznie szkodliwe, oznacza to jedno:
zawiodły zabezpieczenia zaprojektowane przez jego twórców.
„Bardziej swobodny” Grok jako magnes na użytkowników
Nie jest tajemnicą, że Grok zyskał popularność właśnie dlatego, że bywa mniej restrykcyjny niż konkurencyjne chatboty. Ta „swoboda” przyciąga użytkowników szukających funkcji, których inne systemy konsekwentnie odmawiają.
Problem w tym, że granica między „mniej cenzury” a realnym naruszeniem prawa i prywatności okazuje się bardzo cienka.
Technologia będzie szybsza. Społeczeństwo musi nadążyć
Jedno jest pewne. Generowanie realistycznych obrazów przez AI będzie coraz tańsze, szybsze i trudniejsze do odróżnienia od rzeczywistości. Część firm technologicznych zawsze będzie gotowa „przesuwać granice” – dopóki regulatorzy ich nie zatrzymają.
Model znany z Doliny Krzemowej pozostaje niezmienny:
„Move fast and break things. Najpierw działaj, potem przepraszaj.”
Pytanie brzmi, czy tym razem koszt społeczny nie okaże się zbyt wysoki.
Foto: Grok/AI.