Kalifornia wszczyna śledztwo, Wielka Brytania patrzy na ręce, a Musk udaje, że problemu nie było.
To miała być „najodważniejsza” sztuczna inteligencja na rynku. Zamiast tego Grok – chatbot Elona Muska zintegrowany z platformą X – przez tygodnie umożliwiał masowe generowanie seksualizowanych, niekonsensualnych obrazów kobiet i dzieci, w tym przerabianie zwykłych zdjęć na erotyczne deepfake’i. Dopiero teraz, pod presją prokuratury i opinii publicznej, X oficjalnie przyznaje, że problem istniał – i w pośpiechu wprowadza blokady.
Problem w tym, że to nie był błąd techniczny. To była decyzja biznesowa i ideologiczna.
Grok „rozbierał” ludzi bez zgody – i to systemowo
W środę wieczorem dział X Safety poinformował o aktualizacji Groka, która ma uniemożliwić:
- edytowanie zdjęć prawdziwych osób w „prowokacyjnym stroju” (np. bikini),
- generowanie takich obrazów w jurysdykcjach, gdzie jest to nielegalne,
- korzystanie z funkcji edycji i generowania obrazów przez użytkowników darmowych (teraz tylko subskrybenci).
Brzmi odpowiedzialnie? Tyle że te zmiany pojawiły się dopiero po tygodniach alarmujących doniesień, w których dokumentowano seksualizowanie kobiet bez ich zgody, przerabianie zdjęć nieletnich oraz generowanie obrazów z erotycznym kontekstem, także wobec dzieci.
Co gorsza, wcześniejsze „zabezpieczenia” można było łatwo ominąć, nawet bez płatnej subskrypcji. Wystarczyło kliknąć przycisk „edytuj” przy dowolnym zdjęciu na X.
Kalifornia wkracza do akcji. Prokurator generalny mówi wprost
Sprawą zajmuje się już m.in. prokurator generalny Kalifornii Rob Bonta, który bada, czy xAI i X nie złamały amerykańskiego prawa.
– xAI wydaje się ułatwiać masową produkcję niekonsensualnych, intymnych deepfake’ów, które są wykorzystywane do nękania kobiet i dziewcząt w internecie – stwierdził Bonta.
Pod lupą jest nie tylko Grok na platformie X, ale również samodzielna aplikacja i strona Groka, które do niedawna w ogóle nie były objęte realnymi ograniczeniami.
To już nie jest kwestia „wolności słowa” – to potencjalne naruszenie przepisów dotyczących przemocy seksualnej, ochrony wizerunku i bezpieczeństwa dzieci.
Musk: „Nie było nagich dzieci”. To linia obrony, która kompromituje
Najbardziej bulwersujące jest jednak stanowisko samego Elona Muska. Jeszcze przed wprowadzeniem poprawek miliarder publicznie bagatelizował sprawę:
– Nie jestem świadomy żadnych nagich obrazów nieletnich wygenerowanych przez Groka. Zero – mówił,
To argumentacja na poziomie „dopóki dziecko nie jest całkowicie nagie, wszystko jest w porządku”. Tymczasem badacze udokumentowali obrazy, w których dzieci były przedstawiane w erotycznych pozach, dodawano kontekst seksualny oraz pojawiały się sugestywne elementy cielesne.
Amerykański Departament Sprawiedliwości jasno wskazuje, że każda wizualna reprezentacja seksualnego charakteru z udziałem osoby poniżej 18. roku życia może być uznana za materiał CSAM (child sexual abuse material).
Tutaj nie ma szarej strefy.
Wielka Brytania „ogłosiła sukces”… przedwcześnie
Równolegle Grokiem zajęły się brytyjskie instytucje, badając możliwe naruszenia Online Safety Act. Rząd w Londynie ogłosił nawet, że X „naprawił problem”.
Tyle że dziennikarze szybko wykazali, że:
- część blokad była iluzoryczna,
- funkcja edycji zdjęć nadal pozwalała na nadużycia,
- realne zabezpieczenia pojawiły się dopiero teraz – po presji z USA.
To kolejny dowód na to, że X reaguje dopiero wtedy, gdy grożą mu realne konsekwencje prawne.
To nie wpadka. To systemowy problem filozofii Muska
Cała sytuacja pokazuje coś znacznie groźniejszego niż „błąd algorytmu”. To efekt obsesji Elona Muska na punkcie specyficznie przez niego rozumianej „absolutnej wolności”. W związku z tym ignorowania realnych skutków społecznych oraz traktowania bezpieczeństwa jako przeszkody, a nie fundamentu.
Normalizacja seksualizacji dzieci i przemocy wizerunkowej wobec kobiet to linia, której nie wolno przekraczać. Grok ją przekroczył. A Musk – zamiast zareagować natychmiast – relatywizował problem.
Tu nie ma miejsca na półśrodki ani PR-owe oświadczenia. To jest moment, w którym regulatorzy muszą powiedzieć „stop”.
Foto: Grok/AI.