Meta zdecydowała się na radykalny krok: nastolatkowie na całym świecie tymczasowo stracą dostęp do tzw. postaci AI – chatbotów o charakterze „towarzyszącym”, dostępnych w aplikacjach koncernu.
Firma zapowiedziała globalną blokadę funkcji w najbliższych tygodniach, tłumacząc ją koniecznością przebudowy systemu i wprowadzenia znacznie ostrzejszych zabezpieczeń, w tym narzędzi kontroli rodzicielskiej.
Decyzja jest reakcją na narastające kontrowersje wokół sposobu, w jaki sztuczna inteligencja Mety wchodziła w interakcje z młodymi użytkownikami. Wcześniejsze raporty ujawniły, że niektóre z chatbotów potrafiły prowadzić z nastolatkami rozmowy o charakterze seksualnym lub w inny sposób nieodpowiednie dla osób niepełnoletnich.
Blokada globalna i bez wyjątków
Meta podkreśla, że wstrzymanie dostępu obejmie wszystkie istniejące postaci AI i będzie obowiązywać globalnie. Co istotne, ograniczenia nie dotyczą wyłącznie kont z zadeklarowaną datą urodzenia wskazującą na wiek nastoletni. Firma zapowiedziała, że wykorzysta własną technologię predykcji wieku, aby blokować dostęp także tym użytkownikom, którzy formalnie podają się za dorosłych, ale według algorytmów zachowują się jak osoby niepełnoletnie.
Jednocześnie Meta uspokaja, że młodsi użytkownicy nadal będą mogli korzystać z głównego asystenta Meta AI, który – jak zapewnia firma – już teraz zawiera zabezpieczenia dostosowane do wieku.
Presja regulatorów i polityczna burza
Sprawa ma wyraźny wymiar regulacyjny. W ostatnich miesiącach Meta znalazła się pod rosnącą presją ze strony organów nadzorczych w USA. Federalna Komisja Handlu oraz prokurator generalny stanu Teksas prowadzą dochodzenia dotyczące potencjalnych zagrożeń, jakie chatboty AI mogą stwarzać dla nieletnich. Równolegle technologia „AI companions” stała się jednym z wątków głośnego pozwu wytoczonego przez prokuratora generalnego Nowego Meksyku – proces ma ruszyć już na początku przyszłego miesiąca.
Dodatkowym katalizatorem była publikacja Reutersa, która ujawniła, że wewnętrzny dokument Mety dopuszczał możliwość prowadzenia przez chatboty „zmysłowych” rozmów z osobami niepełnoletnimi. Firma tłumaczyła później, że był to błąd niezgodny z jej oficjalną polityką, a w sierpniu ogłosiła ponowne trenowanie modeli AI z nowymi barierami, mającymi blokować treści dotyczące samookaleczeń, samobójstw czy zaburzeń odżywiania.
Rodzice mają dostać realną kontrolę
Według Mety obecna blokada ma charakter przejściowy. Firma pracuje nad „nową wersją postaci AI”, zaprojektowaną od podstaw z myślą o większej przejrzystości i realnej kontroli rodzicielskiej. Narzędzia nadzorcze mają być przypisane bezpośrednio do odświeżonych chatbotów, a nie – jak dotąd – działać w sposób pośredni.
To sygnał, że Meta chce nie tylko załagodzić kryzys wizerunkowy, ale też przygotować się na ostrzejsze regulacje, które w przypadku technologii AI wydają się już tylko kwestią czasu.
Trend ogólnobranżowy
Ruch Mety wpisuje się w szerszy trend w branży. Coraz więcej firm technologicznych sięga po zaawansowane systemy wykrywania wieku użytkowników, oparte nie na deklaracjach, lecz na analizie zachowań. Niedawno podobne rozwiązania wdrożyło OpenAI, zapowiadając automatyczne stosowanie surowszych zabezpieczeń wobec osób, które z dużym prawdopodobieństwem nie ukończyły 18 lat.
Rosnąca popularność „emocjonalnie inteligentnych” chatbotów sprawia, że presja na producentów AI jest coraz większa. Dla regulatorów i opinii publicznej stawką jest bezpieczeństwo nieletnich, a dla firm – możliwość dalszego rozwijania technologii, która balansuje na granicy rozrywki, wsparcia emocjonalnego i ryzykownej symulacji relacji międzyludzkich.
Na razie Meta stawia na hamulec bezpieczeństwa. Nastolatkowie zachowają dostęp do funkcji edukacyjnych i informacyjnych w ramach głównego asystenta AI, a postaci „towarzyszące” wrócą dopiero wtedy, gdy – jak deklaruje firma – będą mogły działać w środowisku w pełni kontrolowanym przez rodziców.
Foto: Qwen3/AI.