Tysiące prywatnych rozmów z ChatGPT trafiło do wyszukiwarki Google. Użytkownicy są w szoku.
ChatGPT miał pomagać – w nauce, pracy, rozmowach o emocjach, nawet w chwilach osobistego kryzysu. Ale najnowszy incydent pokazuje, jak łatwo można było nieświadomie udostępnić swoje najbardziej intymne myśli… całemu światu. Wszystko przez jedną pozornie niewinną funkcję.
Co się stało?
OpenAI – twórca ChatGPT – potwierdziło właśnie, że tymczasowo wyłączyło funkcję pozwalającą na udostępnianie historii rozmów w internecie. Problem w tym, że funkcja ta – mimo że wymagała zgody użytkownika – była opisana na tyle nieprecyzyjnie, że wielu nie zrozumiało jej pełnych konsekwencji.
Efekt? Po wpisaniu fragmentów udostępnionych linków w wyszukiwarkę Google można było znaleźć nawet 4500 prywatnych rozmów z ChatGPT – jak odkrył serwis Fast Company. W wielu z nich pojawiały się dane osobowe, lokalizacje, a nawet opisy problemów psychicznych, uzależnień czy przemocy domowej.
Użytkownicy nie wiedzieli, że dzielą się z całym światem
Częstą praktyką było dzielenie się rozmowami z ChatGPT poprzez link – z rodziną, znajomymi czy współpracownikami. Jednak OpenAI testowało dodatkową opcję: chaty mogły być indeksowane przez wyszukiwarki, jeśli użytkownik wybrał „upublicznienie” treści – bez pełnej świadomości, że to oznacza globalną dostępność w Google.
Choć nie pojawiły się dane logowania, pełne nazwiska czy adresy e-mail, w wielu przypadkach wystarczały imiona, kontekst rozmowy i lokalizacje, by móc zidentyfikować autora. To wystarczyło, by wywołać ogromne poruszenie w sieci.
OpenAI wycofuje się i próbuje „sprzątać”
Funkcja „upubliczniania” została natychmiast wyłączona, a OpenAI podkreśliło, że był to jedynie eksperyment mający na celu „dzielenie się wartościowymi rozmowami”. Firma zapewnia, że pracuje nad usunięciem wszystkich zindeksowanych treści z wyników wyszukiwania.
Ale to nie koniec kontrowersji.
ChatGPT pamięta więcej, niż myślisz
Przypominamy: na mocy decyzji sądu w USA, OpenAI musi przechowywać wszystkie logi rozmów bezterminowo – do czasu rozstrzygnięcia procesów, m.in. z „New York Timesem”, który zarzuca ChatGPT plagiatowanie treści z zamkniętych źródeł. Oznacza to, że specjalnie powołane zespoły prawne mogą przeglądać wszystko, co użytkownicy wpisują do AI.
To potencjalnie obejmuje także dane wrażliwe, a nawet tajemnice firmowe. W 2023 roku głośno było o przypadku Samsunga, którego inżynierowie nieświadomie przesłali do ChatGPT fragmenty kodu i wewnętrzne informacje, prosząc o pomoc w ich optymalizacji.
Wnioski?
Nie pytaj AI o wszystko. Nie dziel się z nią swoimi sekretami. A już na pewno nie klikaj bezrefleksyjnie „Udostępnij rozmowę”, jeśli nie masz 100% pewności, co to oznacza.
Foto: Gemini/AI.