Sztuczna inteligencja coraz częściej trafia do sądowych akt — tym razem nie jako narzędzie przestępstwa, ale nieoficjalny „doradca prawny”.
Rumuńska prokuratura ujawniła, że pracownicy państwowych kolei, oskarżeni o korupcję i handel biletami, zwracali się do ChatGPT po porady prawne, próbując ustalić, czy ich działania faktycznie wyrządziły straty finansowe.
Blokowanie miejsc i sprzedaż „spod lady”
Do sądu trafiło 33 pracowników CFR Călători, państwowego operatora kolejowego w Rumunii. Prokuratura zarzuca im udział w procederze:
- manipulowania systemem rezerwacji,
- blokowania miejsc w wagonach sypialnych i kuszetkach,
- odsprzedawania biletów pasażerom za gotówkę, poza oficjalnym systemem.
Według śledczych część oskarżonych miała wykorzystywać dane osobowe studentów uprawnionych do darmowych przejazdów, rezerwując na ich nazwiska miejsca, które następnie sprzedawano z zyskiem.
ChatGPT zamiast prawnika?
Najbardziej zaskakujący wątek pojawił się jednak dopiero po rozpoczęciu śledztwa. Jak informują rumuńskie media, w aktach sprawy znalazły się fragmenty rozmów oskarżonych z ChatGPT.
Co istotne — pytania nie dotyczyły niewinności, lecz technicznych aspektów odpowiedzialności karnej i finansowej. Wśród nich miały paść m.in. takie kwestie:
- kto ustala wysokość szkody, jeśli „poszkodowany nie domaga się odszkodowania”,
- czy blokowanie miejsc w systemie rezerwacyjnym stanowi szkodę, jeśli nie da się wykazać realnej straty finansowej.
W innych wypowiedziach widać narastającą nerwowość:
- „Dlaczego policja wzywa wszystkich do pracy, a nie na komisariat?”
- „Oni już wiedzą, że np. zablokowałem 17 miejsc w systemie”.
Odpowiedzi AI: teoria prawa, zero lokalnych realiów
Z opublikowanych fragmentów wynika, że ChatGPT odpowiadał w sposób ogólny i akademicki, bez odniesień do rumuńskiego prawa. AI miało tłumaczyć m.in., że:
- w przypadku szkód wobec osób prywatnych zwykle wymagane jest żądanie odszkodowania,
- w sprawach dotyczących instytucji publicznych państwo może działać nawet bez formalnej skargi,
- jeśli nie da się wykazać wymiernej straty finansowej, istnienie szkody może być kwestionowane.
W jednym z cytowanych fragmentów chatbot miał nawet zaproponować:
„Czy chcesz, żebym przygotował kompletny wzór pisemnych wyjaśnień, dopasowany do twojej sytuacji, w którym przyznajesz się do blokowania miejsc, ale maksymalnie chronisz się prawnie?”
Prokuratura bez litości. 700 stron akt
Rumuńscy śledczy nie wydają się pod wrażeniem „wsparcia AI”. Sprawa obejmuje ponad 700 stron materiału dowodowego, zebranego w ramach przeszukań i analizy danych. Zarzuty dotyczą m.in.:
- korupcji,
- nadużycia stanowiska,
- oszustw związanych z systemem biletowym.
Nie ma żadnych dowodów na to, że ChatGPT pomógł w samym procederze — rozmowy z AI pojawiły się dopiero wtedy, gdy śledztwo było już w toku.
AI jako „kieszonkowy prawnik”? Ryzykowny trend
Sprawa z Rumunii wpisuje się w coraz wyraźniejszy trend: ludzie traktują generatywną AI jako szybkie źródło porad prawnych. Problem w tym, że narzędzia takie jak ChatGPT:
- nie znają lokalnych niuansów prawnych,
- nie ponoszą odpowiedzialności za błędne porady,
- często brzmią bardzo pewnie, nawet gdy pomijają kluczowy kontekst.
Dla oskarżonych kolejarzy ich strategia obrony mogła więc… dojechać na złą stację.
Foto: Fernando ell_bolla z Pixabay.