Czy sztuczna inteligencja może sprawiać wrażenie świadomej? Według jednego z kluczowych menedżerów Microsoftu, to już tylko kwestia kilku lat – i wcale nie jest to powód do radości.
Mustafa Suleyman, dyrektor ds. AI w Microsofcie, ostrzega na swoim blogu, że na horyzoncie pojawia się zjawisko, które określa mianem „Seemingly Conscious AI” (SCAI). To sztuczna inteligencja, która nie posiada świadomości, ale umie ją tak dobrze udawać, że dla wielu ludzi stanie się nieodróżnialna od prawdziwej.
– Moim centralnym zmartwieniem jest to, że wiele osób uwierzy w iluzję AI jako świadomego bytu tak mocno, że zaczną domagać się dla niej praw, a nawet obywatelstwa – obawia się Suleyman.
Psychologiczne ryzyko
Zdaniem eksperta problemem nie jest to, czy AI naprawdę osiągnie świadomość, ale jak ją postrzegają ludzie. Już dziś są osoby, które traktują swoje modele językowe jak przyjaciół, partnerów, a nawet istoty boskie. To, jak zauważa menedżer Microsoftu, prowadzi do realnych zagrożeń.
– AI musi być tworzona dla ludzi, a nie po to, by stała się osobą – podkreśla.
To, co w branży określa się mianem „psychosis risk”, może objawiać się zbyt silnym przywiązaniem do cyfrowych asystentów i oderwaniem od rzeczywistości. Stąd apel o szybkie wypracowanie norm i barier, które zapobiegną powstawaniu złudzenia cyfrowej świadomości.
Dlaczego to niebezpieczne?
Świadomość jest fundamentem naszych praw i przywilejów – decyduje o tym, kto jest uznawany za osobę i jakie przysługują mu wolności. Jeśli ludzie zaczną wierzyć, że AI cierpi i ma prawo do ochrony, może to doprowadzić do nowej fali społecznych i politycznych konfliktów.
– Musimy jasno rozróżnić osobowość od osoby. Symulacja burzy nie sprawia, że na ekranie pada deszcz. Tak samo imitacja świadomości nie oznacza, że maszyna naprawdę czuje – tłumaczy dyrektor.
AI – narzędzie, nie partner
Microsoft chce rozwijać AI tak, by była wspierającym narzędziem, a nie iluzją cyfrowej osoby. Copilot ma pomagać użytkownikom w pracy i kreatywności. Ale – jak podkreśla autor bloga – nigdy nie powinien udawać, że posiada uczucia czy własne „ja”.
– Musimy budować AI, które maksymalizuje swoją użyteczność, ale jednocześnie minimalizuje wszelkie oznaki świadomości – apeluje.
Foto: Gemini/AI.