OpenAI uruchamia Prism – darmowe środowisko AI dla naukowców. Wydawcy i badacze ostrzegają: liczba publikacji rośnie, jakość spada.
OpenAI zaprezentowało nowe, bezpłatne narzędzie dla środowiska akademickiego o nazwie Prism. To oparty na sztucznej inteligencji workspace do pisania i formatowania prac naukowych, który – zamiast entuzjazmu – wywołał falę sceptycyzmu wśród badaczy i wydawców. Powód? Coraz powszechniejsze zjawisko określane mianem „AI slop”, czyli masowej produkcji pozornie profesjonalnych, ale merytorycznie słabych artykułów naukowych.
Premiera Prism zbiega się w czasie z kolejnymi badaniami pokazującymi, że AI-wspomagane publikacje zalewają czasopisma, przeciążając system recenzji i obniżając ogólną jakość naukowego dorobku.
Prism: LaTeX, GPT-5.2 i nauka „na autopilocie”?
Prism to nie system prowadzący badania, lecz zaawansowane narzędzie do pisania. OpenAI zintegrowało w nim model GPT-5.2 z edytorem LaTeX – standardem składu dokumentów naukowych. Platforma pozwala m.in. na:
- redagowanie artykułów naukowych,
- generowanie i formatowanie bibliografii,
- tworzenie diagramów na podstawie szkiców,
- współpracę wielu autorów w czasie rzeczywistym.
Narzędzie jest dostępne za darmo dla każdego użytkownika ChatGPT, co znacząco obniża barierę wejścia do publikowania.
Kevin Weil, wiceprezes OpenAI ds. nauki, zapowiadał podczas briefingu prasowego, że „2026 rok będzie dla AI w nauce tym, czym 2025 był dla inżynierii oprogramowania”.
Według OpenAI ChatGPT obsługuje już 8,4 mln zapytań tygodniowo dotyczących tzw. twardej nauki, co ma dowodzić, że AI przestaje być ciekawostką, a staje się podstawowym narzędziem pracy badawczej.
Niższa bariera publikacji, ten sam system recenzji
Problem polega na tym, że łatwość tworzenia „ładnie wyglądających” artykułów nie idzie w parze z możliwością ich rzetelnej oceny. System peer review – oparty na ludzkiej pracy, czasie i kompetencjach – nie skaluje się tak szybko jak generatywna AI.
Efekt? Coraz więcej manuskryptów trafia do redakcji, ale niekoniecznie wnosi realną wartość naukową.
Weil przyznał otwarcie, że AI może generować fałszywe lub „zmyślone” cytowania, podkreślając, że odpowiedzialność za ich weryfikację zawsze spoczywa na naukowcu. To istotna różnica względem klasycznych menedżerów bibliografii, które od dekad jedynie formatują istniejące źródła, a nie je „wymyślają”.
„AI slop” to już fakt, nie hipoteza
Obawy nie są teoretyczne. Badanie opublikowane w Science w grudniu 2025 r. wykazało, że naukowcy korzystający z dużych modeli językowych zwiększali swoją produktywność o 30–50%, ale jednocześnie ich prace częściej przegrywały w recenzjach.
Co ciekawe, artykuły napisane złożonym językiem bez użycia AI miały najwyższy wskaźnik akceptacji. Z kolei teksty o podobnej stylistyce, ale prawdopodobnie wygenerowane przez modele językowe, były częściej odrzucane – recenzenci wyczuwali, że bogata forma maskuje słabą treść.
Podobne wnioski przyniosła analiza 41 mln prac naukowych z lat 1980–2025: AI zwiększa liczbę publikacji i cytowań, ale jednocześnie zawęża zakres eksploracji naukowej.
Historia zatacza koło: od Galactica do „AI Scientist”
To nie pierwszy raz, gdy AI próbuje „pisać naukę”. Już w 2022 roku Meta wycofała demo modelu Galactica, który potrafił tworzyć przekonujące, ale całkowicie fałszywe prace – włącznie z fikcyjnym artykułem o „korzyściach z jedzenia tłuczonego szkła”.
W 2024 roku podobne kontrowersje wzbudził projekt The AI Scientist od Sakana AI. Redaktorzy czasopism bez ogródek przyznawali, że takie prace zostałyby odrzucone jeszcze na etapie wstępnej selekcji.
Problem w tym, że dziś – dzięki narzędziom takim jak Prism – te same teksty mogą wyglądać perfekcyjnie już na starcie.
Przyspieszenie nauki czy paraliż recenzji?
OpenAI konsekwentnie promuje wizję przyspieszonej nauki. W opublikowanym niedawno raporcie firma opisuje przypadki matematyków i fizyków, którym GPT-5.2 pomógł rozwiązać problemy wymagające wcześniej miesięcy pracy.
Dla naukowców spoza anglojęzycznego kręgu kulturowego AI może realnie pomóc w publikowaniu dobrych badań, które wcześniej ginęły z powodu barier językowych. Pytanie brzmi jednak, czy ta korzyść nie zostanie przykryta przez lawinę przeciętnych zgłoszeń, blokujących system.
Jak zauważają krytycy, gdy wszystko wygląda profesjonalnie, trudniej oddzielić solidną naukę od jej imitacji.
Nauka w epoce nadprodukcji treści
OpenAI podkreśla, że Prism nie prowadzi badań samodzielnie, a odpowiedzialność zawsze spoczywa na człowieku. Mimo to niepokój środowiska naukowego narasta.
Czy Prism okaże się katalizatorem przełomów, czy kolejnym akceleratorem informacyjnego chaosu? Odpowiedź poznamy szybciej, niż mogłoby się wydawać.
Foto: Gemini/AI.