OpenAI prezentuje najnowszy model GPT-5.2. To odpowiedź na rosnącą dominację Gemini 3 i wewnętrzny czerwony alarm, który Sam Altman ogłosił po spadkach ruchu w ChatGPT.
Najnowszy model ma odwrócić trend i dać firmie przewagę tam, gdzie dziś decydują najbardziej zaawansowane benchmarki: kod, matematyka, analiza złożonych dokumentów, długi kontekst i agentowe zadania.
Trzy wersje GPT-5.2: Instant, Thinking i Pro
Nowy model trafia jednocześnie do użytkowników płatnego ChatGPT oraz do API w trzech wariantach:
- Instant – zoptymalizowany pod szybkość, idealny do codziennych zapytań, pisania, streszczeń i tłumaczeń.
- Thinking – tryb nastawiony na złożone, wieloetapowe zadania: kodowanie, analizy dokumentów, matematyczne dowody, planowanie.
- Pro – topowy, najbardziej precyzyjny i niezawodny model do najtrudniejszych problemów.
Według Fidji Simo, szefowej produktu w OpenAI, GPT-5.2 znacznie poprawia działanie narzędzi kluczowych dla profesjonalistów: tworzenie prezentacji, budowanie arkuszy, programowanie, analizowanie obrazów, praca na długich kontekstach czy zarządzanie wieloetapowymi projektami.
Wyścig o tron: Gemini 3 vs GPT-5.2
Debiut GPT-5.2 wpisuje się w wyraźnie zaostrzającą się rywalizację. Gemini 3 dominuje obecnie na LMArena, zwłaszcza w multimodalności oraz workflow agentowych. OpenAI twierdzi jednak, że w kluczowych benchmarkach logicznych i kodowych to właśnie GPT-5.2 „Thinking” wysuwa się na prowadzenie – przebijając zarówno Gemini 3, jak i Claude Opus 4.5.
Modele OpenAI osiągają lepsze wyniki m.in. w:
- realnych zadaniach inżynierii oprogramowania (SWE-Bench Pro),
- doktoranckiej wiedzy naukowej (GPQA Diamond),
- zadaniach abstrakcyjnego rozumowania (ARC-AGI).
Aidan Clark z zespołu badawczego podkreśla, że poprawa wyników matematycznych nie oznacza jedynie „lepszego liczenia”, ale świadczy o mocniejszej logice wieloetapowej — kluczowej dla finansów, prognoz, analizy danych czy stabilnych agentów.
Programowanie i agentowe workflowy: największy skok jakości
Według Maxa Schwarzera, product leada OpenAI, GPT-5.2:
- generuje i debugguje kod znacznie lepiej niż 5.1,
- tłumaczy złożone problemy matematyczne krok po kroku,
- popełnia o 38% mniej błędów w trybie Thinking niż poprzednia generacja.
Startupy coding-agents, takie jak Windsurf i CharlieCode, już raportują wzrost jakości w wieloetapowych przepływach pracy i zadaniach wymagających planowania.
Konsolidacja dwóch poprzednich wersji
GPT-5 wprowadził przełączanie pomiędzy modelem szybkim i „Thinking”. GPT-5.1 usprawnił rozmowę, kodowanie i funkcje agentowe. GPT-5.2 łączy oba te kierunki, jeszcze mocniej podkręcając stabilność i wydajność — stając się, jak twierdzi firma, fundamentem produkcyjnym dla tysięcy aplikacji.
Dla OpenAI to szczególnie ważne, bo firma deklaruje gigantyczne inwestycje infrastrukturalne na poziomie 1,4 biliona dolarów w najbliższych latach. Rosnące koszty inferencji i brak możliwości dalszego oparcia się na kredytach chmurowych sprawiają, że każdy procent efektywności staje się kluczowy.
Ryzyko: drogie modele i coraz bardziej kosztowny wyścig
Modele reasoningowe są znacznie droższe w utrzymaniu. GPT-5.2, podobnie jak wcześniejsze Thinking i Deep Research, wymaga dużej mocy obliczeniowej. OpenAI może więc wpaść w spiralę: wysokie koszty → presja na lepsze wyniki → jeszcze wyższe koszty.
Fidji Simo uspokaja jednak, że efektywność modeli rośnie: „Dziś otrzymujesz dużo więcej inteligencji za tę samą ilość compute i tych samych dolarów niż rok temu”.
A gdzie nowy generator obrazów?
Zaskoczeniem jest brak nowego modelu graficznego. Według doniesień to właśnie obrazowanie ma być kluczowym filarem walki z Google, zwłaszcza po sukcesie modelu „Nano Banana” (Gemini 2.5 Flash Image) i nowego Nano Banana Pro.
OpenAI ma — nieoficjalnie — szykować premierę na styczeń: lepsze obrazowanie, szybsze działanie i mocniejszą „osobowość” modelu.
Bezpieczeństwo: nowe mechanizmy, ale w tle
Firma wspomniała także o nowych zabezpieczeniach dotyczących zdrowia psychicznego oraz weryfikacji wieku nastolatków, ale nie były one głównym tematem wydarzenia.
Foto: Qwen3/AI.