Google nie zwalnia tempa w wojnie modeli językowych. Firma oficjalnie zaprezentowała Gemini 3 Flash – szybki i relatywnie tani model AI, który od dziś staje się domyślnym silnikiem w aplikacji Gemini oraz w trybie AI w wyszukiwarce.
To nie tylko aktualizacja – to wyraźna deklaracja, że Google chce odebrać OpenAI inicjatywę także w segmencie masowych użytkowników.
Nowy model bazuje na Gemini 3, zaprezentowanym zaledwie miesiąc temu, ale w wersji Flash postawiono na szybkość, skalę i koszty, czyli dokładnie to, co liczy się przy milionach zapytań dziennie.
Gemini 3 Flash kontra konkurencja
Według danych Google, Gemini 3 Flash oferuje ogromny skok wydajności względem Gemini 2.5 Flash, a w części testów dorównuje modelom klasy „frontier”, takim jak Gemini 3 Pro czy GPT-5.2.
Na benchmarku Humanity’s Last Exam, który sprawdza wiedzę ekspercką bez użycia narzędzi:
- Gemini 3 Flash: 33,7%
- Gemini 3 Pro: 37,5%
- GPT-5.2: 34,5%
- Gemini 2.5 Flash: zaledwie 11%
Jeszcze ciekawiej wygląda wynik w teście MMMU-Pro, mierzącym multimodalność i rozumowanie – 81,2%, co daje Gemini 3 Flash najlepszy rezultat w całej stawce.
Multimodalność w praktyce
Google podkreśla, że nowy model znacznie lepiej „rozumie intencję” użytkownika i treści multimodalne. W praktyce oznacza to, że Gemini 3 Flash:
- analizuje obrazy, wideo i dźwięk,
- potrafi podpowiedzieć np. jak poprawić technikę w krótkim filmie sportowym,
- rozpoznaje szkice i rysunki,
- analizuje nagrania audio i generuje na ich podstawie podsumowania lub quizy,
- tworzy bardziej wizualne odpowiedzi z tabelami i grafikami.
Model umożliwia też tworzenie prototypów aplikacji bezpośrednio w Gemini, wyłącznie za pomocą promptów.
Domyślny model dla użytkowników
Gemini 3 Flash zastępuje globalnie Gemini 2.5 Flash jako domyślny model w aplikacji Gemini. Użytkownicy nadal mogą ręcznie wybrać Gemini 3 Pro, jeśli potrzebują bardziej zaawansowanych obliczeń – szczególnie w matematyce i programowaniu.
Równolegle Google rozszerza dostępność:
- Gemini 3 Pro jest dostępny dla wszystkich użytkowników wyszukiwarki w USA,
- więcej osób w USA może korzystać z Nano Banana Pro, modelu generowania obrazów w wyszukiwarce.
Google celuje w firmy i deweloperów
Nowy model już teraz jest wykorzystywany przez firmy takie jak JetBrains, Figma, Cursor, Harvey czy Latitude. Gemini 3 Flash jest dostępny:
- w Vertex AI,
- w Gemini Enterprise,
- w wersji preview poprzez API,
- oraz w Antigravity, nowym narzędziu programistycznym Google.
Z kolei Gemini 3 Pro osiąga 78% na benchmarku SWE-bench, ustępując jedynie GPT-5.2. Google wskazuje go jako idealny do analizy wideo, ekstrakcji danych i wizualnych zapytań Q&A, szczególnie tam, gdzie liczy się szybkość i powtarzalność.
Cena i… realne oszczędności
Cennik Gemini 3 Flash wygląda następująco:
- 0,50 USD za 1 mln tokenów wejściowych
- 3,00 USD za 1 mln tokenów wyjściowych
To nieco więcej niż Gemini 2.5 Flash, ale Google przekonuje, że:
- nowy model jest trzykrotnie szybszy niż Gemini 2.5 Pro,
- zużywa średnio 30% mniej tokenów w zadaniach wymagających rozumowania.
W efekcie – mimo wyższej ceny jednostkowej – koszt końcowy może być niższy.
Jak ujęła to Tulsee Doshi, szefowa produktów Gemini, Flash to nasz „koń roboczy”.
– Dla wielu firm to najtańsza i najbardziej opłacalna opcja do masowych zadań – twierdzi.
Wojna z OpenAI nabiera tempa
Google ujawniło, że po premierze Gemini 3 jego API przetwarza ponad bilion tokenów dziennie. To dzieje się w momencie, gdy – według doniesień – Sam Altman wysłał do zespołu OpenAI wewnętrzny „Code Red”, po tym jak ruch w ChatGPT spadł, a Google zaczęło odbierać udziały rynkowe.
Odpowiedź OpenAI była szybka: GPT-5.2, nowy model generowania obrazów i podkreślanie rosnącej adopcji enterprise. Google oficjalnie unika bezpośrednich porównań, ale jedno jest jasne – tempo tej rywalizacji tylko przyspiesza.
Foto: Google.