zdjęciu z filmu stworzonego w Veo 3.1

Google Veo 3.1 – nowy generator wideo. Bardziej dla twórców, mniej do zabawy

Google wprowadza Veo 3.1, nową wersję swojego generatora wideo opartego na sztucznej inteligencji, który stawia na realizm, precyzję i dźwięk.

Premiera ma miejsce w momencie, gdy OpenAI zdobywa popularność dzięki aplikacji Sora 2, która w zaledwie pięć dni osiągnęła milion pobrań i szturmem podbiła App Store. Google stawia więc na profesjonalną alternatywę wobec dynamicznego, społecznościowego podejścia Sora 2.

Co nowego w Veo 3.1?

Najważniejsze ulepszenia Veo 3.1 obejmują dodanie pełnego audio do wszystkich funkcji, co pozwala na generowanie dźwięków otoczenia, dialogów i efektów w każdej scenie.

Nowe narzędzia edycyjne dają poza tym możliwość dodawania i usuwania elementów z filmów przy jednoczesnym automatycznym dopasowaniu cieni i światła, co sprawia, że wideo wygląda naturalnie.

Twórcy zyskują też większą kontrolę nad narracją – funkcje takie jak „Ingredients to Video”, „Frames to Video” oraz „Extend” pozwalają precyzyjnie sterować stylem, obiektami i długością wideo. Dzięki temu możliwe jest tworzenie dłuższych i bardziej spójnych ujęć. Dzięki funkcji „Extend” można wygenerować scenę trwającą nawet minutę, która naturalnie kontynuuje akcję poprzedniego klipu. 

Filmy generowane są w rozdzielczości 1080p i dostępne zarówno w orientacji poziomej, jak i pionowej.

Jak działa Veo 3.1 w praktyce?

Veo 3.1 sprawdza się szczególnie dobrze w generowaniu wideo z tekstu, w tym z dialogiem. Model radzi sobie z synchronizacją ust, intonacją, emocjami i dźwiękami otoczenia lepiej niż większość konkurencji. Funkcje takie jak „Ingredients to Video” pozwalają łączyć wiele obrazów referencyjnych w spójną scenę, a „Frames to Video” tworzy płynne przejścia między początkiem a końcem ujęcia. 

Jednak generowanie wideo z obrazów referencyjnych może czasami prowadzić do niezgodności scen – postacie lub elementy nie zawsze odzwierciedlają przesłane materiały, a model czasem „oszukuje”, by zachować spójność ruchu. Oznacza to, że w niektórych przypadkach potrzebna jest cierpliwość lub połączenie z innymi narzędziami, jak choćby Nanobanana, by uzyskać idealny efekt.

Profesjonalny wybór czy wydatek dla odważnych?

Veo 3.1 plasuje się wśród droższych modeli AI wideo. Darmowi użytkownicy otrzymują 100 kredytów miesięcznie, co pozwala na wygenerowanie około pięciu filmów, natomiast wersja płatna przez Gemini API kosztuje około 0,40 USD za sekundę wideo z dźwiękiem. Model skierowany jest więc głównie do twórców, którzy stawiają na jakość, a nie tylko viralowy efekt w mediach społecznościowych.

Veo 3.1 kontra konkurencja

Rok 2025 jest rokiem dynamicznego rozwoju AI wideo – obok Veo 3.1 swoje modele aktualizują Runway, Luma Labs, Adobe, Meta i xAI. W tym wyścigu Veo wyróżnia się precyzyjnym generowaniem wideo z tekstu, spójnym i realistycznym przekształcaniem obrazów w film (choć z pewnymi ograniczeniami) oraz zaawansowaną kontrolą dźwięku i atmosfery. 

Sora 2 pozostanie więc zapewne liderem w viralowych, społecznościowych wideo, natomiast Veo 3.1 celuje w twórców, którzy chcą mieć pełną kontrolę nad każdym ujęciem.

Podsumowanie

Google Veo 3.1 to krok w stronę profesjonalnego tworzenia wideo AI. Choć narzędzie nie jest pozbawiony wad, jego mocne strony – dźwięk, kontrola narracji i jakość obrazu – stawiają go w roli poważnego rywala dla OpenAI i innych graczy na rynku. To rozwiązanie dla tych, którzy chcą tworzyć wideo z prawdziwą precyzją i artystyczną wizją, nawet jeśli wymaga to większego nakładu środków i cierpliwości.

Foto: Google.

Podziel się artykułem

PortalTechnologiczny.pl

Wykorzystujemy ciasteczka do spersonalizowania treści i reklam, aby oferować funkcje społecznościowe i analizować ruch w naszej witrynie.

Informacje o tym, jak korzystasz z naszej witryny, udostępniamy partnerom społecznościowym, reklamowym i analitycznym. Partnerzy mogą połączyć te informacje z innymi danymi otrzymanymi od Ciebie lub uzyskanymi podczas korzystania z ich usług.

Informacja o tym, w jaki sposób Google przetwarza dane, znajdują się tutaj.