qwen3 autoportret

Qwen3-Next-80B-A3B. Nowa chińska AI – tańsza, szybsza i otwarta

Alibaba Cloud zaprezentowała najnowszą wersję swojego modelu sztucznej inteligencji – Qwen3-Next. 

Nowa architektura, oznaczona jako Qwen3-Next-80B-A3B, ma aż 80 miliardów parametrów, działa nawet 10 razy szybciej niż poprzednia wersja i – co szczególnie istotne – jej trening kosztował zaledwie jedną dziesiątą tego, co wcześniejszy model Qwen3-32B.

Innowacje w architekturze AI

Według zespołu Qwen, przewaga nowego modelu wynika z szeregu nowatorskich rozwiązań. Zastosowano m.in. hybrid attention, ułatwiające przetwarzanie długich tekstów oraz architekturę mixture-of-experts (MoE), która dzieli model na wyspecjalizowane podsystemy. Dzięki temu udało się uzyskać równowagę pomiędzy wydajnością a efektywnością energetyczną.

Dodatkowe usprawnienia to m.in. multi-token prediction – technika pozwalająca modelowi przewidywać i generować kilka kolejnych słów jednocześnie, zamiast tylko jednego. Dzięki temu proces uczenia przebiega szybciej, a same odpowiedzi stają się bardziej spójne i trafne. Wprowadzono także rozwiązania zwiększające stabilność w trakcie treningu.

Konkurencja dla największych

Nowy Qwen3-Next osiąga wydajność porównywalną z flagowym modelem Qwen3-235B-A22B, ale jest znacznie tańszy i łatwiejszy do wdrożenia nawet na sprzęcie konsumenckim. 

Co więcej, w wersji dedykowanej do rozumowania – Qwen3-Next-80B-A3B-Thinking – przewyższa w testach nie tylko wcześniejsze modele Alibaby, lecz także konkurencyjnego Gemini-2.5-Flash-Thinking od Google.

Otwartość jako przewaga

Alibaba konsekwentnie stawia na strategię open source. Oznacza to, że kod źródłowy modeli jest publicznie dostępny – każdy deweloper może z niego korzystać, modyfikować go i tworzyć na jego bazie własne rozwiązania. To nie tylko przyspiesza rozwój sztucznej inteligencji, ale też ułatwia współpracę w globalnej społeczności programistów.

AI w iPhone’ach dzięki Qwen3

Warto przypomnieć, że w czerwcu Alibaba wprowadziła wersje Qwen3 zoptymalizowane dla frameworka MLX od Apple. MLX to specjalna platforma programistyczna do uczenia maszynowego, stworzona z myślą o urządzeniach Apple – iPhone’ach, iPadach i komputerach Mac. Dzięki temu możliwe jest trenowanie i uruchamianie modeli AI bezpośrednio na sprzęcie konsumenckim.

To element współpracy Alibaby z Apple – na rynku chińskim w ramach usługi Apple Intelligence wykorzystywane są właśnie modele Qwen, podczas gdy globalnie Apple stawia na GPT od OpenAI.

W cieniu giganta z bilionem parametrów

Premiera Qwen3-Next miała miejsce zaledwie tydzień po debiucie największego modelu w historii Alibaby – Qwen-3-Max-Preview z ponad bilionem parametrów. Choć tak ogromne modele imponują mocą, to ich praktyczne zastosowanie jest ograniczone ze względu na olbrzymie wymagania obliczeniowe. Dlatego właśnie Qwen3-Next, łączący dużą wydajność z niskim kosztem, może okazać się kluczowy w walce o globalny rynek sztucznej inteligencji.

Foto: Qwen3/AI.

Podziel się artykułem

PortalTechnologiczny.pl

Wykorzystujemy ciasteczka do spersonalizowania treści i reklam, aby oferować funkcje społecznościowe i analizować ruch w naszej witrynie.

Informacje o tym, jak korzystasz z naszej witryny, udostępniamy partnerom społecznościowym, reklamowym i analitycznym. Partnerzy mogą połączyć te informacje z innymi danymi otrzymanymi od Ciebie lub uzyskanymi podczas korzystania z ich usług.

Informacja o tym, w jaki sposób Google przetwarza dane, znajdują się tutaj.