Alibaba Cloud oficjalnie zaprezentowała Qwen3.5-397B-A17B – pierwszy model z nowej serii Qwen3.5. To przełomowa jednostka open-weight, która dzięki unikalnej architekturze łączy potężną wiedzę z niespotykaną dotąd szybkością działania. Czy GPT-4o i Claude mają się czego obawiać?
Rynek modeli AI nabiera tempa, a chiński gigant Alibaba właśnie podbił stawkę. Najnowszy model Qwen3.5-397B-A17B to nie tylko kolejna aktualizacja, ale fundament pod nową generację multimodalnych agentów AI. Te mają zdominować kodowanie, zaawansowane rozumowanie i analizę danych wizualnych.
Hybrydowa architektura: Moc 397 miliardów parametrów w wersji „light”
Kluczem do sukcesu Qwen3.5 jest jego innowacyjna budowa. Choć model posiada imponujące 397 miliardów parametrów, dzięki zastosowaniu architektury MoE (Mixture-of-Experts), podczas każdego zapytania aktywuje jedynie 17 miliardów z nich.
Co to oznacza w praktyce?
- Błyskawiczna inferencja: Model działa znacznie szybciej niż klasyczne systemy o podobnej skali.
- Efektywność kosztowa: Mniejsze zużycie zasobów przy zachowaniu najwyższej jakości odpowiedzi.
- Technologia Gated Delta Networks: Model wykorzystuje połączenie rzadkiego MoE z liniową atencją. W dużym uproszczeniu: rzadkie MoE pozwala systemowi wybierać tylko tych „ekspertów” (części sieci), którzy najlepiej znają się na danym temacie. Natomiast liniowa atencja sprawia, że model przetwarza długie teksty znacznie szybciej niż standardowe systemy, nie tracąc przy tym wątku.
Multimodalność w DNA
W przeciwieństwie do wielu modeli, które „uczą się” wzroku jako dodatku, Qwen3.5 został zaprojektowany jako natywny system wizualno-językowy.
Dzięki powiększonym zbiorom danych pre-treningowych (tekst + obraz), model osiąga wyniki porównywalne z znacznie większymi poprzednikami w testach dotyczących rozumowania wizualnego i analizy grafik.
Globalny zasięg: 201 języków i dialektów
Alibaba stawia na inkluzywność. Nowy Qwen3.5 rozszerza wsparcie językowe ze 119 do aż 201 języków i dialektów. Zastosowanie słownika o rozmiarze 250k tokenów pozwala na precyzyjne operowanie niuansami językowymi. To czyni go jednym z najlepszych narzędzi dla globalnych przedsiębiorstw.
Qwen3.5-Plus: Milion tokenów kontekstu
Dla najbardziej wymagających użytkowników przygotowano wersję hostowaną – Qwen3.5-Plus, dostępną przez Alibaba Cloud Model Studio. Jej specyfikacja robi wrażenie:
- Okno kontekstowe: Do 1 miliona tokenów (możliwość analizy całych książek lub ogromnych repozytoriów kodu w jednym zapytaniu).
- Adaptive Tool Use: Wbudowana funkcja inteligentnego korzystania z zewnętrznych narzędzi i API.
- Skalowane uczenie przez wzmacnianie (RL): Nowy framework stawia na generalizację zadań, co sprawia, że model lepiej radzi sobie z nietypowymi problemami, zamiast tylko „wykuwać” schematy na pamięć.
Nowy standard dla programistów i agentów AI
Alibaba Cloud wprowadziła również usprawnienia w infrastrukturze, wdrażając potok treningowy FP8 oraz asynchroniczny framework RL.
Wyjaśnijmy, że potok FP8 to technologia pozwalająca na trenowanie modeli przy użyciu mniejszej precyzji zapisu liczb, co drastycznie redukuje zapotrzebowanie na pamięć i przyspiesza obliczenia bez widocznej straty na jakości modelu.
A asynchroniczny framework RL (Reinforcement Learning) umożliwia modelowi naukę na błędach w sposób równoległy i bardziej stabilny. A to przekłada się na lepszą logikę i mniejszą liczbę błędów w odpowiedziach.
Jak najłatwiej zacząć korzystać z Qwen3.5?
Jeśli chcesz przetestować możliwości nowego modelu od Alibaby, masz kilka ścieżek:
- Najłatwiej zadać pytanie nowej AI bezpośrednio w oficjalnym interfejsie Qwen Chat. Alibaba tradycyjnie udostępnia swoje najnowsze osiągnięcia pod adresem chat.qwen.ai.
- Hugging Face: Jako model open-weight, Qwen3.5 jest dostępny na platformie Hugging Face. Możesz tam znaleźć wersje demo (Spaces), które pozwalają na czatowanie z modelem bezpośrednio w przeglądarce bez żadnej konfiguracji.
- ModelScope / Alibaba Cloud Studio: To oficjalne platformy Alibaby, gdzie najszybciej pojawiają się najbardziej dopracowane wersje modelu (w tym Qwen3.5-Plus) wraz z narzędziami dla deweloperów.
- Lokalnie (Ollama/LM Studio): Dzięki optymalizacji MoE i wsparciu dla kwantyzacji (np. wspomniane FP8), bardziej zaawansowani użytkownicy mogą uruchomić mniejsze warianty modelu na własnym sprzęcie przy użyciu darmowych aplikacji takich jak Ollama.
Foto: Alibaba.