Nvidia właśnie rozpoczęła sprzedaż DGX Spark – miniaturowego komputera, który oferuje wydajność na poziomie 1 petaFLOP. To mniej więcej tyle, ile jeszcze kilka lat temu oferowały tylko superkomputery w laboratoriach badawczych. Teraz ten potencjał mieści się w niewielkim pudełku na biurku.
DGX Spark to prawdziwa perełka inżynierii. Komputer powstał z myślą o twórcach i programistach, którzy chcą uruchamiać i trenować modele sztucznej inteligencji lokalnie. Bez potrzeby korzystania z chmury. W domu, w małej firmie itd.
W środku znalazł się układ Nvidia Grace Blackwell GB10 – połączenie 20-rdzeniowego procesora Arm Grace z potężnym GPU Blackwell.
Całość korzysta ze 128 GB pamięci LPDDR5X, współdzielonej przez CPU i GPU, co oznacza, że dane nie muszą być przenoszone między różnymi rodzajami pamięci. Efekt? Minimalne opóźnienia i maksymalna efektywność – kluczowe przy pracy z dużymi modelami językowymi czy systemami rozpoznawania obrazu.
1 petaFLOP mocy – czyli co?
W materiałach Nvidii często przewija się liczba „1 petaFLOP”. FLOP to jednostka miary wydajności obliczeniowej – oznacza liczbę operacji zmiennoprzecinkowych na sekundę. PetaFLOP to biliard takich operacji. DGX Spark osiąga tę moc przy pracy z modelami zoptymalizowanymi do formatu FP4, czyli danych skwantyzowanych do 4-bitowej precyzji.
Dla deweloperów AI to oznacza możliwość uruchamiania modeli o nawet 200 miliardach parametrów – lokalnie, bez serwerowni.
Dla twórców AI, nie graczy
DGX Spark działa na systemie DGX OS (specjalnej wersji Ubuntu) i w pełni wspiera platformę CUDA, czyli ekosystem oprogramowania Nvidii wykorzystywany w projektach AI na całym świecie. To sprzęt stworzony z myślą o badaczach, inżynierach i twórcach sztucznej inteligencji, a nie o graczach.
Choć teoretycznie można na nim uruchomić gry, jego architektura Arm i system Linux jasno pokazują, że to komputer klasy profesjonalnej – narzędzie do pracy z modelami językowymi, analizą danych czy symulacjami.
Połączenie dwóch DGX Sparków = domowe centrum AI
Jeśli jedna jednostka to za mało, Nvidia umożliwia połączenie dwóch DGX Sparków przez wbudowany interfejs ConnectX 7, co pozwala na podwojenie pamięci i mocy obliczeniowej.
W praktyce oznacza to, że można zbudować mały domowy lub firmowy klaster AI, zdolny do obsługi modeli, które jeszcze niedawno wymagały infrastruktury w chmurze.
Z kim współpracuje Nvidia
Gigant z Santa Clara już zapewnił sobie szerokie wsparcie programowe. Z DGX Spark współpracują takie narzędzia jak Anaconda, ComfyUI, Docker, Hugging Face, JetBrains, Meta, Microsoft, Google, Ollama czy Roboflow.
To oznacza, że niezależnie od tego, czy pracujesz nad chatbotem, generatywną grafiką, czy aplikacją analizującą dane, DGX Spark będzie gotowy do działania od razu po uruchomieniu.
Konkurencja nie śpi
Na rynku widać też rywali. Wśród nich AMD Ryzen AI Max+ (Strix Halo), który oferuje podobne możliwości w zakresie przetwarzania lokalnego AI. Jednak brak pełnego wsparcia dla platformy CUDA sprawia, że rozwiązanie Nvidii jest znacznie bardziej przyjazne dla twórców oprogramowania i deweloperów.
Cena? Wyższa niż planowano, ale to mały superkomputer
DGX Spark pierwotnie miał zadebiutować w maju, ale premiera została przesunięta na październik. W tym czasie cena wzrosła o 1000 dolarów – do 4000 USD. To sporo jak za mini-PC, ale niewiele, jeśli porównamy jego możliwości z tym, co jeszcze niedawno kosztowało setki tysięcy dolarów.
Nvidia DGX Spark – mały komputer, wielka zmiana
DGX Spark to zapowiedź nowej epoki. Epoki, w której sztuczna inteligencja przestaje być domeną centrów danych, a staje się narzędziem dostępnym na biurku każdego inżyniera. Nvidia nie tylko pokazuje, jak potężna może być lokalna moc obliczeniowa, ale też jak blisko jesteśmy momentu, gdy AI stanie się tak powszechne, jak dziś smartfony.
Foto: Nvidia.