NVIDIA aumenta i prezzi del 33% con il rebrand da Project Digits a DGX Spark

NVIDIA ha recentemente svelato DGX Spark, un supercomputer AI dalle dimensioni sorprendentemente compatte, paragonabili a quelle di un Mac Mini, ma con prestazioni che fino a poco tempo fa erano appannaggio esclusivo dei grandi data center. Originariamente conosciuto come “Project Digits” e annunciato con un prezzo indicativo di 3.000 dollari, questo dispositivo ha subito un significativo aumento di prezzo, arrivando ora a costare 3.999 dollari secondo la pagina di prenotazione ufficiale dell’azienda.

Il cuore tecnologico di un gigante in miniatura

Al centro di DGX Spark troviamo il potente GB10 Grace Blackwell Superchip, un’architettura che integra una GPU Blackwell dotata di Tensor Cores di quinta generazione. La configurazione hardware include supporto per il formato FP4 e la tecnologia NVLink-C2C, che permette una condivisione della memoria ad alta larghezza di banda tra la GPU e la CPU Grace, elemento cruciale per le prestazioni di elaborazione AI.

Le capacità di calcolo raggiungono i 1.000 trilioni di operazioni al secondo (TOPS), consentendo l’utilizzo di modelli con parametri fino a 200 miliardi. Il sistema è completato da 128GB di memoria unificata LPDDR5x e fino a 4TB di storage SSD NVMe, il tutto racchiuso in un formato sorprendentemente compatto.

Democratizzazione dell’AI per professionisti e ricercatori

L’obiettivo dichiarato di NVIDIA è portare capacità di sviluppo AI avanzate direttamente sulla scrivania degli utenti. DGX Spark è pensato per sviluppatori, ricercatori, data scientist e studenti che necessitano di lavorare con modelli AI complessi localmente, senza dipendere esclusivamente da infrastrutture esterne. Le operazioni di fine-tuning, inferenza e prototipazione diventano così accessibili senza la necessità di risorse cloud o server dedicati.

Jensen Huang, fondatore e CEO di NVIDIA, ha sottolineato come l’AI abbia trasformato ogni livello dello stack informatico, rendendo naturale l’emergere di una nuova classe di computer progettati specificamente per sviluppatori e applicazioni native per l’intelligenza artificiale. “Con questi nuovi computer AI personali DGX, l’intelligenza artificiale può estendersi dai servizi cloud alle applicazioni desktop ed edge”, ha dichiarato Huang.

L’ecosistema dei partner: alternative basate su GB10

Parallelamente al lancio di DGX Spark, alcuni partner OEM di NVIDIA stanno introducendo i propri sistemi desktop AI basati sulla stessa architettura GB10, ampliando le opzioni disponibili sul mercato. Dell ha presentato il Pro Max con GB10, che si integra nel più ampio portafoglio di workstation AI dell’azienda, collegandosi con Dell AI Factory e offrendo agli sviluppatori un percorso semplificato dallo sviluppo alla distribuzione.

HP contribuisce all’ecosistema con lo ZGX Nano AI Station, mentre Asus ha introdotto l’Ascent GX10. Quest’ultimo, secondo la pagina di preordine di NVIDIA, dovrebbe costare 2.999 dollari e includere 1TB di storage, posizionandosi come alternativa più economica rispetto al DGX Spark.

Un nuovo paradigma di computazione AI personale

Il lancio di questi dispositivi segna un punto di svolta significativo nella democratizzazione dell’intelligenza artificiale. Fino a poco tempo fa, l’elaborazione di modelli AI complessi richiedeva l’accesso a costose infrastrutture cloud o data center dedicati. Con l’arrivo di questi supercomputer in miniatura, le barriere all’ingresso per lo sviluppo AI si abbassano notevolmente.

La tendenza alla miniaturizzazione e all’incremento delle prestazioni rappresenta un cambiamento paradigmatico nel modo in cui l’AI verrà sviluppata e implementata nei prossimi anni. I professionisti potranno eseguire workflow AI avanzati direttamente dalle loro scrivanie, accelerando i cicli di sviluppo e sperimentazione in modo significativo.

Nonostante il prezzo non sia alla portata dell’utente medio, questi dispositivi potrebbero rapidamente diventare strumenti essenziali per aziende, università e centri di ricerca che necessitano di potenza di calcolo AI localizzata senza investire in costose infrastrutture serverizzate.