Rivoluzione Nvidia, ecco il nuovo processore ibrido per l’IA

Nvidia ha annunciato due nuovi prodotti per data center: il potente modulo GPU GB200 NVL4 con quattro GPU B200 e due CPU Grace, e la GPU H200 NVL PCIe per data center raffreddati ad aria.

Il GB200 Grace Blackwell NVL4 Superchip è una versione potenziata del modulo dual-GPU standard, dotato di ben quattro interconnesse tramite NVLink e due CPU ARM Grace. Questo sistema, pensato per carichi di lavoro HPC e AI ibridi, offre 1,3 TB di memoria coerente. Secondo Nvidia, ha prestazioni fino a 2,2 volte superiori nelle simulazioni, 1,8 volte nel training e 1,8 volte nell’inferenza rispetto al predecessore GH200 NVL4.

L’H200 NVL è invece una dual-slot raffreddata ad aria con connettività PCIe 5.0. È ottimizzata per soluzioni rack-mount con un design a flusso d’aria da destra a sinistra. Offre prestazioni leggermente inferiori all’H200 SXM, ma significativamente superiori all’H100 NVL che va a sostituire: 30 TFLOPS in FP64 e 60 TFLOPS in FP32; fino a 3.341 TFLOPS in INT8; 1,5 volte la capacità di memoria e 1,2 volte la larghezza di banda dell’H100 NVL; supporto NVLink fino a 900 GB/s per collegare fino a 4 GPU; ottimizzata per rack raffreddati ad aria fino a 20kW

Nvidia sottolinea come circa il 70% dei rack enterprise utilizzi raffreddamento ad aria e consumi fino a 20kW, rendendo l’H200 NVL ideale per aggiornare l’hardware esistente senza sostituire l’intera infrastruttura. Questo approccio consente di ridurre costi e sprechi nell’upgrade dei data center.

Entrambi i nuovi prodotti saranno disponibili nella seconda metà del 2024 attraverso i principali produttori di server come Dell, HPE, Lenovo, Supermicro e altri. L’H200 NVL in particolare rappresenta una soluzione interessante per data center che necessitano di maggiore potenza di calcolo ma non possono passare a sistemi di raffreddamento a liquido più costosi e complessi.