AI Grid è la nuova soluzione ideale nei servizi di AI e nei casi d'uso che richiedono una connettività in tempo reale a bassa latenza
Da HPE arriva AI Grid, una soluzione end-to-end basata sull'architettura di riferimento Nvidia per collegare in modo sicuro le AI factory e i cluster di inferenza distribuiti tra sedi locali e periferiche. HPE AI Grid, parte del portafoglio Nvidia AI Computing by HPE, consente ai service provider di implementare e gestire migliaia di siti di inferenza decentralizzati, trasformando le installazioni di AI in un unico sistema intelligente, grazie anche a prestazioni prevedibili e a bassissima latenza su larga scala per servizi di AI in tempo reale, provisioning zero-touch e sicurezza automatizzata con orchestrazione integrata.
Più in dettaglio, HPE AI Grid è conforme all'architettura di riferimento Nvidia AI Grid per fornire uno stack hardware e software unificato ai service provider, e si distingue per la capacità di HPE di offrire server e reti AI full-stack. Infatti, oltre a includere il routing multicloud telco di Juniper e l'ottica coerente per una connettività metropolitana e a lunga distanza prevedibile, sicurezza cloud-native e multi-tenant, firewall, automazione WAN e orchestrazione per garantire implementazioni zero-touch e operazioni di gestione del ciclo di vita, HPE AI Grid prevede anche i server edge ProLiant Compute e server rack con elaborazione accelerata Nvidia, incluse le GPU Nvidia RTX PRO 6000 Blackwell, nonché DPU Nvidia BlueField, switch Ethernet Spectrum-X, SuperNIC Connect-X e architetture di riferimento di AI per una rapida implementazione di modelli per erogare servizi di inferenza.
I casi d’uso per service provider – dalla personalizzazione nel settore retail e dalla manutenzione predittiva all’assistenza sanitaria edge e ai servizi di AI di livello carrier – richiedono una connettività prevedibile e a bassissima latenza. HPE AI Grid consente agli operatori di trasformare i siti esistenti dotati di alimentazione e connettività in reti AI RAN‑ready, rendendo possibili l’inferenza distribuita e nuovi servizi su larga scala.

“Stiamo ridefinendo il modo in cui viene fornita l'AI spostando l'intelligenza dove si trovano i dati e gli utenti, rendendo la rete il tessuto affidabile e resiliente per le esperienze in tempo reale. HPE AI Grid con Nvidia offre ai service provider un modo sicuro e scalabile per gestire l'inferenza distribuita come un unico sistema, garantendo prestazioni prevedibili e a bassissima latenza in modo che i clienti possano innovare più rapidamente, ridurre i rischi e creare nuovi servizi”, commenta Rami Rahim, Executive Vice President, President and General Manager, Networking di HPE.
“Un'AI Grid unifica i cluster di AI distribuiti geograficamente per collocare i carichi di lavoro di AI dove funzionano meglio, bilanciando prestazioni, costi e latenza tra le strutture di AI, i siti locali e l'edge. Insieme a HPE, stiamo dando vita a questa visione combinando l’elaborazione accelerata e il networking di Nvidia con il routing multicloud delle telco e l’infrastruttura edge di HPE, per creare un unico fabric intelligente per l’inferenza distribuita”, conclude Chris Penrose, Global Vice President, Telco di Nvidia.