HPE, factory AI distribuite in una rete AI intelligente con Nvidia

AI Grid è la nuova soluzione ideale nei servizi di AI e nei casi d'uso che richiedono una connettività in tempo reale a bassa latenza

Autore: Redazione ImpresaCity

Da HPE arriva AI Grid, una soluzione end-to-end basata sull'architettura di riferimento Nvidia per collegare in modo sicuro le AI factory e i cluster di inferenza distribuiti tra sedi locali e periferiche. HPE AI Grid, parte del portafoglio Nvidia AI Computing by HPE, consente ai service provider di implementare e gestire migliaia di siti di inferenza decentralizzati, trasformando le installazioni di AI in un unico sistema intelligente, grazie anche a prestazioni prevedibili e a bassissima latenza su larga scala per servizi di AI in tempo reale, provisioning zero-touch e sicurezza automatizzata con orchestrazione integrata.

Più in dettaglio, HPE AI Grid è conforme all'architettura di riferimento Nvidia AI Grid per fornire uno stack hardware e software unificato ai service provider, e si distingue per la capacità di HPE di offrire server e reti AI full-stack. Infatti, oltre a includere il routing multicloud telco di Juniper e l'ottica coerente per una connettività metropolitana e a lunga distanza prevedibile, sicurezza cloud-native e multi-tenant, firewall, automazione WAN e orchestrazione per garantire implementazioni zero-touch e operazioni di gestione del ciclo di vita, HPE AI Grid prevede anche i server edge ProLiant Compute e server rack con elaborazione accelerata Nvidia, incluse le GPU Nvidia RTX PRO 6000 Blackwell, nonché DPU Nvidia BlueField, switch Ethernet Spectrum-X, SuperNIC Connect-X e architetture di riferimento di AI per una rapida implementazione di modelli per erogare servizi di inferenza.

I casi d’uso per service provider – dalla personalizzazione nel settore retail e dalla manutenzione predittiva all’assistenza sanitaria edge e ai servizi di AI di livello carrier – richiedono una connettività prevedibile e a bassissima latenza. HPE AI Grid consente agli operatori di trasformare i siti esistenti dotati di alimentazione e connettività in reti AI RAN‑ready, rendendo possibili l’inferenza distribuita e nuovi servizi su larga scala.

 

Stiamo ridefinendo il modo in cui viene fornita l'AI spostando l'intelligenza dove si trovano i dati e gli utenti, rendendo la rete il tessuto affidabile e resiliente per le esperienze in tempo reale. HPE AI Grid con Nvidia offre ai service provider un modo sicuro e scalabile per gestire l'inferenza distribuita come un unico sistema, garantendo prestazioni prevedibili e a bassissima latenza in modo che i clienti possano innovare più rapidamente, ridurre i rischi e creare nuovi servizi”, commenta Rami Rahim, Executive Vice President, President and General Manager, Networking di HPE.

Un'AI Grid unifica i cluster di AI distribuiti geograficamente per collocare i carichi di lavoro di AI dove funzionano meglio, bilanciando prestazioni, costi e latenza tra le strutture di AI, i siti locali e l'edge. Insieme a HPE, stiamo dando vita a questa visione combinando l’elaborazione accelerata e il networking di Nvidia con il routing multicloud delle telco e l’infrastruttura edge di HPE, per creare un unico fabric intelligente per l’inferenza distribuita”, conclude Chris Penrose, Global Vice President, Telco di Nvidia.


Visualizza la versione completa sul sito

Informativa
Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy. Chiudendo questo banner, acconsenti all’uso dei cookie.