▾ G11 Media: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...

HPE, factory AI distribuite in una rete AI intelligente con Nvidia

AI Grid è la nuova soluzione ideale nei servizi di AI e nei casi d'uso che richiedono una connettività in tempo reale a bassa latenza

Tecnologie AI

Da HPE arriva AI Grid, una soluzione end-to-end basata sull'architettura di riferimento Nvidia per collegare in modo sicuro le AI factory e i cluster di inferenza distribuiti tra sedi locali e periferiche. HPE AI Grid, parte del portafoglio Nvidia AI Computing by HPE, consente ai service provider di implementare e gestire migliaia di siti di inferenza decentralizzati, trasformando le installazioni di AI in un unico sistema intelligente, grazie anche a prestazioni prevedibili e a bassissima latenza su larga scala per servizi di AI in tempo reale, provisioning zero-touch e sicurezza automatizzata con orchestrazione integrata.

Più in dettaglio, HPE AI Grid è conforme all'architettura di riferimento Nvidia AI Grid per fornire uno stack hardware e software unificato ai service provider, e si distingue per la capacità di HPE di offrire server e reti AI full-stack. Infatti, oltre a includere il routing multicloud telco di Juniper e l'ottica coerente per una connettività metropolitana e a lunga distanza prevedibile, sicurezza cloud-native e multi-tenant, firewall, automazione WAN e orchestrazione per garantire implementazioni zero-touch e operazioni di gestione del ciclo di vita, HPE AI Grid prevede anche i server edge ProLiant Compute e server rack con elaborazione accelerata Nvidia, incluse le GPU Nvidia RTX PRO 6000 Blackwell, nonché DPU Nvidia BlueField, switch Ethernet Spectrum-X, SuperNIC Connect-X e architetture di riferimento di AI per una rapida implementazione di modelli per erogare servizi di inferenza.

I casi d’uso per service provider – dalla personalizzazione nel settore retail e dalla manutenzione predittiva all’assistenza sanitaria edge e ai servizi di AI di livello carrier – richiedono una connettività prevedibile e a bassissima latenza. HPE AI Grid consente agli operatori di trasformare i siti esistenti dotati di alimentazione e connettività in reti AI RAN‑ready, rendendo possibili l’inferenza distribuita e nuovi servizi su larga scala.

 

Stiamo ridefinendo il modo in cui viene fornita l'AI spostando l'intelligenza dove si trovano i dati e gli utenti, rendendo la rete il tessuto affidabile e resiliente per le esperienze in tempo reale. HPE AI Grid con Nvidia offre ai service provider un modo sicuro e scalabile per gestire l'inferenza distribuita come un unico sistema, garantendo prestazioni prevedibili e a bassissima latenza in modo che i clienti possano innovare più rapidamente, ridurre i rischi e creare nuovi servizi”, commenta Rami Rahim, Executive Vice President, President and General Manager, Networking di HPE.

Un'AI Grid unifica i cluster di AI distribuiti geograficamente per collocare i carichi di lavoro di AI dove funzionano meglio, bilanciando prestazioni, costi e latenza tra le strutture di AI, i siti locali e l'edge. Insieme a HPE, stiamo dando vita a questa visione combinando l’elaborazione accelerata e il networking di Nvidia con il routing multicloud delle telco e l’infrastruttura edge di HPE, per creare un unico fabric intelligente per l’inferenza distribuita”, conclude Chris Penrose, Global Vice President, Telco di Nvidia.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato
Iscriviti alla nostra Newsletter Gratuita. Iscriviti
GoogleNews Rimani sempre aggiornato, seguici su Google News! Seguici
Abbonati alla rivista ImpresaCity Magazine e ricevi la tua copia.

Notizie correlate

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter

www.impresacity.it - 8.5.0 - 4.6.4