NetApp, l'infrastruttura dati intelligente per l’AI

Nuove funzionalità studiate per aiutare a potenziare al massimo i progetti di intelligenza artificiale generativa, con un'infrastruttura semplificata, sicura e ad alte prestazioni in collaborazione con Nvidia

Autore: Redazione ImpresaCity

Da NetApp arrivano nuove funzionalità che aiuteranno a potenziare al massimo i progetti di intelligenza artificiale generativa e creeranno dei vantaggi competitivi per gli utenti. I clienti possono ora migliorare i propri progetti, combinando l'infrastruttura di dati intelligenti con l'elaborazione, il networking e il software ad alte prestazioni di NvidiaA per raggiungere più ambiziosi obiettivi basati sull'intelligenza artificiale.

Per sbloccare il potenziale della Gen AI, le aziende hanno bisogno di un accesso sicuro e ad alte prestazioni ai dati raccolti in ambienti ibridi e multicloud complessi. NetApp vanta una lunga e proficua esperienza nel supportare l'intelligenza artificiale con soluzioni che offrono semplicità di gestione ovunque si trovino i dati, fornendo prestazioni elevate senza richiedere nuovi silos infrastrutturali e di fornire dati affidabili e sicuri per gestire responsabilmente l'AI.



Per supportare le aziende che sfruttano la Gen AI per migliorare le operazioni e i propri processi decisionali strategici, NetApp ha aggiornato le funzionalità della propria infrastruttura dati intelligente. In particolare, NetApp AIPod è l'infrastruttura ottimizzata per l'AI per i progetti prioritari delle aziende: NetApp AIPod powered by Nvidia è ora una soluzione certificata Nvidia DGX BasePOD che utilizza la piattaforma DGX H100 di Nvidia collegata ai sistemi flash capacitivi NetApp AFF C-Series per raggiungere un nuovo livello di ottimizzazione dei costi e prestazioni, migliorando al contempo lo spazio su rack e la sostenibilità.

Inoltre, le nuove architetture di riferimento di FlexPod per AI estendono la soluzione di infrastruttura convergente leader di NetApp e Cisco. FlexPod per AI supporta ora la piattaforma software Nvidia AI Enterprise e può essere esteso per sfruttare RedHat OpenShift e SuSE Rancher. Sono state aggiunte nuove funzionalità di scaling e benchmarking per supportare applicazioni sempre più impegnative per le GPU. I clienti possono utilizzare queste nuove soluzioni FlexPod per ottenere un modello end-to-end per progettare, implementare e gestire in modo efficiente la piattaforma FlexPod per i casi d'uso di AI.

Non solo: NetApp è ora validata per i sistemi Nvidia OVX. Lo storage NetApp combinato con i sistemi di computing Nvidia OVX può aiutare a semplificare le implementazioni di AI nelle aziende, compresi i carichi di lavoro di fine-tuning e inferenza dei modelli. Basate sulle GPU Nvidia L40S, le soluzioni Nvidia OVX convalidate sono disponibili presso i principali vendor di server e includono il software Nvidia AI Enterprise insieme a Nvidia Quantum-2 InfiniBand, o Nvidia Spectrum-X Ethernet, e Nvidia BlueField-3 DPUs. NetApp è uno dei primi partner a completare questa nuova validazione dello storage per Nvidia OVX.

"L'intelligenza artificiale alimenta casi d'uso mission-critical in ogni settore, dalla sanità alla produzione fino ai servizi finanziari. NetApp AIPod certificato per Nvidia DGX BasePOD fornisce una potente architettura di riferimento che aiuta le aziende a eliminare la complessità della progettazione, ridurre i tempi di implementazione e semplificare l’operatività", commenta Tony Paikeday, Senior Director of AI Systems di Nvidia.

(Parte delle immagini generata con AI tramite l'app Microsoft Copilot)


Visualizza la versione completa sul sito

Informativa
Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy. Chiudendo questo banner, acconsenti all’uso dei cookie.