Logo ImpresaCity.it

Nvidia: machine learning dal piccolo al grande

Un'alleanza con ARM per portare l'AI nei dispositivi IoT, ma anche un nuovo supercomputer per il deep learning

Redazione Impresacity

La visione a lungo termine delle aziende che operano nel campo dell'intelligenza artificiale e del machine learning è che le funzioni collegate a queste tecnologie saranno pervasive. L'AI sarà insomma ovunque, su vari tipi di sistemi e dispositivi, al centro come alla periferia delle reti. Questo significa che non esisterà "il" machine learning ma varie forme di AI tramite cui gli algoritmi di apprendimento automatico saranno addestrati ed eseguiti là dove è più opportuno.

Servono quindi approcci diversi e complementari fra loro, il che porta i vendor di settore a giocare su più tavoli. Nvidia di recente lo ha fatto muovendosi in due direzioni quasi opposte: un inusuale accordo per l'AI applicata all'IoT e lo sviluppo in casa di un nuova versione del suo supercomputer per il deep learning.

L'accordo è stato raggiunto con ARM e vede la combinazione dell'architettura NVDLA di Nvidia con il Project Trillium di ARM stessa. È un accordo abbastanza inusuale per una società come Nvidia, abituata a fare quasi tutto da sola. In sostanza la partnership permette di integrare nei dispositivi sviluppati con la piattaforma Project Trillium di ARM anche l'architettura Nvidia Deep Learning Accelerator (NVDLA, appunto) per il cosiddetto inferencing, ossia l'esecuzione in locale di algoritmi di machine learning addestrati altrove.

machine learning result great applications business

Come altri approcci all'AI nell'IoT, l'idea è quella di rendere "intelligenti" anche dispositivi periferici con capacità elaborativa relativamente limitata. Questi possono elaborare i dati che raccolgono direttamente con funzioni di AI, ma usando algoritmi addestrati (e periodicamente ottimizzati) altrove. Dato che Project Trillium è una piattaforma e che NVDLA è open source, i vantaggi della partnership Nvidia-ARM dovrebbero riflettersi su tutto l'ecosistema che ruoterà intorno a Trillium.

Ma la parte più cospicua del machine learning - la definizione e l'addestramento degli algoritmi - richiederà sempre una elevata potenza di calcolo e si svolgerà prevalentemente nei datacenter. Qui Nvidia mette in campo un nuovo sistema progettato in modo specifico per il deep learning: il server DGX-2. Non si tratta di una novità assoluta perché è una evoluzione del precedente DGX-1, che affianca senza sostituirlo.

nvidia dgx 2
Il nuovo server DGX-2 segna un salto tecnico importante perché secondo Nvidia è il primo "single server" a superare i due Petaflop di potenza elaborativa. Per questo, sempre secondo Nvidia, nello sviluppo di algoritmi di deep learning DGX-2 equivale a 300 server tradizionali che occuperebbero 15 rack. Rispetto alla versione DGX-1 con GPU Volta, presentata solo lo scorso settembre, il miglioramento prestazionale arriva anche a dieci volte per alcune funzioni di AI.

Questo miglioramento non deriva da drastiche riprogettazioni dell'architettura ma più semplicemente dall'evoluzione tecnologica di casa Nvidia. DGX-2 integra 16 GPU Tesla V100 di ultima generazione, che hanno il doppio della memoria (32 GB) rispetto alla versione precedente. In confronto DGX-1 usa otto Tesla V100. Inoltre DGX-2 fa debuttare il sistema di interconnessione NVSwitch, che permette alle sue sedici GPU di condividere uno spazio di memoria unificato e quindi grandi quantità di dati su cui far agire gli algoritmi di deep learning.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di ImpresaCity.it iscriviti alla nostra Newsletter gratuita.
Pubblicato il: 05/04/2018

Speciali

speciali

La sicurezza informatica al servizio della digital transformation

speciali

Check Point Experience, il futuro della cybersecurity è servito