Intel rilancia per i datacenter

Al Data-Centric Innovation Summit presentata la roadmap delle CPU Xeon SP, sempre più ottimizzate per un mondo che si basa sull'analisi dei dati

Autore: f.p.

In questi ultimi anni Intel ha vissuto una evoluzione che ha rispecchiato fedelmente quella dell'IT. L'azienda una volta sinonimo dell'informatica personale ha quasi completamente focalizzato la sua attenzione sui datacenter, privati o dei grandi hyperscaler, perché è qui che oggi si svolgono i processi di business delle imprese. E quindi anche la partita tra i vendor tecnologici, che devono dimostrare di recepire le richieste degli utenti e di sviluppare tecnologie per rendere i datacenter sempre più performanti.

Al Data-Centric Innovation Summit di inizio agosto, Intel ha puntato a fare proprio questo, presentando alcune novità e soprattutto la roadmap prevista per la famiglia di processori Xeon. Una anteprima necessaria di fronte alla sempre più decisa concorrenza di AMD in campo datacenter, ma Intel sa che deve considerare anche altri player quasi del tutto nuovi. Non a caso durante l'evento si è parlato molto di AI, un campo in forte crescita e in cui giocano aziende come Nvidia, che provengono dal mondo delle GPU e non dei processori tradizionali.

Meglio quindi, per Intel ma non solo, presentare sviluppi dal respiro particolarmente ampio e non solo processori. In gioco c'è un mercato "data centric" che Navin Shenoy, Executive Vice President e General Manager del Data Center Group di Intel, ha valutato in qualcosa come 200 miliardi di dollari nel 2022. Si tratta della "più grande opportunità nella storia dell'azienda", secondo Shenoy.
I processori Xeon restano comunque la componente chiave per mantenere salda la posizione di Intel nei datacenter, anche se l'azienda preferisce spostare l'attenzione dalle caratteristiche hardware pure delle CPU alla loro progressiva ottimizzazione per le applicazioni di AI. Ottimizzazione che deriva dalla sinergia tra le CPU e le altre nuove tecnologie di Intel, FPGA e storage in primo luogo.

Shenoy ha in questo senso sottolineato che nel 2017 il comparto delle applicazioni di AI su processori Xeon ha portato a Intel ricavi per oltre un miliardo di dollari, il che spiega anche perché la roadmap presentata per le CPU Xeon SP sia strettamente legata al supporto dell'intelligenza artificiale.

La prossima generazione di processori Xeon SP era già abbastanza nota. Si chiama in codice Cascade Lake e ha tra le sue peculiarità principali il supporto per le nuove memorie Optane DC Persistent Memory. La novità annunciata da Intel è l'introduzione di un insieme di funzioni denominato Intel DL Boost, in sintesi un acceleratore integrato per il deep learning che, secondo Intel, migliora di molto le prestazioni rispetto agli Xeon SP di prima generazione.
Dopo Cascade Lake, attesa per fine 2018, nel 2019 arriverà la generazione Cooper Lake, che introdurrà diversi miglioramenti prestazionali nella parte di I/O e, ancora, di supporto al deep learning. Poco si sa invece della generazione successiva Ice Lake, attesa per il 2020. Dovrebbe basarsi sulla stessa architettura di Cooper Lake ma essere la prima generazione di Xeon prodotta con microlitografia a 10 nanometri.

Ma i dati non bisogna solo elaborarli, in un datacenter. Bisogna anche trasferirli velocemente per supportare le applicazioni di AI e più in generale di analytics, come anche i servizi che devono operare con una latenza molto bassa (l'esempio tipico è legato alla guida autonoma, altro settore in cui Intel è attiva). Questo significa avere memorie veloci e connettività ottimizzata. Il tema dello storage ad alte prestazioni rimanda ancora alle memorie Optane basate su tecnologia 3D XPoint, mentre in campo networking il futuro va - secondo Intel - nettamente verso la fotonica integrata in silicio.

Nel frattempo però ecco arrivare a inizio 2019 la prima generazione (nome in codice Cascade Glacier) delle schede di connettività Ethernet "intelligenti" Intel SmartNIC. Sono interfacce programmabili grazie all'utilizzo delle FPGA Arria 10, il che permette di abilitare molte funzioni di gestione dinamica del trasferimento dei dati in funzione del workload da gestire. Ad esempio, le SmartNIC gestiscono la migrazione "live" delle macchine virtuali senza bisogno di driver particolari.

Visualizza la versione completa sul sito

Informativa
Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy. Chiudendo questo banner, acconsenti all’uso dei cookie.