Intel: da "PC company" a "data company" per seguire la trasformazione digitale

I dati vanno gestiti e analizzati là dove sono generati e raccolti, il che richiederà una visione del computing sempre più trasversale. Ne abbiamo parlato con Maurizio Riva, country manager di Intel Italia.

Autore: Redazione ImpresaCity

Intel sintetizza la sua evoluzione di questi ultimi anni descrivendola come un passaggio dall'essere la "PC company" per antonomasia all'essere una "data company", intendendo con questo termine la volontà di posizionarsi là dove i dati vengono generati, raccolti e anche elaborati. La logica dell'evoluzione di Intel - spiega Maurizio Riva, Country Manager di Intel Italia - sta proprio nella percezione della "data flood", l'inondazione dei dati che richiederà tecnologie sempre più evolute per gestire le informazioni. Non a caso la strategia di Intel ruota ora intorno a quattro pilastri che sono strettamente collegati alla gestione di grandi moli di dati: 5G, machine learning, realtà virtuale/aumentata e veicoli autonomi.

"Questi sono mercati che cambieranno completamente la nostra economia e il modo di lavorare", spiega Riva, e che dal punto di vista delle architetture IT mettono in particolare evidenza tre ambiti: da un lato il cloud con i suoi datacenter, dall'altro la vasta gamma di possibili dispositivi in periferia. In mezzo ci sono tecnologie acceleranti che facilitano lo sviluppo in qualsiasi ambito: Optane per lo storage, le tecnologie FPGA assorbite con Altera, il 5G stesso.


Nel datacenter e nel cloud la novità principale di Intel è ovviamente l'introduzione dei processori di nuova generazione Xeon SP. Non solo per il prevedibile aumento di capacità elaborativa pura ma soprattutto, spiega Riva, perché "l'architettura è stata disegnata per quello che il mercato richiede oggi", quindi con in particolare una maggiore potenza per applicazioni di virtualizzazione, deep learning e machine learning. E anche la declinazione degli Xeon SP nelle linee da Bronze a Platinum non è un elemento di marketing ma una scelta che porta una maggiore flessibilità: nell'ambito della stessa architettura si possono adottare processori diversi pur mantenendo lo stesso socket.

Lato client le cose sono molto più variegate di quanto si pensi. Il declino del PC tradizionale non significa che un produttore di CPU debba puntare esclusivamente a processori poco "energivori" ma anche relativamente potenti come quelli pensati per il mobile computing. Anche lato client si sente la "data flood" e la si sentirà ancora di più, perché è alla periferia delle reti che si generano sempre più dati ed è qui che essi andranno elaborati.



È il tema dell'edge computing e, per dirla con Intel, dei "data-rich client". Che non si affronta con i PC tradizionali ma con lo sviluppo di dispositivi periferici in grado di gestire un gran numero di informazioni. I sistemi per applicazioni industriali, i gateway dell'IoT, anche i (di fatto) computer che gestiranno l'elaborazione e l'infotainment nei veicoli autonomi avranno bisogno di elevate capacità di elaborazione e quindi di processori veri e propri (non microcontroller). Di nuovo, il punto è offrire elasticità con componenti diversi (la Compute Card, i processori Core, anche gli Xeon...) che si adattino a soluzioni differenti.

Visualizza la versione completa sul sito

Informativa
Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy. Chiudendo questo banner, acconsenti all’uso dei cookie.