IT 4.0 ed edge computing: è sempre questione di dati

Negli scenari di edge computing i dati influenzano sempre più il resto dell'IT. In primo luogo, le tecnologie che servono a raccoglierli, memorizzarli e analizzarli.

Autore: Redazione ImpresaCity

Abbiamo familiarizzato velocemente con il concetto di Industry 4.0: una Quarta Rivoluzione Industriale, la prima digitale dopo quelle classiche. Una rivoluzione tecnologica che ha fatto evolvere anche i modelli IT, perché il concetto di Industry 4.0 si basa tra l’altro su una marcata decentralizzazione delle risorse IT là dove servono davvero. È l’approccio dell’edge computing, che possiamo anche definire IT 4.0. Una “quarta IT” che viene dopo altre tre fasi storiche: la centralizzazione dei mainframe, la decentralizzazione del client/server, la (apparente) ri-centralizzazione del cloud.

Lo scenario, sottolinea però Seagate, è ben più articolato di questo. Oggi non serve tanto concentrarsi su dove sia la capacità di calcolo, le risorse di computing. L'elemento fondamentale sono i dati, le informazioni: viviamo in una vera e propria "data economy". E se l'elemento più importante sono i dati, tutto il resto deve seguirli. Dal punto di vista dei prodotti come delle strategie IT. Esiste cioè una "data gravity". I dati hanno una loro gravità e "attirano" il resto dell'IT. Comprese le tecnologie che servono a raccoglierli, memorizzarli, analizzarli.

Attenzione quindi a non concentrarsi troppo sulla contrapposizione tra centro e periferia delle infrastrutture IT. Contrapposizione che non ha più molto senso. Nell’IT 4.0 non tutto si può fare al centro - che oggi è il cloud - perché questo ha grande potenza di calcolo ma è troppo lontano da dove i dati "vivono". Ma nemmeno tutto si può fare all'edge, perché - almeno al momento - qui computing e storage sono inevitabilmente limitati.
Per supportare l'IT 4.0 e la data economy serve sempre più una estrema varietà di tecnologie di computing e di storage, mette in evidenza Seagate. Ci sarà bisogno di soluzioni progettate per i molti possibili ambiti applicativi. Connessi in rete o scollegati da essa. Presidiati o senza personale umano. In condizioni operative estreme o perfettamente "normali". Integrati in un piccolo device IoT o in una grande fabbrica. Per applicazioni di manufacturing, retail, medicina, intrattenimento, Smart City, Smart Home... praticamente per tutti gli ambiti possibili.

IT 4.0: storage in primo piano

Da un punto di vista architetturale vedremo il proliferare di molti diversi ambienti di raccolta ed elaborazione dei dati. I grandi data center centralizzati degli hyperscaler certamente non scompariranno. Ma saranno affiancati da una moltitudine di edge data center più piccoli, che possono occupare un edificio, una stanza, un singolo rack o anche pochi decimetri cubi. Saranno posizionati là dove vengono prodotte le informazioni e offriranno servizi simili a quelli del cloud centralizzato. Senza però i problemi che i collegamenti tra questo e un device periferico pongono in quanto a banda e latenza delle connessioni.
Il report che Seagate ha realizzato per descrivere le caratteristiche e le prospettive dei nuovi modelli di gestione delle informazioni in ambienti IT sempre più distribuiti
Lo sviluppo di ambienti IT anche molto diversi fra loro si riflette sui sistemi di storage. Prima ancora che sulla componente di computing e sulla parte applicativa legata al software. In una data economy che sempre più si basa sulla elaborazione rapida e sicura dei dati, l'attenzione si focalizza inevitabilmente sull'hardware che questi dati li conserva, li tutela e li deve rendere disponibili in maniera ottimale. Anche in questo ambito stiamo assistendo a diverse evoluzioni tecnologiche, ma Seagate sottolinea l’importanza che tali evoluzioni si muovano all’interno di una visione trasversale e mirata dello storage “applicato” all’IT 4.0.

In sostanza, è vero che molte evoluzioni tecnologiche sono adattabili a tutti gli scenari dell’IT 4.0 - ad esempio la diffusione dei sistemi all-flash incrementa in ogni caso la velocità nell’accesso ai dati - ma lo è anche che queste stesse evoluzioni vanno declinate in modi diversi per ambienti differenti. Un classico storage array va bene in un data center, ad esempio, ma non è detto che sia adatto al micro data center di una fabbrica. E certamente non a un veicolo autonomo o a un dispositivo IoT.
Un esempio di questa necessità di guardare alle soluzioni di storage anche in maniera innovativa è rappresentato dalla linea Lyve Drive™ di Seagate. È stata progettata non pensando a specifici ambiti di conservazione e gestione dei dati ma partendo dall’idea più generale che esiste una “datasfera”, un flusso continuo di dati tra centro e periferia. Per questo Seagate ha progettato una linea di storage completamente modulare. Che parte da unità collegabili ai singoli device periferici per arrivare ad array da data center. Con la particolarità che il componente di base è sempre il medesimo: una unità di flash storage che può essere “impacchettata” in molti modi: sistemi singoli, array mobili di piccole dimensioni, flash array per rack.

Una nuova visione dello storage

Nell’IT 4.0 i sistemi di memorizzazione e gestione dei richiedono una visione dello storage molto articolata. Per questo, sottolinea Seagate, i parametri su cui i vendor di storage si sono tradizionalmente confrontati - come le prestazioni in I/O e il costo per gigabyte - non bastano più. Nella valutazione di un produttore tecnologico contano anche l'ampiezza dell'offerta, la modularità e integrabilità delle soluzioni, la loro adattabilità a vari scenari di edge computing, la presenza di un ecosistema di partner che sappia "confezionare" i prodotti in soluzioni verticali mirate.

Conta soprattutto che le tecnologie storage siano applicate in funzione di quanto supportano quelli che oggi sono i requisiti chiave nella gestione dei dati: orchestrazione, automazione, AI, affidabilità. Orchestrazione, perché i dati necessari a una applicazione potrebbero essere ovunque tra centro e periferia di una IT 4.0. Automazione, perché una IT distribuita non si può gestire manualmente. AI, perché dare significato ad enormi moli di dati è impossibile senza machine learning. Affidabilità, perché le informazioni vanno conservate in sistemi che possano operare in qualsiasi condizione e con le performance necessarie.

Visualizza la versione completa sul sito

Informativa
Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy. Chiudendo questo banner, acconsenti all’uso dei cookie.