Edge computing: cos'è oggi e perché sta cambiando anche l'approccio al cloud

Tra edge computing e cloud non c'è contrapposizione ma una sinergia potenziale. Che i provider e le aziende utenti devono tenere sempre più in mente.

Autore: f.p.

Oggi è una delle "buzzword" più di tendenza, ma il termine edge computing non è di invenzione recente. Sono anni che chi si occupa di comunicazioni vede le infrastrutture IT divise tra una parte centrale (il core) e una periferia che ha caratteristiche inevitabilmente diverse. Molte aziende del networking hanno ad esempio sempre fatto una distinzione tra i prodotti di core e i dispositivi di rete per le sedi decentrate, che in parte devono svolgere in locale funzioni che sarebbe più complesso demandare solo al centro della rete.

L'avvento del modello Internet of Things e del cloud computing ha portato una nuova concezione del mondo edge computing, concentrando l'attenzione sulla necessità di delocalizzare alla periferia delle reti una parte anche cospicua dell'elaborazione dei dati. Inizialmente le teorizzazioni dell'IoT puntavano a una elaborazione fortemente centralizzata dei dati generati e raccolti in periferia, ma ci si è resi subito conto che questo modello non è adatto per molti scenari dell'IoT.

Oggi un po' tutti i vendor sono convinti che la filosofia edge computing vada incontro a molte esigenze delle imprese, in particolare di quelle che non hanno approcciato con convinzione il cloud proprio perché spaventate dalla centralizzazione dei loro dati. Anche le normative più recenti hanno dato maggiore importanza al controllo che le imprese devono mantenere sulla localizzazione delle informazioni, e l'edge computing in questo senso aiuta.


In sintesi, una architettura di edge computing oggi viene genericamente definita come una infrastruttura in cui esiste sempre un centro nevralgico per la conservazione e l'elaborazione delle informazioni, ma affiancato da una moltitudine di nodi periferici - piccoli a piacere, come si usa dire - che conservano ed elaborano i dati generati localmente. Alcuni di questi ultimi possono comunque essere trasferiti al centro, come lo possono essere anche solo le elaborazioni eseguite in locale.

A che serve l'approccio edge computing

Il modello edge computing risponde a una constatazione semplice: in molti casi è impossibile o poco conveniente raccogliere dati in locale, trasferirli al centro della rete e aspettare di ricevere eventuali istruzioni che derivano dalla loro elaborazione centralizzata. Ci sono essenzialmente tre ragioni per cui questo accade.

La banda di comunicazione - L'elaborazione centralizzata è una gran cosa se tra centro e nodo periferico c'è una ampia autostrada su cui corrono i dati. Ma spesso questa autostrada è in realtà una strada stretta. Oppure non esiste del tutto, in alcuni casi. Ci sono cioè scenari in cui la connettività centro-periferia è poco performante, come altri in cui non è garantita a priori oppure è costosa.

Non bisogna pensare a chissà quali strani profili d'uso delle reti. Ci sono anche in Italia aree in cui la copertura delle reti fisse o mobili è minima, e in cui quindi diventa difficile pensare ad applicazioni che richiedano uno scambio di dati massiccio verso un centro di elaborazione o una piattaforma cloud. In questo casi avere una soluzione di edge computing, che svolge buona parte delle elaborazioni in locale, è un vantaggio.


La latenza - Le comunicazioni non sono fatte solo di banda pura ma anche di latenza. Da questo punto di vista è oggettivamente impensabile gestire via cloud un qualunque sistema in cui la velocità di reazione agli eventi sia un fattore cruciale. È anche per questo che di edge computing si parla molto spesso in rapporto alle applicazioni industriali: se si verifica una condizione critica in un impianto a Singapore non si può aspettare che la risposta arrivi da un data center di Monaco.

L'idea di rendere "smart" un po' tutto, dalle smart factory alle smart car, si porta dietro appunto per questo una buona dose di edge computing. Se non proprio tutta, l'intelligenza necessaria a gestire i nuovi ambienti digitali e ciberfisici deve essere in locale.

La privacy delle informazioni - Il mantra dell'IoT e degli analytics è che nei prossimi anni saranno generate enormi quantità di dati da parte di miliardi di oggetti. Questi dati si trasformano in informazioni utili per il business, di conseguenza hanno un valore e altrettanto di conseguenza vanno tutelati. Un modo di tutelarli è non trasferirli su reti distribuite in tutto il globo ma mantenerli dove sono stati prodotti, analizzandoli e proteggendoli in locale. Anche questo è edge computing.

Con l'aumentare delle minacce in rete, del numero dei sistemi ciberfisici e del peso della compliance normativa, la decentralizzazione in stile edge computing appare a molte imprese come un modo per sentirsi più sicure. Anche se poi bisogna comunque proteggere le infrastrutture decentrate, cosa che potrebbe essere più complessa rispetto alla protezione di un data center.

Come si "fa" edge computing

Edge computing è un modello architetturale, quindi non una lista della spesa di componenti predefiniti da assemblare. Un'azienda deve definire che tipo di dati raccoglie nei suoi ambienti periferici, quali componenti mette in rete, che analisi vuole eseguire in locale sui dati stessi, quali vuole conservare all'edge della rete (e come), quali vuole trasferire verso il suo data center o verso il cloud. Tutto questo delinea il "suo" edge computing, che può essere profondamente diverso da quello di un'altra impresa.

Edge computing può essere anche solo una rete di sensori che inviano dati a un piccolo gateway industriale, che si limita ad aggregarli e filtrarli. In fondo, sino a tre-quattro anni fa questo era lo scenario più classicamente associato alla definizione di edge computing. All'altro capo di un ipotetco spettro applicativo, edge computing è usare un vero e proprio mini-datacenter collocato in periferia che raccoglie i dati - ad esempio di un impianto produttivo - e vi applica tutta una serie di funzioni di storage, elaborazione ed analisi analoghe a quelle del cloud.


In mezzo a questi due estremi c'è di tutto. E di conseguenza un ambiente di edge computing può essere composto di un gran numero di dispositivi più o meno complessi. I componenti più "informatici" (storage e computing) oggi prendono la forma di server progettati anche per ambienti poco ospitali, come quelli industriali. Si va da macchine compatte e relativamente poco potenti (i gateway) a versioni rugged di server tradizionali, sino a unità iperconvergenti con performance elevate.

Da edge computing a edge cloud

L'affermarsi del modello edge computing sta cambiando l'approccio di molte imprese al cloud e anche l'offerta di diversi cloud provider. Inizialmente edge e cloud sono stati presentati come alternativi, oggi questa contrapposizione è scomparsa e l'opinione comune è che siano complementari. Meglio ancora, sinergici.

A ben pensarci, questa sinergia è logica. Il cloud computing ha comunque caratteristiche che un ambiente di edge computing non può avere, come la disponibilità virtualmente illimitata di potenza elaborativa e spazio di storage. L'edge punta piuttosto sugli aspetti di privacy, banda e latenza a cui accennavamo prima. Si può avere tutto facendo lavorare insieme edge e cloud.

Ciò che sta cambiando per imprese utenti e cloud provider è che questa sinergia va alimentata e sfruttata, senza gestire edge computing e cloud come entità separate. Questo impatta soprattutto lato software: le piattaforme cloud devono in qualche modo ampliare le loro funzioni verso la periferia delle reti, comprendendo i nodi edge con tutte le loro peculiarità e sfruttandoli anzi come estensioni.


Un ambito dove questa complementarietà si comprende bene è la diffusione in periferia degli algoritmi di intelligenza artificiale. Il cloud centralizzato è di norma il luogo dove gli algoritmi possono essere addestrati meglio, grazie alla grande potenza di calcolo e alla concentrazione di enormi quantità di dati. Gli algoritmi di machine learning già addestrati vanno poi applicati in periferia, magari anche su dispositivi di edge computing poco potenti ma dotati di processori appositi.

In diversi casi vale però l'approccio opposto. Se gli algoritmi addestrati al centro possono essere troppo generici, meglio avere nodi di edge computing in grado di ricavare dati in locale e di addestrare direttamente su questi nuovi algoritmi specifici, che si applicheranno solo in quel particolare ambiente.

Ovviamente questa complementarietà tra edge computing e centralizzazione si gestisce meglio quando le componenti alla base sono le stesse. Per questo le soluzioni "periferiche" stanno sempre più assomigliando a quelle centralizzate, solo in scala ridotta. Stanno cioè realizzando ciò che viene anche chiamato "edge cloud", proprio per sottolineare una comunanza di tecnologie: container, applicazioni distribuite a microservizi, orchestration.

Questa evoluzione in corso non è banale e richiede uno sforzo preciso da parte dei cloud provider. Ma anche delle imprese, che nella scelta degli ambienti cloud devono valutare anche il tasso di integrazione che questi possono avere verso il mondo edge computing.

Visualizza la versione completa sul sito

Informativa
Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy. Chiudendo questo banner, acconsenti all’uso dei cookie.