▾ G11 Media: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...

Oltre il cloud: dove vanno le nuove strategie infrastrutturali

Una riflessione sul perché oggi, nell’era dell’intelligenza artificiale, il futuro dell'IT richiede sempre più soluzioni su misura

L'opinione

Per anni, la strategia IT è stata concepita come una scelta semplice: passare al cloud o restare on-premise. Il cloud-first è diventato così l’approccio predefinito, senza che fosse mai messo in discussione. Oggi, questo modo di pensare sta iniziando a sgretolarsi.

L'aumento dei costi del cloud, disservizi di ampia portata, le limitazioni delle prestazioni e la crescente dipendenza dai dati in tempo reale hanno costretto i responsabili IT ad adottare un approccio più articolato. La realtà è che le decisioni relative alle infrastrutture moderne non sono più binarie. Infatti, il futuro dell’IT non consiste più nella sola decisione tra cloud e on-premise, quanto piuttosto in una combinazione di modelli edge, cloud e ibridi, scelti precisamente in base al carico di lavoro, al rischio e alle esigenze aziendali.


I limiti dell’approccio orientato solo al cloud

Le piattaforme cloud hanno generato un valore enorme: offrono scalabilità, flessibilità e velocità difficili da ottenere nei data center tradizionali. Per nuovi progetti, casi d'uso non ancora collaudati e analisi di dati su larga scala, il cloud rimane ancora un'opzione molto valida. Tuttavia, tante organizzazioni stanno scoprendo che un approccio basato esclusivamente sul cloud comporta compromessi difficili da ignorare. I costi possono aumentare rapidamente man mano che i carichi di lavoro e i volumi di dati aumentano, mentre le prestazioni possono calare quando le applicazioni richiedono connessione stabile e costante e tempi di risposta immediati. Anche l'affidabilità è un fattore critico. Infatti, internet e i servizi cloud sono estremamente affidabili, ma non infallibili: quando si verificano interruzioni, le conseguenze sono immediate e spesso estese.

Basti pensare a quanto accaduto lo scorso ottobre, quando un grave disservizio di Amazon Web Services (AWS) ha messo in crisi applicazioni e servizi in diversi settori. Episodi come questo evidenziano quanto il mondo digitale di oggi dipenda da un numero ristretto di fornitori di servizi cloud. Quando uno di questi ha un problema, gli effetti si ripercuotono ben oltre una singola azienda o regione.

Anche le conseguenze commerciali sono tangibili: le transazioni si bloccano, si perdono entrate, la frustrazione dei clienti cresce e ricostruire la loro fiducia richiede tempo. Questi incidenti servono a ricordare che affidarsi completamente al cloud per le proprie applicazioni critiche può esporre le aziende a una serie di rischi che sfuggono al loro controllo.


L'edge computing non è solo IoT

Uno dei più grandi malintesi nell'informatica odierna è considerare l'edge computing rilevante solo per casi d'uso specializzati legati all’IoT. Molte organizzazioni danno per scontato che, se non prevedono un monitoraggio di sensori o macchinari industriali, l'infrastruttura edge non le riguardi. Tuttavia, l'edge computing è un'infrastruttura on-premise progettata per ambienti più piccoli e distribuiti. Si tratta sostanzialmente di far girare le applicazioni sul posto invece di inviare tutto al cloud. L'obiettivo è mettere la capacità di calcolo e l'archiviazione a disposizione di utenti, clienti o macchine che generano dati.

Punti vendita, strutture sanitarie, stabilimenti produttivi e hub logistici traggono vantaggio da questa elaborazione locale. Infatti, le prestazioni sono potenziate quando le applicazioni non dipendono da un viaggio di andata e ritorno verso un data center distante, l'affidabilità migliora quando i sistemi critici continuano a funzionare nonostante eventuali interruzioni di rete e i costi sono spesso più prevedibili quando grandi volumi di dati vengono elaborati sul posto anziché essere continuamente trasferiti.

Anche l'infrastruttura edge è diventata molto più accessibile. Le organizzazioni non hanno più bisogno di rack di server ingombranti o di strutture specializzate. Sistemi compatti ed efficienti dal punto di vista energetico possono supportare implementazioni ad alta affidabilità a una frazione del costo che molti responsabili IT associano ancora agli ambienti on-premise.


Un modello ibrido come compromesso pratico

Per la maggior parte delle aziende, la strategia più efficace non è scegliere tra cloud ed edge, ma combinare i due modelli. Infatti, l'IT ibrido consente ai team di collocare i carichi di lavoro dove hanno più senso. Le applicazioni mission-critical, che richiedono prestazioni e tempi di attività prevedibili, possono essere eseguite localmente, mentre i carichi di lavoro elastici, le analisi e l'elaborazione su larga scala possono essere gestiti nel cloud. La chiave è decidere in modo mirato, piuttosto che optare per un unico schema.

Gli approcci ibridi offrono anche flessibilità man mano che i casi d'uso evolvono. Molti team avviano nuove iniziative nel cloud per muoversi rapidamente e limitare gli investimenti iniziali. Quando questi carichi di lavoro diventano essenziali per le operazioni quotidiane, avvicinarli all'edge può ridurre i costi a lungo termine e i rischi operativi. Questo approccio riflette la reale evoluzione dell'IT, dove la sperimentazione iniziale privilegia la velocità e l'agilità, mentre i carichi di lavoro consolidati danno priorità all'efficienza, all'affidabilità e al controllo.


Il corretto dimensionamento dell'infrastruttura e dell'hardware

Un altro cambiamento in corso riguarda il modo in cui le organizzazioni concepiscono l'hardware. Non tutte le implementazioni richiedono server di fascia alta o acceleratori specializzati. All’edge, molti carichi di lavoro possono essere eseguiti in modo efficace su sistemi compatti in grado di bilanciare prestazioni, consumi energetici e costi.

In sostanza, l'obiettivo è raggiungere il corretto dimensionamento. L'infrastruttura dovrebbe soddisfare i requisiti del carico di lavoro piuttosto che anticipare ogni possibile scenario futuro. Un’espansione eccessiva, ad esempio, aumenta i costi e la complessità senza fornire un valore concreto. Le implementazioni lievi che scalano in modo graduale offrono spesso rendimenti migliori, soprattutto per le piccole e medie imprese. Inoltre, questo approccio supporta gli obiettivi di sostenibilità: i sistemi più piccoli consumano meno energia e sono più semplici da installare in ambienti dove lo spazio e l'alimentazione sono limitati.


L'AI e le ragioni dell'inferenza ibrida

Un altro elemento chiave da tenere in considerazione è l'intelligenza artificiale, che sta accelerando il passaggio verso un'infrastruttura ibrida. I grandi modelli di fondazione hanno perfettamente senso nel cloud, poiché è lì che gli hyperscaler come Google, Azure, NVIDIA e Oracle stanno investendo in maniera massiccia. L’addestramento su larga scala è proprio il campo in cui queste piattaforme hyperscale eccellono.

L'inferenza è tutta un'altra storia. Quando le aziende cercano di estrarre valore in tempo reale da questi modelli, affidarsi esclusivamente al cloud può comportare rischi in termini di latenza e di affidabilità. A tutti è capitato di sperimentare timeout o sessioni che non rispondono, persino con strumenti come ChatGPT. Tuttavia, molte organizzazioni hanno bisogno di risposte in tempo reale, prestazioni prevedibili e dati localizzati.

Un numero crescente di team sta quindi adottando un modello di inferenza ibrido. Modelli più piccoli e specifici per determinate attività vengono eseguiti localmente per gestire esigenze immediate, mentre, quando sono necessari ulteriore contesto o analisi più approfondite, le richieste vengono inviate al cloud per un'ulteriore elaborazione. Questo approccio bilancia prestazioni, costi e flessibilità, mantenendo al contempo la resilienza.

Privilegiare la strategia alla semplicità

In definitiva, il futuro dell'IT non è caratterizzato da un'unica architettura. Edge, cloud e modelli ibridi sono strumenti, non ideologie contrapposte. La scelta corretta dipende dalle caratteristiche dei carichi di lavoro, dalla maturità organizzativa, dai requisiti normativi e dalla tolleranza al rischio.

I leader IT che avranno successo nei prossimi anni andranno oltre la logica delle soluzioni standard e uguali per tutti. Piuttosto, valuteranno dove le prestazioni contano di più, dove è necessaria la scalabilità e dove l'affidabilità non può essere compromessa. Adattando l'infrastruttura alle reali esigenze aziendali, le organizzazioni potranno costruire sistemi che siano al contempo flessibili e resilienti.

Mark Christie (nella foto di apertura) è Director of Tech Services di StorMagic

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato
Iscriviti alla nostra Newsletter Gratuita. Iscriviti
GoogleNews Rimani sempre aggiornato, seguici su Google News! Seguici
Abbonati alla rivista ImpresaCity Magazine e ricevi la tua copia.

Notizie correlate

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter

www.impresacity.it - 8.5.0 - 4.6.4