▾ G11 Media: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...

Data center: più complessi ma anche meno fragili

Secondo Uptime Intelligence i data center stanno subendo meno blocchi significativi che in passato, pur a fronte di una complessità architetturale crescente

Tecnologie

Fonte: AI ChatGPT

Il messaggio che i grandi data center provider e gli hyperscaler stanno dando è molto chiaro: i data center saranno sempre più base tecnologica essenziale per sostenere la vita digitale delle imprese e dei cittadini in generale. Logica conseguenza: qualsiasi interruzione nell'operatività dei data center è già, ma lo sarà maggiormente in futuro, un problema molto serio. Lo sanno benissimo le imprese che in questi anni hanno visto bloccarsi i loro processi perché qualche data center, anche a decine di migliaia di chilometri di distanza, era andato in crisi.

Chi gestisce data center conosce benissimo questo scenario e lavora per evitare qualsiasi disservizio, nei limiti del possibile. Ma con quali risultati, concretamente? Secondo Uptime Intelligence, che ha condotto un'analisi mirata, le buone notizie non mancano. I dati indicano infatti che la frequenza delle interruzioni all'operatività dei data center sta diminuendo. Nel 2024 la percentuale dei data center operator che ha riportato un'interruzione negli ultimi tre anni è stata del 53%, in calo rispetto al 55% del 2023, al 60% del 2022, al 69% del 2021 e al 78% del 2020. È però anche vero che il miglioramento nell'operatività sta rallentando, come dimostra il gap di soli due punti percentuali tra 2024 e 2023.

Ci sono segnali secondo cui anche la gravità delle interruzioni sta diminuendo: solo il 9% degli incidenti segnalati nel 2024 è stato classificato come "serio" o "grave". Un segno evidente che gli investimenti in resilienza dei data center stanno portando concretamente i loro benefici. L'analisi di Uptime Intelligence indica poi che i blocchi al buon funzionamento dei data center stanno diventando meno frequenti e meno gravi anche se valutati in proporzione alla rapida crescita delle loro infrastrutture, in una dinamica positiva che si mantiene da diversi anni. 

Aiuta gli operatori la crescente diffusione di nuovi "resiliency tool": piattaforme software che aiutano a mantenere alto il tasso di operatività, specie se accoppiate a configurazioni infrastrutturali che incrementano il livello di failover e ridondanza fisica. Un altra evoluzione da considerare è che la resilienza sta diventando un elemento "distribuito", perché la tradizionale ridondanza a livello di singolo sito non basta a supportare le esigenze di operatività espresse da ambienti IT - specie quelli AI - che ormai sono quasi sempre di cloud ibrido, distribuito tra l'infrastruttura on-premise e quelle esterne di terze parti che vengono attivate in base ai requisiti specifici dei carichi di lavoro ed a considerazioni di costi e tolleranza al rischio.

Il tema di fondo della resilienza rimanda quindi, come sempre, al tema della complessità sottostante ad ambienti IT che vengono presentati, e percepiti, come "semplici" ma che alla fine non lo sono affatto. La resilienza on-premise rimane fondamentale e le piattaforme di gestione e automazione degli ambienti distribuiti sono maturate in modo significativo, ma l'evoluzione tecnologica attuale comporta nuove complessità e quindi, potenzialmente, nuovi problemi.

Che questa aumentata complessità dell'IT stia facendo pagare dazio ai data center lo si vede nell'analisi dettagliata delle cause dei blocchi alla loro operatività. È vero che i problemi più gravi per gli operatori sono legati a due macro-componenti (alimentazione e condizionamento) che con l'IT non c'entrano. Ma le interruzioni di servizio dovute a problemi IT e di rete sono aumentate nel 2024, totalizzando il 23% dei malfunzionamenti con impatto significativo. Questo aumento è spesso dovuto a errori nel change management ed a configurazioni errate dei sistemi, due aspetti che sono legati proprio alla maggiore complessità infrastrutturale che caratterizza gli odierni data center.

Sull sfondo resta sempre, anche quando si tratta di sistemi estremamente complessi come i data center, il buon vecchio errore umano. Il 40% dei data center operator dichiara di aver avuto, negli ultimi tre anni un blocco significativo dei sistemi a causa appunto di un errore del personale. Ciò è accaduto principalmente (58% dei casi, dieci punti percentuali in più rispetto al 2024) per il mancato rispetto delle procedure operative, probabile conseguenza della carenza di personale qualificato in molte regioni, carenza a sua volta causata dal boom del mercato data center. 

In questo senso, secondo Uptime Intelligence, una maggiore attenzione alla formazione del personale e al supporto operativo in tempo reale potrebbe ridurre i rischi di errore in modo significativo. E che qualcosa in effetti vada fatto lo dimostra una ulteriore rilevanza del report: quattro operatori data center su cinque ritengono che una migliore gestione e processi più precisi avrebbero evitato l'ultimo incidente registrato nella loro organizzazione.

Tag correlati

Esplora altri articoli su questi argomenti

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato

Notizie correlate

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter

www.impresacity.it - 8.5.0 - 4.6.4