▾ G11 Media: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...

I nuovi data center secondo Uptime Institute

La GenAI sta cambiando il modo in cui si realizzano i data center, ma resterà ancora a lungo un ambito specifico con esigenze sue proprie

Cloud

All'inizio di ogni anno l'Uptime Institute - l'organizzazione statunitense che studia il mercato data center e ha tra l'altro creato la classificazione in Tier e la relativa certificazione - pubblica un elenco di previsioni e tendenze che ritiene influenzeranno lo sviluppo delle infrastrutture digitali. Lo ha fatto anche per questo 2026, concentrandosi in particolare - e ovviamente - sull'Intelligenza Artificiale come acceleratore per un'ondata di investimenti infrastrutturali che si concretizzeranno a medio e lungo termine.

Il ruolo dell'AI come "motore" per l'espansione del mercato data center non è in discussione, sottolinea l'Uptime Institute, ma lo scenario è molto meno ovvio e conseguente di quanto molti pensano. Gli operatori data center hanno poche certezze su cui basare i loro piani di sviluppo: vivono ancora una fase esplorativa in cui cercano di determinare quanto davvero i loro clienti - le imprese, principalmente - abbiano davvero intenzione di investire in infrastrutture e servizi per l'AI. Gli analisti dell'Uptime Institute sottolineano infatti che sì, si stanno investendo centinaia di miliardi di dollari per realizzare infrastrutture adatte ai workload di GenAI. Ma le aziende utenti di fascia alta per ora - nel periodo 2023-25, cioè - hanno dedicato all'AI solo il 3-5% del budget IT.

Questo gap non viene giudicato strano o legato alla disposizione più o meno marcata delle aziende verso l'innovazione. Lato training, il fatto è che molte aziende utenti possono tranquillamente adottare modelli di AI già pre-addestrati e alimentarli con i propri dati, ottenendo risultati sufficienti. Da parte loro, le aziende (e i loro fornitori di servizi IT) che vogliono modelli di AI addestrati su misura, per specifiche esigenze di dominio e di business, avranno bisogno di quantità relativamente ridotte di computing, a densità di rack moderatamente elevate (inferiori a 60 kW).

Il limite sta, come spesso accade, in questioni di budget. La concezione stessa dei modelli generativi fa sì che per addestrarne uno che risulti significativamente migliore di un altro serve un budget computazionale sproporzionatamente maggiore. Per questo l'evoluzione verso modelli sempre più performanti richiede una evoluzione altrettanto veloce nelle infrastrutture di computing usate per il training. Conseguenza: l'hardware per l'AI diventa obsoleto molto rapidamente e poche aziende saranno in grado di giustificare l'investimento necessario per stare al passo con questo tipo di evoluzione.

Molti vendor tecnologici oggi descrivono uno scenario prossimo futuro in cui aziende e provider si sposteranno dal training dei modelli all'inferenza, richiedendo sempre più potenza dedicata. Ma l'Uptime Institute ritiene che questa domanda di inferencing sia ancora incerta. "L'aspettativa che l'infrastruttura per l'inferenza, a causa dell'ampia adozione di servizi basati sull'AI, supererà il training in termini di potenza è probabilmente errata", si spiega. 

Per l'Uptime Institute, nelle grandi imprese i workload inferenziali - anche se pensati per migliaia di utenti simultanei - potranno essere gestiti in modo adeguato anche con relativamente pochi server dotati di GPU o di chip specifici per l'inferenza AI. La maggior parte delle aziende avrà poi requisiti molto inferiori e il punto più significativo, spiegano gli analisti, è che la domanda di inferenza da parte delle aziende rappresenta solo una piccola parte dei milioni di GPU ad alte prestazioni installate a livello globale.

Il risultato di queste dinamiche sarà che l'elaborazione AI sarà ancora più concentrata nella fascia alta del mercato, e non meno. Buona parte delle infrastrutture di AI computing saranno concentrate in giganteschi data center campus costruiti dagli hyperscaler e dalle aziende che, come OpenAI, controllano i foundational model di Intelligenza Artificiale. L'AI diventa quindi un filone parallelo al supercomputing, con cui ha sempre più elementi in comune. A parte i mega-campus, l'AI troverà spazio in siti metropolitani di colocation che eseguiranno training locale degli algoritmi, copie delocalizzate dei grandi modelli di base, servizi infrastrutturali per le imprese.

Questo livello elevato di concentrazione dell'infrastruttura AI favorirà lo sviluppo e la diffusione di nuove tecnologie per l'alimentazione e il raffreddamento, progettate proprio per affrontare le sfide presentate da infrastrutture di grandi dimensioni e ad altissima densità. Il mercato infrastrutturale collegato all'AI ha infatti già raggiunto una massa critica tale da sostenere economicamente da solo lo sviluppo di nuove tecnologie e prodotti, cosa che il computing tradizionale e persino il supercomputing non riuscivano a fare.

Lato alimentazione, le evoluzioni principali riguarderanno il portare collegamenti a media tensione (da 11 kV in su) sempre più vicini ai carichi IT e il reintrodurre l'alimentazione in corrente continua. Tensioni più elevate aiutano a ridurre le dimensioni dei conduttori, il che a sua volta permette di usare cablaggi di alimentazione più lunghi e quindi più adatti al layout dei nuovi grandi data center. L'uso della corrente continua semplifica l'elettronica di potenza nei sistemi IT e migliora le prestazioni energetiche complessive. Per quanto riguarda il condizionamento, invece, gli operatori data center si stanno in generale concentrando sulla progettazione e la gestione di sistemi di raffreddamento ad aria ad alta densità e di raffreddamento diretto a liquido.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato
Iscriviti alla nostra Newsletter Gratuita. Iscriviti
GoogleNews Rimani sempre aggiornato, seguici su Google News! Seguici
Abbonati alla rivista ImpresaCity Magazine e ricevi la tua copia.

Notizie correlate

Speciali Tutti gli speciali

Speciale

WPC 2025

Speciale

Speciale Cloud ibrido e multicloud - Un ecosistema in evoluzione

Speciale

Red Hat Summit Connect 2025

Speciale

Dynatrace: l’observability che fa la differenza

Speciale

Speciale normative e compliance IT

Calendario Tutto

Gen 28
NETAPP INSIGHT XTRA
Feb 19
Commvault SHIFT 2026
Feb 26
Summit OVHcloud 2026 - Roma
Mar 05
Summit OVHcloud 2026 - Milano
Mag 26
CrowdTour 2026 - Milano
Giu 11
MSP DAY 2026

Magazine Tutti i numeri

ImpresaCity Magazine


Leggi il Magazine

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter

www.impresacity.it - 8.3.23 - 4.6.4