La GenAI sta cambiando il modo in cui si realizzano i data center, ma resterà ancora a lungo un ambito specifico con esigenze sue proprie
All'inizio di ogni anno l'Uptime Institute - l'organizzazione statunitense che studia il mercato data center e ha tra l'altro creato la classificazione in Tier e la relativa certificazione - pubblica un elenco di previsioni e tendenze che ritiene influenzeranno lo sviluppo delle infrastrutture digitali. Lo ha fatto anche per questo 2026, concentrandosi in particolare - e ovviamente - sull'Intelligenza Artificiale come acceleratore per un'ondata di investimenti infrastrutturali che si concretizzeranno a medio e lungo termine.
Il ruolo dell'AI come "motore" per l'espansione del mercato data center non è in discussione, sottolinea l'Uptime Institute, ma lo scenario è molto meno ovvio e conseguente di quanto molti pensano. Gli operatori data center hanno poche certezze su cui basare i loro piani di sviluppo: vivono ancora una fase esplorativa in cui cercano di determinare quanto davvero i loro clienti - le imprese, principalmente - abbiano davvero intenzione di investire in infrastrutture e servizi per l'AI. Gli analisti dell'Uptime Institute sottolineano infatti che sì, si stanno investendo centinaia di miliardi di dollari per realizzare infrastrutture adatte ai workload di GenAI. Ma le aziende utenti di fascia alta per ora - nel periodo 2023-25, cioè - hanno dedicato all'AI solo il 3-5% del budget IT.
Questo gap non viene giudicato strano o legato alla disposizione più o meno marcata delle aziende verso l'innovazione. Lato training, il fatto è che molte aziende utenti possono tranquillamente adottare modelli di AI già pre-addestrati e alimentarli con i propri dati, ottenendo risultati sufficienti. Da parte loro, le aziende (e i loro fornitori di servizi IT) che vogliono modelli di AI addestrati su misura, per specifiche esigenze di dominio e di business, avranno bisogno di quantità relativamente ridotte di computing, a densità di rack moderatamente elevate (inferiori a 60 kW).

Il limite sta, come spesso accade, in questioni di budget. La concezione stessa dei modelli generativi fa sì che per addestrarne uno che risulti significativamente migliore di un altro serve un budget computazionale sproporzionatamente maggiore. Per questo l'evoluzione verso modelli sempre più performanti richiede una evoluzione altrettanto veloce nelle infrastrutture di computing usate per il training. Conseguenza: l'hardware per l'AI diventa obsoleto molto rapidamente e poche aziende saranno in grado di giustificare l'investimento necessario per stare al passo con questo tipo di evoluzione.
Molti vendor tecnologici oggi descrivono uno scenario prossimo futuro in cui aziende e provider si sposteranno dal training dei modelli all'inferenza, richiedendo sempre più potenza dedicata. Ma l'Uptime Institute ritiene che questa domanda di inferencing sia ancora incerta. "L'aspettativa che l'infrastruttura per l'inferenza, a causa dell'ampia adozione di servizi basati sull'AI, supererà il training in termini di potenza è probabilmente errata", si spiega.
Per l'Uptime Institute, nelle grandi imprese i workload inferenziali - anche se pensati per migliaia di utenti simultanei - potranno essere gestiti in modo adeguato anche con relativamente pochi server dotati di GPU o di chip specifici per l'inferenza AI. La maggior parte delle aziende avrà poi requisiti molto inferiori e il punto più significativo, spiegano gli analisti, è che la domanda di inferenza da parte delle aziende rappresenta solo una piccola parte dei milioni di GPU ad alte prestazioni installate a livello globale.
Il risultato di queste dinamiche sarà che l'elaborazione AI sarà ancora più concentrata nella fascia alta del mercato, e non meno. Buona parte delle infrastrutture di AI computing saranno concentrate in giganteschi data center campus costruiti dagli hyperscaler e dalle aziende che, come OpenAI, controllano i foundational model di Intelligenza Artificiale. L'AI diventa quindi un filone parallelo al supercomputing, con cui ha sempre più elementi in comune. A parte i mega-campus, l'AI troverà spazio in siti metropolitani di colocation che eseguiranno training locale degli algoritmi, copie delocalizzate dei grandi modelli di base, servizi infrastrutturali per le imprese.

Questo livello elevato di concentrazione dell'infrastruttura AI favorirà lo sviluppo e la diffusione di nuove tecnologie per l'alimentazione e il raffreddamento, progettate proprio per affrontare le sfide presentate da infrastrutture di grandi dimensioni e ad altissima densità. Il mercato infrastrutturale collegato all'AI ha infatti già raggiunto una massa critica tale da sostenere economicamente da solo lo sviluppo di nuove tecnologie e prodotti, cosa che il computing tradizionale e persino il supercomputing non riuscivano a fare.
Lato alimentazione, le evoluzioni principali riguarderanno il portare collegamenti a media tensione (da 11 kV in su) sempre più vicini ai carichi IT e il reintrodurre l'alimentazione in corrente continua. Tensioni più elevate aiutano a ridurre le dimensioni dei conduttori, il che a sua volta permette di usare cablaggi di alimentazione più lunghi e quindi più adatti al layout dei nuovi grandi data center. L'uso della corrente continua semplifica l'elettronica di potenza nei sistemi IT e migliora le prestazioni energetiche complessive. Per quanto riguarda il condizionamento, invece, gli operatori data center si stanno in generale concentrando sulla progettazione e la gestione di sistemi di raffreddamento ad aria ad alta densità e di raffreddamento diretto a liquido.