Deployment più rapido dei workload AI, riduzione dei costi, più sicurezza e sovranità dei dati al centro della nuova release della piattaforma
Autore: Edoardo Bellocchi
“Alcuni dei nostri clienti che hanno avuto modo di provarla in anteprima, ci hanno detto che questa release sembra più una 10.0 che una 9.1”, esordisce Prashanth Shenoy, Vice President of Marketing della divisione VMware Cloud Foundation di Broadcom, nell’illustrare a inizio maggio le novità dell’attesa nuova versione di VCF, la piattaforma di cloud privato di casa. E non c’è dubbio che le innovazioni annunciato siano di rilievo, anche perché riguardano gli aspetti oggi più critici per l’IT: costi infrastrutturali in crescita, crescente presenza dell’intelligenza artificiale e aumento dei rischi cyber.
In particolare, l’AI sta da tempo ridefinendo profondamente le infrastrutture IT ma comporta anche nuovi rischi e complessità, osserva Prashanth Shenoy, citando alcuni dati significativi, secondo cui “i workload AI possono aumentare il TCO dei data center dal 20% al 40%, con il costo reale di un cluster GPU può arrivare fino a tre volte il prezzo iniziale nel giro di cinque anni, mentre, dal punto di vista della sicurezza, il 73% delle aziende ha già sperimentato incidenti legati all’AI, e due dipendenti su tre caricano dati aziendali su strumenti AI non autorizzati”, riferendosi al ben noto fenomeno della shadow AI.
Le innovazioni apportate da Broadcom alla release 9.1 di VMware Cloud Foundation vanno appunto nella direzione di affrontare queste sfide, “offrendo la piattaforma giusta per eseguire i carichi di lavoro AI in produzione”, prosegue Prashanth Shenoy, sottolineando che “quando abbiamo sviluppato e annunciato VCF 9 lo scorso anno, l’obiettivo era creare una piattaforma unificata che permettesse di eseguire i carichi di intelligenza artificiale, le applicazioni moderne, quelle containerizzate, così come le applicazioni mission-critical basate su macchine virtuali, tutto sulla stessa piattaforma, con il miglior TCO possibile in termini di costi e con i livelli di sicurezza e resilienza necessari oggi. Il mercato ci ha dato ragione: nei 12 mesi dal lancio di VCF 9, abbiamo registrato un’adozione molto significativa, con più di 2000 implementazioni e oltre 19 milioni di core allocati”.
In effetti, nelle parole dell’azienda, VMware Cloud Foundation offre un’alternativa migliore al cloud pubblico per i workload in ambienti di produzione, grazie a un software intelligente che massimizza l’efficienza dell’infrastruttura sui server esistenti, garantendo al contempo controllo architetturale e conformità normativa, elementi essenziali per le implementazioni di AI in produzione. VMware Cloud Foundation 9.1, si fa notare, consentirà di eseguire workload in produzione, inclusi quelli di inferenza e AI agentica, con fino al 40% di riduzione dei costi dei server, grazie al tiering intelligente della memoria per cluster che eseguono workload AI e non AI; fino al 39% di riduzione del TCO dello storage, grazie a funzionalità avanzate di compressione e deduplicazione per le pipeline dati AI; fino al 46% di riduzione dei costi operativi di Kubernetes, per l’esecuzione di workload AI su larga scala; e infine aggiornamenti dei cluster fino a 4 volte più rapidi e capacità della flotta raddoppiata, per scalare rapidamente l’infrastruttura AI.
Del resto, alcuni dati in anteprima del report “Private Cloud Outlook 2026” di Broadcom evidenziano come il cloud privato continui a essere la piattaforma preferita per i workload AI in produzione. Oltre la metà delle organizzazioni intervistate (56%) esegue o prevede di eseguire workload di inferenza in produzione su cloud privato. Ancora più significativo, l’utilizzo del cloud pubblico per l’inferenza in produzione si attesta al 41%, in calo di 15 punti percentuali su base annua. Inoltre, il 62% dei responsabili IT dichiara di essere molto o estremamente preoccupato per i costi dell’infrastruttura di AI generativa, mentre il 36% segnala che l’AI sta introducendo nuovi requisiti in termini di protezione dei dati, privacy, controlli di sicurezza e gestione del rischio.
Entrando nel dettaglio delle innovazioni per l’intelligenza artificiale, VCF 9.1 massimizza la densità sia per i workload AI su macchine virtuali sia per quelli containerizzati sull’infrastruttura esistente, riducendo significativamente la complessità operativa. Grazie alla gestione intelligente delle risorse e all’automazione delle operazioni, le aziende possono eseguire più workload in produzione sui server esistenti, scalare in modo efficiente in ambienti distribuiti ed evitare costose espansioni infrastrutturali in un contesto di carenza di hardware e aumento dei costi.
Infatti, tra le funzionalità principali della release 9.1 della piattaforma VMware Cloud Foundation vi sono un’ottimizzazione intelligente delle risorse che massimizza l’utilizzo dell’infrastruttura grazie a tecniche avanzate di memory tiering e a una compressione storage di nuova generazione pensata per le pipeline dati AI, permettendo così di aumentare la densità dei workload senza impattare sulle prestazioni né richiedere costosi aggiornamenti hardware. A questo si affiancano operazioni automatizzate su larga scala, capaci di raddoppiare la gestione fino a 5.000 host e di accelerare fino a quattro volte gli aggiornamenti dei cluster anche in ambienti distribuiti e isolati, riducendo drasticamente il carico del patching manuale e facilitando l’espansione dell’infrastruttura AI.
L’architettura supporta inoltre un modello multi-tenant per l’isolamento dei carichi AI, consentendo a organizzazioni e service provider di gestire più progetti e clienti su un’infrastruttura condivisa ma con rigorosi confini di sicurezza, ottimizzando l’uso di GPU e CPU e garantendo la sovranità dei dati per i modelli più sensibili. Il tutto si inserisce in un ecosistema aperto che permette la scelta tra GPU AMD e Nvidia, supporta piattaforme CPU AMD e Intel e assicura interoperabilità basata su standard come EVPN e VXLAN con Arista Universal Cloud Network, confermando l’attenzione verso flessibilità e performance.
Lato performance, il networking ad alta velocità è garantito dal supporto per NIC Nvidia ConnectX-7 e Nvidia BlueField-3 con Enhanced DirectPath I/O, abilitando training distribuito e trasferimenti dati ad alte prestazioni, elementi chiave per i workload di AI generativa più avanzati. Infine, il bilanciamento del carico e la sicurezza sono completamente virtualizzati attraverso VMware Avi Load Balancer e VMware vDefend, eliminando la necessità di appliance hardware dedicate, riducendo i costi di capitale e offrendo al tempo stesso resilienza enterprise e gestione automatizzata del ciclo di vita.
Non solo: tra le altre funzionalità vi sono anche una scalabilità e performance avanzate per Kubernetes in ambito AI, con cluster che raggiungono una capacità fino a 2,6 volte superiore, tempi di deployment ridotti del 70% e finestre di upgrade accorciate del 75% rispetto alle versioni precedenti, il tutto supportato da una scalabilità continua che consente di mantenere operativi i servizi AI in produzione senza interruzioni.
A questo si affianca una gestione del compute eterogeneo che permette di supportare in modo efficiente sia workload di AI agentica ad alta intensità di CPU sia inferenza accelerata su GPU all’interno di una piattaforma unificata, rispondendo alle esigenze di modelli che richiedono maggiore capacità di calcolo lato CPU per orchestrare workflow e processi decisionali.
A livello di controllo e di ottimizzazione, le funzionalità di AI observability e governance offrono metriche dettagliate come il time to first token, il throughput dei token e l’utilizzo delle GPU su diversi tipi di acceleratori, consentendo di massimizzare il ritorno sugli investimenti infrastrutturali grazie a un monitoraggio preciso delle risorse hardware. Allo stesso tempo, l’iniezione centralizzata delle policy e i controlli sulla sovranità dei dati permettono di garantire compliance e accesso sicuro ai modelli. Di più: i live application stack blueprint consentono di catturare applicazioni multi-VM come template riutilizzabili per un provisioning rapido e coerente degli ambienti, eliminando errori di configurazione manuale e riducendo il rischio di disallineamenti tra sviluppo, test e produzione, con un conseguente miglioramento nella velocità di rilascio dell’infrastruttura.
Infine, VCF 9.1 integra la sicurezza a livello infrastrutturale per proteggere workload AI, modelli proprietari e dati di training, dall’hypervisor fino all’applicazione. Grazie a segmentazione zero-trust, sovereign recovery e patching continuo senza strumenti aggiuntivi, VCF rafforza la postura di sicurezza essenziale per le implementazioni AI in produzione, che gli ambienti di public cloud non sono in grado di eguagliare
Tra le funzionalità principali in ambito sicurezza, vi sono soluzioni avanzate di ransomware recovery on-premise, che mettono a disposizione ambienti di ripristino isolati e strumenti di validazione integrati, incluso il supporto per CrowdStrike Falcon Endpoint Security. Questo approccio consente di proteggere modelli AI e dati di training, spesso altamente sensibili, evitando trasferimenti transfrontalieri e riducendo al contempo i costi di banda durante le operazioni di disaster recovery.
A queste si aggiunge un sistema di continuous compliance enforcement che garantisce l’aderenza alle normative attraverso un monitoraggio centralizzato e meccanismi di remediation automatizzata dello stato desiderato per workload e componenti dello stack VCF. In questo modo le organizzazioni possono dimostrare facilmente la conformità durante audit su deployment AI in produzione, senza dover ricorrere a processi manuali o strumenti separati.
Un altro elemento chiave è il live patching senza downtime, che copre fino all’80% dei casi d’uso senza richiedere evacuazione degli host o finestre di manutenzione, eliminando interruzioni nei servizi di AI inference e nelle applicazioni agentiche che necessitano di disponibilità continua per rispettare gli SLA. Non solo: l’approccio zero-trust laterale estende per la prima volta la protezione IDS/IPS distribuita ai workload AI su Kubernetes, offrendo una capacità di ispezione delle minacce fino a 9 Tbps per scenari di inferenza distribuita e migliorando significativamente l’identificazione delle applicazioni in ambienti private cloud e Internet.
Infine, la sicurezza self-service con automazione introduce funzionalità come il tagging centralizzato, profili di sicurezza predefiniti, configurazioni firewall delegabili e protezione delle applicazioni web in ingresso, permettendo ad aziende e service provider di mettere in sicurezza i deployment AI in modo efficace, senza aumentare la complessità operativa o frammentare gli strumenti di sicurezza.