Perché l’AI Enterprise si sviluppi in un ambiente multicloud, è necessario che all'infrastruttura venga data la giusta priorità ed importanza
Non vi è dubbio che l'Intelligenza Artificiale stia trasformando i diversi mercati abilitando l’innovazione e migliorando l'efficienza dando alle aziende la possibilità di sfruttare insights, ottimizzare le operations e cogliere nuove opportunità di business. Per trarre il massimo vantaggio dalle potenzialità dell’AI, le aziende necessitano di algoritmi sofisticati e di data scientist qualificati. Ma l’elemento chiave è dotarsi di un'infrastruttura resiliente e scalabile, soprattutto in un contesto multicloud in cui i dati risiedono su diverse piattaforme.
Nel moderno contesto tecnologico, le aziende non sono legate a un unico ambiente IT - che sia esso on-premise, edge o cloud - ma utilizzano più piattaforme, cloud provider e ambienti per ottimizzare i costi, garantire la ridondanza e soddisfare le diverse esigenze dei carichi di lavoro. Secondo Gartner, entro il 2028 il 70% dei workload verrà eseguito in un ambiente di cloud computing.
Quando i team IT devono valutare le risorse migliori per l'implementazione di carichi di lavoro, la scelta si riduce spesso tra una infrastruttura on-premise e una in cloud, tramite servizi di cloud pubblico. Le risorse del public cloud offrono una straordinaria scalabilità e l'accesso a tecnologie di nuova generazione, mentre il private cloud o l'infrastruttura on-premise garantiscono maggiore controllo, sicurezza e visibilità.
Con l’aumento delle soluzioni cloud, le aziende hanno adottato sia infrastrutture on-premise sia cloud per creare un'architettura multicloud. Tuttavia, l'implementazione di più cloud pubblici unita a tecnologie on-premise rende maggiormente complessa la gestione, aggiungendo costi, rischi e oneri amministrativi per eseguire i workload sulle risorse cloud.
L'Innovation Catalyst Index 2024 di Dell fa emergere che in Italia vi è una sostanziale parità tra chi ha optato per una infrastruttura ibrida (30%) – on premise e public cloud - e multicloud (28%). Il 53% del campione intervistato dichiara inoltre che l’approccio aziendale all’utilizzo di tecnologie avanzate, tra cui l’AI e il multicloud, è definita centralmente e frutto di una strategia. Per implementare efficacemente l'AI in un contesto multicloud, le aziende devono concentrarsi su quattro pilastri fondamentali: potenza di calcolo, data management, storage ed efficienza operativa. Ognuno svolge un ruolo cruciale nel supportare i carichi di lavoro dell'AI.
Il potenziale dell'AI si realizza pienamente quando le aziende dispongono della giusta potenza di calcolo e delle capacità di rete per supportare l'elaborazione dei dati su larga scala. Questi componenti fungono da base per i carichi di lavoro dell'AI, assicurando che i modelli vengano eseguiti in modo efficiente e forniscano risultati significativi.
I modelli di AI, in particolare quelli che utilizzano il machine learning e il deep learning, richiedono un'ampia potenza di calcolo. Le GPU ad alta velocità, le TPU e gli acceleratori specializzati sono necessari per addestrare l'AI su grandi data set. Ad esempio, gli istituti finanziari sfruttano le GPU ottimizzate per l’AI per rilevare frodi in tempo reale. Che si tratti di data center on-premise o di istanze cloud based ottimizzate per l'AI, le aziende devono assicurarsi di disporre delle risorse di elaborazione adeguate.
Le applicazioni di AI richiedono un trasferimento di dati veloce e senza interruzione. Connessioni ad alta larghezza di banda e bassa latenza tra gli ambienti cloud assicurano operazioni di AI senza interruzioni. Le aziende devono sfruttare il software-defined networking e gli strumenti di ottimizzazione della rete di trasporto dei dati per una connettività senza interruzioni.
L'AI prospera grazie a dati accessibili e di alta qualità, ma la gestione dei dati su più cloud provider può essere impegnativa. Senza una perfetta integrazione dei dati, i modelli di AI rischiano di essere addestrati su data set obsoleti o incompleti, rendendo inaffidabili le informazioni. Strategie efficaci di data management sono fondamentali per il successo dell'AI, e in particolare servono una data governance unificata, l'integrazione perfetta dei dati e un accesso in tempo reale ai dati stessi.
Con i dati distribuiti su diversi cloud, la sicurezza, la compliance e la consistency sono fondamentali. Le aziende necessitano di framework di governance maturi per garantire la conformità alle normative (ad esempio, GDPR, CCPA) e la sicurezza dei dati. Le politiche di governance specifiche per l'AI devono affrontare problemi come la non completezza dei data set utilizzati per il training e la privacy.
I modelli di AI attingono dati da diverse fonti, tra cui i sistemi preesistenti, cloud storage e flussi in tempo reale. Gli strumenti di integrazione che garantiscono una perfetta interoperabilità tra queste fonti aiutano le aziende a consolidare e ad accedere ai dati in modo efficiente. Inoltre, molte applicazioni basate sull'intelligenza artificiale, come il rilevamento delle frodi e la manutenzione predittiva, dipendono da informazioni in tempo reale. Le aziende dovrebbero investire in soluzioni cloud-native per la raccolta, l’on-boarding ed elaborazione dei dati in tempo reale.
I workload dell'Intelligenza Artificiale generano e consumano grandi quantità di dati. Strategie di storage inefficienti possono aumentare i costi impattando gli investimenti di tipo up-front: per questo, una gestione efficiente dello storage è essenziale per mantenere le performance e tenere sotto controllo i costi.
Soluzioni di tiered storage possono aiutare: non tutti i dati necessitano di un accesso immediato, il tiered storage ottimizza le prestazioni e i costi collocando i dati ad accesso frequente su storage ad alta velocità (come le memorie flash) e archiviando i dati meno critici in soluzioni come lo storage a oggetti. Lo storage deve essere scalabile: le applicazioni di AI generano enormi volumi di dati non strutturati. I sistemi di storage distribuiti e le soluzioni di storage a oggetti offrono la scalabilità necessaria per gestire questi dati in modo efficiente.
Inoltre, con l'aumento dell'adozione del multicloud, sempre più aziende stanno adottando modelli di storage-as-a-service, soluzioni on-demand che riducono l'investimento di capitale e consentono alle aziende di scalare le esigenze di storage in base all'aumento dei volumi di dati. Pensate anche al Data lifecycle management: i modelli di Intelligenza Artificiale richiedono dati vivi e pertinenti. L'automazione dell'archiviazione, dell'eliminazione e della migrazione dei dati garantisce un uso efficiente dello storage, mantenendo la compliance alle politiche di data retention.
Secondo IDC, a livello globale, il consumo energetico degli AI data center è destinato a crescere a un tasso CAGR del 44,7%, raggiungendo 146,2 Terawattora entro il 2027, con un crescente consumo degli AI workload rispetto all’elettricità utilizzata dai data center. Per fronteggiare questa situazione, è fondamentale dimensionare correttamente le soluzioni IT per evitare inutili sprechi computazionali ed energetici.
L'implementazione di configurazioni hardware efficienti dal punto di vista energetico, di metodi di raffreddamento ecocompatibili e l'utilizzo di strumenti software di gestione possono ridurre significativamente il consumo di energia e prolungare la durata dell'hardware. Gli strumenti di gestione dell'alimentazione che utilizzano la telemetria forniscono preziose informazioni per ottimizzare la gestione dell'alimentazione e del calore in tempo reale, identificando tempestivamente potenziali problemi hardware.
Fabio Funari è Sales Director Public Sector di Dell Technologies in Italia