▾ G11 Media: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...

Dell Technologies, l’AI guarda anche all’edge

I corposi annunci di Dell Technologies World 2025 riflettono quella che è l’evoluzione costante dell’intelligenza artificiale generativa, che favorisce l’inferenza locale con lo sviluppo degli agenti

Tecnologie AI

L’AI è in continua evoluzione: sta diventando sempre più pervasiva e non è più appannaggio solo delle grandi aziende. Anche perché oggi sono sempre più quelli che si rendono conto che non adottare l’AI può comportare perdite di competitività”, esordisce Frediano Lorenzin, CTO di Dell Technologies Italia, in un incontro di metà giugno a Milano dedicato a illustrare i tratti salienti dell’evento annuale Dell Technologies World, tenutosi come di consueto a Las Vegas a fine maggio.

Non a caso, una ricerca condotta a febbraio 2025 da Dell Technologies su 750 manager del business e dell’IT di cinque Paesi ha rivelato che l'AI è ritenuta ormai essenziale, con il 75% delle aziende che la considera fondamentale per la propria strategia, il 65% che riesce a portare con successo i propri progetti di AI in produzione.

Se però permangono sfide quali la qualità dei dati, i problemi di sicurezza e i costi elevati che possono rallentare gli avanzamenti dell’AI, Dell Technologies è sempre più impegnata nel favorirne l’adozione, con approcci quali l’AI Factory, lanciato lo scorso anno per rendere l’AI accessibile e scalabile: si tratta di un framework, “tuttora valido ma in continua evoluzione di pari passo con l’evoluzione dell’AI”, sottolinea Lorenzin. Infatti, spiegano in Dell, l’approccio AI Factory può risultare “fino al 62% più conveniente per l'inferenza di LLM on-premise rispetto al cloud pubblico e supporta le aziende nell’implementare facilmente e in modo sicuro workload AI su qualsiasi scala”.

Un’IT di prossimità

Tra i grandi temi emersi a Dell Technologies World 2025, riflettori puntati anche sull’edge: “se fino a poco tempo fa parlare di AI generativa significava parlare dei player di grandi dimensioni come ChatGPT, con tutti i dati all’interno dei data center, oggi si guarda sempre più verso l’edge”, prosegue Lorenzin, raccontando che “non per caso, il keynote di Michael Dell a Las Vegas è iniziato parlando proprio di edge, dove sono ricompresi anche i PC portatili più potenti, portando la tecnologia dalle installazioni data center di grandi dimensioni verso un’informatica per così dire di prossimità. Si tratta di un forte cambiamento che nasce dagli agenti: l’AI agentica è quella che porta l’AI generativa molto più vicina alle persone”.

Si tratta di uno sviluppo che comporta un crescente passaggio dell’AI “dal grande LLM centralizzato verso un’inferenza più locale, con modelli più leggeri e performanti”, spiega Lorenzin citando quanto detto nel suo keynote a Las Vegas da Jeff Clarke, VP e Chief Operating Officer di Dell Technologies.


Michael Dell in un momento del suo keynote a Las vegas

Novità a tutto campo

Questi cambiamenti sono puntualmente riflessi nelle novità schierate a Dell Technologies World 2025, che compongono un’infrastruttura AI completa, volta a supportare tutti gli aspetti dell’evoluzione in atto nel mondo dell’intelligenza artificiale, a partire dagli impegnativi workload nei grandi data center per arrivare all’inferenza in ambito edge eseguita sui PC AI, ma che vanno anche a comporre un’AI con quelle che Frediano Lorenzin chiama “le tre S: semplice, sicura e sostenibile”.

Nel dettaglio, tra le novità spicca la nuova workstation Dell Pro Max Plus, pensata per le esigenze di ingegneri e data scientist che lavorano sull’inferenza edge e definita la prima al mondo a integrare una NPU discreta di livello enterprise, grazie alla scheda Qualcomm AI 100 PC. Con 32 core AI e 64 GB di memoria, questa soluzione è in grado di eseguire inferenze direttamente sul dispositivo anche su modelli di AI di grandi dimensioni, fino a 109 miliardi di parametri, tradizionalmente gestiti solo in cloud.

Non solo: a Dell Technologies World 2025 sono stati anche annunciati miglioramenti all’AI Data Platform, con strumenti che aumentano l’accesso a dati strutturati, semi-strutturati e non strutturati. Il nuovo Project Lightning, il file system parallelo definito più veloce al mondo che raddoppia le prestazioni di throughput, accelerando l’addestramento di modelli su larga scala. “La logica di Project Lighning è quella di velocizzare l'accesso ai dati”, evidenzia Frediano Lorenzin, spiegando che “lo sforzo di semplificazione in ambito AI passa anche per strumenti come questo, che danno modo di ‘saltare’ le complessità architetturali e tecnologiche, soprattutto sui dati”. Inoltre, gli aggiornamenti al Data Lakehouse semplificano l’uso dell’AI per applicazioni come motori di raccomandazione, ricerche semantiche e analisi predittive basate sull’intento degli utenti.


Frediano Lorenzin, CTO di Dell Technologies Italia

L’AI Factory con Nvidia

A un anno di distanza dal primo annuncio a Dell Technologies World 2024, continua ad ampliarsi l’ecosistema Dell AI Factory in collaborazione con Nvidia, con un pacchetto completo di soluzioni progettate per accelerare l’adozione dell’intelligenza artificiale e ridurre il time-to-value. Tra le novità, spiccano i nuovi server Dell PowerEdge XE9780 e XE9785 con raffreddamento ad aria, facilmente integrabili nei data center esistenti, e le versioni XE9780L e XE9785L con raffreddamento a liquido, ottimizzate per implementazioni su scala rack. Nelle parole di Dell, il supporto fino a 192 GPU Nvidia Blackwell Ultra e la possibilità di configurare fino a 256 GPU Nvidia HGX B300 per rack IR7000 rendono queste soluzioni un punto di riferimento in termini di scalabilità e potenza. Il PowerEdge XE9680 viene definita la soluzione di espansione più rapida mai realizzata da Dell, capace di accelerare fino a quattro volte l’addestramento di LLM grazie alla configurazione a 8 vie con NVIDIA HGX B300.

Un altro protagonista è il PowerEdge XE9712 con Nvidia GB300 NVL72, in grado di offrire un output di inferenza AI 50 volte superiore e un miglioramento del throughput fino a cinque volte rispetto alle generazioni precedenti, con un’efficienza energetica potenziata dalla tecnologia Dell PowerCool. Il server Dell PowerEdge XE7745, previsto per luglio 2025, supporterà fino a otto GPU Nvidia RTX Pro 6000 Blackwell Server Edition in uno chassis 4U, offrendo una piattaforma versatile per casi d’uso che spaziano dalla robotica ai digital twin, fino alle applicazioni multimodali.

Dell amplia anche la propria offerta nel networking con l’introduzione degli switch PowerSwitch SN5600 e SN2201 Ethernet, che fanno parte della piattaforma Nvidia Spectrum-X, e della tecnologia Nvidia Quantum-X800 InfiniBand. Questi dispositivi ad alta densità e bassa latenza garantiscono throughput fino a 800 Gbps e sono supportati dai servizi Dell ProSupport e Deployment Services per accompagnare le aziende in ogni fase del percorso di implementazione AI.

La piattaforma software Nvidia AI Enterprise, ora disponibile direttamente da Dell, permette di sfruttare appieno le potenzialità di Dell AI Factory con strumenti avanzati come i microservizi Nvidia NeMo, i blueprint di AI, i modelli Llama Nemotron e i Retriever per RAG, tutti pensati per semplificare la creazione di workflow di agenti AI e ottenere risultati in tempi più rapidi. La compatibilità con Red Hat OpenShift aggiunge un ulteriore livello di flessibilità e sicurezza, consentendo implementazioni AI critiche in ambienti ibridi oppure on-premise.

Dell ha anche introdotto nuovi servizi gestiti per Dell AI Factory con Nvidia, con monitoraggio costante dell’intero stack, dai server all’infrastruttura software, e funzioni di aggiornamento, reportistica e gestione operativa 24 ore su 24, offrendo così un supporto scalabile e proattivo, anche in assenza di competenze interne.


Ecosistema completo

Da segnalare anche un'importante innovazione nella gestione termica dei data center, con il sistema PowerCool Enclosed Rear Door Heat Exchanger (eRDHx), che cattura il 100% del calore IT generato e consente di raffreddare i rack in modo più efficiente, riducendo i costi fino al 60% rispetto alle soluzioni tradizionali. Grazie a temperature dell'acqua più alte, tra i 32 e i 36 gradi, e alla possibilità di installare fino al 16% in più di rack, questa tecnologia permette una maggiore densità di computing senza aumentare i consumi. Il raffreddamento fino a 80 kW per rack lo rende particolarmente adatto per ambienti AI e HPC. L’integrazione con i rack IR7000 di Dell e con il controller unificato Dell Integrated Rack Controller garantisce anche sicurezza e monitoraggio continuo, minimizzando i rischi operativi.

Di rilievo anche l’estensione dell’ecosistema AI di Dell, che si arricchisce con collaborazioni strategiche. Tra queste spicca l’integrazione con Cohere North per l’AI on-premise, la disponibilità delle soluzioni Google Gemini e Google Distributed Cloud sui server PowerEdge, il supporto per Llama 4 di Meta grazie alla nuova distribuzione Llama Stack, e la partnership con Glean per portare la piattaforma Work AI on-premise. Dell collabora anche con Mistral AI per offrire soluzioni flessibili di AI agentica e knowledge management personalizzabili.

Infine, la Dell AI Factory ora include la nuova AI Platform con AMD, dotata di rete storage a 200 Gbps e lo stack ROCm aggiornato per workload LLM, e la piattaforma AI con Intel, pensata per accelerare l’adozione di infrastrutture AI scalabili con gli acceleratori Gaudi 3. Dell rinnova anche NativeEdge per supportare inferenza e AI direttamente all’edge, completando una strategia che punta a portare l’intelligenza artificiale ovunque.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di ImpresaCity.it iscriviti alla nostra Newsletter gratuita.
Abbonati alla rivista ImpresaCity Magazine e ricevi la tua copia.

Notizie correlate

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter

www.impresacity.it - 8.3.21 - 4.6.1