▾ G11 Media Network: | ChannelCity | ImpresaCity | SecurityOpenLab | GreenCity | Italian Channel Awards | Italian Project Awards | ...

Red Hat, con Run:ai per ottimizzare i workload AI nel cloud ibrido

Run:ai su OpenShift AI aiuta a massimizzare le risorse GPU e a semplificare i flussi di lavoro connessi all’intelligenza artificiale

Tecnologie

Collaborazione tra Red Hat e Run:ai, attiva nell’ottimizzazione e nell’orchestrazione dell’AI, per portare le funzionalità di allocazione delle risorse di Run:ai su Red Hat OpenShift AI. Semplificando le operazioni AI e ottimizzando l’infrastruttura sottostante, questa collaborazione consente alle aziende di ottenere il massimo dalle risorse AI a disposizione, ottimizzando i flussi di lavoro sia hardware sia dei team, su una piattaforma MLOps affidabile per la creazione, la messa a punto, la distribuzione e il monitoraggio di applicazioni e modelli abilitati all’AI su scala.

Le GPU guidano i flussi di lavoro dell’AI, consentendone l’addestramento dei modelli, l’inferenza e la sperimentazione, ma il loro utilizzo può comportare costi notevoli, soprattutto nel caso di compiti distribuiti di addestramento e inferenza. Red Hat e Run:ai stanno lavorando per soddisfare questa esigenza critica di ottimizzazione delle risorse GPU con Run:ai’s certified OpenShift Operator on OpenShift AI, che aiuta gli utenti a scalare e ottimizzare i loro carichi di lavoro AI ovunque si trovino.

Partecipa agli ItalianSecurityAwards 2024 ed esprimi il tuo voto premiando le soluzioni di cybersecurity che reputi più innovative

La piattaforma di orchestrazione di calcolo cloud-native di Run:ai su Red Hat OpenShift AI aiuta a risolvere problemi di pianificazione delle GPU per i carichi di lavoro AI con uno schedulatore dedicato per assegnare più facilmente le priorità ai carichi di lavoro mission-critical e consentire l’allocazione delle giuste risorse per supportare tali carichi di lavoro; utilizzare GPU frazionali e capacità di monitoraggio per allocare dinamicamente le risorse in base alle priorità e alle policy preimpostate e aumentare l’efficienza dell’infrastruttura; e infine migliorare controllo e visibilità sull’infrastruttura di GPU condivisa per facilitare l’accesso e l’allocazione delle risorse tra i team IT, di data science e di sviluppo delle applicazioni.

La crescente adozione dell’AI e la domanda di GPU impone alle aziende di ottimizzare la propria piattaforma AI per ottenere il massimo dalle proprie operazioni e infrastrutture, indipendentemente dalla loro collocazione nel cloud ibrido. Grazie alla nostra collaborazione con Run:ai, stiamo consentendo alle organizzazioni di massimizzare i carichi di lavoro AI su scala senza sacrificare l’affidabilità di una piattaforma AI/ML o le risorse GPU preziose, ovunque sia necessario”, commenta Steven Huels, vicepresidente e direttore generale della Business Unit AI di Red Hat.

Combinando i punti di forza MLOps di Red Hat OpenShift con l’esperienza di Run:ai nella gestione delle infrastrutture di intelligenza artificiale, stiamo innalzando gli standard dell’AI aziendale fornendo scalabilità continua e gestione ottimizzata delle risorse”, aggiunge Omri Geller, CEO e fondatore di Run:ai.

L’operatore OpenShift certificato di Run:ai è già disponibile, ma Red Hat e Run:ai fanno sapere che intendono continuare a sviluppare questa collaborazione con ulteriori capacità di integrazione.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di ImpresaCity.it iscriviti alla nostra Newsletter gratuita.

Notizie correlate

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter