▾ G11 Media Network: | ChannelCity | ImpresaCity | SecurityOpenLab | GreenCity | Italian Channel Awards | Italian Project Awards | ...

HPE, la generazione cloud per la trasformazione digitale

Estensioni, potenziamenti e aggiornamenti di tutti gli elementi architetturali e infrastrutturali per modernizzare il business IT

Trasformazione Digitale Cloud
Estendere e consolidare tutti gli elementi infrastrutturali e software che abilitano il nuovo corso dell’IT, più flessibile, più agile, allineato alle esigenze di ambienti enterprise che devono coniugare tradizione e innovazione in una logica che sposa il paradigma ibrido con possibilità di associare cloud privato e pubblico con tutte le eventuali risorse IT esistenti sia a livello dati e applicativo.

E’ quanto emerge nel corso di dell’evento Discover 2016, in corso in questi giorni a Las Vegas. E’ la focalizzazione promessa dal Ceo Meg Whitman nel momento in cui HPE ha iniziato una vita propria separata dal business delle stampanti e dei Pc e, da ultimo, dalla stessa componente dei servizi, che confluirà come annunciato nei giorni scorsi in una società a capitale misto con CSC. 

whtiman-discover.jpg
Se da una parte sono state gettate da tempo le fondamenta hardware della nuova architettura - che deve supportare e accompagnare i clienti in un viaggio che li condurrà a trasformare le proprie organizzazioni in potenziali player digitali, sperimentando e abilitando nuovi processi e al contempo ottimizzando l’esistente - molto lavoro deve essere compiuto nella dimensione software, vero terreno di sfida su cui si gioca la capacità di HPE di porsi come interlocutore privilegiato nei confronti di quegli utenti che guardano al cambiamento come opportunità per realizzare quello che da sempre è stato il sogno dell’IT: il disaccoppiamento dell’intelligenza software dalla componente hardware, obiettivo che oggi si può traguardare attraverso la logica software defined, trasversale a tutte le risorse enterprise, di computing, di storage e di networking. Obiettivo che porta con sé il mantra della modernità: essere potenzialmente business defined, ossia disporre di un’IT capace di abilitare e adattarsi a obiettivi aziendali con estrema velocità. 

Sistemi convergenti e iperconvergenti, che integrano molteplici rissorse di computing e di storage, tecnologia all-flash con memorie a stato solido, container vs virtual machine per distribuire workload su una molteplicità di infrastrutture eterogenee, sono queste le fondamenta hardware che si interfacciano con una nuova generazione di software defined, vero collante dei nuovi ed eterogenei agglomerati IT, che HPE sintetizza con il termine composable infrastructure.

Rapidità di sviluppo, grazie a logica DevOps, disponibilità adattativa che tende a superare il concetto di virtualizzazione sinora espresso nei data center per razionalizzare e ottimizzare le risorse IT. Nel giro di un paio di anni – afferma Antonio Neri, presidente e general manager Enterprise Group – più del 50% dei workload sarà implementato in container”.

Per realizzare la new IT tutti gli elementi che concorrono a creare l’architettura software defined devono essere strettamente integrati gli uni con gli altri presentando un percorso di adozione il più possibile fluido e semplificato. E’ questa la sfida che ha di fronte HP, al pari di altri vendor che si ergono a paladini dell’ambiente data center di nuova e futura generazione. 


Gli annunci che si sono susseguiti nel corso del Discover di Las Vegas interessano gran parte dei layer che concorrono alla realizzazione del nuovo data center state of the art, ovviamente un framework non completo perché perfettibile, ma che ne costituisce gli ingredienti di base e le stesse fondamenta, ora migliorate, potenziate ed estese: Helion Cloud software declinato in differenti versioni e in grado di essere il riferimento per lo sviluppo e gestione di ambienti eterogenei cove convivono risorse tradizionali, virtualizzate, cloud e container; nuova versione OneView per la gestione di infrastruttura convergente; nuovo storage all flash 3PAR con capacità monster di 7 e 15 Terabyte e Server Docker ready; piattaforme abilitanti l’IoT (annunciata partnership con General Electric) e piattaforme Big Data così come un avanzamento del progetto The Machine, supercomputer che utilizza tecnologie innovative di In-Memory computing per rispondere a alle sfide del supercalcolo in ambienti applicativi di nuova generazione.
Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di ImpresaCity.it iscriviti alla nostra Newsletter gratuita.

Notizie correlate

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter