Dimension Data, come orchestrare il processo di trasformazione del data center

Dimension Data, come orchestrare il processo di trasformazione del data center

Si va verso un modello ibrido e la sfida è sfruttare differenti modalità di sourcing per soddisfare al meglio esigenze applicative e di businesss

di: Piero Macrì del 18/06/2014 17:03

Cloud Computing
 
Consolidare, virtualizzare, automatizzare. Il percorso di evoluzione del data center è tutto concentrato in questo processo, spiega Enrico Brunero, LoB Data centre & cloud services manager di Dimension Data Italia. Il che significa promuovere una prospettiva di sviluppo delle infrastrutture che ha come punto di convergenza il cloud, in quanto il processo di automazione è intrinsecamente legato alla logica as a service e alla gestione software defined, che viene declinata attraverso le differenti componenti architetturali di server, di networking e di storage. E’ un processo che ha come obiettivo la messo a punto di un blocco funzionale dell’IT caratterizzato da alta flessibilità e allineato a esigenze di agilità del business (time to market). Il tutto si inserisce in un’attività di tipo trasformazionale che interessa tutte le risorse complessive di un sistema informativo.
Il cloud apre nuove opportunità di ottimizzazione del conglomerato hardware e software di ciascuna azienda. Non ci illudiamo, aggiunge però Brunero. Trasformare gli attuali assett IT in una dimensione as a service interesserà soltanto una parte delle risorse. La componente fisica non scomparirà e continuerà a essere parte integrante dell’esistente sebbene in una percentuale progressivamente minoritaria rispetto a quella virtualizzata. Quest’ultima tenderà a metabolizzare la capacità ancora oggi riferibile ai server fisici, ma si scontrerà con limiti oggettivi dovuti essenzialmente alla inamovibilità della componente legacy che congela una ragguardevole risorsa della dimensione media di un sistema informativo enterprise.
Se si solleva il coperchio di un qualunque data center si scopre che al suo interno vi sono una infinità di applicazioni e servizi che continuano a essere gestiti in regime di ordinaria amministrazione, senza che vi sia la possibilità, vuoi per mancanza di competenze, vuoi per mancanza di budget, di elevare il tutto a un ordine di livello superiore. Insomma dalle parole di Brunero appare che il sistema informativo aziendale corrisponde a un caos ben orchestrato, oggetto di sollecitazioni business e tecnologiche - vedi l’espansione e crescente importanza della mobility e delle infrastrutture wireless e la nuova frontiera dell’analisi dei dati (Big Data & Analitycs) - che impongono una trasformazione-innovazione del modo in cui si è finora gestito l’intero stack tecnologico di un sistema enterprise.
Si va verso un modello ibrido e la sfida è riuscire a sfruttare al meglio le differenti modalità di sourcing che meglio si adattano a soddisfare esigenze applicative e di businesss. Non esiste un percorso di trasformazione applicabile a tutte le realtà. Ogni organizzazione deve fare una valutazione attenta dei propri workload e comprendere quali percorsi evolutivi prevedere per ciascuno di essi, cloud e/o on premise, e lavorare conseguentemente a un processo di ottimizzazione che preveda deployment differenziati. Percorsi che Dimension Data, in virtù della sue competenze come system integrator e come cloud service provider (è parte Cisco Intercloud) è in grado di assecondare aiutando i clienti a realizzare un ambiente più performante e aperto a supportare nuove iniziative.
Come ricorda Stefano Paganelli, LoB NI&Security Manager di Dimension Data Italia, affrontare i percorsi sopra descritti significa scontrarsi con complessità di ogni genere. Per quanto riguarda l’ottimizzazione dell’infrastruttura di networking vi sono logiche di nuova generazione, come appunto quelle definite secondo il paradigma software defined, che hanno una serie di limitazioni e vincoli nella loro possibile implementazione. Traslare l’intelligenza dai singoli dispositivi a uno strato software in grado di gestire con assoluta flessibilità i workload, in altre parole rendere le reti programmabili, è una sfida sulla quale si stanno esercitando gran parte dei vendor. E come sempre accade, nel momento in cui appaiono sul mercato nuovi mergenti possibili standard, si ha a che fare con tecnologie che soddisfano solo in parte i requisiti necessari. Per poter gestire la complessità e assecondare criteri di performance si deve spesso, quanto meno nella fase di transizione a un mercato maturo, ricorrere a tecnologia proprietaria.
Con l’intento di aiutare le organizzazioni a comprendere il software-defined networking e l’impatto che l’SDN avrà sulle operazioni ICT e i protocolli e le architetture di rete necessari per definire le visioni di rete future, Dimension ha messo a punto un Software-defined Networking Development Model. Il tutto si traduce inattività di workshop volte a garantire una comprensione condivisa dell’SDN prima di passare all’analisi dell’impatto dell’SDN in quattro aree fondamentali dell’infrastruttura, delle operazioni, dell’organizzazione e dell’allineamento di business. Sulla base delle analisi dei risultati del workshop, spiega Paganelli, i clienti riceveranno una serie di indicazioni e suggerimenti su come l’organizzazione possa cominciare il proprio programma SDN e quali azioni specifiche intraprendere atte a garantire il successo di questa iniziativa.
Secondo Dimension Data per molte organizzazioni il modo più efficace per cogliere le sfide future sarà rappresentato dall’IT as a service, dai servizi gestiti e dall’outosurcing. Non a caso la società prevede che nei prossimi cinque anni la propria componente di servizi data center possa raggiungere nel giro di 5 anni una cifra prossima ai 4 miliardi di dollari. Attualmente Dimension Data dispone di 12 sedi di public cloud in tutto il mondo e ulteriori sedi saranno operative nei prossimi trimestri.
Tag notizia:

Cosa ne pensi di questa notizia?

Attualità

...continua

Opinioni e Commenti

...continua
 
 
 

Vota