Vmware, come virtualizzare il Big Data

Vmware, come virtualizzare il Big Data

Per Alberto Bullani, country manager di Vmware italia, la definizione di un ambiente integrato e scalabile di Big Data non può prescindere dalla creazione di risorse virtualizzate secondo la logica del Software Defined Datacenter

di: pm del 14/03/2013 10:00

Big Data & Analytics
 
“L’espressione Big Data è stata spesso utilizzata in modo eccessivo e confuso. Ma al di là delle definizioni marketing inizia a esistere la consapevolezza che i big data possono essere un’opportunità per le aziende di tutte le dimensioni per raccogliere informazioni importanti per guidare la crescita della propria attività di business”. E’ con queste parole che Alberto Bullani, Regional Manager Vmware Italia, contestualizza il nuovo emergente fenomeno dell’analisi di dati che rende implicita la possibilità di gestire grandi volumi di dati strutturati-non strutturati con capacità elaborative molto più efficienti in grado di generare tempi di risposta near real-time.
In buona sostanza l’idea di Bullani è che Il Big Data deve poter essere visto dalle aziende come un possibile vantaggio competitivo. “Proviamo a immaginare, per esempio, cosa potrebbe voler dire riuscire a generare report di vendite in real time 24/7 anche su dispositivi mobili: maggiore flessibilità, informazioni e reattività. Il vantaggio di avere queste informazioni non dovrebbe essere sottovalutato”, dice Bullani”.
“Si deve introdurre in azienda un atteggiamento diverso che veda i dati non soltanto come risposta ad esigenze puramente operative, ma come leva per migliorare i processi decisionali. Il problema che si trovano ad affrontare le aziende nel mettere a punto un efficiente ambiente Big Data è l’integrazione di dati residenti o provenienti da molteplici basi dati. Si tratta, quindi, di introdurre un nuovo approccio nella creazione di servizi IT che deve prevedere la creazione di una piattaforma resiliente e scalabile, che può crescere e svilupparsi insieme alla crescente quantità di dati e statistiche”.
Per Bullani questo obiettivo può essere raggiunto mettendo in pratica un concetto che ha iniziato a raccogliere attenzione nella seconda metà del 2012, quello definito come Software Defined Datacenter. “Il risultato? Una infrastruttura agile e fluida, definita e controllata dal software. La virtualizzazione è il primo passo per spostarsi al Software Defined Datacenter, ma questo necessita uno spostamento verso storage e networking virtualizzati. Un ambiente così definito può poi permettere l'adozione di tecnologie big data come Hadoop, che è stata recentemente virtualizzata come parte del progetto Serengeti Open Source ed è studiata per permettere alle aziende di sfruttare quantità di dati veramente enormi per ottenere un vantaggio competitivo”.
In conclusione per Bullani l’approccio al Big Data necessita di un cambiamento verso tecnologie e architetture nuove e più scalabili poiché le richieste legate a queste necessità superano le prestazioni delle infrastrutture esistenti.
Tag notizia:

Cosa ne pensi di questa notizia?

Attualità

...continua

Opinioni e Commenti

...continua
 
 
 

Vota