Logo ImpresaCity.it

Il percorso dello storage sempre più al servizio del valore

La moltiplicazione delle informazioni e della loro circolazione porta le imprese ad aumentare le necessità di memorizzazione e di analisi efficaci

Autore: Roberto Bonino

storage-in-big-data-market.jpg
Se il secolo scorso è stato contraddistinto dalla corsa al petrolio, già dall’inizio degli anni 2000 è apparso chiaro come il nuovo eldorado sia rappresentato dai dati. Servisse una prova, non ci è voluto molto tempo a Google, un’azienda che non fa altro che gestire dati, per superare Exxon Mobile in termini di capitalizzazione finanziaria nel mondo.

In questi anni, le questioni legate a Big Data, IoT, intelligenza artificiale e cloud si sono aggiunte allo scenario, andando a incidere sugli sviluppi delle infrastrutture It necessarie per estrarre valori dai dati.

Un recente studio intitolato “Big Data Executive Survey” e condotto da New Vantage Partners mostra come l’80% delle imprese considerino che i loro investimenti nei Big Data siano arrivati a una qualche forma di successo e quasi la metà abbia potuto misurare un ritorno sull’investimento.

In dettaglio, fra le imprese inserite nella classifica Fortune 1000, il 37% ha investito oltre 100 milioni di dollari negli ultimi cinque anni su questo fronte. Ma il successo di questi progetti non può ritenersi tale senza un impiego ottimale dell’infrastruttura e dello storage. Non è un caso che in queste realtà Nas in modalità scale-out e dispositivi su tecnologia flash o Hdd convivano per rispondere a differenti necessità.

Lo scenario tecnologico
Lo storage distribuito, spesso assimilato all’utilizzo dell’infrastruttura Hadoop e del grid computing, si sta creando uno spazio importante. Da una parte, c’è il tema dei costi, ritenuti vantaggiosi poiché l’infrastruttura può essere implementata direttamente su dischi esistenti e interni ai server.

Inoltre, occorre considerare la prossimità con gli ambienti di calcolo, poiché ciascun nodo di cluster concentra in un’unica soluzione storage ed elaborazione. Per altro verso, questa soluzione richiede molto sforzo di parametrizzazione per essere utilizzata in modo ottimale nel mondo dei Big Data.

Anche il Nas in cluster è una soluzione di storage distribuito. Contrariamente a quella appena descritta, qui l’analisi dei dati non viene eseguita direttamente sui nodi di cluster. La potenza delle Cpu può essere così interamente dedicata alle funzioni di storage.

Le performance offerte dai Nas scale-out hanno fatto sì che oggi siano molto utilizzati per i calcoli su volumi di dati molto grandi. In effetti, l’aggiunta di un nodo porta maggiore capacità, ma richiede una superiore ampiezza di banda. Questo tipo di infrastruttura è stata, per esempio, implementata al Cineca, il famoso consorzio italiano dedicato alla ricerca, per la propria soluzione Hpc.

I Nas scale-out, inoltre, integrano maggiori funzionalità (backup, restore, compressioni, replica e altro) rispetto alle soluzioni classiche di storage distribuito. Una piccola nota stonata, tuttavia, è rappresentata dal fatto che le performance di questi sistemi degradano per la memorizzazione di piccoli file.

Anche se spesso reputato troppo costoso per i Big Data, l’utilizzo della tecnologia flash si sta comunque sviluppando. In certi casi, è necessario avere risultati in tempo reale, caratteristica tipica di questo genere di soluzioni, soprattutto nel quadro di elaborazioni meno consistenti rispetto a quelle Big Data.

Le unità flash si stanno dimostrando utili anche per l’impiego di database in-memory, mentre nel campo di soluzioni software-defined su unità ibride (Ssd e Hdd), il flash può offrire risultati soddisfacenti sia in termini di costi che di prestazioni.

Infine, lo storage a oggetti ha qualche elemento da far valere. Come nelle tipologie precedenti, esso si basa su un insieme di nodi distribuiti, capace di memorizzare set di dati contenenti miliardi di oggetti. Potendo essere replicati su differenti siti geografici, questi set permettono l’esecuzione di richieste differenti sugli stessi dati in diverse località del pianeta. Molti costruttori stanno tentando di proporre soluzioni che integrino direttamente lo storage a oggetti.

L’importanza di un’efficiente amministrazione
L’insieme di queste tecnologie richiede l’utilizzo spinto di soluzioni di gestione dello storage. Una semplice San non è più sufficiente. L’impiego del software-defined storage (Sds) diventa fondamentale, soprattutto con soluzioni come vSan di VMware, OpenStack o Red Hat Ceph.

Il loro utilizzo apporta soprattutto una scalabilità più alta dell’infrastruttura e permette di semplificarne l’amministrazione. L’Sds, inoltre, può assicurare l’integrazione diretta di funzionalità come il backup, il ristoro, la compressione o la deduplica. Lo storage a oggetti aggiunge anche una migliore protezione dei dati.

Quest’ultima è una delle preoccupazioni principali dei Cio, anche per necessità di adeguamento normativo (leggasi Gdpr). Oltre alle soluzioni classiche di Sdn, Siem e protezione delle infrastrutture, diversi produttori hanno iniziato a proporre una security by design, che si spinge all’interno dell’hardware.

Per soddisfare le esigenze di costi e prestazioni fissate a monte, le imprese possono oggi far leva su diverse soluzioni per elaborare e memorizzare grandi volumi di dati. Ciò che appare più importante è garantirsi una flessibilità infrastrutturale per poter elaborare anche grandi volumi di dati non strutturati.

Di sicuro, che si scelga un semplice storage distribuito (di facile implementazione e più economico) rispetto a infrastrutture Nas scale-out (più onerose, ma anche più performanti), i sistemi devono comunque evolvere per trarre il massimo valore dai dati oggi a disposizione.
Pubblicato il: 20/06/2017

Tag:

Cosa pensi di questa notizia?

Speciali

speciali

F-Secure: Download PDF

speciali

HPE - Le tecnologie, le soluzioni