NetApp, come migliorare il Data Analytics

NetApp, come migliorare il Data Analytics

Migliori prestazioni per array all–flash NetApp EF-Series e sistemi E-Series che aiutano a valorizzare i benefici di Splunk, Hadoop e database NoSQL

di: Redazione del 30/03/2016 10:36

Big Data & Analytics
 
NetApp ha annunciato una nuova versione del sistema operativo storage SANtricity per gli array all-flash NetApp EF-Series e sistemi E-Series. Con la nuova versione - affermano in NetApp - si accelerano le prestazioni per le applicazioni a bassa latenza ed elevati requisiti di IOPS così come per applicazioni che richiedono banda larga e ad alto throughput.

"Le nuove generazioni di applicazioni di business intelligence, come Splunk, Hadoop, e NoSQL stanno diventando strumenti chiave per l'impresa digitale sempre più alimentata dai dati. I clienti vogliono visibilità e prestazioni maggiori dati da queste applicazioni per prendere le decisioni migliori in un contesto economico in rapida evoluzione. Ed è in questo contesto che va letto il nuovo annuncio di SANtricity"

"La soluzione offre un elevato livello di affidabilità con funzioni automatizzate, opzioni di configurazione online, una gestione del RAID ai massimi livelli e monitoraggio proattivo. La piattaforma prevede anche la tecnologia predittiva NetApp AutoSupport che velocizza la risoluzione dei problemi fino al 60% e riduce i case a maggiore severità di oltre l’85%. I clienti possono accedere ad una applicazione di supporto su mobile, ad opzioni di supporto premium e servizi professionali per ottenere il massimo dalle loro soluzioni NetApp EF-Series ed E-Series".

La nuova versione del sistema operativo SANtricity è ottimizzata per le applicazioni di data analytics che aiutano i clienti a dare un senso all’enorme mole dati generata dai dispositivi connessi e all’ Internet of Things. Con SANtricity, i clienti possono ora:
  • Incrementare le performance di ricerca di Splunk fino al 69% rispetto ai commodity server con dischi interni.
  • Ottenere fino al 500% in più di prestazioni nella ricostruzione dei dati per Hadoop con pool dinamici di dischi rispetto ai commodity server con dischi interni e con il RAID 5.
  • Ricostruire 400GB di disco SSD in circa 15 minuti rispetto alle 10 ore necessarie per i database NoSQL con i commodity server e storage direct-attached.
  • Crittografare i dati a livello del disco con un impatto sulle prestazioni inferiore all’1% contro il 70% di impatto riscontrabile su Commodity server con dischi interni.
  • Costruire un’unica architettura per tier di dati hot, warm, cold, e frozen invece di adottare diverse architetture di archiviazione per ogni livello.
Tag notizia:

Cosa ne pensi di questa notizia?

Attualità

...continua

Opinioni e Commenti

...continua
 
 
 

Vota