Pure Storage, col Data Hub gli Analytics e l’Intelligenza Artificiale sono senza silos

Una nuova architettura data centric per superare la logica nata con i dischi e ormai superata dalle nuove esigenze sempre più guidate dai dati

Autore: Redazione ImpresaCity

Rinnovare l’architettura storage per i carichi di lavoro non strutturati e soprattutto data-intensive: questa l’idea alla base dell’architettura data hub progettata da Pure Storage partendo da FlashBlade, che si configura come un'architettura incentrata sui dati archiviati ma sempre pronti ad alimentare gli analitycs e l'AI.

È un fatto che nel contesto sempre più data-driven di oggi le infrastrutture IT devono in primo luogo tenere conto dei dati, dandovi accesso completo e in tempo reale. Ma le soluzioni più diffuse oggi sono state progettate per i dischi, e hanno storicamente contribuito a creare silos di dati. Un’architettura data hub è invece progettata per fornire, condividere e unificare i dati, offrendo la possibilità di accedere a un valore senza precedenti.  

"I silos di dati sono un punto debole in ogni settore. Le aziende hanno bisogno di estrarre valore dai dati anche quando questo valore è nascosto, il che è impossibile senza una visione d'insieme", sottolinea Matt Burr, GM di FlashBlade in Pure Storage. "Abbiamo creato un sistema di storage data-centrico che soddisfa i requisiti applicativi attuali e futuri con una moderna piattaforma progettata per lavorare per conto dei clienti". 

Oggi le aziende si affidano a quattro tipologie di soluzioni di analytics in silos: data warehouse, data lake, streaming analytics e cluster di AI. Un data hub integra le caratteristiche più importanti di queste quattro tipologie di silos e le unifica in una singola piattaforma, grazie a quattro caratteristiche principali: 

Throughput elevato sia per object storage che per archiviazione di file. I dispositivi di backup e data warehouse richiedono un throughput elevato per workload comuni e basati su file, e per applicazioni cloud-native e object-based
Architettura scale-out. La caratteristica primaria del data lake è la sua architettura scale-out nativa, che consente di scalare senza limiti i lavori batch, in quanto è il software, non l'utente, a gestire la resilienza e le prestazioni
Prestazioni multidimensionali. I dati non sono prevedibili e possono arrivare a qualsiasi velocità, pertanto le aziende necessitano di una piattaforma in grado di processare qualsiasi tipo di dato e con qualsiasi modello di accesso
Elaborazione in parallelo. Nell'industria informatica c'è stato un profondo cambiamento dalle tecnologie seriali alle tecnologie parallele, costruite per imitare il cervello umano, e lo storage deve omologarsi.

Visualizza la versione completa sul sito

Informativa
Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy. Chiudendo questo banner, acconsenti all’uso dei cookie.