▾ G11 Media Network: | ChannelCity | ImpresaCity | SecurityOpenLab | GreenCity | Italian Channel Awards | Italian Project Awards | ...

Come cresce lo Unified Data Storage di NetApp

Nuovi sistemi hardware e il continuo miglioramento di Ontap mirano ad allineare lo storage con le attuali esigenze delle imprese, con AI e cloud in prima fila

Trasformazione Digitale

Assemblare liberamente una infrastruttura di storage indipendentemente da dove sono i dati (on-premise, in cloud...) o dal tipo di storage (a oggetti, a blocchi...), in maniera eterogenea ma anche trasparente e con una gestione integrata. Sembra la metafora dei mattoncini Lego applicata allo storage, in casa NetApp è un approccio concreto - lo Unified Data Storage - che viene regolarmente "rinfrescato" con annunci che lo ampliano e lo modernizzano. Cercando anche - ed è un elemento importante per mercati come l'Italia - di estenderlo con prodotti adatti alle imprese di ogni dimensione.

In questo senso, molte aziende italiane che devono modernizzare il loro storage possono ora considerare anche le nuove unità ASA-C presentate all'evento Insight, unità che sono idealmente "figlie" dei sistemi ASA-A lanciati lo scorso maggio. Come questi, i nuovi ASA-C sono soluzioni di storage a blocchi, ma a differenza dei modelli precedenti puntano al miglior rapporto prezzo/prestazioni e non alle massime performance. Volendo fare un parallelo con altre linee di prodotto NetApp, nel mondo a blocchi la linea ASA-C sta alla ASA-A come, nello storage unificato, la linea AFF-C sta alla AFF-A.

Il mercato per le unità ASA-C non dovrebbe mancare. "È una soluzione - spiega Roberto Patano, Sr. Mgr. Systems Engineering di NetApp Italia - che per costi, performance e sostenibilità avrà sicuramente successo nel comparto delle SAN per le PMI. Stimiamo che il 70% circa del mercato italiano sia fatto di SAN e che il 40% sia ancora non all-flash. Ci sono cioè ancora molti clienti che hanno bisogno di soluzioni più convenienti per fare il passaggio al mondo flash".

Fonte: NetApp

E attenzione a non considerare riduttivo il richiamo alle esigenze di storage delle imprese anche di dimensioni medie e piccole. "Le complessità del data management non sono sempre proporzionali alle dimensioni delle imprese", ricorda Davide Marini, Country Manager Italy di NetApp: "tutti i clienti che malvolentieri dovevano rimanere su una tecnologia ibrida per questione di costi possono recepire il valore di queste nuove soluzioni".

Le applicazioni che NetApp considera ideali per i nuovi sistemi ASA-C comprendono i database business critical e operativi, gli ambienti di virtualizzazione VMware, backup e Disaster Recovery, i workload a blocchi che non richiedono una latenza inferiore al millisecondo. La linea al momento comprende tre modelli (C250, C400, C800: si parte da 122 TB) che gestiscono gli stessi protocolli e possono essere associati in configurazioni da alta disponibilità active-active o in cluster sino a 88 PB di capacità.

Più integrazione cloud

Lo Unified Data Storage di NetApp necessita di un collante che connetta i suoi "mattoncini": è tradizionalmente il sistema operativo Ontap, che muove tutti i prodotti di NetApp e svincola la parte software da quella hardware. Lo sviluppo del modello unificato deriva anche dal progressivo potenziamento di Ontap, che acquista regolarmente qualche funzione.

Tra i ben 88 miglioramenti di Ontap 9.14.1 di recente presentati a NetApp Insight spiccano in particolare le funzioni relative all'integrazione tra storage e cloud (per la Google Cloud Platform, AWS, Azure, i servizi cloud "first party" di NetApp) e per l'ottimizzazione - operativa e dei costi - degli ambienti Kubernetes.

Davide Marini, Country Manager Italy di NetApp

Tutte funzioni allineate con una visione più matura e meno semplicistica del cloud da parte delle imprese. "Il problema dei costi dello spostamento dei dati comincia a sentirsi - spiega Roberto Patano - e vediamo una maggiore capacità di analisi da parte delle imprese. Anche le più entusiaste stanno valutando cosa riportare on-premise e cosa lasciare in cloud, anche perché sta maturando la capacità di sviluppo in casa dei microservizi".

In un panorama applicativo sempre in cambiamento, l'idea di NetApp per supportare gli utenti è di andare nella direzione dei data service. "La nostra priorità - spiega Davide Marini - è lasciare ai clienti la possibilità di definire le loro strategie dei dati come credono e per tutti i possibili cambiamenti futuri. Grazie al plus di Ontap i clienti possono modificare la loro strategia facilmente e rapidamente, anche con un approccio più consapevole verso il cloud".

Tra sicurezza e AI

Difficile parlare oggi di gestione dei dati senza parlare anche di sicurezza - serve a poco conservare i dati ma proteggerli male, o affatto - e di Intelligenza Artificiale, ai cui algoritmi sempre più spesso sono dati in pasto i dati gestiti in azienda.

Lato sicurezza NetApp punta nettamente sulle sue "assicurazioni" per la protezione dei dati, come la Ransomware Recovery Guarantee estesa per tutti i sistemi AFF, ASA e FAS. Tra le altre novità principali debutta la Ransomware Recovery Assurance, un nuovo servizio con un prezzo target inferiore ai 10 mila dollari, e arrivano in versione preliminare BlueXP Disaster Recovery, per il DR dei workload VMware verso altri ambienti Ontap on-premise o su cloud VMware o AWS, e SnapMirror, una replica sincrona dei dati di un sistema su un mirror in configurazione active-active.

In ambito Intelligenza Artificiale, NetApp prosegue sulla strada di sviluppare un ecosistema di servizi e applicazioni il più integrato possibile per la gestione dei dati in ambienti di addestramento degli algoritmi di AI. È una evoluzione che l'azienda sta seguendo da circa cinque anni, dopo le prime collaborazioni con Nvidia. La novità recente è l'integrazione dei sistemi AFF C-Series con le componenti software dedicate all'AI e con i DGX BasePOD di Nvidia, per realizzare un sistema integrato e certificato per la gestione di workload "leggeri" di machine learning.

Altre novità funzionali riguardano l'immancabile AI generativa. Ora è in particolare possibile collegare gli storage array on-premise con il servizio Vertex AI di Google Cloud, per passargli cloni dei dati conservati in locale. È anche possibile realizzare pipeline di dati da e verso alcuni servizi di AWS (Sagemaker, Bedrock, Kafka) che possono abilitare applicazioni di AI generativa.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di ImpresaCity.it iscriviti alla nostra Newsletter gratuita.

Notizie correlate

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter