Logo ImpresaCity.it

Le tre strade dell'iperconvergenza

Dal tutto integrato delle appliance alle soluzioni solo software passando per le reference architecture: pro e contro delle possibili scelte

Autore: Redazione

Man mano che una infrastruttura IT cresce, spesso aumenta anche la complessità della sua architettura e quindi anche la sua gestione. La risposta dei vendor tecnologici a questo problema è stata rappresentata dai sistemi cosiddetti convergenti. In questo approccio le parti di elaborazione, storage e networking non sono più considerate del tutto separate ma come un insieme integrato compreso sotto l'ombrello di un’unica piattaforma software di management. A muovere il tutto è di solito uno strato di virtualizzazione delle risorse stesse, che permette di allocarle dinamicamente ai compiti che devono di volta in volta essere eseguiti.

In molti casi i sistemi convergenti hanno aperto la strada all'implementazione del passo concettuale successivo, ossia le soluzioni di Hyperconverged Infrastructure (o HCI). Per molte imprese si tratta di un approccio ancora un po' esoterico mentre è già stato ampiamente "assorbito" dagli hyperscaler per le proprie infrastrutture. Non è un caso, ovviamente: le HCI nascono per dare una maggiore elasticità rispetto ai sistemi convergenti e i datacenter dei grandi provider sono gli ambienti che maggiormente cercano elasticità e scalabilità.

Il pregio delle HCI sta nel premere l'acceleratore sul fattore della modularità come elemento chiave della scalabilità. Computing, networking e storage sono "mattoncini" il più possibile virtualizzati che possono essere attivati e allocati istantaneamente a seconda delle esigenze. Questo in linea di massima pone l'accento molto più sulla parte software delle soluzioni e meno sulla parte hardware, ma ciascun produttore calibra questo equilibrio in base alle sue esigenze e punti di vista. Per cui una HCI può avere tre forme concettuali molto diverse fra loro.

datacenter 2

Quella probabilmente più familiare alle imprese è l'appliance fortemente integrata. I vari componenti (elaborazione, networking, storage) sono fisicamente integrati, testati e spesso anche ottimizzati per uno specifico funzionamento. Una scelta legata anche al fatto che una buona fetta degli usi delle HCI è molto mirata: gestione di database, applicazioni enterprise, ambienti di desktop virtuali. Il vantaggio è quello della classica soluzione ad hoc: si ha un sistema studiato da zero per operare in un certo modo sfruttando al massimo le sue componenti. Il punto debole è prevedibilmente legato alla scalabilità, che è più o meno semplice a seconda delle scelte architetturali e di mercato del singolo vendor.

Per questo esiste la seconda strada delle reference architecture. In questo approccio i componenti di computing, storage e networking non devono essere integrati in una unica appliance ma possono essere sistemi diversi, purché riconosciuti dal vendor principale della soluzione e certificati per poter operare in sinergia. In sintesi si dà all'utente una "mappa" di riferimento dei componenti che può usare con la ragionevole certezza che funzioneranno insieme senza problemi. In questo modo si possono assemblare architetture più vicine ai propri bisogni e spesso più facilmente scalabili, serve però avere le competenze tecniche per seguire lo sviluppo del proprio sistema.

La terza opzione è quella più destrutturata e incentrata sulla piattaforma software di controllo e virtualizzazione delle risorse. Questa diventa l'elemento chiave mentre le risorse hardware sono fornite attraverso componenti hardware generici estremamente modulari, anche server x86 "unbranded" con storage integrato e connessi da collegamenti di rete ad alta velocità. Le risorse di elaborazione e di storage di ogni nodo sono combinate in un pool unico in cui tutto è software-defined ed è quindi particolarmente elastico. In molte imprese questa organizzazione così modulare e virtualizzata del datacenter non è ancora una realtà e potrebbe anche non prendere piede per lungo tempo, sta diventando invece la norma nei grandi datacenter dove ci sono da gestire decine di migliaia di server fisici.
Pubblicato il: 16/10/2017

Cosa pensi di questa notizia?

Speciali

speciali

MWC 2018

speciali

Red Hat Open Source Day, il futuro ha il sapore dell’open source