▾ G11 Media Network: | ChannelCity | ImpresaCity | SecurityOpenLab | GreenCity | Italian Channel Awards | Italian Project Awards | ...

Hpe esibisce il prototipo di The Machine

Circa 13 anni dopo l'avvio del progetto, si vede ora la prima concretizzazione della rivoluzione annunciata.

Cloud
Nel 2004, Kirk Bresniker, allora capo architetto presso gli Hp Labs, aveva per la prima volta esplicitato l'intenzione di dar vita a un progetto capace di apportare cambiamenti radicali all'architettura dei sistemi informatici. Tredici anni dopo, The Machine assume una prima veste concreta con un prototipo mostrato nei laboratori nel Colorado.
Fin dalle origini, il progetto di Bresniker si fondava sull'idea di realizzare un computer che potesse utilizzare tecnologie all'avanguardia, come i memristors e le connessioni fotoniche. Quello che si inizia a vedere ora è ancora abbastanza distante dai piani resi pubblici al momento dell'avvio ufficiale del progetto nel 2014. Tuttavia, sì conferma soprattutto la volontà di superare le limitazioni collegate alle tradizionali architetture di pc e server, dove la memoria rappresenta un collo di bottiglia.
Basandosi sul concetto tecnologico di Memory-Driven Computing, The Machine offre una capacità di 160 Tb, ripartiti su 40 nodi fisici interconnessi con una architettura fabric che utilizza link ad alte prestazioni. Nessun server oggi sul mercato può vantarsi di ottenere questa capacità di memoria, che rappresenta tre volte la Dram dei Superdome X della stessa Hpe.
hpe-kirk-bresniker.jpgLe connessioni sono ripartite su una rete a maglia, in modo tale che i nodi di memoria e i processori possano comunicare più rapidamente fra loro. I controller di interconnessione sono Fpga. The Machine ospita 1,280 core Armv8-A Cavium Thunder X2, con una versione ottimizzata del sistema operativo Linux: “Una delle missioni dei nostri laboratori e di apprendere e comprendere - ha commentato Bresniker -. In questa logica va intesa la scelta di usare i processori Arm, visto che già conosciamo molto sugli omologhi di Intel e Amd”. 

Una prima pietra per guardare già avanti

The Machine è un sistema distribuito, che scompone l'elaborazione fra diverse risorse. Questo supercomputer è già pronto anche per ospitare future tecnologie. Gli slot sono capaci di ospitare connettori fotonici, allo scopo di legare storage, memoria e processori su un'architettura fabric ultrarapida. L'interconnessione stessa anticipa il protocollo Gen-Z, supportato dai principali produttori hardware. Hpe intende migliorare il sottosistema di memoria e storage nei pc e nei server. Se i dati sono elaborati più rapidamente in queste componenti, si riduce la necessità di accelerare le istruzioni nelle Cpu.
Tuttavia, il costruttore non ha ancora risolto alcuni problemi rilevanti. Il modello iniziale di The Machine avrebbe dovuto utilizzare i cosiddetti memristors, una sorta di abbinamento fra memoria e resistenza, in grado di effettuare calcoli logici che possono aiutare i computer a prendere decisioni in funzione dei dati che conservano. La tecnologia era stata già annunciata nel 2008, ma ha subito numerosi ritardi: “Ci stiamo lavorando insieme a Western Digital”, ha puntualizzato Bresniker, il quale ha adottato un approccio open source per lo sviluppo di The Machine, con l'etica della cooperazione fra partner per costruire questo genere di macchina.
Sulla base dell'attuale prototipo, Hpe si aspetta che l'architettura possa crescere ancora in potenza, fino ad arrivare a un sistema che possa disporre di un exabyte di memoria, per poi salire ancora verso numeri ben superiori alla totalità dell'universo digitale conosciuto fino a oggi. L'enorme quantità di spazio di memoria promesse renderà possibile lavorare simultaneamente su singoli dati sanitari di ogni essere umano oppure su singoli dati memorizzati su Facebook o, ancora, su specifici tragitti effettuati dalle automobili driverless di Google, solo per fare esempi legati a sviluppi che oggi conosciamo: “La disponibilità concreta per i data center di The Machine dipende dalla supply-chain, dallo sviluppo del silicio, dagli accordi che si faranno sulle specifiche ed alla velocità dello sviluppo del software - conclude Bresniker -. Quest'ultimo aspetto è stato sempre limitato, ma anche orientato dalla legge di Moore. Se in futuro l'elaborazione basata sulla memoria diventerà lo standard, potremmo immaginare uno sviluppo del software in modalità completamente differenti”.
Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di ImpresaCity.it iscriviti alla nostra Newsletter gratuita.

Notizie correlate

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter