Nuovi server e soluzioni HP per carichi di lavoro data-intensive coerenti con esigenze Big Data, In-memory Computing ed ottimizzazione ambienti transazionali. Le piattaforme sono dunque costruite appositamente per una serie di tecnologie e applicazioni emergenti, tra cui mass content storage, block e file storage, l'analisi dei dati non strutturata in tempo reale, nonché i tradizionali database transazionali.
I nuovi server e soluzioni comprendono: HP Apollo 2000, la famiglia HP Apollo 4000 Systems, Big Data Reference Architecture, HP Integrity Superdome X e HP ProLiant DL580, DL560 e BL660c. Questi server - affermano in HP - sono progettati per ottimizzare la capacità e la scalabilità delle prestazioni, la flessibilità e l’efficienza dei consumi tramite caratteristiche uniche che risolvono i problemi di spazio, alimentazione e raffreddamento del data center.
Nel video la logica che muove il nuovo approccio alle piattaforme di computing di HP
"Il volume, la velocità e la varietà dei dati, in costante crescita, hanno esteso le tecnologie server tradizionali oltre i loro limiti: è pertanto necessaria una serie di piattaforme di computing appositamente progettate per estrarre il massimo valore dai dati", ha affermato Alain Andreoli, Senior Vice President e General Manager, Servers Business Unit, HP. "HP sta innovando il design del suo portfolio Compute per allinearlo alle specifiche esigenze dei carichi di lavoro, al fine di aiutare i clienti a ottenere risultati di business importanti sfruttando i dati con modalità che in passato erano impossibili".
Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di
ImpresaCity.it iscriviti alla nostra
Newsletter gratuita.