Logo ImpresaCity.it

Il futuro di Ibm fa leva sul cognitive computing

La strategia infrastrutturale di Big Blue punta su machine learning e intelligenza artificiale per aggiornare sistemi e applicazioni, su mainframe e architetture Power.

Autore: Roberto Bonino

Il cognitive computing è l’ombrello che oggi racchiude quel che resta dell’offerta architetturale di Ibm, le esperienze derivate dalla ricerca e ormai pronte per il mercato (Watson in testa) e il retaggio ibm-marco-utili.jpgdel passato da convertire alle esigenze della trasformazione digitale. La scelta cavalca molte delle tendenze in corso, ma serve anche a difendere le posizioni acquisite negli anni: “Non è vero che nell’era della digital disruption l’infrastruttura vada ritenuta una commodity – ribadisce Marco Utili, direttore dell’area sistemi in Ibm Italia -. Nella sua attuale declinazione ibrida, invece, dell’elemento abilitante nel passaggio dalla classica elaborazione transazionale dei dati a quella costruita sugli insight”.
All’interno di un’attività fatta confluire nella nuova divisione Cognitive, si collocano le più recenti evoluzioni, come la disponibilità del machine learning all’interno dei mainframe Serie Z, i processori PowerAi e una declinazione dello storage sempre più orientata alla memorizzazione selettiva dei dati in base alla loro rilevanza.
Portando, di fatto, le capacità di Watson sui mainframe, Big Blue si propone di fornire un’esperienza semplificata di modellazione dei dati e di implementazione dei modelli analitici soprattutto per gli specialisti dei dati all’interno delle aziende. Learning Machine for z/Os può supportare diversi framework Big Data, come Apache SparkMl, TensorFlow e H2O, oltre a essere compatibile con linguaggi di programmazione come Java, cala e Python, fra gli altri. Inoltre, la disponibilità èibm---andrea-negro.jpg assicurata anche on premise e non solo in cloud sulla piattaforma Bluemix, particolare questo non trascurabile per chi non vuole essere costretto a migrare i propri dati all’esterno per poterli elaborare: “Le caratteristiche tipiche del deep learning basato su reti neurali, che non richiedono preventiva programmazione – spiega Andrea Negro, Server Solutions Sales Manager di Ibm Italia – creano opportunità applicative, che stiamo già sfruttando, in ambiti come le automobili self-driving, la diagnostica medica o l’e-commerce basato su suggerimenti personalizzati”. 

Processori e storage al servizio dell’analisi dei dati

Dal punto di vista architetturale, sfruttando anche il lavoro della Open Power Foundation (che oggi conta oltre 300 partecipanti), l’ultima evoluzione si chiama PowerAi e si concretizza in un toolkit software, che contiene framework di deep learning e altri “blocchi” perlopiù open source, pacchettizzati per un uso aziendale e di rapida implementazione (40 minuti, secondo il costruttore). La soluzione si adatta ai sistemi di fascia alta, quindi a mercati relativamente ristretti, ma Big Blue intende comunque far leva sui partner per agevolarne la diffusione: “Diverse aziende innovative hanno già intuito il potenziale che si cela dietro deep e machine learning e conoscono i mercati ai quali rivolgersi. Noi intendiamo supportarle con la nostra competenza e la condivisione di metodologie come il design thinking”, aggiunge Negro.
Da ultimo, se i dati sono sempre più al centro delle strategie e dei processi di business delle aziende, il modo di trattarli dipende dal loro valore e, di conseguenza, occorre disporre delle tecnologie adatte ad automatizzare il più possibile la loro allocazione e lo spostamento in base alle necessità operative.
In questa direzione si muovono le più recenti evoluzioni dell’offerta storage di Ibm, che ha da poco rimpolpato la gamma Ds8880, destinata ai mainframe Serie Z e ai server Power, con tre modelli 100% ibm-francesco-casa-light.jpgflash, che si differenziano per capacità complessive e quantità di Dram. Il top di gamma Ds8888F, in particolare, offre capacità complessiva di 1,22 Pb e si indirizza a task avanzati, come l’informatica cognitiva, il linguaggio naturale, l’analisi predittiva e l’ottimizzazione in tempo reale: “Puntiamo su elementi come l’altissima disponibilità – illustra Francesco Casa, Manager of Storage Solutions di Ibm Italia – garantendo un fermo massimo di cinque secondi all’anno. I dispositivi condividono la stessa architettura di Watson e, quindi, si sposano perfettamente tanto alle necessità di flessibilità nello spostamento dei dati quanto alle evoluzioni in direzione del cognitive computing”. 
Pubblicato il: 02/03/2017

Tag: Mobile

Cosa pensi di questa notizia?

Speciali

speciali

Veeam On Forum 2018, il futuro iper-disponibile corre veloce

speciali

Phishing, Ransomware e Truffe E-Mail: è allarme per Office 365 e il cloud