Bitrock, smart data integration per generare valore

I dati sono vitali per interpretare il presente e anticipare il futuro, ma spesso sono ‘ostaggio’ dei sistemi legacy. Secondo Leo Pillon, Amministratore Delegato di Bitrock, la soluzione risiede nell'Event Stream Processing 

Autore: Redazione ImpresaCity

Questa crisi ha comportato – o comporterà – per molte aziende la presa di coscienza di vincoli e colli di bottiglia presenti nelle proprie organizzazioni e nei propri sistemi. Per competere durante la crisi e, soprattutto, per riuscire a ripartire dopo, è richiesta infatti agilità e capacità di reagire al cambiamento improvviso delle condizioni di contorno, cercando al contempo di prevederne gli andamenti: si pensi ad esempio alle Telco e all’aumento dell’uso della banda in tempi di lockdown, o all’enorme incremento della richiesta di home delivery per beni di prima necessità.
Mai come in questi mesi è apparsa così evidente la necessità di avere sotto controllo quello che potrebbe essere definito l’asset centrale del proprio business e, su questo, poter basare le proprie decisioni per il futuro: i dati – afferma Leo Pillon, Amministratore Delegato di Bitrock. Siano essi interni, come ad esempio i dati di vendita, i dati di utilizzo, i dati previsionali o dati esterni, come i social, il mobile, le previsioni del tempo, ecc. i dati rappresentano lo strumento indispensabile per interpretare il presente e anticipare, per quanto possibile, gli sviluppi futuri. La consapevolezza che i manager di molte aziende hanno, loro malgrado, acquisito da questa situazione è che i dati non sono sempre facilmente disponibili; al contrario, sono spesso ostaggio di tecnologie obsolete o di modelli economici insostenibili – nel peggiore dei casi, di tutte e due le cose insieme. Una condizione, questa, che rappresenta un serio ostacolo anche in tempi ordinari, figuriamoci quando serve uno scatto eccezionale in termini di agilità e capacità di reazione”.
Leo Pillon, Amministratore Delegato di Bitrock
Offloading ed Event Stream Processing
Secondo Leo Pillon per superare questo ostacolo, occorre entrare in una logica di Mainframe/Legacy Offloading, ovvero quella capacità di adottare strategie e tecnologie in grado di scaricare responsabilità computazionale e dati dai mainframe per trasferirli su strumenti più agili e moderni, aperti al cloud e all’evoluzione: “Il tema del Mainframe/Legacy Offloading è sicuramente diffuso in ambito di IT finanziario e il panorama italiano, pur non essendo certamente il più avanzato, aveva già visto, ancor prima di questa crisi, la realizzazione di diversi progetti di Mainframe Offloading, in grado di comportare una significativa riduzione dei costi: i famosi MIPS – unità di misura per calcolare il pricing dei mainframe - e la possibilità di utilizzare i dati per use-case evoluti, tipicamente su applicazioni di home banking o operazioni di real-time marketing”.
In questo senso, come sottolinea Pillon, le piattaforme software in grado di trasportare e processare flussi infiniti di dati in real time - defintie Event Stream Processing - si sono rivelate un ottimo strumento per ‘liberare’ i dati dai sistemi legacy. Piattaforme come Kafka   o le sue versioni commerciali sono diventate quindi essenziali per  ridurre i costi abbattendo il numero di MIPS, e abilitare servizi evoluti e sofisticati diretti al cliente finale. 

Via i vincoli dei sistemi ‘a volume’
Non ci sono,
tuttavia, solo i mainframe o i sistemi obsoleti a tenere in ostaggio i dati: anche i modernissimi e ampiamente utilizzati sistemi di CRM, soprattutto i più famosi, hanno adottato un modello economico sicuramente premiante per i vendor che impone al cliente di pagare ‘a volume’ l’eventuale integrazione con sistemi esterni: “Questi CRM presentano centinaia di connettori, sotto forma di API, disponibili per moltissimi tipi di software. Un’integrazione semplicissima: basta infatti attivare l’API scritta appositamente dal vendor per funzionare con un certo sistema ‘x’, e il gioco è fatto. Ma la semplicità ha un costo piuttosto alto, in quanto l’integrazione diventa un peso economico destinato ad aumentare di pari passo con l’utilizzo di quella specifica app o sistema: più dati transitano, più alto sarà il conto”, spiega Pillon. “E, deve essere chiaro, il volume dei dati non può far altro che aumentare, a prescindere dalla crisi attuale. Gli analisti prevedono infatti che il volume dei dati sia destinato a quadruplicare nell’arco dei prossimi cinque anni, passando dai 44 zettabyte del 2020 ai 180 mettabyte nel 2025”. Quale azienda potrebbe permettersi di vedere i propri costi di integrazione quadruplicare in cinque anni, esclusivamente in funzione del volume dei dati?
“In momenti come quello che stiamo vivendo oggi, appare evidente come si tratti di un modello difficilmente sostenibile – sostiene Pillon. Anche in questo caso, è possibile parlare di Offloading – o, meglio, di CRM Offloading. O forse, ancor più in generale, si può parlare di Smart Integration: la creazione, cioè, di sistemi di mediazione basati su tecnologie di Event Stream Processing in grado di ‘aggirare’ il problema e, soprattutto, di riprendere pienamente possesso di un asset – il dato, per l’appunto – che rappresenta l’elemento fondamentale del business, abilitando di conseguenza use-case che puntino alla Data Monetization”.
Certamente, la creazione di un Data Hub basato su tecnologie che sfruttano l’Event Stream Processing comporta un costo per chi lo adotta: “Nell’ottica di quanto esposto finora, tuttavia, sarebbe più corretto considerarlo un investimento, uno dei tasselli più importanti per riuscire a garantire quelle due capacità fondamentali: interpretare quanto sta accadendo ora - real-time situational awareness - e sviluppare modelli previsionali - predictive analytics. Le capitalizzazioni delle grandi digital company mondiali lo dimostrano ogni giorno”, conclude Pillon.

Visualizza la versione completa sul sito

Informativa
Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy. Chiudendo questo banner, acconsenti all’uso dei cookie.