Logo ImpresaCity.it

AWS Summit nel segno del machine learning

L'AI sta diventando un elemento chiave nella trasformazione digitale delle imprese, per questo AWS vuole renderla più "democratica" attraverso vari servizi cloud

Autore: Francesco Pignatelli

Il tema della "democratizzazione" dell'IT è sempre stato sottotraccia rispetto a molte evoluzioni del cloud. L'idea fondante stessa del cloud è che i servizi IT evoluti vadano messi alla portata anche delle aziende che non hanno infrastrutture e competenze interne di alto livello, proprio sotto forma di servizi cloud. AWS sposa questa visione quando parla di "builder", le persone che nelle (o per le) imprese realizzano nuovi servizi, processi e applicazioni. E che non sono più, come una volta, solo gli sviluppatori più tecnici proprio grazie alla disponibilità di servizi cloud mirati.

Questa evoluzione tecnologico-democratica ha portato vantaggi concreti alle aziende: sviluppo più semplice delle applicazioni, logica del Continuous Development, time to market ridotto per nuovi servizi, in generale una maggiore soddisfazione dei clienti finali. Per questo "Il software - ha spiegato Marco Argenti, Vice President Technology di AWS, durante l'AWS Summit milanese - diventa alla fine la base della competitività. È questo ciò che chiamiamo digital transformation: rifocalizzare l'azienda sui clienti e non sui processi". Ed è per questo che AWS si considera una piattaforma in grado di portare competitività alle imprese, più che una tecnologica in senso stretto.

Ora al centro del processo di democratizzazione tecnologica c'è il machine learning. Che anche per gli sviluppatori ha una importanza fondamentale perché "il lavoro sul codice viene disaccoppiato per la prima volta dalla capacità di evolvere dell'applicazione", spiega Argenti. Grazie al machine learning, cioè, un'applicazione può evolvere e dare risultati migliori senza che sia necessario riscrivere il suo codice.

marco argenti aws
Far uscire il machine learning dal mondo dei soli esperti non è, prevedibilmente, banale perché esso va veicolato a diverse figure professionali, per scenari applicativi differenti e tenendo conto anche dei componenti tecnologici su cui si basa. Per il primo aspetto - gli utilizzatori dei servizi di machine learning - AWS pensa in particolare ai data scientist, agli sviluppatori e anche a chi vuole sfruttare funzioni di intelligenza artificiale senza programmare nulla.

I data scientist per AWS saranno figure sempre più importanti: "la competitivtà delle aziende si misurerà sull'efficacia dei loro algoritmi, sviluppati proprio dai data scientist", spiega Argenti. A loro vanno dati ampia scelta e il controllo completo sullo stack del machine learning, dai framework (Caffe2, Pytorch, TensorFlow...) alle interfacce (Keras, Gluon) sino alla parte infrastrutturale. Per questo AWS ha tra l'altro sviluppato istanze - le P3 - disegnate apposta per le applicazioni di AI. "Quelli che una volta erano supercomputer oggi sono disponibili in pochi clic su AWS, con pagamento in funzione dell'utilizzo. È un cambio epocale nel HPC", spiega il manager di AWS.

Gli sviluppatori hanno un punto di vista diverso dai data scientist. Di norma non creano l'algoritmo ma l'applicazione che lo sfrutta, quindi pensano allo sviluppo di quest'ultima, al suo training sui dati reali e al deploy in produzione. AWS SageMaker tiene conto di queste tre fasi: mette a disposizione gli algoritmi di machine learning più comuni senza che un data scientist debba crearli, esegue un training automatizzato e poi attiva l'applicazione con una istanza P3 richiamabile via URL.

Nella logica del machine learning "per tutti", infine, AWS ha fatto da data scientist e da sviluppatore. Ha cioè creato varie applicazioni mirate, che le aziende utenti possono adottare da subito in funzione di quello che serve loro. Per fare qualche esempio: la definizione di chatbot con Lex, la conversione testo-parlato con Polly, il riconoscimento di oggetti in video o immagini con Rekognition.

aws summit 2018
Molti degli sforzi recenti di AWS sono stati concentrati su tutto ciò che ruota intorno al machine learning, anche per adattarsi a come le sue applicazioni si stanno evolvendo. Molto è legato ad esempio all'IoT e in generale all'edge computing, con lo spostamento delle funzioni di analisi e decisione là dove i dati sono generati, mentre la creazione e l'addestramento dei modelli possono restare centralizzati nel cloud. Questa visione del machine learning "at the edge" si è concretizzata in Greengrass.

Il buon funzionamento delle applicazioni di machine learning deriva anche dalla capacità di gestire bene i dati e di elaborarli, quindi dalla parte di database e di computing. Lato database AWS punta evidentemente sul suo Aurora, secondo Argenti "il servizio che sta crescendo di più in assoluto" anche perché costa "un decimo di un RDBMS commerciale". Le novità di Aurora riguardano una versione Multi-master per la replica dei dati con più master database in availability zone diverse e una Serverless che non prevede il provisioning esplicito di istanze ma scala automaticamente a seconda dei carichi di lavoro, con costo fatturato per secondo di utilizzo.

Serverless in prima linea anche per la parte computing, con Lambda che permette agli sviluppatori di pensare solo al massimo livello di astrazione (il codice) senza preoccuparsi delle infrastrutture che lo eseguono. Il serveless computing però è un approccio ancora da digerire per molti e c'è comunqe sempre un equilibrio da cercare tra il controllo permesso dai container "tradizionali" e il massimo livello di astrazione delle funzioni Lambda. Per questo AWS spinge anche le tecnologie che ha sviluppato per semplificare al massimo gestione e orchestrazione dei container: prima ECS (Elastic Container Service), poi EKS (ECS con Kubernetes come framework) e infine Fargate, un container service (ECS o EKS) senza gestione dell'infrastruttura.
Pubblicato il: 29/03/2018

Cosa pensi di questa notizia?

Speciali

speciali

MWC 2018

speciali

Red Hat Open Source Day, il futuro ha il sapore dell’open source