▾ G11 Media: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...

Axiante: aziende italiane caute sull’AI, i dati sintetici sono l'abilitatore

Per il system integrator italiano le sperimentazioni più diffuse sono nel sales e marketing, e i dati sintetici possono essere l’abilitatore del passaggio da POC ad applicazioni in tutta l’azienda

Tecnologie AI

Da anni leggiamo e sentiamo parlare tantissimo di intelligenza artificiale, e in Italia milioni di persone ormai la usano quotidianamente, mentre le aziende la affrontano ancora con cautela.

“Diverse indagini confermano che le medie e grandi aziende che hanno inserito l’AI nel piano strategico o che la usano già sono poche: per loro l’AI è ancora un tema limitato, molto marginale. Non è sfiducia né immaturità: è già successo per molte altre innovazioni tecnologiche precedenti. Le aziende prima di abbracciare una novità seria hanno bisogno di tre cose: concretezza, applicazioni nel proprio contesto, e chiari ritorni dell’investimento”.

Così la pensa Romeo Scaccabarozzi, AD di Axiante: un “addetto ai lavori”, visto che una delle attività principali di Axiante oggi è preparare i dati aziendali per le elaborazioni dell’AI.

“Siamo partiti dalla business intelligence, poi ci siamo concentrati sul planning e forecasting, per aiutare i clienti ad affrontare i cambiamenti, e ora siamo la terza fase, incentrata appunto sull’AI: secondo noi rappresenta una grande opportunità per le aziende italiane, per affrontare il loro storico problema di bassa produttività”.

Intanto però l’AI non è ancora matura su nessuno dei tre punti visti sopra - concretezza, applicazioni verticali, facilità di calcolo del ROI – e quindi la maggior parte delle aziende italiane sta valutando e sperimentando.

“Le aree in cui ci sono più POC (proof-of-concept) secondo molte indagini a livello globale sono sales e marketing, sviluppo nuovi prodotti e servizi, IT e operations”, osserva Scaccabarozzi. “Il primo posto di Sales e marketing non sorprende, è un’area dove le aziende da decenni spendono molto e raccolgono meno del previsto. L’AI può aiutare a realizzare obiettivi finora mai veramente centrati: personalizzare il rapporto con il cliente, fidelizzarlo, aumentare le quote nei mercati in cui si è già presenti”.

Il paradosso della carenza di dati consistenti

Scendendo più nel dettaglio, un tipo di progetti che sta particolarmente impegnando Axiante in questo momento è la generazione di dati sintetici. “Possono essere l’abilitatore per passare dai POC ad applicazioni vere e proprie”, spiega Mirko Gubian, Global Demand Senior Manager & Partner di Axiante.

“Per sviluppare buone soluzioni AI occorrono set di dati reali consistenti, di alta qualità e nelle giuste quantità, ma averli a disposizione è sempre più difficile, nonostante l'enorme generazione quotidiana di dati, e questo per molti motivi: privacy, restrizioni legali, calo naturale della rilevanza nel tempo, costi elevati per l'acquisizione e la catalogazione”.

In questa situazione, un aiuto sono appunto i dati sintetici, cioè dati generati artificialmente in modo da essere il più possibile realistici, magari personalizzati secondo specifiche esigenze, per addestrare i modelli AI.

Nel 2030 più del 90% dei dati per alimentare l'AI saranno sintetici

È un tema caldo, ma anche una tendenza a lungo termine: “Secondo Gartner, nel 2024 più del 50% dei dati utilizzati per alimentare modelli AI e di machine learning è stato generato sinteticamente, e nel 2030 questa percentuale salirà al 90%”.

Non è un tema nuovo, sono le tecniche che sono cambiate. “Prima era necessario avere specialisti della materia, adesso è la stessa AI che aiuta a replicare con accuratezza le caratteristiche statistiche dei dati originali: le tecniche più recenti sono generative, come le risposte dei chatbot si possono generare anche dati, con tecniche simili”.

Axiante lavora soprattutto con dati tabellari, per esempio i comportamenti d’acquisto dei consumatori o i log di funzionamento delle macchine per la manutenzione predittiva. “Dei dati sintetici, più del 50% sono tabellari: la generazione di questi set richiede forti competenze, perché è forte il rischio di amplificare i problemi del dataset di dati reali di partenza”.

L'AI nei progetti di CDP e Customer Intelligence

La generazione di dati sintetici, precisa Antonio D’Agata, Strategic Accounts Director & Partner, è spesso utilizzata da Axiante in progetti di Customer Data Platform (CDP) e Customer Intelligence, molto richiesti, soprattutto da realtà dei settori retail, bancario e assicurativo e sanità per arrivare a poter proporre offerte personalizzate e gestire i dati secondo le norme di protezione della privacy.

“Sono tecnologie complementari ma distinte: la CDP unifica e organizza dati di provenienze diverse in un unico profilo cliente, e l’AI entra in gioco soprattutto per l’identity resolution, cioè per conciliare i dati della stessa persona provenienti da più fonti. La CI analizza i dati raccolti dalla CDP per estrarre insight utili, per esempio prevedere comportamenti, ottimizzare campagne, ridurre i tassi di abbandono, e la AI aiuta a ottenere questi insight e ad aggiornarli senza interventi umani”.

Due casi reali di generazione di dati sintetici

Abbiamo infine chiesto a Mirko Gubian un paio di esempi di casi di generazione di dati sintetici in progetti reali presso i clienti di Axiante.

“Un caso recente è lo sviluppo di un modello AI per il riconoscimento e interpretazione di immagini di fogli presenze scansionate dal cartaceo, per un'azienda di logistica integrata e trasporti. C’era scarsa disponibilità di immagini di fogli presenze reali, che vengono eliminati dopo la trascrizione nel sistema gestionale, per cui abbiamo creato un ampio dataset di immagini sintetiche di timesheet, generate in modo programmato simulando diversi layout e template grafici, vari tipi di font, scrittura a mano e livelli di rumore visivo, dati verosimili come nomi, date e turni, e imperfezioni comuni come sfocature o fogli inclinati. Abbiamo potuto così addestrare e ottimizzare un modello in condizioni realistiche, ottenere buone performance anche su dati reali in produzione, e testare la robustezza del modello su variabili che non avremmo potuto coprire con un dataset reale limitato”.

Altro esempio è lo sviluppo di un modello di stima dell’elasticità della domanda rispetto al prezzo, per ottimizzare le politiche commerciali e promozionali di un produttore di beni industriali. “Qui c’erano pochi dati storici per alcune combinazioni specifiche di prodotto e cliente, come articoli a bassa rotazione o clienti con comportamenti d’acquisto intermittenti, così abbiamo generato un dataset sintetico a partire dalle distribuzioni osservate, simulando andamenti storici coerenti per volumi e prezzi, comportamenti d'acquisto differenziati per tipo di cliente, effetti stagionali e variazioni nel tempo, e scenari ipotetici per testare la sensibilità ai prezzi. Abbiamo così potuto addestrare e validare il modello su combinazioni cliente-prodotto debolmente rappresentate, migliorare la robustezza delle stime rispetto a scenari di mercato incompleti o rari, e rafforzare la capacità predittiva del modello anche su clienti o prodotti con dati storici limitati”.



Da sinistra: Romeo Scaccabarozzi (Amministratore Delegato), Mirko Gubian (Global Demand Senior Manager & Partner), Antonio D'Agata (Strategic Accounts Director & Partner)



Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di ImpresaCity.it iscriviti alla nostra Newsletter gratuita.
Abbonati alla rivista ImpresaCity Magazine e ricevi la tua copia.

Notizie correlate

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter