• Richiedi informazioni

AI models company of Datrix group
  • 9 Maggio 2022

Trovare le domande giuste per rispondere con i dati

Andrea Ronchi Smart Manufacturing Summit

Trovare le domande giuste per rispondere con i dati

Trovare le domande giuste per rispondere con i dati 1024 768 3rdPlace

L’intervento di Andrea Ronchi allo Smart Manufacturing Summit 2022.

Il 5 maggio Andrea Ronchi, Principal di 3rdPlace, AI Models company del gruppo Datrix, ha partecipato ad un tavolo di lavoro dello Smart Manufacturing Summit 2022 a Milano.

Giunto alla terza edizione, questo è l’evento promosso da The Innovation Group per promuovere il dialogo sulla fabbrica digitale, un palco che coinvolge i protagonisti delle principali aziende produttive e imprese tecnologiche. 

Dopo due anni di pandemia, gli imprenditori e i manager più illuminati stanno imprimendo alle proprie aziende una vera svolta in termini di trasformazione digitale. Oggi quindi il manifatturiero italiano, già tra i più competitivi del mondo, si trova nella condizione di riprendere con ancora maggior efficienza, con nuove sfide e opportunità di crescita.

Un “reset” dell’Industry a tutti gli effetti, nel segno dell’evoluzione tecnologica in ottica smart, anche attraverso Industrial IOT, infrastrutture in cloud, cybersicurezza e processi data-driven.

Come si aiutano le imprese a diventare realmente data driven

“L’espressione “data-driven” è uno di quei miracoli semantici introdotti dalle major in questi anni rivoluzionari sul fronte delle tecnologie. Tutte le società ritengono di usare i dati a supporto delle proprie decisioni, da sempre. Il nostro compito è quello di aiutare le aziende a considerare set di dati ancora più ricchi e di mettere in relazione più variabili che concorrono alla descrizione di un fenomeno, fisico o immateriale che sia. 

È la ricerca, credo senza fine, di descrizione e comprensione del mondo, che impegna l’uomo da quando ha iniziato a contare usando le dita della propria mano. La potenza di calcolo e la connettività dei nostri tempi hanno reso fruibile e utilissima una matematica già nota da quasi un secolo, a cui abbiamo dato il tag di Artificial Intelligence. 

Io sono il Team Principal di 3rdPlace, Artificial Intelligence Models Company del gruppo Datrix, quotato all’Euronext Growth Milan. Lavoro con oltre 130 colleghi, genuini fanatici di dati e data science. 

Cosa possiamo fare con i dati raccolti? 

La risposta, volutamente provocatoria, è “Niente”. Niente fintanto che non partiamo dall’altro estremo del filo, ovvero dall’esigenza di business. 

Quello che dobbiamo chiederci preliminarmente è ‘Quale fenomeno voglio descrivere o capire meglio?’, ‘Qual è la funzione – obiettivo che voglio perseguire?’. 

Le risposte possono essere molteplici: un incremento di efficienza, di OEE, la riduzione delle emissioni clima-alteranti, un aumento delle vendite, il corretto dimensionamento del magazzino, ecc.

In questo senso, il nostro ruolo è quello di aiutare le aziende a far emergere le domande giuste, e accompagnare nel processo i diversi dipartimenti coinvolti per avere il corretto scambio di informazioni: dagli esperti di dominio (i clienti) agli esperti di gestione dei dati.

Il passo successivo è ottenere una gestione matura dei dati aziendali e iniziare la giusta investigazione per approdare a un livello più alto di comprensione. 

Una strategia data-driven basata sull’Intelligenza Artificiale si compone principalmente di tre fasi: 

  1. Descrizione 
  2. Previsione
  3. Prescrizione

Per prima cosa si useranno questi dati per descrivere il processo analizzando il livello di correlazione tra le diverse variabili: un’Analisi Descrittiva del fenomeno, dove si cerca di modellizzare il fenomeno con un approccio numerico. 

A nostro avviso, questo è il modo migliore per comprendere tutte le relazioni tra le variabili – anche quelle relazioni più sottili e marginali – che nella prassi quotidiana vengono trascurate per economia di tempo e per la limitata capacità dell’essere umano di considerare troppe variabili simultaneamente. 

In questa fase ci si accorge che alcuni dati di cui vorremmo essere in possesso in realtà non sono a nostra disposizione, magari perché mancano i sensori per rilevarli oppure perché afferiscono a elementi esogeni all’azienda.

Qui entra in gioco un fattore umano decisivo: la capacità di ascoltare gli esperti di dominio e l’esperienza dei data scientist nel cercare tra le fonti esterne all’azienda.

Su questa competenza specifica si è basato il successo del gruppo Datrix e in particolare di 3rdPlace, a prescindere dall’ambito di riferimento.

Abbiamo dimostrato di riuscire ad ascoltare molto bene le tracce digitali lasciate dalle persone sulla Rete e abbiamo preso dimestichezza con tante fonti dati di terze parti che, sempre nel rispetto di tutti gli standard di data protection e privacy, ci permettono di inferire molte informazioni sui nostri clienti che sarebbe impossibile ottenere in modo diretto dalle aziende stesse.

Se si riesce a descrivere correttamente il comportamento delle variabili tra di loro, si può passare all’orizzonte delle Previsioni: capire cosa succederà a tutto il nostro sistema al variare di una o più di queste variabili.

In ultima istanza, una volta ottenute previsioni accurate, è possibile addirittura creare delle Prescrizioni, ricette per aiutare le aziende a prendere delle decisioni o addirittura automatizzare alcune azioni in funzione degli output dei nostri modelli. 

Modelli predittivi: alcuni highlight su casi di successo e best practice

Controllo predittivo: molti processi industriali sono gestiti in retroazione, per esempio si definiscono i set point dei DCS o dei PLC una volta che un flusso di lavoro sta producendo una rilevazione. Così facendo insorgono però due ordini di problemi:

  1. la variazione apportata tipicamente ha una latenza prima di produrre un risultato 
  2. la modifica attuata avrà un effetto su un secondo flusso di lavoro, lievemente diverso dal primo. In questo modo si continua a rincorrere all’infinito un ottimo che non si raggiunge mai.

L’esempio della doccia senza miscelatore

Come una doccia senza il miscelatore: se la temperatura è troppo bassa, aumenterò il flusso di acqua calda con la manopola, con il rischio di scottarmi nei secondi successivi, procedendo per tentativi ulteriori, con grande spreco di tempo, acqua e comfort nella speranza di arrivare a un mix accettabile.  Immaginate un processo dove di “manopole” posso averne anche qualche centinaio, ed immaginiamo che, come nella doccia, una buona parte delle circostanze non dipenda interamente da me.

Tornando alla metafora della doccia posso modellizzare in modo corretto i tempi di risposta della mia caldaia, dare una ricetta ottimale di mix tra le due variabili; ma analizzando bene il processo, parlando con le persone, scoprirò che c’è una variabile che non governo in modo diretto: quando qualcun’altro entra in doccia nello stesso edificio e modifica la reazione della mia caldaia. Ecco, qui i dati esogeni, opportunamente storicizzati, possono aiutarmi a fare tre cose:

  • Prevedere i flussi delle persone che abitano l’edificio 
  • Di conseguenza darmi delle raccomandazioni su quando è meglio fare la doccia per sprecare meno acqua ed energia 
  • Suggerirmi il set-point ottimale delle mie manopole per avere la temperatura ottimale nel più breve tempo possibile e fare un doccia rilassata

Ora, usciamo dalla doccia di casa e usiamo lo stesso approccio in un sistema di climatizzazione di un supermercato, nella scelta di allestimento e assortimento di un punto vendita, o quello che vi è più familiare. L’approccio è il medesimo.  

Schedulazione di alto livello

Ovvero cosa fare, quando e con quale sequenza. 

Qui entriamo nel mondo della ricerca operativa: al di là dei software di scheduling per l’efficienza delle macchine, noi vogliamo suggerire come tenere in efficienza la fabbrica o più in generale un processo produttivo.

Se ho N linee produttive e Y codici prodotto che possono essere realizzati su tutte le linee, cosa si produce, dove e quando? 

Naturalmente dipende dagli ordini caricati in gestionale, ma gli algoritmi devono suggerirmi continuamente l’allocazione ottimale, considerati i normali vincoli macchina e tutti i continui nuovi vincoli ottenuti dalle scelte di produzione che vengono man mano messe in opera, più i nuovi ordini che vengono caricati nei gestionali ERP. Prevedere la domanda e gli effettivi ritiri da parte del committente mi aiuta ad avere meno inefficienze.

Usciamo dalla fabbrica ed entriamo nel mondo dei Sales: come organizzo l’agenda delle visite della mia forza vendite? Posso usare logiche di routing per ottimizzare il numero di visite, prendendo in considerazione fattori come la probabilità di congestione delle strade, ma posso anche fare degli scoring sui clienti con un approccio numerico/quantitativo in modo da ottenere un livello di temperatura del lead più o meno alto. 

Dalla rilevazione dell’anomalia alla prioritizzazione degli interventi

L’espressione Predictive Maintenance è un termine molto in voga, che però implica troppe sfaccettature. Preferisco affrontare la questione scorporandola in ambiti più ristretti, a cominciare da: 

  • Anomaly Detection
  • Anomaly Prediction 
  • Prioritizzazione degli interventi

Anomaly Detection: ovvero l’individuazione di anomalie che con i sistemi tradizionali non verrebbero trovate così presto.

Sempre rimanendo nel campo della Previsione, un metodo molto efficace è la comparazione tra Nowcasting e rilevazioni puntuali. 

Il Nowcasting è la capacità – frutto di una corretta descrizione del fenomeno – di prevedere quello che dovrebbe succedere adesso.

Se la rilevazione puntuale si scosta troppo dalla previsione di nowcasting, si tratta di un segnale di allarme da monitorare attentamente, valido nei contesti più disparati: dai generatori di turbine eoliche ai contatori del gas, fino al traffico dati.

La differenza è fatta dalla capacità di inferire i dati mancanti da fonti esogene: dati meteorologici puntuali, stato di degrado degli immobili, flussi di traffico stradale, ecc.

In molti fenomeni è possibile svolgere  l’Anomaly Detection con l’acquisizione di dati visivi, entrando nella branca algoritmica della Computer Vision. 

Tra i diversi campi di applicazione, abbiamo già realizzato progetti di frontiera nel mondo della biomedicina insieme a prestigiosi centri di ricerca sull’analisi delle immagini spettroscopiche, usando avanzate tecniche di Machine Learning per identificare e classificare cellule tumorali, e abbiamo applicato le nostre tecnologie all’analisi documentale per l’individuazione di documenti falsificati.

Anomaly Prediction: Se i segnali di anomalia tra nowcasting e rilevazione si susseguono con determinati pattern specifici, allora è probabile che si riescano a prevedere determinati default, permettendo di fornire alle aziende delle raccomandazioni di manutenzione ordinaria o straordinaria anticipata 

Prioritizzazione degli interventi: Uno dei motivi per cui preferisco non parlare di Predictive Maintenance è che l’espressione si porta dietro un bias: se faccio molti interventi – anche non strettamente necessari – chiaramente diminuiscono le possibilità di rotture o anomalie. 

Ma il vantaggio reale, sul medio-lungo termine, è ottenere una prioritizzazione corretta degli interventi considerando i vincoli di budget”.

La registrazione video è disponibile qui.



    Richiedi meeting

    Compila il form per richiedere un appuntamento con un nostro incaricato.

    (*) Campi obbligatori.








      Meeting request

      (*) Fields mandatory.