Luca Ascari Ingegnere, Ph.D. in Bioingegneria, fondatore e direttore generale di Henesis S.r.l. (Camlin group)
La nostra società si sta caratterizzando per una sempre più critica dipendenza dall’Informazione, in moltissimi settori applicativi, che spaziano dalla regolazione del traffico, ai mercati finanziari, alla gestione dei processi produttivi, alla gestione delle infrastrutture critiche. Ma cosa si intende con la parola “Informazione”? Non è l’insieme dei dati raccolti da una mole sempre maggiore di sensori sparsi per il territorio, sia esso un impianto produttivo – come i sensori lungo le linee, o quelli per il controllo qualità – o una città – flussi video registrati dalle telecamere di sorveglianza o di monitoraggio del traffico, per esempio – o l’ambiente naturale, si pensi ai sensori che monitorano frane o altri fenomeni: è piuttosto il risultato dell’elaborazione di questi dati, attraverso modelli interpretativi che aiutano a comprendere e modellare il fenomeno specifico. Questa informazione è la base su cui si basano i cosiddetti DSS (sistemi di supporto alla decisione).
Una famiglia speciale di modelli interpretativi è quella dei cosiddetti predittivi, che aiutano a prefigurare situazioni future, in modo da poter prendere decisioni “in anticipo”; tutti conosciamo le previsioni meteo, o le previsioni di andamento dei mercati finanziari che si basano su elaborazioni anche molto complesse, ma negli ultimi anni sempre più settori hanno iniziato a manifestare un forte interesse verso di essi. Nel settore industriale è oggi di forte interesse la cosiddetta manutenzione predittiva degli impianti, che permette un forte abbattimento dei costi di manutenzione identificando malfunzionamenti sulle macchine prima che avvengano, e contemporaneo miglioramento dei flussi produttivi, eliminando virtualmente i fermi macchina.
Molti modelli predittivi sono implementati attraverso paradigmi computazionali conosciuti sotto il nome generico di “Intelligenza Artificiale”. Nell’ambito dell’intelligenza artificiale, la branca detta “Machine Learning” è per noi di particolare interesse, perché è relativa alla realizzazione di sistemi in grado di apprendere autonomamente dai dati grezzi, generalizzare su dati mai visti prima ed operare predizioni su di essi.
Un approccio particolare al Machine Learning è quello neuromorfo, che cerca di imitare nelle funzioni l’organo umano che eccelle nella predizione: il cervello (citiamo a puro titolo di esempio le Hierarchical Temporal Memories).
Le componenti di un sistema predittivo basato sull’intelligenza artificiale sono essenzialmente quattro: i dati, il data base che li raccoglie e organizza, il motore di intelligenza artificiale e l’interfaccia utente. I dati possono essere storici – registrati, per esempio, durante il controllo qualità interno – oppure raccolti in tempo reale durante la produzione; il data base è la struttura che raccoglie ed organizza tutti i dati, struttura cui ha accesso il motore di intelligenza artificiale, il software che analizza i dati, costruisce il modello e fa le predizioni. Alla fine, l’interfaccia utente presenta all’utilizzatore finale il risultato dell’elaborazione.
Ora è chiaro che l’informazione predittiva di qualità può rappresentare un vantaggio competitivo per l’azienda nel suo mercato, se correttamente utilizzata nei processi aziendali, e come tale rappresenta un asset che merita il massimo della protezione perché di importanza critica. Vediamo ora quali siano i punti critici che minano la sicurezza di questa informazione. Ognuno degli elementi illustrati in precedenza ne coinvolge almeno uno.
I dati grezzi, a seconda dei casi, possono essere affetti da rumore, avere dei “buchi”, o dei difetti di sincronizzazione, possono o meno avere delle etichettature che velocizzino la fase di addestramento. Altro punto critico è la piattaforma di raccolta dati, le cui caratteristiche variano a seconda del fenomeno analizzato. Ad esempio, nel caso in cui i fenomeni di interesse avessero carattere diffusivo su larga scala geografica, occorrerebbe una rete di raccolta dati distribuita che assicurasse l’accurata sincronizzazione dei segnali raccolti anche da nodi non collegati direttamente. Il data base, a meno che non sia stato concepito ed implementato considerando aspetti di scalabilità, potrebbe risultare lento ed inutilizzabile all’aumentare della massa di dati da processare. Ancora più critico è il motore di intelligenza artificiale, cui viene richiesto di creare un modello predittivo a partire dai dati forniti. Dove risiede fisicamente questo software? Dove e da chi viene prodotta l’informazione sensibile?
Le criticità dell’interfaccia utente sono invece relative alla sua usabilità – chiarezza con cui sono rappresentate le informazioni e immediatezza di comprensione – e al suo fattivo inserimento nei processi aziendali.
Tutte le aziende che vogliano fare innovazione e rimanere competitive nel mercato avrebbero bisogno di questi strumenti e di saperli utilizzare, ma non tutte hanno competenze interne di ingegneria del software ed intelligenza artificiale per realizzarli e mantenerli. Le opzioni a disposizione delle aziende sono quindi essenzialmente due: farsi sviluppare questi strumenti appositamente oppure utilizzare servizi remoti, oggi disponibili su Internet sotto il nome di “Machine Learning as a Service” (MLaaS). Alcuni fra i tanti esempi possibili sono Grok, Logical Glue, PredictionIO, Wise.
Fanno da contrappeso alla facilità di accesso a questi servizi alcune criticità che sarebbe opportuno non sottovalutare: chi maneggia i miei dati, che devo caricare su questi server remoti per far addestrare e poi far funzionare i modelli? Siamo sicuri che l’informazione che abbiamo in uscita, così preziosa per noi perché magari è la base su cui prenderemo decisioni importanti, giunga solo alla nostra azienda? Molti di questi servizi sono nord-americani: conosciamo le leggi che regolano la protezione delle informazioni e della privacy laggiù? Quanti di noi leggono i ToS (terms of service) prima di usufruire di un servizio WEB? Se non vengono prese le opportune precauzioni, rischiamo di regalare ad altri il modello della nostra azienda, i processi interni, dettagli sui nostri prodotti, svelarne i punti deboli, a seconda dei dati che forniamo in ingresso e del risultato che ci aspettiamo. Come conciliare le esigenze di riservatezza con gli indubbi benefici in termini di competitività che queste tecniche possono darci, se correttamente utilizzate?
Come introdurre l’ intelligenza artificiale in azienda
Credo che la soluzione stia, come avviene in molti casi, nel gioco di squadra, della quale però si devono conoscere molto bene i componenti che devono lavorare a stretto contatto e godere di reciproca fiducia:
- Il consulente di business e strategia aziendale dovrebbe inquadrare bene, insieme al management ed alla proprietà, l’ambito nel quale introdurre l’intelligenza artificiale, facendo sì che serva a migliorare davvero i processi aziendali selezionati – che siano decisionali, di produzione, di controllo qualità, o altro – e che alla fine del processo sia effettivamente valutato e misurato il suo effetto;
- l’azienda fornitrice dell’intelligenza artificiale, offerta come servizio remoto;
- l’azienda, normalmente una software house, che implementi nel software – gestionale, documentale, ERP – già eventualmente in uso presso l’azienda i flussi informatici da e verso il motore di intelligenza artificiale.
Il flusso di lavoro ideale prevede diverse fasi: la prima è il cosiddetto studio di fattibilità e impone una stretta collaborazione, previa firma di un accordo di riservatezza, fra il consulente, il cliente e l’azienda che fornisce l’intelligenza per verificare, sulla base di dati e desiderata, la praticabilità e l’efficacia attesa del sistema. In caso di esito positivo, la seconda fase è la creazione, adattamento ed addestramento del modello. Nella terza fase, detta di validazione, il cliente, che conosce il significato dei numeri che escono dal motore di intelligenza artificiale, ne valuta la bontà con il consulente mentre la software house si occupa dell’integrazione nel SW in uso.
Abbiamo visto come l’introduzione dell’intelligenza artificiale in azienda sia paragonabile per molti versi al confezionamento di un abito su misura da parte di un bravo sarto: questo contrasta con il modello del MLaaS descritto in precedenza, in cui gli algoritmi elaborano in modo asettico i dati forniti, senza la benché minima consapevolezza di cosa vogliano dire. L’esperienza che nella mia azienda abbiamo maturato in anni di sviluppo e applicazione di queste tecniche ai settori più diversi – automotive, medicale, monitoraggio ambientale, controlli di qualità industriali – ci ha insegnato che la fase di conoscenza del problema, di analisi dei dati, di osservazione umana dell’ambiente permettono il raggiungimento di performance più elevate.
Un altro aspetto, di non minore importanza, da considerare è la dimensione temporale. È normale che la situazione aziendale in cui si è introdotta l’intelligenza artificiale evolva nel tempo, ad esempio con variazioni nei prodotti o nei processi, o nuove richieste al DSS; allo stesso modo le piattaforme di intelligenza artificiale evolvono e migliorano grazie alla ricerca continua: per questi due motivi serve un rapporto stretto con un’azienda seria che assicuri monitoraggio continuo, anche remoto, degli indici prestazionali ed aggiorni nel tempo, all’interno di un contratto di manutenzione, il prodotto in uso, sia esso ospitato nei server aziendali o sia un servizio remotizzato; va in ogni caso sottolineato come questa seconda forma sia preferibile sotto molti aspetti, in primis per la facilità di manutenzione e la frequenza degli aggiornamenti. Con queste premesse, il fatto che l’intelligenza artificiale sia offerta come servizio remoto e non come un software installato sul server dell’azienda cliente non è in contraddizione con quanto affermato in precedenza sulla sicurezza dei dati.
In conclusione mi sento di affermare come il Machine Learning As A Service sia una grande opportunità per l’incremento di competitività delle aziende, ma è opportuno confezionare l’abito su misura e farlo insieme: fornitore dei dati e del bisogno, consulente, fornitore del motore di intelligenza artificiale, integratore SW. Fondamentale è inoltre la fiducia in chi lo realizza – basata su un serio track record di clienti importanti, collaborazione del management dell’azienda e delle figure tecniche coinvolte per costruire ed addestrare un buon modello predittivo – e l’apertura mentale per massimizzare l’effetto positivo dell’introduzione di una simile tecnologia in azienda.
image @iStock-172665208-alwyncooper