ECONOMIA – Articoli

30 marzo 2017

La chiave per l’efficienza? È nei dati!

Approfondiamo potenzialità e insidie di una strategia basata sui BigData e applicabile dall’efficienza dei processi produttivi fino ai sistemi più evoluti di previsione dei guasti e pianificazione della manutenzione.



di Giambattista Gruosso

BigData è un termine che è oggi usato per definire la grande mole di dati, strutturati e non, che sono legati ad un business, o processo aziendale, su base quotidiana. Pur ormai ponendo l’accento su questo concetto, bisogna necessariamente ricordare che non è la quantità di dati ad essere importante, ma ciò che le organizzazioni fanno con queste informazioni. Grandi quantità di dati possono essere analizzate per ottenere informazioni e punti di vista, che possono portare a decisioni migliori e a mosse strategiche.
Sicuramente l’avvento dell’Internet of Things ha permesso di aumentare, oltre misura, la quantità di dati raccoglibile dai prodotti e dai processi, per cui oggi il problema non è tanto legato a come ottenere i dati, ma piuttosto su come analizzarli e su come conservarli.
In questo contesto i bigdata analytics diventano il processo di esame di grandi insiemi di dati finalizzato alla scoperta di schemi nascosti, correlazioni sconosciute anche attraverso dati che provengono da contesti diversi, e quindi orientati ad individuare le tendenze del mercato o le preferenze dei clienti e altre informazioni aziendali utili. I risultati analitici possono portare a un marketing più efficace, a nuove opportunità di guadagno attraverso l’implementazione di nuovi servizi, ad una migliore assistenza migliorando l'efficienza operativa ed infine a vantaggi competitivi rispetto ai competitors, e tante altre opportunità non sempre già codificate.
Mentre il termine "big data" è relativamente nuovo, l'atto di raccolta e l'archiviazione di grandi quantità di informazioni per eventuali analisi è vecchio di secoli.
Oggi la comunità scientifica è concorde nel caratterizzare i bigdata secondo queste categorie:

Volume. Oggi la quantità di dati è enorme e proviene da una varietà di fonti, tra cui le transazioni commerciali, le informazioni dai sensori o dal machine-to-machine. 

Velocità. Flussi di dati a una velocità senza precedenti, che devono essere affrontati in modo tempestivo. Tag RFID, sensori e contatori intelligenti stanno determinando l'esigenza di trattare fiumi di dati in tempo quasi reale.

Varietà. Dati sono disponibile in tutti i tipi di formati – da dati numerici, strutturati nei database tradizionali ai documenti di testo non strutturati, e tanto alto. Questo richiede una attenzione particolare per renderli uniformi per poterli elaborare.

Variabilità. Oltre alla crescente velocità e varietà di dati, flussi di dati possono essere altamente incoerenti con picchi periodici. Picchi di dati giornalieri, stagionali e attivati da un evento possono essere difficili da gestire, ancora più se si tratta di dati non strutturati.

Le potenziali insidie
Ma grandi quantità di dati nascondono, potenziali insidie. Prima fra tutti la difficoltà di implementare sistemi di analisi, per una mancanza di abilità analitica interna e l'alto costo di accesso a professionisti con esperienza analitica. Poi la quantità di informazioni che in genere sono coinvolte e la loro varietà, possono portare a problemi di qualità e di coerenza dei dati.
Quello che serve non sono dati grandi, ma dati giusti.
A volte i dati giusti sono grandi. A volte i dati giusti sono piccoli. Ma per gli innovatori la chiave è capire quali sono quelle porzioni di dati strategici per lo sviluppo della competitività e quali saranno i dati giusti che si dovrebbero cercare all’esterno.
Le domande da porsi in questo processo sono tre:

  • Quali decisioni portano rumore nella propria strategia?
  • Quali decisioni possono essere rese automatiche per ridurre questo rumore?
  • Quali dati servono per fare questo?

Ed è questo il punto di partenza per la definizione di una strategia basata sui dati, a partire dall’efficienza dei processi produttivi fino ai sistemi più evoluti di previsione dei guasti e pianificazione della manutenzione.
Ed è proprio la manutenzione predittiva che acquista un ruolo nuovo in questa rivoluzione, in gran parte grazie alla diffusione del Internet of Things (IoT) abbinato all’implementazione delle soluzioni di apprendimento automatico.

La manutenzione predittiva
Come si può ottimizzare la produttività di un bene, come per esempio un macchinario? Per esempio arricchendo i dati operativi del sistema con dati di contesto quali per esempio dati ambientali o informazioni sul carico di lavoro e applicando modelli analitici, si può predire il rischio di fallimento della macchina o del processo in un punto ben preciso nel tempo, ma soprattutto si può fare oggi in modo automatico. Questo permette di ridurre le interruzioni, i costi di manutenzione e l’impatto sui clienti.
La manutenzione predittiva è una strategia individuazione dei difetti o degli invecchiamenti di un bene, attraverso l’utilizzo di indicatori opportunamente definiti. È di fatto una risposta alla necessità di essere sempre più precisi ed efficaci nella gestione della manutenzione applicando dati di contesto e capacità analitiche (per esempio il machine Learning). Ci sono molti scenari dove la manutenzione predittiva può essere cruciale, come ad esempio nel settore manifatturiero, dove è molto utilizzata per predire le interruzioni di servizio di un componente da notificare agli operatori, o per intraprendere delle azioni correttive automatiche.
Questo cambia anche in qualche modo i modelli di business legati al service. Se si pensa che normalmente la manutenzione correttiva implica che l'apparecchiatura sia riparata dopo che si è verificato un guasto, che se fatta in garanzia costituisce un costo per il gestore del servizio di manutenzione (per esempio il costruttore della macchina), l’applicare politiche correttive di questo tipo permette di intervenire sul guasto prima che questo avvenga, e di conseguenza ridurre i costi di manutenzione.
D’altro canto la maggior parte delle apparecchiature è anche soggetta ad una politica di manutenzione preventiva, che richiede l'esecuzione di ispezioni periodiche e altre operazioni secondo una pianificazione predeterminata dal fabbricante, per lo più in base al tempo in servizio. Tuttavia, questa politica non tiene conto delle condizioni effettive dell'apparecchiatura, e quindi introduce nuovamente una fonte di costo, che può essere facilmente ridotta.
Al contrario degli esempi precedenti, la manutenzione predittiva permette di pianificare un intervento basandosi su alcune informazioni raccolte da sensori, che rappresentano la condizione attuale dell'apparecchiatura e relativi sottosistemi ed associando a questi dati una funzione di probabilità di errore. 
Ma quali sono i principi su cui si basa questa metodologia e come sono in relazione con il mondo dei BigData?
Il punto di partenza è lo sviluppo di un modello statistico tanto più accurato quanto più sono i dati che si hanno a disposizione. Il modello cosi addestrato (machine learning) permette di osservare i nuovi dati che vengono inseriti nel sistema e riconoscerne delle deviazioni dalle condizioni operative. Ciò richiede la capacità di capire l'affidabilità delle attrezzature in qualsiasi punto nel tempo, per identificare e isolare potenziali errori prima che si verifichino; per prevedere e pianificare i tempi di inattività, la manutenzione programmata e per ridurre le operazioni di manutenzione basati sul tempo inutili. 
Per poter fare questo è necessario implementare un sistema basato sui seguenti pilastri.

Dati di macchina accurati, vari e ricchi di informazioni: Al fine di prevedere il rischio di guasto un'apparecchiatura, ci devono essere dati sufficienti sul comportamento storico per supportare la parte predittiva. La definizione di "sufficiente" varia da settore e contesto, ma in generale, più transazioni che si possono osservare e più ricche sono le informazioni associate a tali transazioni, e di conseguenza migliore sarà la capacità di prevedere.
 
Ambiente di analisi flessibile: Una soluzione analitica può essere costruita in modo incrementale come la propria strategia richiede e consente una gamma crescente di capacità analitiche per essere in grado di supportare diversi strategie di previsione. Un servizio chiave che sarà immediatamente prezioso è quello che oggi va sotto il nome di Machine Learning, tool molto diffuso in molti software di analisi. 

Capacità di decidere e agire: I dati devono essere visualizzati, ma non basta. I sistemi di visualizzazione e analisi devono essere dotati di strumenti per ricevere le notifiche e per intraprendere delle azioni correttive. 

Operazioni di autoverifica e taratura: Una volta che i modelli e le azioni correttive sono state implementate negli ambienti analisi, la loro efficacia deve essere testata e deve essere implementato un sistema per validare periodicamente i modelli.

Il lavoro da fare e sicuramente molto, e necessità di definire chiaramente una strategia che non può essere improvvisata. Figure come i data Scientist, ed i Chief Digital Officers, devono affiancarsi alle tradizionali figure tecniche in azienda per poter guidare questo cambiamento. Siamo pronti per fare questo?