Il 6 sigma è la metodologia data driven di riferimento per il problem solving e la progettazione robusta dei processi, ma oggi va rinfrescato. Storicamente esso si avvale di dati campionari e ben strutturati, i cosiddetti small data, ma il contesto attuale prevede la presenza di dati da ogni dove, dati che fluiscono, si trasformano in modo repentino, stazionano in repository temporanei ed eterogenei, dati che vengono prodotti in grande quantità dai processi. I dati sono innumerevoli, Archimede direbbe che sono una Miriade di Miriadi.
I dati di per sé dicono poco ma chiedono di essere trattati per produrre conoscenza. Non trattare in modo adeguato i dati che l’organizzazione mette a disposizione, con il semplice esercizio del suo essere al mondo, significa perdere le occaSioni di miglioramento, significa perseverare su modalità inadeguate e disfunzionali.
I dati sono così pervasivi che costituiscono un mare di cui è anche possibile fare esperienza sensoria. Se in una notte calma, ripiegati su noi stessi, ascoltassimo una composizione di Stokhausen ci sarebbe dato di esperire la sensazione del galleggiamento su una immensa superficie liquida e tranquilla, ma dal fondale imprecisato e inquietante. Questo mare è una metafora dei dati che, sfuggenti, scorrono sotto ai nostri piedi. Se invece ascoltassimo una “suite” contemporanea dei Tangerine Dream, potremmo sentire un vento pungente, composto da entità sottili e dense che incessantemente percuotono il nostro corpo. Questo vento è la metafora del flusso dei dati che ci investe.
I nostri occhi e la nostra mente non riescono da soli ad abbraccaire l’universo dei dati in modo tale da conferire loro significato ed estrarre conoscenza, eppure tale universo, per quanto ampio possa essere, è pur sempre finito e facendo appello ad un principio matematico, riconducibile a Dirichlet, una struttura finita, per quanto irregolare possa essere, racchiude sempre una o più strutture regolari. Il disordine totale non è contemplabile.
La sfida che il 6 sigma deve accogliere sta in questo: potenziare la capacità di accedere e trattare i dati nelle vesti multiformi che oggigiorno indossano.
Per questo motivo il nuovo percorso di certificazione 6 sigma Green Belt e Black Belt, che il gruppo Galgano propone a partire da Settembre, incorpora elementi di Data Analytics con indicazioni precise del loro utilizzo all’interno del processo DMAIC.
Spesso un progetto 6 sigma si incaglia nella fase Measure del DMAIC, là dove si deve misurare il problema, poiché i dati sono sparsi in molti database che non si parlano, inoltre sono “sporchi” e incompleti, allora è necessario mettere a punto un appropriato processo di ETL (Extract, Transform, Loading) per costruire una raccolta-dati “pulita” e omnicomprensiva che abiliti le analisi successive. E’ utile disporre di modelli esplorativi che sappiano raggruppare le variabili originarie in variabili aggregate, ridotte di numerosità, al fine di agevolare la intellegibilità del sistema in oggetto e a tale riguardo la Principal Component Analysis (PCA) è particolarmente efficace. E’ utile poi introdurre algoritmi che ricerchino l’ordine all’interno del disordine, in questo senso i modelli di Cluster Analysis ci vengono in soccorso.
Nella fase Analyze è necessario potenziare le analisi predittive di base con regressioni multiple, che comprendano diversi regressori numerici e categoriali, e con la regressione logistica là dove la funzione risposta è categoriale e dicotomica.
Quelli qui citati sono solo alcuni dei modelli supervisionati e non-supervisionati, mutuati dalla Data Analytics, che il nuovo percorso 6 sigma della Galgano incorpora all’interno del proprio corpo delle conoscenze.
Per fare ciò è necessario anche un rinnovamento degli strumenti di elaborazione dei dati. E’ per questo che gli argomenti di Data Analytics, nel nuovo percorso 6 sigma di Galgano, vengono trattati utilizzando la Knime Analytics platform, una delle più riconosciute e complete piattaforme di Data Science che aggiunge il pregio di essere open source.