Il cuore della base dati che alimenta il SAM ha caratteristiche effimere (cioè un tempo di validità molto basso) e per questa ragione il flusso deve essere continuo, ovvero costantemente aggiornato. Se interrotto, si corre il rischio di creare scenari di analisi basati su dati sbagliati, con l’inevitabile conseguenza che questi saranno non solo inutili ma persino dannosi.
Non c’è bisogno di un esperto per capire che, vista la rapidità con cui si muove l’ecosistema applicativo aziendale, un’analisi what-if basata su dati di inventario vecchi anche solo di un trimestre, non può darci una misura corretta delle azioni da intraprendere.
L’affidabilità dei dati: è possibile monitorarla?
Vista l’importanza di disporre di dati attendibili, il SAM Manager deve affidarsi a strumenti che siano in grado di monitorare la continua trasmissione dei dati dalle varie sorgenti al SAM e avvisarlo prontamente quando il flusso si interrompe.
Per chi non lo sapesse, il termine “evento” in informatica indica il mezzo utilizzato dagli oggetti per segnalare all’applicazione di cui fanno parte il verificarsi di una determinata situazione e le best practice di settore consigliano l’introduzione di un apposito processo (l’Event Management, appunto) per gestire gli eventi e fare evolvere i dati che essi contengono in saggezza.
Normalmente gli strumenti di monitoraggio e i processi di Event Management utilizzati dalle aziende sono focalizzati a rilevare possibili malfunzionamenti. Registrano quindi per lo più eventi del tipo “non funziona” e non eventi legati alla qualità dei dati come “il dato non è aggiornato”. Di conseguenza il SAM Manager non ha modo di effettuare le opportune verifiche prima di effettuare le sue analisi.
Per questo motivo, all’interno dei progetti SAM, suggeriamo di intervenire nei processi di Event Management dell’azienda, definendo, assieme al team di monitoraggio, regole che siano in grado di evidenziare la mancanza di accuratezza dei dati: per ogni sorgente dati definiamo delle misurazioni qualitative e quantitative e delle soglie di accettabilità che vadano a determinare il grado di affidabilità della sorgente e a evidenziare warning e alert in relazione alla stessa.
Gli indicatori di monitoraggio: come impostarli
Per determinare i test e le interrogazioni da effettuare con regolarità per la generazione di eventi, il primo passo è quello di determinare quali sono i fattori che garantiscono l’affidabilità dei dati.
Nella tabella sottostante vengono descritti alcuni possibili scenari di trasmissione dati che possiamo trovare all’interno del flusso, con i relativi parametri di valutazione e possibili test/query da considerare per determinarli in modo oggettivo.