Come avevo già evidenziato in precedenti articoli, la tematica dell’interpretazione dei dati è fondamentale, non solo per cogliere le corrette informazioni dai dati rilevati, ma anche per progettare un sistema di gestione della performance che sia efficace. Si tratta di una tematica che deve essere affrontata ex-ante, poiché solo quando le regole interpretative sono testate e validate possiamo ritenerci soddisfatti di quanto elaborato. Se non affrontiamo per tempo questo tema, corriamo il rischio di implementare un sistema poco affidabile, che non rispecchia ciò che vorremmo effettivamente misurare e/o ottenere, basato su criteri risibili e quindi attaccabile da parte di tutti coloro che, all’interno dell’organizzazione, non desiderano che tali sistemi vengano introdotti e si consolidino. Non solo, rischiamo di perdere anche la fiducia di tutti coloro che inizialmente ci hanno creduto, ma poi nell’uso, a fronte delle carenze del sistema, hanno raffreddato i propri entusiasmi.

Per evitare tutto questo, il sistema progettato deve avere una sua coerenza logica. Quando si parla di robustezza del sistema si intende proprio la sua sostenibilità logica. Più riusciamo a garantire coerenza logica, più il sistema sarà robusto. Cosa significa per un sistema di gestione della performance possedere una coerenza logica? Significa che il sistema possa permettere di misurare ciò che effettivamente desideriamo misurare e di riconoscere una performance migliore da una peggiore. Sembra semplice, ma è più facile dirlo che, di fatto, garantirlo nella pratica.

Quali sono i fattori che possono compromettere la coerenza logica del sistema? Ovviamente ci sono tanti fattori che determinano la robustezza o meno di un sistema di gestione della performance. Tra questi, quelli che più incidono sull’architettura del sistema sono:

  • Scelta di indicatori non appropriati
  • Mancata evidenza delle correlazioni possibili tra obiettivi
  • Regole di interpretazione dei dati non adeguate

Quando si selezionano gli indicatori da usare per monitorare i progressi che si ottengono nel perseguimento di un obiettivo, la prima domanda a cui rispondere è: stiamo effettivamente misurando ciò che desideriamo misurare? Quando un solo indicatore è associato ad un obiettivo, rispondere a questa domanda risulta più facile, se si usano due o più indicatori la questione si fa più complessa ed è necessario effettuare qualche ulteriore riflessione e simulazione per rendersi conto se la scelta effettuata è quella più appropriata, o perlomeno per rendersi conto dei limiti della scelta effettuata se non esistono alternative migliori percorribili.

Se gli obiettivi sono considerati singolarmente e si perdono di vista le correlazioni che possono esistere tra i vari obiettivi che si desidera perseguire, si rischia di pervenire a conclusioni sbagliate in merito alla performance ottenuta, nonché di rafforzare eventuali silos funzionali. In un mondo che è tutto “cross-qualcosa”, non riflettere sulle cross-relazioni tra obiettivi, non aiuta a cogliere la performance migliore. Sistemi che tendono a misurare e valutare la performance in modo “mono-dimensionale”, inducono spesso all’errore.

Quando un obiettivo è misurato da due o più indicatori è necessario chiedersi se la regola per interpretare i risultati conseguiti è adeguata allo scopo. Non solo, ma se i parametri utilizzati all’interno della regola sono stati settati correttamente (pesi, tolleranze, scale, etc.). Purtroppo non esiste una regola unica che vada bene per tutti gli obiettivi multidimensionali del sistema. Ciascun obiettivo richiede una propria verifica empirica in merito alla regola più opportuna per misurarne il conseguimento.

Da tutte queste considerazioni emerge l’esigenza di sottoporre le parti del sistema più critiche a delle specifiche simulazioni in modo da testarne la coerenza logica. Non facendolo si rischia di implementare un sistema che, più che soddisfare le aspettative e coronare l’impegno profuso, si caratterizzerà per le ambiguità e le contraddizioni che farà emergere.