Introduzione ai nuovi strumenti per la formazione manageriale 

Riassunto

La complessità crescente all’interno della società e, di conseguenza, in quasi tutti i settori scientifici, economici e di business, richiede nuove competenze manageriali. Innanzitutto è necessario che il manager moderno sappia collocarsi all’interno delle dinamiche complesse che riguardano il suo settore professionale. E’ fondamentale, quindi, imparare sia a “riconoscere la complessità” sia a “riconoscersi nella complessità”. Lo scopo ultimo è riuscire a gestirla dal di dentro, senza volerla ridurre a tutti i costi a modelli troppo astratti, semplicistici e necessariamente poco efficaci. La corretta gestione della complessità richiede conoscenze teoriche nuove, ma anche la capacità pragmatica di usare gli strumenti moderni. Oggi, la Computer Science, l’Intelligenza Artificiale e il Machine Learning sicuramente possono offrire, non solo agli specialisti tecnici, ma anche ai manager, un apparato strumentale potente ed efficace per potersi orientare all’interno di domini ad elevata incertezza. Unitamente a tali strumenti, le Neuroscienze moderne offrono una rinnovata possibilità di usare la tecnologia in modo congruente alle esigenze umane. Il principio guida per lo sviluppo di nuova tecnologia è che quest’ultima, per funzionare in modo ottimale, debba tenere conto anche degli aspetti cognitivi ed emozionali dell’utente finale. Quindi, il binomio Machine Learning – Neuroscienze si propone come nuovo paradigma per una rivisitazione in chiave moderna della formazione manageriale. In questo breve saggio, introduco i concetti basilari di questa nuova impostazione scientifica ed epistemologica, sperando di supportare, con idee e spunti di riflessione, il processo di rinnovamento della figura del manager.

Sommario

Introduzione

Nuovi strumenti per il management della Complessità

Machine Learning e Management

Verso una nuova formazione

Sapere cosa volere

Oltre il Machine Learning

Conclusioni: verso un nuovo umanesimo tecnologico

Introduzione

Qualsiasi organizzazione, sia essa un singolo nucleo familiare, un’azienda o un’intera nazione, è soggetta, in modo e misura variabile, a flussi in entrata e in uscita di materia, energia e informazione. La dinamica di questi flussi genera complessità. Quest’ultima aumenta esponenzialmente laddove il fattore umano gioca un ruolo chiave, ossia quasi sempre. Di conseguenza, ogni organizzazione, grande o piccola che sia, deve necessariamente confrontarsi con una questione fondamentale: gestire la complessità.

Sebbene sia difficile definire la complessità, certamente il concetto di relazione risulta fondamentale per cogliere il nucleo di una visione complessa del mondo. Infatti, la parola latina complexus vuol dire intreccio, legame, concatenamento, nesso. L’esigenza di comprendere e governare, in qualche modo, la complessità, nella scienza, nei vari settori di business e anche nella vita di tutti i giorni, ha condotto progressivamente, già a partire dalla seconda metà del ‘900, alla definizione di un approccio scientifico transdisciplinare, generalmente indicato come “Scienze della Complessità”. Queste tendono ad accomunare, in una visione ampia e trasversale, molti settori del sapere che di solito sono affrontati come discipline indipendenti e, in un certo senso, isolate. Il comune denominatore che stabilisce un nesso tra diversi rami del sapere è il concetto di sistema complesso. Molte ampie trattazioni sull’argomento sono disponibili in letteratura, come ad esempio l’eccellente saggio Complessità e modelli (Bertuglia e Vaio, 2011).

Le dinamiche complesse riguardano sia i sistemi naturali sia le organizzazioni umane. Un sistema geologico, come ad esempio un vulcano, può essere considerato un sistema complesso, così come la comunità scientifica (fatta di geofisici, geochimici e vulcanologi) che ne studia i principi e ne misura gli effetti. Una discussione multidisciplinare sui sistemi complessi, in natura e nelle società umane, la si può trovare nel libro Complessità, ecosistemi, creatività. Una visione organica della conoscenza e della mente nella natura (Dell’Aversana, 2016).

La complessità, inoltre, è anche una proprietà emergente di tipo semantico. Essa, cioè, riguarda anche il nostro modo di interpretare il mondo. Uno stesso problema scientifico, organizzativo o gestionale può essere affrontato in modo riduzionistico oppure in maniera sistemica, a seconda del livello di profondità e ampiezza semantica alla quale si è in grado di spingere l’analisi.

In sintesi, una corretta comprensione delle dinamiche complesse è fondamentale praticamente sempre, nelle scienze fisiche e naturali, nello studio dei fenomeni sociali, in politica e in economica, in quasi tutti i settori di business e in molti processi industriali. Si può comprendere, quindi, l’importanza di una riformulazione della formazione non solo tecnica, ma anche manageriale, in una nuova ottica orientata alla complessità.

Nuovi strumenti per il management della Complessità

Il primo passo per una corretta gestione dei sistemi complessi è rappresentato da un approfondimento, entro i limiti richiesti dal proprio ruolo professionale, dei concetti cardine delle Scienze della Complessità, quali “visione sistemica”, “auto-organizzazione”, “comportamento emergente”, “non-linearità delle relazioni”, “circolarità dei processi”, “retro-azione”, “comportamento caotico” e così via.

Ovviamente, non è necessario diventare esperti di Dinamica Caotica o di Geometria Frattale per essere un buon manager della Complessità. Tuttavia, come in ogni ambito disciplinare, è consigliato comprendere almeno i fondamenti teorici che sono alla base di una visione complessa del mondo, prima di avventurarsi ad usare gli strumenti tecnologici disponibili. In questo breve saggio mi concentrerò di più sugli strumenti che sugli aspetti scientifici ed epistemologici della Complessità, rimandando gli approfondimenti teorici all’amplissima letteratura già disponibile (si veda, ad esempio, il testo citato sopra di Bertuglia e Vaio).

Le tecniche e i metodi per studiare e gestire i fenomeni/sistemi complessi sono, oggigiorno, davvero tanti, e di grande efficacia. Ad esempio, certamente le Scienze dell’Informazione possono fornire un set strumentale fondamentale. Infatti, le dinamiche complesse emergono ovunque esista una ridondanza dei flussi informativi entranti in un’organizzazione. Qualora tali flussi non vengano gestiti adeguatamente e con gli strumenti giusti, il minimo che possa accadere è che l’organizzazione stessa si lasci sfuggire l’opportunità del cambiamento. Questa opportunità è dovuta proprio all’abbondanza di informazioni, ma la ridondanza può trasformarsi rapidamente da vantaggio a problema, qualora non la si sappia gestire.

Per esempio, in alcuni settori industriali, come nell’esplorazione petrolifera, le informazioni chiave, se opportunamente organizzate, strutturate e trasformate in conoscenza, rappresentano spesso il vantaggio competitivo di un’azienda rispetto alle altre. E’ proprio la gestione corretta della complessità informativa che consente al management di una multinazionale energetica, di effettuare quelle scelte cruciali che possono valere miliardi di euro. Queste informazioni hanno a che fare, ad esempio, con la scelta di dove, se e quando entrare all’interno di una certa area esplorativa, come sviluppare e mettere in produzione un giacimento già scoperto, dove ubicare un pozzo petrolifero, con quali aziende allearsi, quali evitare, come gestire le relazioni con la realtà politica, economica e sociale del luogo, e così via.

Al fine di gestire adeguatamente le scelte ed i processi complessi che le condizionano, non sempre è sufficiente il buon senso, e spesso neanche un’eccellente preparazione manageriale. Occorrono strumenti potenti e nuove competenze in linea con i più recenti sviluppi scientifici e tecnologici. Come il medico o il fisico oggi si avvalgono di tecnologie e competenze generate, ad esempio, dalla moderna Computer Science, così anche il manager dovrebbe dotarsi delle “attrezzature” conoscitive e professionali più innovative. In quest’ottica, le varie discipline che vanno sotto l’etichetta di Data Science, Intelligenza Artificiale, Machine Learning, Big Data Mining e Advanced Analytics, possono rappresentare un nuovo set di strumenti professionali al servizio del moderno management.

Ma in che misura il manager deve, o dovrebbe, conoscere queste tecnologie? E’ necessario che si trasformi in un esperto informatico, o è sufficiente che sappia usare gli strumenti tecnologici con una certa consapevolezza? Quali percorsi formativi deve intraprendere per impadronirsi delle nuove competenze della Computer Science? E’ necessario e sufficiente sapere cos’è una Rete Neurale per avere successo imprenditoriale, battere la concorrenza in un certo settore di business, risolvere un conflitto aziendale col personale, portare innovazione nella propria realtà industriale? Oppure occorre anche coadiuvare le nuove conoscenze tecnologiche con una rinnovata visione umanistica?

Proverò, nei paragrafi seguenti, a fornire una traccia di riflessione su questi difficili temi, senza pretesa di fornire risposte esaustive. Cominciamo dalle “macchine che imparano”, un argomento di indubbia attualità.

Machine Learning e Management

Machine Learning significa “apprendimento automatico”. Esso consiste in un insieme di metodi sviluppati a partire dagli ultimi decenni del ‘900 che forniscono ai computer l’abilità di apprendere senza essere stati esplicitamente programmati. Questi metodi sono formalizzati attraverso “algoritmi”, ossia sequenze di istruzioni, che consentono ai computer di apprendere da un insieme di dati e fare delle predizioni su questi. In altre parole, questi algoritmi, riescono a simulare, a vari livelli di complessità, il processo di inferenza induttiva, costruendo modelli, leggi, regole, classi, predizioni, a partire da esempi particolari.

Si parla di “apprendimento supervisionato”, quando l’apprendimento stesso è basato su esempi forniti in anticipo, a partire dai quali “la macchina” riesce a compiere dei processi di generalizzazione di tipo induttivo. Nel caso in cui non si disponga di un set di dati da usare come esempi, si parla di apprendimento non supervisionato. In quest’ultimo caso, gli algoritmi vengono utilizzati per individuare delle “strutture” nei dati, ossia dei raggruppamenti, o cluster, basati sul riconoscimento di pattern e regole di somiglianza.

Gli algoritmi di Machine Learning sono innumerevoli, ciascuno con i suoi vantaggi e svantaggi, e vanno utilizzati in funzione dei dati di cui si dispone, del problema che si vuole risolvere, del tipo di informazione di cui ci si sta occupando. Nella geofisica esplorativa che viene applicata nelle prospezioni petrolifere, ad esempio, esiste il problema di gestire imponenti flussi di dati che nessun intelletto umano, e neppure nessuna organizzazione ben coordinata, riuscirebbe a utilizzare con profitto senza le “attrezzature informatiche” necessarie. In questo caso, la parola “profitto” significa riuscire ad estrarre la massima conoscenza possibile dai dati, formulando, ad esempio, modelli tridimensionali del sottosuolo caratterizzati da molti parametri fisici. Attraverso questi modelli, sarà possibile ubicare in modo ottimale pozzi che effettivamente producano idrocarburi, e che non rappresentino dei “buchi nell’acqua”. In questo caso, complesse reti neurali artificiali (o altri algoritmi), consentono di esplorare i “Big Data” geofisici e geologici, strutturare l’informazione, classificarla, analizzarla, interpretarla e, infine, trasformarla in mappe probabilistiche di idrocarburi e/o modelli geologici del sottosuolo.

In altri casi, utilizzare i dati con profitto può significare riuscire a prendere la decisione giusta tra una miriade di possibilità, laddove una mente, o un intero team, non sarebbe in grado di capire che strada imboccare, a causa della complessità e della incertezza informativa che si trova dinnanzi. In tali circostanze, algoritmi basati su “reti decisionali” consentono di ottimizzare automaticamente il processo decisionale utilizzando principi statistici che massimizzano una “funzione di utilità”. In parole semplici, il computer aiuta il manager e il suo team di esperti a decidere nel modo più opportuno, dato un insieme di circostanze e dati gli obiettivi dell’organizzazione.

Nel campo della medicina diagnostica, ad esempio, il Machine Learning trova la sua utilità nel supportare i medici nella diagnosi a partire da un insieme di evidenze, come immagini dell’interno del corpo umano, sintomi, analisi del sangue e così via. Usando una terminologia anglosassone, si parla in questo caso di “Computer Aided Diagnosis”. Le applicazioni in campo medico sono moltissime e non si limitano al processo diagnostico, ma si espandono alla cura del paziente, alla gestione di enormi moli di dati sperimentali, alla robotica e al supporto nel processo di ricerca e innovazione.

La Figura 1 mostra un esempio di albero decisionale applicato alla diagnosi medica. Esso consente di prevedere o classificare le osservazioni in base a un insieme di regole decisionali. Nell’esempio, mettendo insieme una serie di caratteristiche di biologia cellulare, l’albero decisionale consente di suddividere progressivamente la totalità delle osservazioni biomediche in due classi nettamente separate (in figura rappresentate con due colori diversi). Si vede che, ad ogni nodo di biforcazione, avviene una suddivisione basata su un particolare attributo, come ad esempio la dimensione cellulare, o la forma della cellula, o l’adesione marginale, e così via. Questo processo avviene automaticamente, in quanto il computer è stato precedentemente addestrato (nella fase di training) su casi già “etichettati” (training data set). In altre parole, la macchina prima impara a distinguere i vari casi basandosi su un set di dati già noti, e poi, per inferenza, applica le regole di classificazione appena apprese ai nuovi casi che gli vengono sottoposti.

Figura 1. Esempio di albero decisionale applicato ad un caso di diagnosi medica.

Al di là della specificità dell’esempio, lo stesso approccio decisionale può essere adottato per qualunque tipo di classificazione. Per esempio, nell’industria petrolifera è fondamentale distinguere, a partire da dati di pozzo o da dati geofisici, geologici, geochimici eccetera, se le rocce del sottosuolo, a una certa profondità, contengono acqua o petrolio o gas, e in che misura. Questo tipo di classificazione può essere effettuata usando alberi decisionali del tutto analoghi a quelli usati per la diagnosi medica, come illustrato nella Figura 2 a titolo esemplare.

Figura 2. Esempio di albero decisionale applicato ad un caso di classificazione geofisica. I colori, questa volta, rappresentano diverse tipologie di formazioni rocciose, contenenti differenti tipi di fluidi, come acqua, petrolio e gas, con differenti valori di saturazione.

Ovviamente, le caratteristiche (“attributi geofisici”) su cui si basa la classificazione in geofisica saranno diverse da quelle relative alla diagnosi medica, ma il metodo (o meglio, i metodi) di classificazione possono essere assolutamente gli stessi. L’albero decisionale rappresenta solo uno tra i tanti approcci di classificazione e/o predizione automatica. Ve ne sono di molto più complessi ed efficaci, come ad esempio “Adaptive Boosting”, “Reti Bayesiane”, “Reti Neurali” e molti altri ancora.

Ad esempio, la Figura 3 mostra il un insieme di alberi decisionali ottenuti attraverso un algoritmo di classificazione chiamato “Random Forest” (letteralmente, “Foresta Casuale”). Si tratta di un “classificatore d’insieme” basato su una tecnica nota come “apprendimento statistico”. Lavorando con insiemi di flussi decisionali, consente di ottenere previsioni/classificazioni più accurate di quanto non riesca a fare un singolo albero decisionale.

Figura 3. Esempio di “Pythagorean Forest”, ossia di un insieme di alberi decisionali utilizzati dall’algoritmo noto come “Foresta Casuale”.

I colori nella figura 3 corrispondono alle diverse “classi geologiche/geofisiche” in cui l’algoritmo ha suddiviso i dati di partenza. Una classe può essere, per esempio, “formazione geologica arenacea contenente petrolio”, mentre un’altra classe può corrispondere a “formazione calcarea contenente acqua”. I dati di partenza, una volta suddivisi in classi, vengono mappati e forniscono una rappresentazione immediata di dove è più o meno probabile che un eventuale pozzo trovi idrocarburi ad una certa profondità. Sulla base di tali mappe probabilistiche, il manager di esplorazione e il suo team prendono decisioni cruciali che possono implicare valori economici di centinaia di milioni di euro.

La figura 4 rappresenta due esempi di mappe di probabilità di distribuzione di petrolio per due distinti giacimenti collocati a profondità differenti, l’uno sotto l’altro. Il colore rosso indica un’alta probabilità di avere idrocarburi.

Figura 4. Mappe di probabilità di idrocarburi (Figura estratta da: Dell’Aversana, P., Bernasconi, G., Chiappa, F., (2016), A Global Integration Platform for Optimizing Cooperative Modeling and Simultaneous Joint Inversion of Multi-domain Geophysical Data, AIMS Geosciences, 2 (1): 1-31 DOI: 10.3934/geosciences.2016.1.1)

Una volta comprese le enormi implicazioni pratiche e l’importanza degli strumenti di Machine Learning, qualunque manager difficilmente rinuncerà ad essi. In effetti, non è difficile imparare ad usare tutti questi algoritmi, anche senza avere una preparazione fisico-matematica specialistica. Ovviamente, vale il principio generale che più si approfondisce lo studio di questi metodi, meglio li si usa, riuscendo a parametrizzare gli algoritmi in modo consapevole e sapendo valutare i risultati in maniera critica.

Gli algoritmi di Data Science e Machine Learning raramente vengono utilizzati in modo individuale. Più frequentemente vengono assemblati a formare dei veri e propri “Sistemi” o “Work flow” ad elevata complessità, i quali consentono di svolgere in parallelo una miriade di funzioni oltre alla classificazione automatica.

Ovviamente, al manager non è richiesto di saper decifrare, né tantomeno di saper programmare i codici di calcolo. Molti di questi algoritmi sono già stati programmati/codificati da esperti e resi disponibili in rete, “pronti per l’uso”, o al più richiedono piccoli adattamenti. Ciò che però anche il manager, e non solo il tecnico, dovrebbe conoscere, sono i fondamenti dell’algoritmo utilizzato, quali sono i suoi pro e i suoi contro, come usarlo al meglio, in quali casi preferire un metodo anziché un altro, come generare un’architettura e un work flow di Machine Learning e, infine, come interpretare i risultati con cognizione di causa.

Verso una nuova formazione

Riassumiamo quanto detto finora in un’ottica pragmatica di applicazione manageriale.

Nell’attuale contesto in rapido sviluppo del Machine Learning, il manager può trarre vantaggio dall’enorme possibilità di scelta di strumenti di Intelligenza Artificiale, allo stesso modo dello scienziato, del medico o dello specialista. Questo vantaggio può essere realizzato, come già accade in molti ambiti industriali, sia all’interno dei flussi decisionali, sia, più in generale, nella trasformazione della complessità informativa da una condizione disorganizzata ad una condizione organizzata. In altre parole, qualunque manager si può trovare in una posizione vantaggiosa rispetto ai suoi competitor, ma anche rispetto allo specifico problema che vuole risolvere, se i dati grezzi in suo possesso sono stati trasformati in conoscenza strutturata. Esempi di conoscenza strutturata possono essere: modelli comportamentali della clientela, trend statistici di tipo finanziario, previsioni economiche, classificazioni di tipi di merci e previsioni della loro evoluzione sul mercato, modelli fisici del sottosuolo, mappe di probabilità di idrocarburi, modelli statistici delle tendenze sociali, e così via.

Ma torniamo alla questione pragmatica di cosa dovrebbe fare un manager, per imparare a gestire e utilizzare questi strumenti così potenti. Riconduciamo la questione da un piano tecnico ad un’ottica di formazione manageriale.

Il mio punto di vista, basato su un’esperienza trentennale duplice, sia di specialista geofisico sia di project manager, è che il “manager moderno” non possa esimersi dal compiere uno sforzo ulteriore rispetto a quanto fatto fino al recente passato. Questo sforzo risiede nell’intraprendere un processo di formazione nuovo in linea con le moderne tecnologie di gestione della Complessità, tra le quali certamente rientrano il Machine Learning, la Data Science e, in generale, l’Intelligenza Artificiale. Ovviamente non sto parlando di una formazione puramente tecnica. Non si può richiedere ad un dirigente d’azienda di imparare a programmare in C++ o di scrivere un nuovo algoritmo di “Deep Neural Network”. Per questi aspetti così specifici esistono schiere di programmatori e ingegneri informatici bravissimi. Tuttavia, è giusto, utile e necessario che anche un dirigente, un manager, un quadro di alto livello sappiano cosa si possa ottenere con i moderni strumenti dell’Intelligenza Artificiale, come questi possano essere inseriti in un work flow, come consentano di supportare le decisioni, le scelte, i processi di problem solving, il lavoro del team, l’attività del dipartimento, della azienda, della realtà professionale di riferimento. In estrema sintesi, occorre una nuova formazione manageriale che, parafrasando il grande storico e scrittore Yuval Noah Harari, consenta al manager di “sapere cosa volere”.

Sapere cosa volere

Qualunque persona, dall’età infantile in su, per poter scegliere adeguatamente, deve sapere cosa è lecito, realisticamente, desiderare nella sua condizione. Ma anche per sapere cosa desiderare, soprattutto se ci si muove all’interno di un dominio complesso, bisogna essere attrezzati con gli strumenti giusti. Lo stesso principio a maggior ragione vale per un manager il quale è quasi sempre costretto a decidere in condizioni di urgenza all’interno di scenari ad alta complessità. Ne consegue che un manager deve, o dovrebbe, essere in grado innanzitutto di riconoscere uno scenario complesso, evitando inutili sforzi di semplicistico riduzionismo. Un dirigente ricercatore, per esempio, non può decidere quale progetto supportare basandosi, semplicisticamente, sul principio che il progetto migliore è quello che costa meno e che sia in linea con il trend scientifico del momento (purtroppo non si tratta di uno scenario fantasioso anche all’interno di grandi realtà industriali e/o accademiche).

Il passo imprescindibile per attuare il principio suddetto, che potremmo definire come “Principio della decisione informata”, è per l’appunto, sapere gestire l’informazione. Il problema principale dell’informazione complessa è che quest’ultima si presenta spesso sotto mentite spoglie. Vale a dire che, tante volte, le relazioni più interessanti tra i vari dati che formano interi database, spesso di dimensioni gigantesche, sono nascoste, occultate al di sotto della mole stessa dei continui flussi informativi. Il paradosso è che proprio queste relazioni tra i dati rappresentano, spesso, la vera ricchezza informativa, il tesoro nascosto, il patrimonio da portare alla luce.  E’ per tale motivo che, oltre che parlare di “Big Data”, bisogna interiorizzare il concetto di “Deep Data”, o meglio, “Deep Links”: in molti database le informazioni sono tante, ma sono soprattutto “profonde”, in quanto celano una ricchezza relazionale che non sempre si rivela alla superficie del dato grezzo. Torniamo, quindi, al concetto da cui siamo partiti: l’essenza della Complessità e la sua ricchezza stanno nelle relazioni.

Ne consegue che il ruolo del manager, anzi, il primo desiderio di un manager eccellente, dovrebbe essere quello di far emergere questo scrigno informativo, formato dalle relazioni tra i dati. Accade spesso che le più grandi innovazioni, o semplicemente le migliori soluzioni a problemi vecchi e lasciati irrisolti per anni, vengano alla luce grazie alla scoperta di relazioni inedite tra le informazioni. La mia esperienza, sia di ricercatore sia di manager di progetti di ricerca e di progetti applicativi, mi insegna che scoprire nuove relazioni è talvolta più importante che acquisire nuovi dati. Come dire che il tesoro è già lì, sepolto da montagne di dati, ed ha la forma di una connessione nuova, di un link inedito, di una correlazione di cui nessun altro prima si era accorto.

Quindi, per tornare alla questione fondamentale racchiusa nella terna “complessità-management-formazione”, certamente uno dei ruoli del manager moderno dovrebbe essere quello di favorire qualsiasi processo che possa condurre allo svelamento del tesoro informativo contenuto nel binomio “Big Data – Deep Link” sotto forma di relazioni e connessioni inedite. Questo processo così importante e delicato può essere coadiuvato dai potentissimi strumenti della Data Science e del Machine Learning. Il nuovo manager dovrebbe essere formato in modo tale da sapere cosa chiedere al suo team, quali strumenti far sì che esso applichi, attraverso quali work flow, con quali obiettivi, per poter trasformare la complessità disorganizzata dei dati grezzi in conoscenza strutturata e fruibile.

Per essere pragmatici, pur volendo evitare di formulare procedure prescrittive, credo sia importante che i manager siano formati affinché la loro azione sia volta a promuovere, coadiuvare e monitorare (almeno) i seguenti punti fondamentali relativi alla complessità informativa:

  • Gestione dinamica dei flussi informativi in entrata e in uscita dalla propria organizzazione.
  • Digitalizzazione delle informazioni strategiche.
  • Favorire la multimedialità informativa (cioè il dato in forma di testi, numeri, immagini, suoni, video e gestito da media di differente tipologia)
  • Big Data Mining (esplorazione dei dati)
  • Deep Link Mining (ricerca delle relazioni tra i dati)
  • Trasformazione dell’informazione da stati grezzi (dati) a stati sempre più strutturati (conoscenze).
  • Creazione continua di modelli dinamici che abbiano la prerogativa di essere facilmente aggiornabili.
  • Diffusione dell’informazione strutturata all’interno dell’organizzazione.

Affinché i manager possano attivarsi sui punti sopra elencati, dovrebbero dotarsi di una formazione di base sugli strumenti di Data Science e Machine Learning, imparando le nozioni fondamentali dei principali approcci di apprendimento automatico, analisi dei dati e flussi decisionali in dominio di incertezza. Senza dover necessariamente diventare degli esperti programmatori e tantomeno dei matematici applicati o degli esperti di statistica avanzata, i nuovi manager dovrebbero quanto meno essere in grado di comprendere gli aspetti chiave delle diverse metodologie di Intelligenza Artificiale e come queste possano funzionare più o meno bene in domini di incertezza e complessità informativa. Se non altro per poter guidare, sostenere, promuovere, valutare e indirizzare il lavoro di squadra, anziché divenire facile ostaggio dei veri professionisti del Data Science.

Volendo concordare sulla suddetta impostazione formativa del nuovo management, la cattiva notizia (o quella buona?) è che quest’ultimo deve rimettersi a studiare sodo, con una certa dose di umiltà e con tanta buona volontà.

La buona notizia è che questo lavoro di neo-formazione è al giorno d’oggi coadiuvato da una miriade di strumenti ad accesso estremante facilitato, nella forma di testi, manuali, tutorial e video di comprensione altamente intuitiva (si veda, ad esempio, il bel testo “Machine Larning con Python”, di Sebastian Raschka; un altro testo di riferimento è il libro di Russell e Norvig (2016): “Artificial Intelligence: A Modern approach”, Global Edition, pubblicato da Pearson Education, Inc., publishing as Prentice Hall).

Sebbene occorra impegno nello studio della Data Science e dell’Intelligenza Artificiale, il livello di comprensione richiesto ad un manager, il quale non è certamente tenuto a inventare e a scrivere nuovi algoritmi di Neural Network, è oggi sicuramente accessibile al prezzo di uno sforzo intellettuale assolutamente ragionevole.

Oltre il Machine Learning

Le medesime considerazioni fatte fin qui per la gestione della complessità informativa possono essere estese alla gestione di altre forme di ricchezza celate all’interno del mare della Complessità. Così come le relazioni tra i dati rappresentano la gran parte della ricchezza di tipo informativo, allo stesso modo le relazioni tra le persone rappresentano il vero tesoro umano delle organizzazioni. Non è difficile concordare sul fatto che dieci professionisti eccellenti ma isolati producono, probabilmente, meno risultati per la loro organizzazione di quanto riescano a fare dieci professionisti “medi”, ma che lavorano in modo coordinato. Di conseguenza, non è difficile convincersi anche del fatto che un buon manager non debba essere ri-formato solo sotto l’aspetto tecnico, ma anche nel campo delle relazioni umane. Il Machine Learning è di grande aiuto, ma da solo non basta.

In alcuni ambienti industriali, in molte aziende e anche in certi ambiti accademici particolarmente evoluti, si sta assistendo, da alcuni anni, ad un progressivo e inesorabile avanzamento delle Neuroscienze, sia di quelle cognitive sia di quelle affettive. Le prime si occupano di analizzare i meccanismi nervosi che stanno alla base del pensiero e del comportamento, attraverso l’integrazione di metodi diversi, quali la biologia cellulare, la psicologia cognitiva, la neurologia del comportamento e l’informatica.

Le Neuroscienze affettive, invece, si occupano di studiare le principali emozioni, quali la paura, le attitudini esplorative, l’istinto per il gioco, la rabbia, la tristezza e così via, le quali accomunano tutti i mammiferi, uomo compreso, sotto il profilo dei comportamenti primordiali.

Il neuro-scienziato che più di ogni altro ha approfondito l’esame delle basi cerebrali delle emozioni e dei sentimenti affettivi è stato Jaak Panksepp. Il suo libro “Archeologia della mente. Origini neuro-evolutive delle emozioni di base” (Raffaello Cortina Editore), rappresenta certamente uno dei testi di riferimento su questo affascinante argomento.

Senza volermi dilungare su un tema così complesso, mi limito a suggerire l’importanza delle Neuroscienze sia cognitive sia affettive all’interno del patrimonio formativo del manager moderno. Infatti, non è un caso che molte realtà aziendali e molti settori di business stiano incrementando gli investimenti anche per importare le discipline neuro-scientifiche nel proprio dominio di business, al fine di migliorare sia gli aspetti tecnologici sia quelli gestionali. Ad esempio, si è constatato che molte tecnologie in ambito medico, nell’esplorazione petrolifera, in molti settori ingegneristici e in tantissimi altri campi, funzionano con maggiore efficienza quando tengano conto del funzionamento del cervello, sia dal punto di vista cognitivo, sia dal punto di vista emozionale.

Ad esempio, i migliori sistemi di Imaging avanzato utilizzati in medicina diagnostica e nella geofisica di esplorazione, si basano sui principi fondamentali del funzionamento del sistema visivo umano. Analogamente, molti programmi di integrazione dei dati tengono conto di come il nostro cervello funziona per collegare le informazioni in strutture coerenti dotate di senso. La stessa sconfinata potenza del Machine Learning risulta potenziata quando venga coadiuvata da un design che tenga conto della natura intrinseca del suo utente finale: l’uomo. Per non parlare delle strategie di gestione del personale, che funzionano al meglio laddove si tengano in debita considerazione gli aspetti cognitivi e soprattutto emozionali di manager e dipendenti.

Per una dettagliata discussione sulle tecnologie, strategie e metodologie basate sul funzionamento del cervello, con particolare riferimento alle geo-scienze esplorative, si veda il libro “Neurobiological Background of Exploration Geosciences: New Methods for Data Analysis Based on Cognitive Criteria”, 2017, di Dell’Aversana Paolo, edito da Academic Press – Elsevier).

Conclusioni: verso un nuovo umanesimo tecnologico

Stiamo progressivamente assistendo ad una evoluzione rapida della tecnologia e della scienza, non più isolata in se stessa o segmentata in mille rivoli specialistici, ma piuttosto calata in multidisciplinari contesti cooperativi tra macchine e organizzazioni umane. In questo affascinante e travolgente progresso scientifico, le Neuroscienze moderne stanno svolgendo un ruolo essenziale, per ricondurre gli sviluppi tecnologici ad una dimensione umana. Si tratta di un trend che si può definire “Human-Machine Cooperative Learning” (Figura 5), dove le macchine si avvalgono della creatività umana, e l’uomo si avvale dell’impareggiabile potenza di calcolo dei sistemi informatici. E’ una sorta di umanesimo tecnologico, o se si preferisce, una tecnologia umanistica, dove macchina e uomo non competono, ma cooperano. Una realtà così affascinante, così complessa e in così rapida evoluzione non può sfuggire all’attenzione di un management moderno e al passo con i tempi. Il nuovo manager difficilmente potrà esimersi dal riprogettare e arricchire la sua formazione professionale per tenere conto di queste nuove forme della Complessità.

Figura 5. Schema concettuale del “MultiMedia Human Machine Learning”, dove uomo e macchina cooperano attraverso l’interscambio di dati e conoscenza multimediale (ossia informazione codificata in immagini, suoni, testi, numeri, filmati).

Paolo Dell’Aversana si è laureato in Scienze Geologiche (1988) e in Fisica (1996). Lavora da trentuno anni nel campo delle Scienze della Terra. Si è specializzato in tecniche matematiche per le applicazioni in geofisica. Lavora in Eni SpA dove si occupa di Intelligenza Artificiale, Machine Learning e tecnologie geofisiche innovative. Ha pubblicato oltre cento articoli scientifici e quattro libri con EAGE Publication ed Elsevier. Il 22 ottobre 2018, ha ricevuto dal Presidente della Repubblica Italiana, Sergio Mattarella, il prestigioso premio Eni Award come riconoscimento all’innovazione.