Colmare il gap tra le scienze dei dati, le scienze del cervello e la cultura umanistica. Esempi e applicazioni multidisciplinari

Riassunto

Il paradigma tecnologico basato sui concetti di informazione e Big Data oggi detta le regole in molte organizzazioni imprenditoriali, industriali, accademiche e scientifiche. Tuttavia l’informazione ha scarso valore se non si riesce a coglierne appieno il significato. La riflessione metodologica e lo sviluppo tecnologico dovrebbero convergere, quindi, verso un rinnovato interesse per gli aspetti semantici delle informazioni. In questo articolo si propone un flusso di lavoro ed un sistema di Human Machine Learning finalizzato a massimizzare il valore dei dati, cercando di estrarne il significato più profondo ed esteso possibile. Il work flow proposto è ampiamente cross-disciplinare e si sviluppa in un’ottica di interconnessione tipica delle moderne Scienze della Complessità. Esso integra le metodologie di Data Fusion, Analisi multimediale e multisensoriale con gli algoritmi di Intelligenza Artificiale e Big Data Analytics. Inoltre, anche le Neuroscienze cognitive ed affettive giocano un ruolo cruciale. Infine, il concetto di management viene ridefinito in chiave multidisciplinare, affinché il manager moderno possa ritrovare un ruolo da protagonista all’interno dell’attuale sfida della complessità informativa.

Sommario

Introduzione

Dati, informazioni e significati

Cosa è il significato?

Architettura del sistema Human Machine Learning

Data Fusion e Integrazione

Analisi multimodale e multisensoriale

Multimedia Machine Learning

Aspetti neurobiologici ed epistemologici: il lato umano del work flow

Conclusioni: tornando alla complessità e al ruolo del manager

Bibliografia 

 

Introduzione

In alcuni lavori precedenti [1, 2], ho discusso dei nuovi possibili strumenti per il management (e per la sua formazione), nell’ottica delle Scienze della Complessità. Ho sviluppato la discussione con riferimento ai recenti sviluppi nel campo del Machine Learning e delle moderne Neuroscienze. Infine, ho introdotto il concetto di “umanesimo tecnologico”, secondo il quale macchina e uomo non competono, ma cooperano. Nell’attuale scenario dell’Intelligenza Artificiale, questo concetto trova applicazione concreta tramite l’approccio “Human-Machine Learning”. Esso presuppone un ampio paradigma culturale, che è umanistico e tecnologico allo stesso tempo, e secondo il quale le macchine si avvalgono della creatività umana, e l’uomo si avvale dell’impareggiabile potenza di calcolo dei moderni sistemi informatici, in una simbiosi dalle prospettive molto ampie.

In questo articolo, sviluppo ed espando i medesimi concetti, discutendo con maggior dettaglio l’architettura del sistema Human-Machine Learning. Non si tratta solo di tecnologia, ma di un approccio complesso finalizzato a favorire l’esplorazione dei significati estraibili dai dati. L’idea portante è che più profondo ed esteso è il contenuto semantico dell’informazione, più questa ha valore. Questo principio ha profonde radici epistemologiche, ma anche forti implicazioni pragmatiche, sia nelle applicazioni scientifiche sia nella routine quotidiana. Ma cosa è il significato dell’informazione, e come avviene il processo di estrazione dell’uno dall’altra? Si tratta di una questione puramente accademica, oppure vi possono essere ampi risvolti applicativi?

Restando nella cornice delle Scienze della Complessità, in questo nuovo lavoro cercherò di rispondere, almeno in parte, a queste difficili domande. Dopo alcune necessarie riflessioni di base sul concetto di significato, Introdurrò, in maniera sintetica, alcuni approcci e metodi per trasformare la complessità “disorganizzata” dei dati grezzi (osservazioni, misure sperimentali), in strutture semantiche “organizzate” (modelli, teorie, interpretazioni). Questo processo è fortemente supportato dalle moderne metodologie di Data Fusion e Data Integration (come quelle usate in medicina diagnostica e nell’imaging geofisico), dalle Tecnologie Multimediali e dai numerosi algoritmi di Data Analytics e Machine Learning.

Come già sottolineato più volte, la componente organizzativa e gestionale del work flow è altrettanto cruciale di quella tecnologica. Quindi, il management è chiamato a giocare un ruolo centrale nella dinamica del processo di significazione. In questo percorso, il concetto chiave non è più solo quello di “Big Data”, ma anche e soprattutto quello di “Deep Meaning”. Vale a dire che non sono i grandi data base ad avere valore in sé, ma piuttosto la complessità degli stessi qualora venga appropriatamente trasformata in ricchezza semantica.

 

Dati, informazioni e significati

Sempre più compiti fino a poco tempo fa svolti dalle persone, possono oggigiorno essere codificati in algoritmi da dare in pasto alle macchine. Non è difficile concordare sul fatto che nessuna persona sia in grado di competere con i computer nel calcolo formale. E’ per questa ragione che l’analisi quantitativa e, sempre più spesso, operazioni onerose dal punto di vista computazionale vengono affidate ai calcolatori, come l’esplorazione sistematica dei “Big Data”, il clustering delle informazioni e la classificazione di “oggetti” di vario tipo.

D’altra parte, la prerogativa dell’intelligenza umana è quella di riuscire a cogliere, a vari livelli di profondità, il significato degli eventi, delle parole, delle relazioni. Un bambino di un anno è in grado di comprendere, in un senso emotivo profondo, il significato delle espressioni facciali della madre, molto più efficacemente di qualsiasi rete neurale artificiale (per la quale, ovviamente, non ha molto senso parlare di emozioni).

Da queste semplici considerazioni iniziali, emerge innanzitutto l’opportunità di ampliare il panorama di ricerca attuale, focalizzando l’attenzione non più soltanto sul concetto di “dato”, ma anche su quello di “significato”. L’assunzione di base, motivata quanto meno dal buon senso, è che il processo conoscitivo, e di conseguenza quello tecnologico, non possano prescindere dalla componente semantica (legata, appunto, al significato) dell’informazione. La conoscenza stessa non può essere banalmente ridotta ad un accumulo di dati. In tal senso, molta terminologia moderna rischia di essere fuorviante. Parlare di “Data Science”, “Big Data”, “Data Value”, può sviare l’attenzione dal nocciolo del processo gnoseologico il quale si fonda, o dovrebbe fondarsi, sulla comprensione dei significati.

Risulta altrettanto evidente l’importanza di coniugare e integrare le prerogative dell’intelligenza umana con quelle dell’intelligenza artificiale, al fine di ridurre i limiti di entrambe e massimizzarne i vantaggi. In tale prospettiva, il focus della riflessione metodologica e dello sviluppo tecnologico non dovrebbe più limitarsi al concetto di Big Data (grandi moli di dati), ma dovrebbe estendersi a quello di “Deep Meaning” (significato profondo). Ma cosa è il significato?

 

Cosa è il significato?

Accettiamo, per adesso, una definizione intuitiva di “significato”, ben sapendo che esiste una vastissima ricerca ed un’estesa bibliografia, sulla secolare questione filosofica di cosa s’intenda per “significato di qualcosa” [3, 4, 5]. Recentemente, la ricerca neuro-scientifica e le Scienze Cognitive, hanno estesamente esplorato le dinamiche biologiche e cognitive che conducono alla formazione dei significati nella nostra mente [6, 7, 8].

Possiamo supporre, per cominciare, che il generico processo di significazione si sviluppi, almeno in parte, attraverso la combinazione di due approcci complementari:

  1. a) un sempre maggiore approfondimento della conoscenza delle proprietà intrinseche di un certo oggetto di studio (analisi “intensiva”);
  2. b) una sempre maggiore estensione del contesto in cui l’oggetto è calato (contestualizzazione).

Nelle Scienze della Terra, per esempio, il significato geologico di un campione di roccia emerge progressivamente dalle analisi specifiche di tipo mineralogico, petrografico, paleontologico eccetera. Inoltre, ai fini del processo semantico[1], è fondamentale contestualizzare il campione stesso all’interno della sequenza di sedimenti cui appartiene. Così, il processo di significazione geologica dello stesso campione roccioso non può certo prescindere dalla comprensione delle relazioni stratigrafiche con altri campioni, dalla collocazione spaziale e temporale all’interno del processo evolutivo della regione, sulla scala cronologica dei milioni (o delle centinaia di milioni) di anni.

Per fare un esempio più familiare, anche nel linguaggio naturale il significato dei termini che usiamo deriva, in buona parte, dal contesto del discorso. Tuttavia è vero anche l’opposto: ogni singolo termine contribuisce a formare il significato del discorso nella sua totalità. Questa causalità di tipo circolare fu colta e discussa approfonditamente da Friedrich Ludwig Gottlob Frege (1848–1925), grande logico e matematico tedesco, studioso di filosofia del linguaggio e padre del pensiero formale del Novecento[2].

Anche gli aspetti funzionali concorrono a determinare il significato. Come affermato dal filosofo Ludwig Wittgenstein nella sua opera postuma “Ricerche Filosofiche”[3], componenti essenziali del processo di significazione di un qualsiasi oggetto (fisico, concettuale, psicologico, verbale o di altro tipo) sono l’uso che se ne fa e la sua collocazione all’interno di un contesto: “Il significato di una parola è il suo uso nel linguaggio” (p. 33, op. citata); e poco oltre il filosofo afferma: “Col denominare una cosa non si è fatto ancora nulla … Questo, tra l’altro, Frege intendeva dicendo: soltanto nel contesto una parola ha significato” (p. 37, op. citata).

Analisi e contestualizzazione, mediati dagli aspetti funzionali, non bastano a definire esaustivamente il significato di una parola, di un evento, di un oggetto, di un concetto. Intervengono anche altri fattori di carattere psicologico, storico, sociale, spesso soggettivi, che vanno a espandere e ad approfondire i significati, agendo come una sorta di filtro amplificatore o attenuatore.

Quindi, in sintesi, il significato emerge da un insieme di componenti intrinseche (analitiche) ed estrinseche (contestuali), ma sempre mediate da un filtro psicologico, storico e funzionale che avrà inevitabilmente (anche) una connotazione individuale.

Una volta delineati i termini chiave del processo conoscitivo inteso soprattutto come processo semantico, e una volta ammessa l’importanza della cooperazione uomo-macchina in tale processo, la questione aperta diviene la seguente: è possibile ottimizzare la simbiosi tra intelligenza artificiale e umana, traendo vantaggio sia dalle nuove metodologie di Machine Learning sia dagli sviluppi delle moderne neuroscienze, sia dalla riflessione filosofica ed epistemologica?

Architettura del sistema Human Machine Learning

L’architettura e la dinamica del sistema Human Machine Learning (brevemente, HML) mostrate in figura 1, si basano sull’interazione fra tre principali “blocchi sistemici”. Questi includono sia metodi e librerie di calcolo specifiche del problema (in alto a sinistra nella figura), sia metodi e librerie di Machine Learning (in alto a destra). Inoltre vi è un terzo blocco (in basso) che non è unicamente di tipo tecnico/informatico, ma include anche aspetti neuro-scientifici/epistemologici, ai quali dedicherò una discussione a parte.

Figura 1. Schema concettuale del sistema Human Machine Learning (HML)

Ricordiamo che il sistema HML è finalizzato ad estrarre il massimo valore dalle informazioni. L’assunto di base è che le informazioni valgano tanto di più quanto maggiormente se ne comprenda il significato. Dal punto di vista pragmatico, questa assunzione è dettata dall’idea intuitiva che quanto più comprendiamo il significato dei dati di cui disponiamo, tanto meglio riusciamo ad utilizzarli per prendere decisioni. Questo processo di significazione e, di conseguenza, di valorizzazione delle informazioni, avviene attraverso una progressiva trasformazione delle informazioni stesse da uno “stato grezzo” ad uno stato sempre più “strutturato sul piano semantico”.

Esempi tipici di informazioni allo stato grezzo sono, in genere, le misure sperimentali non ancora processate, che si trovano ancora in uno stato di scarso collegamento concettuale. Invece, esempi di informazioni semanticamente strutturate sono i modelli fisici, i modelli matematici e concettuali derivati dai dati. Il processo di strutturazione semantica è ben noto e familiare in tutte le scienze sperimentali e viene spesso indicato come transizione dal “Data Space” (Spazio dei Dati) al “Model Space” (Spazio dei Modelli). Un esempio geofisico è la trasformazione di misure di sismologia in modelli di parametri elastici attraverso un processo noto come tomografia sismica. Un esempio simile, ma in campo medico, è quello che, a partire da specifiche misurazioni, consente di ottenere immagini dell’interno del corpo umano, attraverso tecniche di tomografia computerizzata, di risonanza magnetica e così via.

Un altro esempio di strutturazione semantica delle informazioni noto a tutti, è la diagnosi medica che viene ottenuta utilizzando una serie di osservazioni sintomatiche, analisi del sangue, anamnesi del paziente e così via. Ancora un esempio molto familiare di strutturazione delle informazioni, è la risoluzione di un caso di omicidio da parte di un detective, il quale riesce a collegare una serie di indizi che conducono all’assassino.

Tutti questi esempi sono casi particolari della medesima problematica e del medesimo processo che può essere genericamente indicato come “processo di significazione”. Essi suggeriscono che un aspetto chiave (ma non esclusivo) del processo di significazione consiste nell’integrazione delle informazioni. Questo sub-processo è spesso indicato nelle applicazioni scientifiche (per esempio nell’imaging medico o geofisico), come “Data Fusion” oppure come “Data Integration” (le due espressioni non hanno esattamente lo stesso significato ma, per semplicità, in questo contesto le userò in maniera equivalente).

Data Fusion e Integrazione

Le tecniche di Data Fusion e Integrazione giocano un ruolo fondamentale per la comprensione del significato delle informazioni. Per Data Fusion si intende, in genere, l’utilizzo congiunto di informazioni che provengono da sorgenti differenti. Per esempio ci si può riferire alla fusione di dati ottenuti con sensori differenti per la valutazione e stima di modelli dinamici da parte di un manipolatore robotico. Analogamente, si può usare la medesima espressione per riferirsi all’integrazione spontanea e naturale dei dati multisensoriali, convergenti verso una percezione unitaria da parte di un cervello umano. In altri casi, si può parlare di Data Fusion quando molte osservazioni/misure di tipo diverso vengono integrate per fornire un modello multi-parametrico, come in geofisica, o una diagnosi di malattia, come in medicina. In questo testo, utilizzerò l’espressione Data Fusion in maniera intercambiabile con Data Integration, sebbene alcuni autori non le considerino esattamente la stessa cosa. Al di là delle definizioni formali, il concetto importante è il seguente: quando le informazioni vengono collegate, ossia messe in relazione le une con le altre attraverso link qualitativi, quantitativi, funzionali o di altro genere, acquistano per noi un significato più profondo ed esteso rispetto a quando le consideriamo isolatamente. Così come le parole acquistano significato se e quando vengono collegate tra loro nel flusso di un discorso sensato, analogamente i dati sperimentali, le osservazioni e qualsiasi altro tipo di informazione, acquisiscono significato quando vengono messi in relazione e integrati all’interno di un contesto più ampio.

Le tecniche e gli algoritmi per l’integrazione delle informazioni sono innumerevoli, e non è possibile discuterne adeguatamente in questa sede. Essi si basano su alcune ampie categorie di metodi di modellazione cooperativa, inversione congiunta, algoritmi Bayesiani e così via [9, 10]. Consentono di produrre modelli multi-parametrici (cioè caratterizzati da molte proprietà fisiche, chimiche, biologiche, a seconda dei settori di applicazione), a partire da dati di input multi-disciplinari. In alcuni approcci quantitativi (come la “Joint Inversion”), i dati complementari ottenuti da sorgenti indipendenti e con metodi diversi, rappresentano l’input eterogeneo di programmi di ottimizzazione matematica congiunta[4]. L’output consiste in modelli multi-parametrici che “onorano” l’intero set di osservazioni sperimentali. Le applicazioni più note sono, ad esempio, quelle dell’imaging medico che combina varie tecniche quali la risonanza magnetica funzionale e la tomografia computerizzata. Altre applicazioni riguardano l’integrazione di dati satellitari e dati terrestri per scopi di monitoraggio ambientale. Anche nella geofisica esplorativa per la ricerca di giacimenti di idrocarburi, le tecniche di Data Fusion e integrazione quantitativa di dati sismici, elettromagnetici, gravimetrici e magnetici trovano un impiego sempre maggiore.

La Figura 2 fornisce un esempio di integrazione di dati e di modelli multi-parametrici in geofisica estratto da un reale caso di esplorazione petrolifera.

Figura 2. Esempio di Data Fusion e Modello Geofisico Integrato. Il pannello in alto a sinistra (a) rappresenta due sezioni sismiche che si incrociano. Gli altri pannelli mostrano, rispettivamente, le medesime sezioni sismiche “popolate” con diversi parametri geofisici: velocità sismiche (b), densità (c), resistività elettrica (d). Questi modelli “multi-parametrici” sono stato ottenuti attraverso l’applicazione di specifici programmi di modelling cooperativo e inversione congiunta dei dati geofisici (Immagini cortesemente fornite da Daniele Colombo [11]).

Il grande vantaggio ottenuto da queste metodologie integrate è quello di fornire una rappresentazione multi-fisica (cioè caratterizzata da più proprietà fisiche) del medesimo spazio tridimensionale. Nel caso dell’esplorazione del sottosuolo, un modello a molti parametri consente di conoscere con più precisione e più affidabilità la distribuzione delle rocce, in quanto queste sono caratterizzate da più proprietà fisiche (elastiche, elettriche e via dicendo).

In altri termini, l’integrazione delle diverse informazioni e discipline geofisiche consente di approfondire ed espandere il significato di ciascun dato, mettendo in relazione informazioni di diversa origine e natura, e migliorando l’interpretazione geologica del sottosuolo. Viceversa, un’esplorazione basata su un solo parametro geofisico, senza alcuna connessione con gli altri aspetti fisici dello stesso volume di roccia investigato, potrebbe risultare limitata e affetta da errori di interpretazione. E ‘proprio l’integrazione e la fusione di informazioni complementari che favorisce la comprensione dei significati (geologici, in questo caso) e, in ultima analisi, amplifica il contenuto semantico di ciascuna informazione.

In un certo senso, azzardando un’analogia letteraria, è come se ogni dato geofisico e ogni piccola parte di ciascun modello della figura 2, rappresentasse una parola all’interno di un vasto discorso. Così come collegando ogni termine lessicale, ogni lettera, ogni parola, attraverso precise regole sintattiche e grammaticali si ottiene un discorso dotato di significato e di senso, analogamente, collegando ogni elemento geofisico attraverso le leggi della fisica delle rocce, si ottiene un modello multi-parametrico dotato di significato e senso geologico.

Questo approccio integrato trova applicazione nei più diversi contesti scientifici e tecnologici e trae enorme beneficio dai moderni metodi di Machine Learning. Nel campo dell’esplorazione petrolifera, ad esempio, è molto utile combinare i vantaggi offerti dai metodi geofisici integrati con quelli offerti dalle reti neurali, o da altri algoritmi di Intelligenza Artificiale, soprattutto quando bisogna gestire data set grandi e complessi. Una recente applicazione industriale su vasta scala di questo tipo è discussa in Dell’Aversana et al [12].

Analisi multimodale e multisensoriale

Il sistema HML espande il valore dell’informazione attraverso un work flow integrato che comprende, oltre alle tecniche di Data Fusion/Integrazione, molti altri approcci e metodi. Tra questi vi sono l’Analisi Multimodale e l’Analisi Multisensoriale. Senza voler entrare in un dettaglio eccessivo, mi limito a richiamare schematicamente le caratteristiche salienti dei suddetti approcci.

L’analisi multimodale consiste nell’analisi dei dati in vari domini fisico-matematici (tempo, spazio, frequenza). Ad esempio, molti tipi di dati, come le misure geofisiche, i trend finanziari e/o di mercato, molti tipi di misurazioni mediche e via dicendo, possono essere analizzati non solo come serie temporali, ma anche nel dominio della frequenza. La figura 3 mostra un esempio di spettrogramma estratto da una traccia sismica utilizzando, in questo specifico caso, la trasformata di Stockwell [13]. Questa è una particolare trasformata matematica che consente di trasformare serie temporali non stazionarie dal dominio del tempo a quello della frequenza. Il vantaggio di un’analisi comparata in almeno due domini (tempo e frequenza, in questo caso) è quello di avere una rappresentazione simultanea di alcune proprietà fondamentali dei segnali, come l’ampiezza, il contenuto in frequenza e le loro variazioni nel tempo.

Figura 3. Esempio di analisi comparata di una traccia sismica e del suo corrispondente spettrogramma (da Dell’Aversana et al [14]).

L’analisi multisensoriale e strettamente collegata a quella multimodale. Essa consente di estrarre una “impronta” sonora dai dati attraverso metodi noti come “tecniche di sonificazione” e “display audio-visivo”. Assieme alle tecniche di Imaging, ad esempio, la sonificazione consente l’interpretazione sia visiva sia uditiva delle informazioni, come accade, ad esempio, nel caso di molte applicazioni per la diagnosi medica.

La tecnica e i principi fisici per effettuare una rappresentazione multisensoriale sono concettualmente semplici da comprendere, sebbene gli algoritmi matematici per realizzarla possano essere anche molto sofisticati. In sintesi, una volta ottenuto uno spettrogramma particolareggiato (come quello di figura 3), è possibile trasformare l’intera gamma di frequenze-ampiezze in una corrispondente gamma di suoni. I mie colleghi ed io abbiamo descritto questa procedura con estremo dettaglio [14]. Abbiamo mostrato come sia possibile codificare questi suoni usando protocolli di musica digitale standard, come ad esempio il formato MIDI (Musical Instrument Digital Interface). Una volta che si siano trasposti i suoni MIDI nel range di frequenze udibili (circa da 20 a 20000 Hz), è possibile ascoltare il segnale originario. In altre parole, è possibile ascoltare ed osservare simultaneamente fenomeni fisici come la propagazione di campi d’onde sismiche o elettromagnetiche. Analogamente, è possibile letteralmente “mettere in musica” un terremoto, o un eruzione vulcanica, e molti altri segnali naturali e/o artificiali.

A titolo di esempio, la figura 4 mostra una traccia sismica (pannello superiore) ed il corrispondente MIDI display (pannello inferiore). Il colore rosso nel MIDI display corrisponde a valori alti dell’intensità del suono (i quali, a loro volta, corrispondono ad alti valori di ampiezza sismica nel segnale originario). La grossa “macchia” rossa attraversata dalla barra verticale verde, indica la presenza di una forte anomalia di ampiezza e frequenza causata da uno strato geologico sabbioso con alta saturazione in gas (come confermato dai dati di pozzo). La figura suggerisce immediatamente le potenzialità di una simile rappresentazione multisensoriale (visiva e sonora allo stesso tempo, anche detta “Audio-Video display”) ai fini interpretativi di segali complessi. Questi possono essere tracce sismiche, ma anche le tracce prodotte da un elettrocardiogramma, o persino le serie temporali corrispondenti a dei trend finanziari, e così via.

E’ possibile vedere ed ascoltare alcuni esempi di Audio-Video display sul mio canale YouTube, al seguente link: https://www.youtube.com/channel/UCp4VG897AsFiSoBrvEnyRJA.

Figura 4. Traccia sismica (pannello superiore), trasformata in un file MIDI (pannello inferiore).

Multimedia Machine Learning

Tutte le tecniche e i metodi sinteticamente descritti nei paragrafi precedenti possono essere collegati in un unico flusso di lavoro. Inoltre possono interfacciarsi (in termini di Input/Output) con gli algoritmi di Machine Learning. Questo è, in estrema sintesi, il modo di costruire una piattaforma di Multimedia Machine Learning. Vediamo qualche dettaglio di questo approccio integrato.

Il blocco di Machine Learning mostrato in Figura 5 svolge un ruolo fondamentale nel processo di estrazione del significato dai dati. Infatti, le tante tecniche utilizzate in ambito di Data Science e Advanced Analytics, di apprendimento supervisionato e non-supervisionato, di Big data Mining e così via, sono in gran parte finalizzate ad estrarre conoscenza da data set complessi e di grandi dimensioni. Integrate in un sistema HML, le stesse tecniche traggono beneficio dall’applicazione degli approcci di Data Fusion, analisi multimodale e multisensoriale, in quanto funzionano meglio su dati integrati e “sviscerati” in molteplici domini fisici e sensoriali.

Figura 5. Blocco HMR dedicato agli algoritmi di Data science e Machine Learning.

Il blocco di Figura 5 comprende librerie di calcolo per l’analisi statistica dei dati, per l’estrazione e il ranking degli attributi, per il training e via dicendo (sotto-blocco a sinistra). La parte centrale del sistema comprende librerie di “Supervised e Unsupervised Machine Learning”, includendo reti neurali, alberi decisionali, reti Bayesiane e molti altri algoritmi. Questi in genere vengono applicati in parallelo e fatti girare sugli stessi dati di training. Poi vengono selezionati gli algoritmi più performanti, in funzione del problema specifico da risolvere e in funzione dei dati di partenza. Il sotto-blocco di destra è dedicato alle librerie di post-processing, analisi e rappresentazione dei risultati.

Così come il processo conoscitivo attuato da un cervello naturale è reso più efficace attraverso la percezione dell’informazione multisensoriale, analogamente tutti i summenzionati algoritmi di analisi, clustering, classificazione, predizione e regressione utilizzati in ambito Machine Learning possono produrre risultati più robusti e affidabili quando ad essi viene fornito un input multimodale e multisensoriale. Ad esempio, se un programma di pattern recognition e classificazione viene “addestrato” attraverso input sia visivi sia sonori, è probabile che riesca meglio nel suo compito rispetto al caso in cui venga istruito con un data set di training basato unicamente su immagini.

Questo concetto semplice e intuitivo può essere tradotto in algoritmi e work flow di “Multimedia Machine Learning” [2] estremamente efficaci. E in effetti è quanto molti ricercatori e esperti hanno già realizzato in vari settori dell’intelligenza artificiale. Come già anticipato nel paragrafo precedente, in linea con questi sviluppi tecnologici, il sistema HML comprende algoritmi di analisi multisensoriale delle informazioni (ad esempio audio e video allo stesso tempo). I risultati di queste analisi vengono tradotti in una gamma vastissima di attributi visivi e sonori (come ad esempio attributi MIDI, features spettrali, attributi complessi formati da istogrammi, pattern di suoni, intere sequenze melodiche, armoniche, ritmiche e così via).

Ad esempio, in precedenti articoli [15, 16], ho già discusso di applicazioni reali in campo geofisico e medico di tecniche di sonificazione e Audio-Video display e di come sia possibile utilizzare gli attributi Audio-Video per la pattern recognition e la classificazione di segnali complessi.

L’aspetto davvero interessante di questo approccio è che esso consente di combinare, allo stesso tempo, i vantaggi dell’analisi e della classificazione automatica dei dati propria degli algoritmi di Machine Learning, con i vantaggi della percezione e della cognizione multisensoriale del cervello umano. In tale senso è più appropriato parlare di Multimedia Human-Machine Learning.

La figura 6 illustra un esempio di applicazione recente. E’ mostrata una sezione sismica (pannello superiore) dove alcune anomalie di ampiezza sono evidenziate dai simboli ovali tratteggiati. Purtroppo, allo stato attuale delle conoscenze geofisiche e delle tecnologie di analisi del dato sismico, è quasi sempre difficilissimo, o addirittura impossibile, distinguere e classificare anomalie sismiche causate da basse concentrazioni di gas, da anomalie dovute ad accumuli “commerciali” ed economicamente sfruttabili di gas. Il sistema HML descritto in questo articolo, avvalendosi della cooperazione di tecniche di analisi multimodale, analisi multisensoriale e approcci di Machine Learning, ha consentito di classificare le suddette anomalie. La classificazione è stata resa possibile grazie alla combinazione di attributi di imaging con attributi sonori MIDI, i quali sono stati forniti in input ad un work flow di multimedia Machine Learning.

Figura 6. Esempio di classificazione di anomalie sismiche utilizzando un approccio Multimedia Machine Learning (da Dell’aversana et al [17]).

Aspetti neurobiologici ed epistemologici: il lato umano del work flow

Il sistema HML include, per definizione, una parte importante focalizzata sugli aspetti peculiari dell’intelligenza umana e affrontabile con l’ausilio di competenze pertinenti alle cosiddette “Scienze umane”. La figura 7 è una rappresentazione schematica dei sotto-blocchi principali di questa parte umanistica del flusso di lavoro. Essa riassume, con parole chiave, i suddetti aspetti, e come essi siano in relazione a diversi tipi di complessità: informativa, cognitiva, semantica e relazionale.

Figura 7. Schema concettuale del blocco epistemologico e neuro-scientifico del sistema HML.

In effetti, seguendo una sorta di Principio ergonomico della mente, è ragionevole aspettarsi che una qualsiasi tecnologia di elaborazione delle informazioni possa funzionare in modo ottimale se e quando tenga conto delle peculiarità e dei limiti del cervello umano [18].

La domanda chiave è: come devono essere sviluppati i sistemi di analisi dei dati al fine di estrarre il massimo contenuto semantico da essi? E’ lecito ricercare la risposta a tale domanda anche nel dominio delle scienze cognitive, della neurobiologia e delle scienze umane.

Adottando questa impostazione metodologica, Il primo aspetto fondamentale di cui tenere conto quando si sviluppa una tecnologia di analisi delle informazioni complesse è quello di tipo cognitivo. La parte cognitiva del sistema HML (sotto-blocco di sinistra) si avvale di tutti i metodi sinteticamente descritti finora. Questa parte del work flow tiene in debito conto le attuali conoscenze circa il funzionamento del cervello nella percezione/elaborazione dei flussi informativi.

Come più volte ribadito dal neuro-scienziato Antonio Damasio, il cervello umano, elabora l’informazione avvalendosi prevalentemente di “immagini mentali” e attraverso un continuo lavoro di integrazione multimodale. L’ipotesi di Damasio per render conto del ruolo svolto dalla coscienza nel processo conoscitivo e, più in generale, nell’ adattamento degli organismi all’ambiente, è che “… la complessità dei fenomeni sensoriali faciliti un’integrazione fra modalità diverse, per esempio di quella visiva con quella uditiva, oppure di queste due con quella tattile, ecc. […] Le immagini mentali consentirebbero una facilità di manipolazione dell’informazione …” [19].

Nella moderna neurobiologia è ampiamente riconosciuto il ruolo chiave dei meccanismi di rappresentazione multimodale delle informazioni, e di come queste vengano mappate sia a livello corticale sia a livello dei nuclei sub-corticali. I suoni e le immagini, per esempio vengono integrati di continuo in una percezione unitaria attraverso i collegamenti di mappe neuronali sia nelle aree della corteccia associativa sia nei collicoli inferiori e superiori (Figura 8).

Figura 8. Sezione trasversale del cervello umano.

Le suddette considerazioni suggeriscono, sul piano neuro-scientifico, la piena adozione di sistemi multimodali e multi sensoriali integrati nel processo di elaborazione che mira ad estrarre il massimo contenuto semantico da data set complessi. In altre parole, sono la moderna neurobiologia e le scienze cognitive a fornire solide basi scientifiche all’architettura dei sistemi HML.

Ma gli aspetti cognitivi rappresentano solo una parte del complesso sistema mente-cervello. Jaak Panksepp, lo stesso Damasio e molti altri neuro-scienziati hanno ampiamente discusso e dimostrato l’importanza delle emozioni primarie ed affettive, non solo per spiegare i comportamenti di base comuni a tutti i mammiferi, ma anche per interpretare in maniera più ampia e profonda gli stessi processi cognitivi di alto livello. Tra questi rientrano certamente l’apprendimento, la creatività, il senso per l’esplorazione e la continua proiezione verso la scoperta e la novità [20].

L’architettura del sistema HML cerca di tenere conto anche di questi aspetti (sotto-blocco centrale della figura 7). Questa parte del work flow non può limitarsi all’utilizzo di strumenti informatici e di tecnologia avanzata. E’ vero che oggigiorno esistono approcci e metodi incredibilmente potenti e sofisticati, come il web semantico e gli algoritmi di analisi dei sentimenti. Questi ultimi sono molto in voga nei recenti sviluppi del Machine Learning per l’analisi dei dati prodotti attraverso i social media. Tuttavia, ritengo che non tutto ciò che è tecnologico debba necessariamente funzionare, e non tutto ciò che funziona debba necessariamente essere tecnologico. Altri approcci suggeriti dalle moderne neuroscienze, integrati con le discipline psicologiche e sociologiche, con lo studio della semantica, della filosofia del linguaggio e dell’epistemologia (sotto-blocco di destra), devono essere integrati nel flusso di lavoro HMR, applicando un basilare principio di cooperazione multidisciplinare.

Senza voler entrare, per adesso, nel merito di una discussione troppo approfondita che esula dagli scopi di questo articolo introduttivo, mi limito a suggerire nuovamente la lettura del già citato lavoro di Panksepp e Biven [20], circa l’impatto che le neuroscienze affettive possono avere sui processi cognitivi.

Conclusioni: tornando alla complessità e al ruolo del manager

Dove agisce il manager in questo lungo e complesso processo di significazione che trasforma l’informazione “asettica” in significato profondo? Qual è il suo ruolo all’interno della rinnovata visione, tecnologica e umanistica allo stesso tempo, dell’intero processo conoscitivo?

Sulla base di tutte le considerazioni fatte finora, il management moderno dovrebbe cercare, e possibilmente trovare, la sua funzione chiave nella gestione della complessità. Infatti, è evidente che il flusso di lavoro relativo a un sistema Human Machine Learning rappresenta un esempio eclatante di complessità. Se questa non viene adeguatamente compresa, gestita e guidata verso gli obiettivi, è altamente probabile che l’intera impresa di trasformazione dei dati in conoscenza sia destinata al fallimento. Per tale ragione, il management moderno dovrebbe sviluppare le competenze tecniche, culturali e gestionali necessarie e sufficienti per non farsi sopraffare dall’estrema multidisciplinarietà dell’approccio finora descritto.

In conclusione, se il manager riuscirà a ridefinire le sue competenze in obbedienza al summenzionato principio di umanesimo-tecnologico, attraverso un percorso di formazione cross-disciplinare, potrà rendersi protagonista attivo nella nuova realtà dominata dai flussi informativi complessi. In caso contrario, se si tirerà indietro di fronte alla sfida della complessità, sarà probabilmente destinato ad uscire di scena, restando succube della tecnocrazia degli specialisti, dei Data scientist e degli analisti finanziari.

Bibliografia

  1. Dell’Aversana, P., 2018. Complessità, Machine Learning e Neuroscienze. Introduzione ai nuovi strumenti per la formazione manageriale. Pubblicato su ResearchGate, DOI10.13140/RG.2.2.33760.38402.
  2. Dell’Aversana, P., 2018. A Multimedia Cross-disciplinary Machine Learning Framework. Pubblicato su ResearchGate, DOI 10.13140/RG.2.2.28982.80964.
  3. Ferdinand de Saussure, Corso di linguistica generale, Bari, Laterza, 1970.
  4. Giorgio Graffi e Sergio Scalise, Le lingue e il linguaggio. Bologna, Il Mulino, 2002.
  5. K. Ogden e I. A. Richards, Il significato del significato – Studio dell’influsso del linguaggio sul pensiero e della scienza del simbolismo, con saggi in appendice di B. Malinowski e F. G. Crookshank, trad. Luca Pavolini, Milano, Il Saggiatore, 1966 (orig.: The Meaning of Meaning. A Study of the Influence of Language upon Thought and of the Science of Symbolism, London, Routledge & Kegan Paul, 1923).
  6. Hofstadter, D. R., 1996. Concetti fluidi ed analogie creative. Adelphi.
  7. Edelman, G. M, 1992. Sulla Materia della Mente. Adelphi.
  8. J., Freeman, W. J., 2000. Come pensa il cervello. Einaudi.
  9. Dell’Aversana, P., 2014. Integrated Geophysical Models: Combining Rock Physics with Seismic, Electromagnetic and Gravity Data. EAGE Publications.
  10. Dell’Aversana, P., 2018. Earth model and Health model. Similar problems and analogous solutions in geophysical and medical imaging. Pubblicato su R DOI10.13140/RG.2.2.18510.36165.
  11. Colombo, D., McNeice, G., Raterman, N., Turkoglu, E., Sandoval-Curiel, E., 2014. Massive integration of 3D EM, gravity and seismic data for deepwater subsalt imaging in the Red Sea. Exp. Abstracts, SEG 2014.
  12. Dell’Aversana, P., Ciurlo, B., Colombo, S., 2018. Integrated Geophysics and Machine Learning for Risk Mitigation in Exploration Geosciences. Expanded abstracts of 80th EAGE Conference and Exhibition.
  13. Stockwell R.G., Mansinha L. and Lowe R.P., 1996. Localization of the complex spectrum: the S Transform. IEEE Transactions on Signal Processing 44(4).
  14. Dell’Aversana, P., Gabbriellini, G., Amendola, A., 2016. Sonification of geophysical data through time-frequency transforms, Geophysical Prospecting, June 2016.
  15. Dell’aversana, P., 2014. A bridge between geophysics and digital music – applications to hydrocarbon exploration”, Dell’aversana (2014). First Break volume 32, May 2014, pp. 51-56.
  16. Dell’Aversana, P., Gabbriellini, G., Marini, A.I., Amendola, A., (2016), Application of Musical Information Retrieval (MIR) Techniques to Seismic Facies Classification. Examples in Hydrocarbon Exploration, AIMS Geosciences, 2016, 2(4): 413-425 doi: 10.3934/geosci.2016.4.413.
  17. Dell’Aversana, P., Carrasquero, G., Gabbriellini, G., Amendola, A., 2018. Application of Machine Learning and Digital Music Technology to distinguish high from low gas-saturated reservoirs. Articolo accettato a gennaio 2018 per la pubblicazione in BGTA, Bollettino di Geofisica Teorica e Applicata).
  18. Dell’Aversana, P., 2017. Neurobiological background of exploration geosciences. New Methods for Data Analysis Based on Cognitive Criteria. Elsevier – Academic Press.
  19. Damasio, A., 2003. Alla ricerca di Spinoza, Emozioni, sentimenti e cervello, Adelphi.
  20. Panksepp, J. e Biven, L., 2012. The Archaeology of Mind: Neuroevolutionary Origins of Human Emotions. Norton Series on Interpersonal Neurobiology.

__________________________________________

Note

[1] Qui e avanti inteso come “processo di estrazione dei significati a partire dall’insieme di informazioni di cui si dispone”.

[2] Le riflessioni di Frege sull’intrinseca complessità del linguaggio, del concetto di “significato” e dei suoi legami con la complessità dei processi cognitivi, rappresentarono un punto di riferimento imprescindibile per un altro grande filosofo del ‘900: Ludwig Wittgenstein (1889 – 1951). La filosofia del linguaggio contemporanea trae origine in gran parte proprio da tre grandi pensatori, profondamente diversi ma strettamente accomunati da un forte interesse per i processi cognitivi celati dietro la complessità del linguaggio: Frege, Russell, Wittgenstein.

[3] Le Ricerche Filosofiche di Ludwig Wittgenstein rappresentano un’opera di riflessioni non sistematizzate in maniera formale ed organica che e ebbe inizio nel 1941, ma fu pubblicata postuma solo nel 1953. In essa l’autore s’interroga a più riprese sulla questione del significato, sviluppandola attraverso un’analisi del linguaggio e dei fondamenti della matematica, e ponendo in stretta relazione il significato stesso di una parola all’uso che se ne compie.

[4] Si tratta di algoritmi di calcolo per la ricerca dei punti di massimo e minimo di una funzione matematica. In certe applicazioni di Inversione Geofisica Congiunta (Geophysical Joint Inversion), ad esempio, dati sismici ed elettromagnetici vengono dati in input per ottenere modelli di proprietà elastiche ed elettromagnetiche allo stesso tempo. La funzione matematica che viene minimizzata nel processo di ottimizzazione congiunta è la differenza (misfit) tra dati realmente osservati e dati simulati in modelli che vengono “aggiustati” iterativamente. Tale aggiustamento continua finché il misfit non si riduce a valori ritenuti sufficientemente bassi. A quel punto si può assumere che il modello multi-parametrico corrente “onori” in maniera soddisfacente il dato multidisciplinare fornito in input.