Più le tecnologie e le applicazioni basate sull’intelligenza artificiale si stanno diffondendo, più diventa necessaria una riflessione comune sull’impatto che stanno producendo a livello sociale ed economico e più diventa urgente il dotarsi a livello globale di un insieme di regole per governarne sia lo sviluppo, sia l’uso.

L’intelligenza artificiale anima sentimenti contrapposti: speranze e timori, aspettative e diffidenze. Potrebbe generare enormi benefici o dare luogo a rischi enormi. Di certo sta sollevando molte questioni a livello etico, legale e regolatorio che necessitano di risposte convincenti in tempi brevi. Risposte che non è facile dare per vari motivi: per l’ampiezza dello spettro di applicazioni ed implicazioni, per la difficoltà a conciliare diverse sensibilità ed interessi, per il rischio di frammentarietà di regole e norme, per la competizione, ormai globale, tra aziende e tra stati che spinge a privilegiare l’interesse locale su quello comune, quello a breve su quello a lungo termine.

Non si tratta solo, o non solo, di proteggere la privacy degli individui in un mondo iper-connesso. Si tratta di definire le modalità con cui le macchine possono prendere decisioni che riguardano gli umani in sostituzione delle decisioni umane, ed il perimetro entro il quale raccogliere ed elaborare dati riguardanti esseri umani non configura attività di controllo, di discriminazione e di condizionamento inaccettabili.

Qualche istituzione sovranazionale ha iniziato a muovere i primi passi in questa direzione.

A livello europeo, il 18 dicembre 2018 è stata resa pubblica per consultazione la bozza del documento “Ethics Guidelines for Trustworthy AI”, la versione finale sarà disponibile a marzo 2019. L’intento è quello di fornire linee guida per massimizzare i benefici e minimizzare i rischi associati all’intelligenza artificiale (IA), attraverso l’adozione di un approccio umano-centrico all’IA. Le linee guida sono strutturate in tre capitoli. Il primo è relativo alle finalità etiche dell’IA e definisce i diritti fondamentali, i principi ed i valori da rispettare. Il secondo ed il terzo offrono una guida all’implementazione concreta e alla messa in opera dell’IA in sistemi di IA definendo i requisiti da rispettare per essere conforme a quanto indicato nel primo capitolo.

Anche a livello di Nazioni Unite si sta iniziando ad affrontare la tematica della governance. È stata implementata la piattaforma “AI & Global Governance” per permettere un confronto tra ricercatori, politici ed aziende sulle sfide poste dalle nuove tecnologie, ma, a quanto mi risulta, non è stato ancora elaborato alcun documento ufficiale (e condiviso).

A livello statunitense è interessante l’attività dell’istituto AI Now dell’Università di New York. Recentemente ha pubblicato il terzo rapporto annuale sullo stato dell’intelligenza artificiale (AI Now Report 2018) con 10 raccomandazioni per ricercatori, istituzioni e imprese.

Siamo agli inizi, il cammino è ancora lungo e pieno di insidie, ma è estremamente positivo che si cominci ad affrontare la tematica della governance dell’IA da più prospettive, soprattutto quando l’IA è applicata agli esseri umani, o ha dirette conseguenze su di essi.

Vorrei proporvi anch’io una situazione per una riflessione.

In un ‘ottica di governance dell’IA, una delle problematiche più delicate, difficili e controverse da affrontare è quella relativa al comportamento delle autovetture a guida autonoma in una situazione di inevitabilità di un incidente: una situazione dove la decisione presa dalla macchina ha un impatto diretto sulla vita o la morte di esseri umani. Affrontare questa tematica con l’approccio “ludico” della  Morale Machine del Mit è fuorviante, poiché si affronta l’argomento più in un’ottica di Sistema Esperto che di Machine Learning. La tematica richiede una riflessione più approfondita.

Supponiamo di trovarci a guidare un’autovettura in una strada stretta a doppio senso di marcia, con i marciapiedi su entrambi i lati pieni di persone che camminano, senza macchine parcheggiate a lato. All’improvviso un pedone attraversa la strada davanti a noi senza guardare. L’incidente è inevitabile. Con la stessa autovettura, nella stessa medesima situazione, tre persone diverse potrebbero comportarsi in maniera diversa. Mario, impegnato con il cellulare, non si accorge del pedone e lo investe direttamente. Cinzia vede il pedone, cerca di frenare e sterza verso le macchine che provengono in senso contrario pur di evitarlo. Giovanni vede il pedone e cerca di frenare sterzando dalla parte opposta, verso il marciapiede. Guidatori umani diversi possono avere reazioni diverse e con le loro decisioni dare luogo a differenti conseguenze, più o meno catastrofiche.

Una vettura a guida completamente autonoma (livello 5), nella stessa situazione, avrà sempre il medesimo comportamento: cercherà di minimizzare il danno. Alla casualità della reazione umana, si sostituisce una sorta di determinismo della macchina. Quella di “minimizzare il danno” sembrerebbe una soluzione ragionevole accettabile da tutti. Ma basta porre un’ulteriore domanda per fare emergere tutti i distinguo: minimizzare il danno va bene, ma per chi?

Se lo scopo dell’algoritmo a cui affidare la decisione è massimizzare la funzione “minimizzare il danno” (scusate il gioco di parole) tutti i soggetti coinvolti (persone all’interno dell’autovettura, pedoni, persone all’interno di altre autovetture, ma anche cose) devono essere classificati attraverso un punteggio attribuito su una determinata scala. È nell’attribuzione di tale punteggio che entrano in gioco etica e regole, non della macchina, ma del costruttore (in mancanza di istituzioni regolatrici) o, come ci auspichiamo, del regolatore (in loro presenza).

In una società liberista come quella americana dove, in sanità. chi è più ricco ha accesso alle cure migliori, nulla vieta la stipula di polizze assicurative del tipo: più paghi e più sei tutelato. Cosa succede se il punteggio ad ogni attore sulla scena dell’incidente viene attribuito in base alla polizza assicurativa posseduta? In un mondo iper-connesso come sarà il nostro tra qualche anno, l’autovettura a guida autonoma in frazioni di secondo avrà accesso alla posizione assicurativa di tutti gli attori sulla scena e deciderà quale comportamento tenere in modo da minimizzare il danno a partire dai soggetti (umani o cose) più tutelati. Pensate solo a come un gruppo terroristico potrebbe sfruttare uno scenario del genere per  generare una strage senza incorrere in alcuna responsabilità diretta

Fantascienza? No, riflessioni su possibili scenari futuri. Più che ritenere impossibile che questi scenari si verifichino, impegniamoci per fare in modo che non succedano veramente.

Fabrizio Bocci svolge l’attività di consulente, facilitatore e docente in strategia aziendale, misurazione valutazione e gestione della performance, progettazione organizzativa e gestione del cambiamento nell’ambito della trasformazione digitale.

www.bocciconsulting.cominfo@bocciconsulting.it

.