Ho letto il libro di Pearl1 - con grande interesse. Anche con sorpresa. Più andavo avanti nella lettura più ero meravigliato. Fino alla sorpresa finale.
Più procedevo più mi convincevo che Pearl aveva ragione. O forse meglio: che ero d'accordo.
D'accordo sul fatto che la strada del Macchine Learning e del Deep Learning, affidate alla crescente potenza di calcolo, è meno promettente di quanto si dica. D'accordo sul fatto che non basta affidarsi a ciò che dicono i 'raw data' -i dati nudi e crudi- anche se 'interrogati' tramite una stratificazione di reti neurali. D'accordo sul fatto che i dati non sono altro che 'record' del passato. Insomma, in generale d'accordo sul fatto che il pensiero umano è infinitamente più profondo, articolato e complesso di questo modo di lavorare della macchina. D'accordo quindi nel cercare di avvicinarsi alla complessità del pensiero umano seguendo la via di Bayes e di Markov.
Ma leggendo ero anche sempre più sconcertato. Ero e resto meravigliato dal modo in cui Pearl fonda il suo approccio. Seguendo in modo precisissimo la via indicata da Turing in Computing Machinery and Intelligence (1950), cerca di costruire una macchina capace di pensare. Bisogna quindi, sostiene Pearl, insegnare alla macchina a contemplare livelli diversi di complessità. Ecco quindi la sua Ladder of Causation.
Primo livello. Association. Regolarità nelle osservazioni, previsioni basate su osservazioni passive. Correlazione o regressione. Non c'è modello di realtà. Domanda: E se vedo?
Secondo livello. Intervention. Attenzione a ciò che non può essere presente nei dati (che riguardano il passato). Cambiare ciò che è. Modello di realtà. Cercare altri dati. Scienza dell'inferenza. Domanda: Cosa accadrà se...?
Terzo livello. Counterfactuals. Confrontare il mondo fattuale con un mondo fittizio. Domandarsi: E se le cose fossero andate diversamente?
Che c'è di nuovo?
Il punto è che Pearl presenta la Scala come una novità. Nuova sarà forse per lui e per i suoi colleghi dediti al Machine Learning. Si tratterà forse di qualcosa di nuovo rispetto a ciò che si insegna di solito nei Dipartimenti di Informatica. Ma si tratta di qualcosa di ovvio, se si allarga lo sguardo al di là della formazione strettamente matematica, ingegneristica, STEM.
Al di fuori di questa cultura, i tre livelli di interrogazione causali, appaiono cosa scontata. Già l'idea di individuare i tre, gli unici tre, livelli che presiederebbe all'innalzarsi del pensiero umano verso livelli più alti, appare riduttiva. Inadeguata agli occhi di chi frequenta riflessioni filosofiche e coltiva attenzione per i sistemi complessi.
Pearl però va comunque apprezzato, per come cerca di allargare lo sguardo oltre il quadro delle fonti abitualmente prese in considerazione da chi si occupa di Computer Science. Cita Hume, per esempio, ma quanti altri filosofi avrebbe potuto citare, con più motivo! Semplicemente, credo, non gli è capitato di leggerli. Non gli se ne può fare una colpa. A partire dalla sua formazione di matematico, ha saputo muoversi con coraggio e libertà. Ma comunque resta vittima della sua formazione. Il vizio di origine continua a condizionarlo, anche quando si lancia oltre il consueto.
Enormi porzioni di letteratura, o meglio: di storia del pensiero umano sono ignorate. Non sarebbe grave, se non fosse che Pearl si propone di cogliere quello che potremmo chiamare lo 'schema genetico' del pensiero umano. Non sarebbe grave, se il suo intento non fosse trasferire alla macchina la nozione della complessità del pensiero umano.
Come si può, del resto avere la pretesa di riprodurre, ed anzi superare, il pensiero umano, senza prendere in considerazione, come fonte di stimoli alla progettazione, ogni manifestazione del pensiero umano: Pearl si limita a cercare fonti tra scienziati e filosofi. Mentre è perfino ovvio dire che l'umano pensare -il suo processo, i suoi frutti- può essere inteso solo se si prendono il considerazione la tradizione mantenuta viva in miti e narrazioni; l'arte; la letteratura; la musica. La filosofia, poi, e la scienza stessa, andrebbero intese non come repertorio di leggi e schemi assodati, ma come storia sempre incompiuta di osservazioni ed esperimenti...
Se si accettano multidisciplinarietà e complessità, insomma, il tentativo di ridurre l'umano pensiero, l'umana intelligenza, l'umana saggezza ai tre scalini della Ladder of Causation, finisce per apparirci come un banale esercizio di riduzionismo. Un modo di ingabbiare il pensiero, più che un modo di coglierne il senso.
Se poi accettiamo in vincolo di considerare la sola letteratura scientifica, e andiamo a guardare le fonti e gli strumenti matematici, logico-formali, statistici, con i quali Pearl scegli di lavorare, gli va riconosciuto il coraggio di muoversi lungo la non troppo praticata via stocastica, congetturale di Bayes e Markov. Ma si deve anche notare che Pearl mostra di ignorare fonti che avrebbero alimentato in modo significativo le sue stesse intenzioni progettuali.
Mi limito a pochissimi esempi.
I ragionamenti sui processi inferenziali, ipotetici, abduttivi di CS Peirce. La matematica intuizionistica di Brouwer. La matematica di volta in volta adattata ad una specifica ricerca di Walter Pitts. Von Foerster a proposito di auto-organizzazione dei sistemi e di rumore...
(Mi rendo conto che sto in fondo ripercorrendo in buona misura argomenti esposti nel mio libro Le Cinque Leggi Bronzee, o argomenti che tratterò nei volumi del Trattato di Informatica Umanistica successivi a Macchine per pensare).
I believe
Con tutto questo, il libro di Pearl ci appare una salutare critica al al Mainstream del Machine Learning. Pearl gioca contro la fiducia nella cieca capacità della macchina; contro le promesse della mera potenza di calcolo. Si mantiene anche lontanissimo da chi crede o spera nella Singolarità: una rottura, una discontinuità, per cui le macchine digitali ad certo punto della loro evoluzione si riveleranno capaci attitudini imprevedibili per gli umani.
Ma The Book of Why pretende di essere molto di più di una sana critica della Computer Science 'normale'. Il disegno di Pearl, ambiziosissimo, si svela solo nelle pagine conclusive del libro. Pearl intende progettare la macchina che sappia essere migliore dell'essere umano. Non affida la sua speranza alla capacità della macchina di andare oltre il suo stesso progetto, come sostengono i profeti della Singolarità. Vuole scientemente progettare una macchina capace di prendere il posto del suo stesso progettista.
Pearl si pone cinque domande.
"1. Abbiamo già creato macchine che pensano?
2. Possiamo fare macchine che pensano?
3. Faremo macchine che pensano?
4. Dovremmo fare macchine che pensano?
E infine, la domanda non dichiarata che sta al cuore delle nostre ansie:
5. Possiamo fare macchine capaci di distinguere il bene dal male?"
La risposta alla prima domanda, ci dice dice Pearl, è: no. Per quanto riguarda le altre domande -che sono proprio le stesse domande che Turing si poneva in Computing Machinery and Intelligence (1950)- la risposta di Pearl è no, se si seguono le vie che altri ricercatori stanno seguendo. Ma è sì, se si segue la via che Pearl stesso propone.
Mi limito a citare Pearl laddove si riferisce alla quinta domanda:
"My answer to the fourth question is also yes, based on the answer to the fifth. I believe that we will be able to make machines that can distinguish good from evil, at least as reliably as humans and hopefully more so. The first requirement of a moral machine is the ability to reflect on its own actions, which falls under counterfactual analysis. Once we program self-awareness, however limited, empathy and fairness follow, for it is based on the same computational principles, with another agent added to the equation.
There is a big difference in spirit between the causal approach to building the moral robot and an approach that has been studied and rehashed over and over in science fiction since the 1950s: Asimov’s laws of robotics. Isaac Asimov proposed three absolute laws, starting with “A robot may not injure a human being or, through inaction, allow a human being to come to harm.” But as science fiction has shown over and over again, Asimov’s laws always lead to contradictions. To AI scientists, this comes as no surprise: rule-based systems never turn out well.
But it does not follow that building a moral robot is impossible. It means that the approach cannot be prescriptive and rule based. It means that we should equip thinking machines with the same cognitive abilities that we have, which include empathy, long-term prediction, and self-restraint, and then allow them to make their own decisions".
Ecco quindi la conclusione:
"Once we have built a moral robot, many apocalyptic visions start to recede into irrelevance. There is no reason to refrain from building machines that are better able to distinguish good from evil than we are, better able to resist temptation, better able to assign guilt and credit. At this point, like chess and Go players, we may even start to learn from our own creation. We will be able to depend on our machines for a clear-eyed and causally sound sense of justice. We will be able to learn how our own free will software works and how it manages to hide its secrets from us. Such a thinking machine would be a wonderful companion for our species and would truly qualify as AI’s first and best gift to humanity".
Mi sembra indispensabile rileggere queste parole in italiano. Per una macchina, o per un essere umano che considera se stesso esclusivamente come scienziato, la lingua potrà essere indifferente. Ma per un essere umano che intende pensare, mostrare la propria saggezza ed esprimere giudizi morali, la lingua non è indifferente: pensiamo nella nostra lingua natale, naturale.
"La mia risposta alla quarta domanda è sì, anche in base alla risposta alla quinta. Credo che saremo in grado di creare macchine in grado di distinguere il bene dal male, almeno con la stessa affidabilità degli esseri umani e, auspicabilmente, con una maggiore affidabilità. Il primo requisito di una macchina morale è la capacità di riflettere sulle proprie azioni, che rientra nell'analisi controfattuale. Una volta programmata l'autocoscienza, per quanto limitata, ne discendono l'empatia e l'equità, perché si basano sugli stessi principi computazionali, con l'aggiunta all'equazione di un altro agente.
C'è una grande differenza di principio tra l'approccio causale alla costruzione del robot morale e l'approccio che è stato finora studiato e che è stato ripreso più volte nella fantascienza a partire dagli anni Cinquanta: Le leggi di Asimov sulla robotica. Isaac Asimov propose tre leggi assolute, a cominciare da "Un robot non può ferire un essere umano o, per inazione, permettere che un essere umano venga danneggiato". Ma come la fantascienza stessa ha dimostrato più volte, le leggi di Asimov portano sempre a delle contraddizioni. Per gli scienziati dell'intelligenza artificiale, questo non è una sorpresa: i sistemi basati su regole non si rivelano mai buoni.
Ma questo non significa che costruire un robot morale sia impossibile. Significa che l'approccio non può essere prescrittivo e basato su regole. Significa che dovremmo dotare le macchine pensanti delle stesse capacità cognitive che abbiamo noi, tra cui l'empatia, la previsione a lungo termine e l'autocontrollo, e poi permettere loro di prendere le proprie decisioni".
Quindi:
"Una volta che avremo costruito un robot morale, molte visioni apocalittiche inizieranno a recedere nell'irrilevanza. Non c'è motivo di astenersi dal costruire macchine che siano in grado di distinguere il bene dal male meglio di noi, meglio in grado di resistere alla tentazione, meglio in grado di assegnare colpe e meriti. A questo punto, come i giocatori di scacchi e di Go, potremmo anche iniziare a imparare dalla nostra stessa creazione. Saremo in grado dipendere dalle nostre macchine per un senso di giustizia lucido e causalmente sano. Saremo in grado di imparare come funziona il nostro software di libero arbitrio e come riesce a nasconderci i suoi segreti. Una tale macchina pensante sarebbe una meravigliosa compagna per la nostra specie e si qualificherebbe veramente come il primo e miglior regalo dell'IA all'umanità".
Con Turing, oltre Turing
Si capisce che Pearl, con giusta ambizione, si confronta con Turing e si candida a proseguire il suo lavoro. Pearl è stato premiato nel 2011 con il Turin Award: dato l'intento di Pearl, nessun Turing Award è stato più giusto. Questo considerarsi il vero figlio del capostipite appare già evidente nel presentare la Scala di Causalità. Dice Pearl: "While Turing was looking for a binary classification -human or no human- ours has three tiers, corresponding to progressively more powerful causal queries". "Mentre Turing cercava una classificazione binaria - umano o non umano - la nostra ha tre livelli, corrispondenti a interrogazioni causali progressivamente più potenti".
Resta sorprendente, e grandemente interessante per me, la precisione con cui Pearl richiama la lezione di Turing, citando alla lettera Computing Machinery and Intelligence (1950).
Pearl riprende le speranze di Turing. Turing scriveva proprio "I hope", spero che la computing machine apprenda a pensare. Pearl segue lo stesso cammino cercando passi in avanti, e dice: "I believe". E precisa: con il mio approccio, ci riusciremo. Costruire un 'robot morale' è possibile. Sarà in grado di distinguere il bene dal male meglio di noi. Anzi: questa macchina meravigliosa compagna ci insegnerà la morale, ci mostrerà il senso del libero arbitrio...
Il mio primo commento è questo: non escludo che noi esseri umani si possa essere in grado di costruire questa macchina. Potremo forse riuscirci. Credo però che se mai ci riusciremo, sarà perché nell'immaginare, progettare, costruire questa macchina avremo saputo andare oltre la cultura matematica, oltre la formazione STEM nella quale Pearl resta chiuso.
Ben più rilevante mi sembra un ulteriore commento. Constato che noi umani, nei tempi digitali, siamo spinti ad accettare di soggiacere a questa legge: preferirai la macchina a te stesso. Il campione di questo atteggiamento, al quale Pearl si accoda, è Turing.
E' questo uno degli argomenti centrali del mio libro Le Cinque Leggi Bronzee. Come essere umano, scelgo di non arrendermi. Scelgo di continuare a preferire noi esseri umani ad ogni macchina. Scelgo di considerare più importante la contiguità dell'essere umano con gli animali, le piante, ogni elemento naturale che la contiguità con una macchina. Scelgo di scommettere sulla specie umana. Scelgo di investire su una specie umana protesa consapevole della sua appartenenza alla natura, alla vita, piuttosto che su umani disposti a cercare nuove terre digitali, totalmente progettate: Infosfere, Metaversi, e orientati ad affidare la responsabilità morale a macchine. (A proposito del "trasformare in qualcosa di computabile il valore morale" scrivo anche in quest'altro post).
Perché preferire la macchina a noi stessi?
Mi chiedo quindi: perché preferire la macchina a noi stessi? Da dove nasce l'ansia che spinge Turing e Pearl a costruire macchine capaci di pensare meglio di come pensi un essere umano?
Da dove nasce il bisogno di ri-educarci a dipendere dalla macchina, il bisogno di dire "We will be able to depend", "We will be able to learn"?
Ora, io credo che il motivo per cui Turing preferisce la macchina a sé stesso, come mostro nelle Cinque Leggi, stia nella sua triste vicenda personale. Era un essere umano deluso di sé stesso e dell'umanità; privo di fiducia e di stima per sé stesso e per gli altri esseri umani. Sceglieva quindi di collocare, al posto di sé stesso, la macchina. Pearl va per la stessa strada, ma si spinge oltre: auspica che la macchina insegni all'essere umano ad essere migliore.
Sono propenso a pensare che il motivo per cui Pearl passa dai ragionamenti tecnici sulla Causal inference in statistics, e simili, alla speranza di riuscire a costruire una macchina in grado di insegnare a noi umani morale e libero arbitrio, stia, come nel caso di Turing, nella triste vicenda personale.
Il dolore, la mancanza, che ha stravolto la vita di Judea Pearl è la tragica scomparsa del figlio Daniel. Giornalista del Wall Street Journal rapito e decapitato nel 2002 a trentanove anni da terroristi in Pakistan.
Judea in apparenza tiene separato il sé stesso padre, essere umano, cittadino, attore politico, dal sé stesso scienziato. Ma è, ovviamente, una scissione solo apparente. Ogni essere umano capace di commozione, e di sentimenti, così come ogni studioso attento alla complessità e alle scienze umane, sa che le ferite affettive che ci toccano nel profondo toccano ogni aspetto della nostra vita. Anche la vita lavorativa, professionale. Anche la vita di scienziato e ricercatore.
Judea Pearl padre addolorato, profondamente ferito e Judea Pearl scienziato sono una persona sola.
Judea Pearl dice: "Mio figlio è stato ucciso dall’odio per cui sono deciso a combattere l’odio".
Come combatte Judea Pearl l'odio? Certo, con Fondazione dedicata al figlio, che opera per il "mutual understanding among diverse cultures". Ma anche, e di più, credo, fortemente volendo, e tentando di costruire, una macchina che sia, a differenza degli umani, incapace di odiare.
Possiamo fidarci nel miglioramento di noi stessi? Possiamo sperare che prevalgano tra gli umani rispetto e giustizia? I motivi di pessimismo sono molti. Il Judea Pearl cittadino fa quanto possibile con la fondazione. Il Judea Pearl scienziato spera, crede di avere al suo arco frecce più promettenti.
Judea, padre, sa che Daniel, suo figlio, è stato ingiustamente ucciso. Il male, provocato da esseri umani, ha prevalso sul bene. Ecco dunque "la domanda che sta al cuore delle nostre ansie": "Saremo capaci di costruire macchine in grado di distinguere il bene dal male?".
Deluso come Turing dagli umani, come lui Judea Pearl sceglie di fidarsi della macchina. Spera in una macchina morale che sappia insegnare la moralità agli umani.
1Judea Pearl and Dana MacKenzie, The Book of Why. The New Science of Cause and Effect, Basic Book, 2018.
Grazie infinite per aver condiviso un pensiero cosi' articolato e tale da guidarmi alla riflessione su quanto io come ricercatore scientifico avevo tratto dalla lettura di quel libro.
RispondiEliminaCommento da applausi. Incredibile che possa farsi strada un progetto come quello di Pearl o anche un progetto più aritcolato che ipotizzi che sia possibile affidare alle macchine persino le nostre scelte morali. Il pensiero liberista ed individualista arriva alla sua nemesi.
RispondiElimina