sabato 15 ottobre 2022

Perché mai noi umani dovremmo affidarci a macchine morali. A proposito di Judea Pearl, 'The Book of Why. The New Science of Cause and Effect'

Ho letto il libro di Pearl1 - con grande interesse. Anche con sorpresa. Più andavo avanti nella lettura più ero meravigliato. Fino alla sorpresa finale.

Più procedevo più mi convincevo che Pearl aveva ragione. O forse meglio: che ero d'accordo.

D'accordo sul fatto che la strada del Macchine Learning e del Deep Learning, affidate alla crescente potenza di calcolo, è meno promettente di quanto si dica. D'accordo sul fatto che non basta affidarsi a ciò che dicono i 'raw data' -i dati nudi e crudi- anche se 'interrogati' tramite una stratificazione di reti neurali. D'accordo sul fatto che i dati non sono altro che 'record' del passato. Insomma, in generale d'accordo sul fatto che il pensiero umano è infinitamente più profondo, articolato e complesso di questo modo di lavorare della macchina. D'accordo quindi nel cercare di avvicinarsi alla complessità del pensiero umano seguendo la via di Bayes e di Markov.

Ma leggendo ero anche sempre più sconcertato. Ero e resto meravigliato dal modo in cui Pearl fonda il suo approccio. Seguendo in modo precisissimo la via indicata da Turing in Computing Machinery and Intelligence (1950), cerca di costruire una macchina capace di pensare. Bisogna quindi, sostiene Pearl, insegnare alla macchina a contemplare livelli diversi di complessità. Ecco quindi la sua Ladder of Causation.

Primo livello. Association. Regolarità nelle osservazioni, previsioni basate su osservazioni passive. Correlazione o regressione. Non c'è modello di realtà. Domanda: E se vedo?

Secondo livello. Intervention. Attenzione a ciò che non può essere presente nei dati (che riguardano il passato). Cambiare ciò che è. Modello di realtà. Cercare altri dati. Scienza dell'inferenza. Domanda: Cosa accadrà se...?

Terzo livello. Counterfactuals. Confrontare il mondo fattuale con un mondo fittizio. Domandarsi: E se le cose fossero andate diversamente?

Che c'è di nuovo?

Il punto è che Pearl presenta la Scala come una novità. Nuova sarà forse per lui e per i suoi colleghi dediti al Machine Learning. Si tratterà forse di qualcosa di nuovo rispetto a ciò che si insegna di solito nei Dipartimenti di Informatica. Ma si tratta di qualcosa di ovvio, se si allarga lo sguardo al di là della formazione strettamente matematica, ingegneristica, STEM.

Al di fuori di questa cultura, i tre livelli di interrogazione causali, appaiono cosa scontata. Già l'idea di individuare i tre, gli unici tre, livelli che presiederebbe all'innalzarsi del pensiero umano verso livelli più alti, appare riduttiva. Inadeguata agli occhi di chi frequenta riflessioni filosofiche e coltiva attenzione per i sistemi complessi.

Pearl però va comunque apprezzato, per come cerca di allargare lo sguardo oltre il quadro delle fonti abitualmente prese in considerazione da chi si occupa di Computer Science. Cita Hume, per esempio, ma quanti altri filosofi avrebbe potuto citare, con più motivo! Semplicemente, credo, non gli è capitato di leggerli. Non gli se ne può fare una colpa. A partire dalla sua formazione di matematico, ha saputo muoversi con coraggio e libertà. Ma comunque resta vittima della sua formazione. Il vizio di origine continua a condizionarlo, anche quando si lancia oltre il consueto.

Enormi porzioni di letteratura, o meglio: di storia del pensiero umano sono ignorate. Non sarebbe grave, se non fosse che Pearl si propone di cogliere quello che potremmo chiamare lo 'schema genetico' del pensiero umano. Non sarebbe grave, se il suo intento non fosse trasferire alla macchina la nozione della complessità del pensiero umano.

Come si può, del resto avere la pretesa di riprodurre, ed anzi superare, il pensiero umano, senza prendere in considerazione, come fonte di stimoli alla progettazione, ogni manifestazione del pensiero umano: Pearl si limita a cercare fonti tra scienziati e filosofi. Mentre è perfino ovvio dire che l'umano pensare -il suo processo, i suoi frutti- può essere inteso solo se si prendono il considerazione la tradizione mantenuta viva in miti e narrazioni; l'arte; la letteratura; la musica. La filosofia, poi, e la scienza stessa, andrebbero intese non come repertorio di leggi e schemi assodati, ma come storia sempre incompiuta di osservazioni ed esperimenti...

Se si accettano multidisciplinarietà e complessità, insomma, il tentativo di ridurre l'umano pensiero, l'umana intelligenza, l'umana saggezza ai tre scalini della Ladder of Causation, finisce per apparirci come un banale esercizio di riduzionismo. Un modo di ingabbiare il pensiero, più che un modo di coglierne il senso.

Se poi accettiamo in vincolo di considerare la sola letteratura scientifica, e andiamo a guardare le fonti e gli strumenti matematici, logico-formali, statistici, con i quali Pearl scegli di lavorare, gli va riconosciuto il coraggio di muoversi lungo la non troppo praticata via stocastica, congetturale di Bayes e Markov. Ma si deve anche notare che Pearl mostra di ignorare fonti che avrebbero alimentato in modo significativo le sue stesse intenzioni progettuali.

Mi limito a pochissimi esempi.

I ragionamenti sui processi inferenziali, ipotetici, abduttivi di CS Peirce. La matematica intuizionistica di Brouwer. La matematica di volta in volta adattata ad una specifica ricerca di Walter Pitts. Von Foerster a proposito di auto-organizzazione dei sistemi e di rumore...

(Mi rendo conto che sto in fondo ripercorrendo in buona misura argomenti esposti nel mio libro Le Cinque Leggi Bronzee, o argomenti che tratterò nei volumi del Trattato di Informatica Umanistica successivi a Macchine per pensare).

I believe

Con tutto questo, il libro di Pearl ci appare una salutare critica al al Mainstream del Machine Learning. Pearl gioca contro la fiducia nella cieca capacità della macchina; contro le promesse della mera potenza di calcolo. Si mantiene anche lontanissimo da chi crede o spera nella Singolarità: una rottura, una discontinuità, per cui le macchine digitali ad certo punto della loro evoluzione si riveleranno capaci attitudini imprevedibili per gli umani. 

Ma The Book of Why pretende di essere molto di più di una sana critica della Computer Science 'normale'. Il disegno di Pearl, ambiziosissimo, si svela solo nelle pagine conclusive del libro. Pearl intende progettare la macchina che sappia essere migliore dell'essere umano. Non affida la sua speranza alla capacità della macchina di andare oltre il suo stesso progetto, come sostengono i profeti della Singolarità. Vuole scientemente progettare una macchina capace di prendere il posto del suo stesso progettista.

Pearl si pone cinque domande.

"1. Abbiamo già creato macchine che pensano?

2. Possiamo fare macchine che pensano?

3. Faremo macchine che pensano?

4. Dovremmo fare macchine che pensano?

E infine, la domanda non dichiarata che sta al cuore delle nostre ansie:

5. Possiamo fare macchine capaci di distinguere il bene dal male?"

La risposta alla prima domanda, ci dice dice Pearl, è: no. Per quanto riguarda le altre domande -che sono proprio le stesse domande che Turing si poneva in Computing Machinery and Intelligence (1950)- la risposta di Pearl è no, se si seguono le vie che altri ricercatori stanno seguendo. Ma è sì, se si segue la via che Pearl stesso propone.

Mi limito a citare Pearl laddove si riferisce alla quinta domanda:

"My answer to the fourth question is also yes, based on the answer to the fifth. I believe that we will be able to make machines that can distinguish good from evil, at least as reliably as humans and hopefully more so. The first requirement of a moral machine is the ability to reflect on its own actions, which falls under counterfactual analysis. Once we program self-awareness, however limited, empathy and fairness follow, for it is based on the same computational principles, with another agent added to the equation.

There is a big difference in spirit between the causal approach to building the moral robot and an approach that has been studied and rehashed over and over in science fiction since the 1950s: Asimov’s laws of robotics. Isaac Asimov proposed three absolute laws, starting with “A robot may not injure a human being or, through inaction, allow a human being to come to harm.” But as science fiction has shown over and over again, Asimov’s laws always lead to contradictions. To AI scientists, this comes as no surprise: rule-based systems never turn out well.

But it does not follow that building a moral robot is impossible. It means that the approach cannot be prescriptive and rule based. It means that we should equip thinking machines with the same cognitive abilities that we have, which include empathy, long-term prediction, and self-restraint, and then allow them to make their own decisions".

Ecco quindi la conclusione:

"Once we have built a moral robot, many apocalyptic visions start to recede into irrelevance. There is no reason to refrain from building machines that are better able to distinguish good from evil than we are, better able to resist temptation, better able to assign guilt and credit. At this point, like chess and Go players, we may even start to learn from our own creation. We will be able to depend on our machines for a clear-eyed and causally sound sense of justice. We will be able to learn how our own free will software works and how it manages to hide its secrets from us. Such a thinking machine would be a wonderful companion for our species and would truly qualify as AI’s first and best gift to humanity".

Mi sembra indispensabile rileggere queste parole in italiano. Per una macchina, o per un essere umano che considera se stesso esclusivamente come scienziato, la lingua potrà essere indifferente. Ma per un essere umano che intende pensare, mostrare la propria saggezza ed esprimere giudizi morali, la lingua non è indifferente: pensiamo nella nostra lingua natale, naturale.

"La mia risposta alla quarta domanda è sì, anche in base alla risposta alla quinta. Credo che saremo in grado di creare macchine in grado di distinguere il bene dal male, almeno con la stessa affidabilità degli esseri umani e, auspicabilmente, con una maggiore affidabilità. Il primo requisito di una macchina morale è la capacità di riflettere sulle proprie azioni, che rientra nell'analisi controfattuale. Una volta programmata l'autocoscienza, per quanto limitata, ne discendono l'empatia e l'equità, perché si basano sugli stessi principi computazionali, con l'aggiunta all'equazione di un altro agente.

C'è una grande differenza di principio tra l'approccio causale alla costruzione del robot morale e l'approccio che è stato finora studiato e che è stato ripreso più volte nella fantascienza a partire dagli anni Cinquanta: Le leggi di Asimov sulla robotica. Isaac Asimov propose tre leggi assolute, a cominciare da "Un robot non può ferire un essere umano o, per inazione, permettere che un essere umano venga danneggiato". Ma come la fantascienza stessa ha dimostrato più volte, le leggi di Asimov portano sempre a delle contraddizioni. Per gli scienziati dell'intelligenza artificiale, questo non è una sorpresa: i sistemi basati su regole non si rivelano mai buoni.

Ma questo non significa che costruire un robot morale sia impossibile. Significa che l'approccio non può essere prescrittivo e basato su regole. Significa che dovremmo dotare le macchine pensanti delle stesse capacità cognitive che abbiamo noi, tra cui l'empatia, la previsione a lungo termine e l'autocontrollo, e poi permettere loro di prendere le proprie decisioni".

Quindi:

"Una volta che avremo costruito un robot morale, molte visioni apocalittiche inizieranno a recedere nell'irrilevanza. Non c'è motivo di astenersi dal costruire macchine che siano in grado di distinguere il bene dal male meglio di noi, meglio in grado di resistere alla tentazione, meglio in grado di assegnare colpe e meriti. A questo punto, come i giocatori di scacchi e di Go, potremmo anche iniziare a imparare dalla nostra stessa creazione. Saremo in grado dipendere dalle nostre macchine per un senso di giustizia lucido e causalmente sano. Saremo in grado di imparare come funziona il nostro software di libero arbitrio e come riesce a nasconderci i suoi segreti. Una tale macchina pensante sarebbe una meravigliosa compagna per la nostra specie e si qualificherebbe veramente come il primo e miglior regalo dell'IA all'umanità".

Con Turing, oltre Turing

Si capisce che Pearl, con giusta ambizione, si confronta con Turing e si candida a proseguire il suo lavoro. Pearl è stato premiato nel 2011 con il Turin Award: dato l'intento di Pearl, nessun Turing Award è stato più giusto. Questo considerarsi il vero figlio del capostipite appare già evidente nel presentare la Scala di Causalità. Dice Pearl: "While Turing was looking for a binary classification -human or no human- ours has three tiers, corresponding to progressively more powerful causal queries". "Mentre Turing cercava una classificazione binaria - umano o non umano - la nostra ha tre livelli, corrispondenti a interrogazioni causali progressivamente più potenti".

Resta sorprendente, e grandemente interessante per me, la precisione con cui Pearl richiama la lezione di Turing, citando alla lettera Computing Machinery and Intelligence (1950).

Pearl riprende le speranze di Turing. Turing scriveva proprio "I hope", spero che la computing machine apprenda a pensare. Pearl segue lo stesso cammino cercando passi in avanti, e dice: "I believe". E precisa: con il mio approccio, ci riusciremo. Costruire un 'robot morale' è possibile. Sarà in grado di distinguere il bene dal male meglio di noi. Anzi: questa macchina meravigliosa compagna ci insegnerà la morale, ci mostrerà il senso del libero arbitrio...

Il mio primo commento è questo: non escludo che noi esseri umani si possa essere in grado di costruire questa macchina. Potremo forse riuscirci. Credo però che se mai ci riusciremo, sarà perché nell'immaginare, progettare, costruire questa macchina avremo saputo andare oltre la cultura matematica, oltre la formazione STEM nella quale Pearl resta chiuso.

Ben più rilevante mi sembra un ulteriore commento. Constato che noi umani, nei tempi digitali, siamo spinti ad accettare di soggiacere a questa legge: preferirai la macchina a te stesso. Il campione di questo atteggiamento, al quale Pearl si accoda, è Turing.

E' questo uno degli argomenti centrali del mio libro Le Cinque Leggi Bronzee. Come essere umano, scelgo di non arrendermi. Scelgo di continuare a preferire noi esseri umani ad ogni macchina. Scelgo di considerare più importante la contiguità dell'essere umano con gli animali, le piante, ogni elemento naturale che la contiguità con una macchina. Scelgo di scommettere sulla specie umana. Scelgo di investire su una specie umana protesa consapevole della sua appartenenza alla natura, alla vita, piuttosto che su umani disposti a cercare nuove terre digitali, totalmente progettate: Infosfere, Metaversi, e orientati ad affidare la responsabilità morale a macchine. (A proposito del "trasformare in qualcosa di computabile il valore morale" scrivo anche in quest'altro post).

Perché preferire la macchina a noi stessi?

Mi chiedo quindi: perché preferire la macchina a noi stessi? Da dove nasce l'ansia che spinge Turing e Pearl a costruire macchine capaci di pensare meglio di come pensi un essere umano?

Da dove nasce il bisogno di ri-educarci a dipendere dalla macchina, il bisogno di dire "We will be able to depend", "We will be able to learn"?

Ora, io credo che il motivo per cui Turing preferisce la macchina a sé stesso, come mostro nelle Cinque Leggi, stia nella sua triste vicenda personale. Era un essere umano deluso di sé stesso e dell'umanità; privo di fiducia e di stima per sé stesso e per gli altri esseri umani. Sceglieva quindi di collocare, al posto di sé stesso, la macchina. Pearl va per la stessa strada, ma si spinge oltre: auspica che la macchina insegni all'essere umano ad essere migliore.

Sono propenso a pensare che il motivo per cui Pearl passa dai ragionamenti tecnici sulla Causal inference in statistics, e simili, alla speranza di riuscire a costruire una macchina in grado di insegnare a noi umani morale e libero arbitrio, stia, come nel caso di Turing, nella triste vicenda personale.

Il dolore, la mancanza, che ha stravolto la vita di Judea Pearl è la tragica scomparsa del figlio Daniel. Giornalista del Wall Street Journal rapito e decapitato nel 2002 a trentanove anni da terroristi in Pakistan.

Judea in apparenza tiene separato il sé stesso padre, essere umano, cittadino, attore politico, dal sé stesso scienziato. Ma è, ovviamente, una scissione solo apparente. Ogni essere umano capace di commozione, e di sentimenti, così come ogni studioso attento alla complessità e alle scienze umane, sa che le ferite affettive che ci toccano nel profondo toccano ogni aspetto della nostra vita. Anche la vita lavorativa, professionale. Anche la vita di scienziato e ricercatore.

Judea Pearl padre addolorato, profondamente ferito e Judea Pearl scienziato sono una persona sola.

Judea Pearl dice: "Mio figlio è stato ucciso dall’odio per cui sono deciso a combattere l’odio".

Come combatte Judea Pearl l'odio? Certo, con Fondazione dedicata al figlio, che opera per il "mutual understanding among diverse cultures". Ma anche, e di più, credo, fortemente volendo, e tentando di costruire, una macchina che sia, a differenza degli umani, incapace di odiare.

Possiamo fidarci nel miglioramento di noi stessi? Possiamo sperare che prevalgano tra gli umani rispetto e giustizia? I motivi di pessimismo sono molti. Il Judea Pearl cittadino fa quanto possibile con la fondazione. Il Judea Pearl scienziato spera, crede di avere al suo arco frecce più promettenti.

Judea, padre, sa che Daniel, suo figlio, è stato ingiustamente ucciso. Il male, provocato da esseri umani, ha prevalso sul bene. Ecco dunque "la domanda che sta al cuore delle nostre ansie": "Saremo capaci di costruire macchine in grado di distinguere il bene dal male?".

Deluso come Turing dagli umani, come lui Judea Pearl sceglie di fidarsi della macchina. Spera in una macchina morale che sappia insegnare la moralità agli umani. 



1Judea Pearl and Dana MacKenzie, The Book of Why. The New Science of Cause and Effect, Basic Book, 2018.

mercoledì 14 settembre 2022

La scintilla della coscienza. Federico Faggin e gli 'esperti' che si sentono traditi da lui

Federico Faggin: se ne parla su tutti i sui quotidiani nazionali in questi giorni, per l'uscita di un suo libro. Sono direttore di MIT Sloan Management Review Italia: gli abbiamo dedicato un'ampia intervista nell'ultimo numero (intervista raccolta 10 giugno scorso). La trovate qui
Agli amici che si dicono delusi dalla svolta spirituale di Faggin, posso dire che la sua non è resa, ma consapevolezza di cosa sia la vita. 
Agli amici che dicono: tutto parte da una molecola di DNA e non c'è 'spirito' in una molecola di DNA, c'è solo codice posso rispondere con la formula da loro stessi normalmente usata: partiamo dal definire i concetti dei quali stiamo discutendo. Definitemi cosa intendete con 'sistema', 'sistema vivente', 'spirito'; definitemi cosa intendete con 'codice'. Controporrò le mie definizioni. Le discuteremo insieme.
Agli amici che dicono che la complessità può essere risolta con sempre più evoluti strumenti tecnici, ricordo i teoremi di incompletezza di Gödel, e ricordo anche che nel mentre strumenti tecnici risolvono problemi, si allarga il nostro sguardo e vediamo nuovi problemi irrisolti. 
Agli amici che credono che tra vent'anni i robot avranno una coscienza, dico che potrebbe anche darsi. Ma la coscienza del robot, se mai ci sarà, non avrà nulla a che fare con la coscienza umana. Di fronte a questa prospettiva, credo, noi umani -tecnici, e semplici cittadini- dovremmo evitare la facile via consistente nel limitarci a credere, o a sperare, che robot o macchine o algoritmi o altre nuove tecnologie risolvano per noi i problemi che non sappiamo risolvere.
Possiamo invece assumerci nel presente responsabilità personali. Faggin: "Ciò che succede a me è in gran parte dovuto alle mie azioni". "Soltanto assumendosi questa responsabilità, che sorge da un bisogno di onestà verso se stessi, da un senso di giustizia e di verità, si potrà avere più consapevolezza. È da questa che nasce la capacità di governo delle macchine. E, quindi, del nostro futuro". "C’è molta differenza tra il lavoro imprenditoriale di chi si limita a sfruttare la tecnologia che esiste e chi investe in ricerca fondamentale che illumina la nostra natura. Una nuova tecnologia è utile, ma la vera trasformazione è cambiare l’idea di chi siamo, perché ciò può trasformare il mondo in meglio per tutti". 
Per quanto mi riguarda, ho cercato di parlare di tutto questo nel libro Le Cinque Leggi Bronzee dell'Era Digitale. E perché conviene trasgredirle.
Lì argomento a proposito sia del concetto di codice, sia di come non si possa comparare la consapevolezza umana con un eventuale raggiungimento di 'consapevolezza' da parte della macchina, sia della 'scintilla della coscienza', che è ciò che contraddistingue l'essere umano.


martedì 6 settembre 2022

Tre posizioni etiche di fronte alle novità digitali

Di fronte alle novità e agli interrogativi che le nuove tecnologie impongono a noi esseri umani, possiamo individuare atteggiamenti necessari. L'educazione civica digitale dovrà preparare ad assumere questa posizione.

Non rinviare nel tempo

Ci dobbiamo preparare ad evitare la più comoda, ma anche la più grave ed irresponsabile, delle vie di fuga.

Non si può ignorare la presenza di ricerche riguardanti temi critici, come -per fare solo due esempi- la sostituzione di ogni lavoro umano o le armi autonome dotate di Intelligenza Artificiale.

E' facile dire: sì, esistono potenziali rischi e problemi, ma non sono così imminenti. E' facile dire: ce ne occuperemo a tempo debito. O peggio dire: se ne occuperanno i nostri nipoti.

Meschina appare l'opinione di chi si consola rinviando nel tempo la questione, considerando che gli effetti più perversi si manifesteranno solo in tempi futuri. Ingenuo e disinformato chi minimizza.

Evitare la sottrazione incrociata

Scienziati e tecnici si sottraggono dal farsi carico dei possibili usi di ciò sperimentano e sviluppo dicendo: a noi compete ricercare e innovare, delle conseguenze dei nuovi ritrovati si deve occupare la politica. Il cittadino si sottrae dicendo a sé stesso: non posso capire, non sono all'altezza. C'è sempre qualcun altro che deve occuparsene; con il risultato che non se ne occupa nessuno.

La responsabilità sociale e l'azione politica nascono sempre dal non rifiutare di assumersi responsabilità personali. Dovremo quindi evitare una seconda via di fuga, consistente nell'attribuire la responsabilità ad un soggetto diverso da noi stessi, quale che sia il nostro ruolo.

Non nascondere il male dietro il bene

Di fronte ad ogni novità tecnologica si potrà sempre facilmente dire: questo ritrovato serve a salvare vite umane. Così è, per fare solo due esempi, per le automobili a guida autonoma come per la connessione tra cervello umano e computer tramite nanofili di silicio.

Dovremo apprendere, tramite l'educazione civica digitale, ad evitare anche questa via di fuga. Chi sostiene che il ritrovato tecnologico è utile a salvare vite umane, sta nascondendo a sé stesso e agli altri che quello stesso ritrovato comporta anche, e spesso in maggior misura, il rischio di danni gravissimi non solo agli esseri umani, ma in senso lato a ciò che chiamiamo 'vita' e 'natura'.

L'educazione civica digitale dovrà quindi fare appello non tanto alla ragione o all'intelligenza, ma a quella umana attitudine che chiamiamo saggezza.

Parlo di questi argomenti nell'articolo Educazione civica digitale: cosa insegnare e perché è necessaria, apparso su Agenda Digitale il 22 aprile 2021.

martedì 22 marzo 2022

Architetture civili digitali

C'è software e software. Le architetture digitali civili sono frutto del senso di responsabilità personale e sociale di progettisti che si considerano prima che tecnici, cittadini appartenenti ad una comunità, eredi di una storia, viventi in una cultura.

Così, dalla posizione del cittadino, il progettista sviluppa strumenti per la cittadinanza attiva e per la partecipazione. Partecipazione in diversi sensi: partecipazione alla produzione sociale di conoscenza; partecipazione alla produzione di norme di legge; partecipazione al governo di istituzioni pubbliche o imprese private; partecipazione a processi organizzativi e flussi di lavoro.
Poi purtroppo le architetture civili finiscono per degenerare, trasformandosi nel loro contrario: strumenti nelle mani di Sovrani che riducono i cittadini a sudditi-utenti.
Ma possiamo sempre progettare nuove architetture civili...

L'informatica come potere 
Un primo modo consiste nell'intendere i costrutti digitali -computer, smartphone, sistemi, piattaforme, servizi, software e app- come mezzi che sono allo stesso tempo: In grado di condizionare e vincolare le libere scelte degli esseri umani; mezzi dotati di proprie regole indiscutibili alle quali i cittadini, ridotti ad utenti, debbono sottostare. Autonomi, sempre più indipendenti nel loro funzionamento dall'agire e dal pensare degli esseri umani.
Per questa via: I tecnici e gli imprenditori digitali si allontanano dal loro essere cittadini tra i cittadini, e appaiono invece come gli esponenti chiave di una che detiene il potere. Le tecnologie digitali appaiono così come il motore di una crescente divaricazione sociale: da un lato ricchezza, dall'altro povertà; da un lato sovranità, dall'altro sudditanza. I cittadini ridotti a sudditi-utenti sono spinti a vivere e a lavorare in luoghi digitali imposti come sostituti dei luoghi naturali. Ai cittadini non è data la possibilità di contribuire né alla costruzione dei luoghi digitali, né alla definizione delle regole che nei luoghi digitali vigono. Si apre la strada verso una situazione dove gli esseri umani si trovano obbligati a convivere con entità digitali dotate di propria autonomia ed 'intelligenza'.

L'informatica come servizio 
Un differente modo di intendere l'informatica e le tecnologie digitali vede ogni costrutto digitale come strumento creato da esseri umani ed usato da esseri umani. Esseri umani agenti e pensanti, viventi nel mondo, presenti con il proprio corpo, legati tra di loro da relazioni sociali. Consapevoli del proprio agire politico. Ogni costrutto digitale, in questo caso, resta un 'utensile' nelle mani dell'essere umano. 

In entrambi i casi l'informatica contempla il necessario lavoro di tecnici specialisti. Ma nel primo caso i tecnici digitali si pongono come esperti esterni, che creano mondi per gli altri esseri umani, abbassati da cittadini a passivi utenti. Nel secondo caso i tecnici digitali mantengono invece la consapevolezza del loro appartenere alla comunità sociale, del loro essere anch'essi cittadini del mondo. 
Stante il primo modo di intendere l'informatica si pone un problema che tocca le basi dello stesso concetto di 'legge'. Perché le leggi veramente vigenti sono le leggi -i vincoli sociali, le norme di comportamento- espresse in forma di software, applicazione, algoritmo. 
Software, applicazioni, algoritmi, sono documenti scritti in un codice noto solo ai tecnici e destinati ad istruire una macchina a funzionare in un certo modo. Cosicché per conoscere ciò che è scritto in codice digitale, il cittadino deve affidarsi a macchine e a tecnici specialisti. In questa situazione, il processo di produzione normativa stabilito da Costituzioni e giurisprudenza è svilito. 
Così come è svilito il ruolo del giurista nel suo studio e nella sua interpretazione del diritto. Stante il secondo modo di intendere l'informatica, invece, la vita sociale e civile restano intatte. I documenti sono scritti in tramite linguaggi alfabetici ed ideografici pensati da esseri umani per esseri umani. Gli esseri umani, riuniti in quanto cittadini in comunità sociali, continuano ad essere i produttori di regole di convivenza civile e di norme. 
Qui, insomma, i costrutti digitali sono intesi come mezzi per esercitare più pienamente i diritti ed i doveri impliciti nella cittadinanza. Lo sviluppo dei costrutti digitali è teso in ogni caso innanzitutto ad uno scopo: offrire la possibilità ad ogni cittadino di essere più partecipe, più attivo. 
Possiamo affermare sinteticamente che l'informatica intesa nel primo modo tende ad edificare una nuova realtà dis-umana, astratta, logico-formale. Mentre l'informatica intesa nel secondo modo -che possiamo chiamare informatica umanistica- si presenza come risorsa alla portata di ogni cittadino, come servizio civile. La caratteristica distintiva dell'informatica intesa nel primo modo è l'attenzione al dato. La caratteristica distintiva dell'informatica intesa nel secondo modo come, è l'attenzione al documento.

Ho scritto un articolo a questo proposito. Si trova qui sul portale Solotablet.

Nell'articolo parlo di come si può opporre virtuosamente il concetto di documento al concetto di dato. E ripercorro brevemente la storia di alcune benemerite 'architetture civili digitali': Internet, e-mail, Bulletin Board System (BBS), World Wide Web, Wiki, Blockchain. Ricordo però poi come questi strumenti, rovesciando gli intenti dei progettisti e l'iniziale uso, hanno finito per essere volti nel loro contrario: nuovi strumenti di controllo sociale. Auspico quindi l'emergere di nuove 'architetture digitali civili'.

Questo testo è nato nel quadro di riflessioni condivise con Luca Barbieri e Giuseppe Vincenzi, che qui ringrazio. Insieme a loro, nell'ambito della associazione Assoetica, si sta ragionando sui Registri Digitali Distribuiti. Per i fruttosi scambi sugli stessi argomenti ringrazio anche Antonio Iacono.

 

martedì 22 febbraio 2022

La pericolosa banalità dell'Algoretica e dell'Antronomia. Ovvero la pretesa di sostituire il 'computabile' all''umano'

Mi scrive un amico segnalandomi un articolo di padre Paolo Benanti. Mi segnala in particolare una frase: "Dobbiamo stabilire un linguaggio che sappia tradurre il valore morale in qualcosa di computabile per la macchina. La percezione del valore etico è una capacità puramente umana. Lavorare valori numerici è invece abilità della macchina. L'algoretica nasce se siamo in grado di trasformare in qualcosa di computabile il valore morale."

La pretesa di rendere i valori morali computabili da una macchina è insidiosa. Se si considera veramente il valore morale computabile, si apre la strada all'espropriazione dell'etica. 

Primo passaggio: i valori morali cessano di essere valori dell'essere umano e diventano patrimonio dell'esperto capace di trasformare l'etica in qualcosa di computabile. Ma computabile vuol dire: eseguibile da una macchina. Si apre così la strada -secondo passaggio- all'autonomia morale della macchina. Terzo passaggio: la macchina, che computa meglio dell'essere umano, sarà forse più morale dell'essere umano.

Ecco dunque apparire sulla scena la Moral Machine. Porta questo nome un progetto del MIT.  Ma, a proposito delle 'macchine morali', la descrizione più significativa mi pare si trovi nella conclusione del Book of Why di Judea Pearl. Qui il discorso è chiaramente sviluppato fino al terzo passaggio. (Per evitare fraintendimenti e sottolineare il pericoloso rilievo di questa posizione, trascrivo le frasi in inglese e aggiungo una mia traduzione). 

"Once we have built a moral robot, many apocalyptic visions start to recede into irrelevance. There is no reason to refrain from building machines that are better able to distinguish good from evil than we are, better able to resist temptation, better able to assign guilt and credit. At this point, like chess and Go players, we may even start to learn from our own creation. We will be able to depend on our machines for a clear-eyed and causally sound sense of justice. We will be able to learn how our own free will software works and how it manages to hide its secrets from us. Such a thinking machine would be a wonderful companion for our species and would truly qualify as AI’s first and best gift to humanity".

"Una volta che avremo costruito un robot morale, molte visioni apocalittiche inizieranno a recedere nell'irrilevanza. Non c'è motivo di astenersi dal costruire macchine che siano in grado di distinguere il bene dal male meglio di noi, meglio in grado di resistere alla tentazione, meglio in grado di assegnare colpe e meriti. A questo punto, come i giocatori di scacchi e di Go, potremmo anche iniziare a imparare dalla nostra stessa creazione. Saremo in grado dipendere dalle nostre macchine per un senso di giustizia lucido e causalmente sano. Saremo in grado di imparare come funziona il nostro software di libero arbitrio e come riesce a nasconderci i suoi segreti. Una tale macchina pensante sarebbe una meravigliosa compagna per la nostra specie e si qualificherebbe veramente come il primo e miglior regalo dell'IA all'umanità".

Dovremmo dunque dipendere da macchine per concepire il senso della giustizia. Dovremmo considerare lo stesso umano libero arbitrio un software. Dovremmo considerare la 'macchina pensante' compagna meravigliosa per la nostra specie, dovremmo apprendere da lei chi siamo e come pensare rettamente. Macchina maestra di etica. Questo non lo sostiene un delirante fanatico, lo sostiene in un libro del 2018, Judea Pearl, stimatissimo computer scientist, vincitore del Turing Award nel 2011. (Commento in modo più dettagliato il libro di Pearl qui).

Luca Peyron è un pensatore meno presuntuoso di Benanti, e aveva scritto anche cose interessanti sul corpo umano nei tempi digitali, ma in fondo segue lo stesso percorso, o anzi partecipa alla stessa ricorsa proponendo l'antronomo.

"L’antronomo è colui o colei che in un processo di creazione di un prodotto o servizio legato alla trasformazione digitale e le tecnologie emergenti pone l’umano come norma". Non competerà più all'essere umano conoscere il senso dell'umano. A dirci cosa è l'umano sarà d'ora in poi un Esperto Legittimato, iscritto ad una corporazione, dotato di patente attribuita dalla corporazione stessa.

L''umano come norma' di Peyron ci appare così vicinissimo al 'valore morale' di Benanti. Tutto deve essere detto da Esperti. 

AlgoreticoAntronomo. In entrambi i casi si tratta di due esemplari Disabling Professions. L'avvento in ogni ambito di caste di esperti riduce gli spazi di partecipazione sociale, impedisce l'esercizio di una cittadinanza attiva e deprime la stessa qualità del pensiero. Il membro di una casta di esperti è portato a subordinare il proprio pensiero alla difesa del ruolo e a colludere con gli appartenenti ad altre caste di esperti. 

La presenza di esperti che parlano al posto loro depotenzia e deprime l'essere umano. Ciò è vero in modo speciale per quanto riguarda l'etica. Ogni essere umano possiede una propria etica. Magari può faticare a portarla alla luce. 

Potrebbe servire un amorevole accompagnamento teso a far crescere la consapevolezza della propria etica. Ma cosa fanno questi 'esperti'. Pearl pretende di sostituire alla morale della persona la morale della macchina. Benanti dice: la percezione del valore etico è una capacità puramente umana; ma si candida per trasferire questa capacità alla macchina. Peyron condivide l'approccio: l'umano è una categoria astratta, riducibile a norma, che l'esperto conosce meglio dell'essere umano stesso.

A ben guardare è la posizione del Grande Inquisitore di Dostoevskji. Non si contempla un cittadino in grado di attingere il libero arbitrio, capace di responsabilità. Si considerano necessarie narrazioni attraverso il quale educare il popolo. Ben venga quindi l'algoretica, pensiero espresso tramite un codice dominato dall'élite e fuori dalla portata dei cittadini.  (Parlo di questa posizione, nella versione fatta propria dal Vaticano, in quest'altro articolo. E in modo più approfondito parlo di questo nel mio libro Le Cinque Leggi Bronzee). 

Gli Esperti concordano nel passaggio chiave. Passaggio di stato. Tutto deve essere codificato in forma digitale. Tutti i nostri umanissimi discorsi devono essere resi computabili. E alla fine ci viene detto che i nostri discorsi non sono più i discorsi che noi abbiamo pronunciato. Ai nostri discorsi è sostituita la loro versione computata. 

Servirebbe a questo punto una seria riflessione sul Digital Twin. Il senso del pretenzioso assunto implicito nel concetto di gemello digitale è questo: attraverso la raccolta di dati può essere costruita la rappresentazione virtuale di ogni entità fisica, vivente o non vivente. All'essere è sostituito l'essere digitale. Al 'cerca te stesso' -la domanda chiave della filosofia- è sostituito il 'cerca te stesso nel tuo digital twin'. Alla vita nel mondo è sostituita la vita nel Metaverso. All'etica enunciata attraverso le lingue parlate dagli esseri umani è sostituita l'etica computata.

Voglio invece continuare a pensare che l'etica sia pensiero umano. Pensiero che non necessita nessuna computazione per essere efficace. Voglio continuare a pensare che più di ogni macchina sia buon compagno per l'uomo l'uomo stesso. 

L'essere umano è sfidato dall'avvento del digitale. La sfida può essere accolta considerando che, al di là di vantaggi che la digitalizzazione può portare, il futuro dell'essere umano va cercato oltre i confini dettati dalla computazione, dalla codifica digitale, dall'avvento di macchine autonome. Il futuro va cercato oltre l'esempio costituito dal modo di funzionare delle macchine. 

Ma Benanti e Peyron, peccando di sudditanza, si fanno adepti della digitalizzazione, ovvero della sua trasformazione  in 'qualcosa di computabile'.

Non c'è confine tra l''agere' e l''intelligere'

Trovo molto misera la resa di Floridi: il suo dire: 'l'agire è ormai irrimediabilmente campo della macchina'. Floridi separa l'agire della macchina dall'umano pensare. Ma solo un'ottica forzatamente astratta come quella di Floridi può separare l'agire dal pensare, che sono due aspetti inscindibili dell'essere umano. Mi sembra che al contrario la 'situazione digitale' in cui viviamo, ci sfidi ad essere più umani. Non regalando l''agire' alla macchina, ma riscoprendolo come terreno possibile, ed anzi necessario per l'essere umano. (Luciano Floridi espone questa posizione nella conferenza doppia tenuta insieme a Federico Cabitza: è facile osservare, per lo spettatore o il lettore attento, la netta differenza tra la posizione di Floridi e quella di Cabitza).