sabato 22 maggio 2021

L'ultima scappatoia: Le leggi di Frank Pasquale

Non si può fare a meno di interrogarci sui rischi derivati da uno sviluppo di Intelligenze Artificiali sempre più difficili da controllare.

Un caso tra i numerosissimi. Computer Scientist hanno sviluppato strumenti che rendono impossibile comprendere se a parlare e a interagire con noi è un altro essere umano, o una macchina programmata in modo ignoto. I Computer Scientist stessi ammettono ora i rischi sociali, politici, etici impliciti in questi strumenti. E puntano il dito contro Google o altri grandi Case che ne hanno promosso lo sviluppo e li usano. Quale soluzione propongono? Dicono: non fidatevi di Google, fidatevi di noi. "We can’t really stop this craziness around large language models, but what we can do is try to nudge this in a direction that is in the end more beneficial”. Comodo dire che la corsa a cui si partecipa non può essere fermata. Perché mai dovremmo di questi scienziati? Ci dicono che sono strumenti pericolosi ma vogliono continuare a svilupparli. 

Un amico rinomato ricercatore e progettista nel campo dell'Intelligenza Artificiale mi dice: io so cosa vuol dire assumersi la pesante responsabilità di decidere che una 'macchina medica' lavora in un modo o in un altro... Grave responsabilità decidere quale grado di autonomia attribuire alla macchina; decidere se farla intervenire in un modo in un altro. In che momento.

Un altro amico profondo conoscitore della materia, Domenico Talia, si interroga sull'Impero degli algoritmi (Rubbettino, 2021). Si pone l'obiettivo politico di evitare che "questa nuova élite tecnologica  diventi la nuova 'razza padrona' delle vite di miliardi di persone". Ci ricorda quindi che "la democratizzazione delle tecnologie passa attraverso la diffusione delle conoscenze su di esse e in particolare sugli algoritmi che sono a loro fondamento". E conclude: "non abbiamo bisogno di gabbie algoritmiche razionali ed efficienti", ma invece di "strumenti risolutori per alimentare il pensiero critico". Nell'aggettivo 'risolutore' colgo un riferimento ad un ragionamento aperto alla complessità, e cioè orientato a risolvere, a sciogliere garbugli e intrichi. O per dirla altrimenti: non leggi a cui appellarsi, ma impegno personale etico e politico.

Considero questi amici una eccezione. Di gran lunga prevalente è la posizione degli 'addetti ai lavori' che nascondono a sé stessi agli altri gli aspetti problematici. Non si parla nemmeno tra colleghi di questi pesi e dei dubbi e dei dilemmi che si vivono nel progettare. Tantomeno se ne parla in pubblico. Il cittadino nulla deve sapere di tutto questo. Rispetto all'opinione pubblica la posizione che gli 'addetti ai lavori' -salvo rare eccezioni- contribuiscono a mantenere si può riassumere in un breve frase: spargere fiducia.

Adesso si fa un gran parlare di 'leggi etiche' alle quali rifarsi in queste situazioni critiche. Si può vedere per esempio Frank Pasquale, New Laws of Robotics (Harvard University Press, ottobre 2020). Il libro sarà pubblicati in italiano da Luiss University Press, ma già ora, mentre è ancora inedito nella nostra lingua, leggo vari commenti entusiasti, anche su quotidiani: la Stampa, il Manifesto. In realtà questi commenti mi sembra che non facciano altro che seguire l'onda di commenti usciti negli States. Più interessante di questi commenti, che mi sembrano acritici e che si ripetono l'un l'altro, è ciò che scrive a proposito del libro di Pasquale Lelio Demichelis su Agenda digitale

In un altro  post commenterò su questo blog le Leggi di Pasquale una per una. E discuterò l'assunto la tesi che alla base delle leggi stesse: le Leggi della Robotica di Isaac Asimov sono superate; servono nuove norme. Ma prima del guardare al contenuto delle leggi, serve notare come la 'legge' costituisca in sé una comodo modo per scansare  il problema. 

Frank Pasquale, precedentemente autore di un libro che merita di essere letto: The Black Box Society (Harvard Unversity Press, 2016), ha una formazione giuridica. E' un aspetto non trascurabile: cerchiamo in fondo qualcuno che ci dica quali sono le leggi da rispettare.  Abbassando così il livello di responsabilità.

Infatti, appare gravissimo il peso della responsabilità di chi si trova a scrivere algoritmi ed in generale a progettare macchine destinate ad agire autonomamente, al posto di esseri umani impegnati in un qualsiasi lavoro, e anche destinate ad agire andando oltre i limiti della stessa programmazione iniziale definita dal progettista.

Ma di fronte alla responsabilità, la prima scelta è purtroppo l'elusione o la fuga. Chi sviluppa nel campo dell'Intelligenza Artificiale elude la responsabilità -responsabilità personale- nascondendosi dietro l'idea che il progresso e la tecnica non possono essere in ogni caso fermati, e che quindi 'se non sviluppassi io questo strumento, lo svilupperebbe comunque un altro tecnico'. Chi sviluppa nel campo dell'Intelligenza Artificiale elude la responsabilità dicendo: 'a noi compete fare ricerca e sviluppo, degli usi se ne occuperà la politica'.

Ed ora ben vengano a togliere di dosso il peso della responsabilità anche le Leggi di Pasquale.

E' una scappatoia: ci si tranquillizza con il rispetto della legge e così ci si deresponsabilizza. Ed anche ci si allontana dal caso singolo: da ciò che io, ricercatore e sviluppatore sto facendo qui ed ora. Ed anche: si rinforza il potere del tecnico - ora legittimato ad agire dal fatto che rispetta le leggi di Pasquale. Ma allo stesso tempo così ogni ricercatore e sviluppatore resta solo, nella comunità di tecnici probabilmente meno orientati di lui all'etica...

Due sono le strade che i tecnici digitali giustamente preoccupati potrebbero adottare. 

Impegnarsi pubblicamente a rinunciare a lavorare in questo campo. 

Tornare a considerare sé stessi cittadini tra i cittadini 

Peccato siano invece restii ad incamminarsi in questa direzione. A quanto sembra non intendono rinunciare ai loro privilegi. Non sembrano disposti ad assumere posizioni veramente critiche all'interno della comunità professionale cui appartengono.

Eppure possiamo dire che di fronte allo spargere fiducia di tanti addetti ai lavori, la risposta politica è spargere cautela. Di fronte a comode leggi che dicono cosa è giusto e cosa è sbagliato, cosa si può fare e cosa non si può fare, la risposta etica è: mi sento responsabile di quello che sto facendo e delle conseguenze delle mie azioni

venerdì 30 aprile 2021

Educazione civica digitale Un insegnamento necessario nelle scuole di ogni ordine e grado

 È urgente occuparcene. Una educazione civica digitale. O forse meglio: un’educazione esistenziale per l’era digitale. O potremmo dire anche: una educazione ad essere umani nell’Era Digitale.

La saggezza umana, quel pensiero che ci accompagna dalle origini, e che ogni cultura porta nel proprio cuore, quel monito ci dice: cerca te stesso, cerca il Sé. Cerca di essere il più pienamente possibile consapevole del tuo essere, del tuo agire nel mondo. Responsabile di fronte a te stesso, alla comunità umana, all'ambiente ecologico e sociale cui appartieni. Ma nell'Era Digitale si spalanca una via di fuga: affidati alla macchina. Un algoritmo ti dirà cosa fare, una Intelligenza Artificiale ti guiderà, ti assisterà, ti proteggerà. In questo nuovo scenario la ricerca del Sé non è più motivata.

Se questo punto di vista vi pare troppo filosofico, o astratto, guardiamo la questione dal punto di vista politico. Da un lato sta un'élite del potere. A questa élite appartengono, accanto alla classe politica in senso stretto ed a chi è dedito ad operazioni di finanza speculativa, i tecnici digitali - coloro che disegnano strumenti e piattaforme, scrivono algoritmi, progettano varie forme di Intelligenza Artificiale. Dall'altro stanno i cittadini, esposti al rischio di diventare sempre più succubi, sudditi soggetti a leggi veicolate via software, ridotti a utenti.

Si parla della necessità di diffondere, nel nostro paese e nel mondo, la cultura STEM. E' una fondata esigenza. E' una fondata esigenza. Diffondere la cultura STEM significa portare tra i ricercatori, scienziati e tecnici, sempre in maggior misura esponenti di gruppi sociali diversi, più donne, persone di culture e origini etniche diverse. Più che cultura STEM dovremmo dire: culture STEM. Le discipline scientifiche e tecniche, sempre più specializzate, verticale, perdono di vista l'insieme, la complessità. Non si può più parlare a rigore di computer science o di informatica: le specializzazioni sono tante e tali che gli addetti ai lavori poco o nulla sanno al di fuori della propria specializzazione: si conosce un solo strato di codice, si pratica chiusi all'interno del proprio campo di ricerca. Espressioni-ombrello come 'Intelligenza Artificiale' sono pericolose per questo: gli 'esperti' che ne parlano conoscono una ridotta parte del campo. Nella formazione STEM la vista d'insieme, e quel pensiero che può orientare al dubbio e alla cautela sono assenti.

La formazione STEM dunque non basta. Più cresce la cultura STEM più appare evidente l'esigenza di un bilanciamento.

Educazione civica digitale

Dobbiamo dunque ragionare attorno a cosa serve insegnare nelle scuole di ogni ordine e grado, consapevoli che lì si formano i futuri cittadini, ed anche i futuri tecnici e scienziati: educazione civica digitale. Potremmo forse dire meglio: educazione civica per il tempo digitale. Un tempo in cui si scivola passo dopo passo verso l'equiparare macchine ed esseri umani - finendo così per considerare che l'apprendimento umano e l'apprendimento della macchina non siano che due varianti di uno stesso modello.

Come mostro nel libro Le Cinque Leggi Bronzee dell'Era Digitale, si finisce per proporre agli esseri umani, tramite piattaforme e app, le modalità di apprendimento che si sono rivelate buone per le macchine. Ignorando il senso stesso del latino ad-prehendere: avvicinarsi alla preda, acciuffare, andare a caccia. Di fronte all'acquisita capacità delle macchine di apprendere, dovremo quindi rivalutare gli umanissimi modi di insegnare e di ricevere insegnamento. Per coltivare la nostra umanità.

Si immagina l'insegnamento erogato, nei modi e con gli approfondimenti di caso in caso adeguati, ad ogni livello della formazione scolastica pre-universitaria.

Ecco dunque una proposta; la possibile traccia degli argomenti chiave.

Storia della tecnica

La storia della vita in senso lato, della vita sulla terra, la storia conosciuta da noi essere umano, non inizia nell'Anno Duemila. Può sembrare paradossale ricordarlo. Ma ogni avvicinamento alla cultura digitale, alle opportunità che porta con sé, ma anche alle minacce ed ai rischi che comporta, inizia con il nuovo secolo. Magari qualcuno risale qualche anno più indietro, a quando Negroponte pubblica Being Digital. Magari qualcun altro risale agli articoli fondativi di Alan Turing, 1936 e 1950. Ma manca in ogni caso la prospettiva, la profondità, l'attenzione ai tempi lunghi della storia.

Servirà dunque una Storia della tecnica. Dove la tecnica appare come attività umana legata alle epoche e alle culture. E dove il senso della techne greca è illustrato tenendo ben presente la traduzione latina ars. Che ci fa intendere la tecnica come arte, ma ci ricorda anche che la tecnica è sempre connessa agli arti, al corpo umano. Mente e corpo concorrono a creare strumenti. Servirà anche ben spiegare la differenza tra tecnica e tecnologia. Dove tecnologia , parola coniata alla metà del 1800, tesa a significare un uso della tecnica al sevizio di progetti industriali, orientati ad uno scopo di profitto. Non tutta la tecnica si riduce a tecnologia. La tecnologia non è la versione più evoluta della tecnica.

Buone storie di strumenti digitali pensati da esseri umani per essere più umani

Si è arrivati oggi a dare per scontata la necessità di trovare un interfacciamento, una convivenza, o magari una simbiosi tra esseri umani e macchine. Dove le macchine sono sempre più autonome rispetto agli esseri umani.

Ma dobbiamo affrontare di petto la questione. Stiamo parlando di formazione degli esseri umani. Scopo di questa formazione non dovrà essere l'abituare a convivere con la macchina. E' giusto che sia scopo della formazione la preparazione ad essere sempre più pienamente umani. Non certo perché si consideri l'essere umano superiore ad altri esseri viventi, ma solo perché noi stessi, io che scrivo e voi che leggete, siamo esseri umani che formano sé stessi.

Dunque sarà virtuoso andare a cercare, nella storia dell'informatica e della computer science, narrazioni esemplari di come si possa intendere una macchina pensata per accompagnare l'essere umano nell'essere più pienamente sé stesso.

Tre personaggi, tre storie di vita, sembrano esemplari.

Vannevar Bush nel 1945 anticipa e rovescia la domanda che si pone Alan Turing nel 1950. Turing, nell'articolo Computer Machinery and Intelligence, si chiede: Can machines think?, possono le macchine pensare? Ed anzi precisa: spero che presto le macchine possano pensare, meglio degli esseri umani ed al posto degli esseri umani. Bush ignora la domanda e la rovescia in una affermazione, già esplicitata nel titolo: As We May Think. Come possiamo pensare noi esseri umani se supportati da strumenti che ci supportano nel ragionare, nel ricordare, nel connettere tra di loro fonti.

Doug Engelbart, nel settembre del '45 legge l'articolo di Bush sulla rivista Life. Il Giappone si è ormai arreso, Doug, studente in ingegneria, è radiotelegrafista nelle isole Filippine. Doug promette a sé stesso, e in fondo a tutti noi esseri umani: costruirò la macchina immaginata da Bush. Verso la fine del 1968 presenta ad una platea stupita di informatici e computer scientist e informatici quello che è a tutti gli effetti il prototipo del personal computer.

Ted Nelson, poco più che ventenne, in quegli stessi Anni Sessanta immagina e sviluppa i primi prototipi di quel sistema che oggi conosciamo come World Wide Web. E' mosso dalla propria cultura umanistica, letteraria. Immagina una letteratura non chiusa in pagine e libri, ma aperta: una rete che connette ogni testo ad ogni altro, ogni parola ad ogni altra. Ed è mosso anche da una lessico medico e psichiatrico definisce ADD: Attention Deficit Disorder. Nelson si rifiuta di considerare il proprio modo di essere difettoso, malato, e così immagina una macchina che lo accompagni nell'essere sé stesso, trasformando l'apparente difetto in virtù. Da singolari equilibri di mente e di corpo, da eccentrici modi di pensare e di costruire conoscenza considerati dalla ‘scienza normale’ pericolose sindromi, nasce dunque quel computing che espande l’area della personale coscienza. Tutti noi oggi siamo arricchiti dalla possibilità di pensare muovendoci in una sterminata rete di connessioni, liberati dalla gabbia di un unico ordine, di una sequenza, di una gerarchia.

Le tre funzioni del codice

Ad ogni cittadino è offerto un insegnamento elementare. Saper scrivere e saper leggere, è il modo per partecipare alla scrittura delle leggi che reggono la partecipazione del cittadino alla cosa pubblica. E’ il modo per conoscere le leggi che siamo chiamati a rispettare. E’ il modo per partecipare alla vita sociale e politica.

Ma oggi tutto ciò che conta è scritto in un codice digitale, in una ‘lingua’ che solo tecnici specialisti conoscono, e che è invece inaccessibile ai cittadini. Si tratta, oltretutto, di una lingua progettata per essere letta da macchine, e non da esseri umani.

Così al cittadino è negata anche la possibilità di controllare ciò che è scritto nel codice. E risulta impossibile distinguere se a parlare all’essere umano è un essere umano o una macchina.

Appare di scarsa o nulla utilità un insegnamento di base di uno dei tanti linguaggi di programmazione. Il primo passo per rendere percepibile la pericolosa situazione sta invece nello studio del concetto di codice. A partire dalla sua triplice funzione. Il codice è innanzitutto un supporto - sia si tratti di una tavoletta di cera, di un foglio di carta, o una piastrina di silicio. Il codice è un sistema di segni, un linguaggio di scrittura. Il codice è un testo scritto tramite un linguaggio sul supporto.

Così, alla luce di una riflessione del triplice mostrarsi del codice, potrà essere proposta la riflessione su sul codice digitale: una lingua pensata rivolgersi a macchine è infine imposta come nuova, più evoluta lingua, agli stessi esseri umani.

La discontinuità digitale

Di fronte all'insistente propaganda dell'innovazione, del progresso, della crescita esponenziale, dell'hype, serve -come bilanciamento e chiave di lettura- una attenzione alla storia. Serve saper vedere la storia di lungo periodo, per smitizzare apparenti novità, e serve anche consuetudine con la storia centrata sugli eventi, per cogliere le vere discontinuità.

In particolare, appare necessario soffermarsi su una discontinuità. E' una novità del Ventesimo Secolo il progetto di sostituire in toto l'essere umano con una macchina. Macchine progettate per pensare al posto degli esseri umani. Macchine progettate per prendere il posto degli esseri umani in ogni lavoro.

Un programma di educazione civica digitale rivolto agli esseri umani non potrà ignorare questa novità. Siamo infatti di fronte ad un bivio. O preparare gli esseri umani a convivere, a interfacciarsi, a entrare in simbiosi con macchine, algoritmi, Intelligenze Artificiali. O preparare gli esseri umani ad essere più pienamente sé stessi, consapevoli della propria storia, e allo stesso tempo delle proprie potenzialità. Timidezze o ambiguità nella scelta tra le due opzioni rendono vana l'educazione. In questo programma si opta per la seconda via.

Tre vie per essere cittadini oggi

Di fronte alle novità e agli interrogativi che le nuove tecnologie impongono a noi esseri umani, possiamo individuare atteggiamenti necessari. L'educazione civica digitale dovrà preparare ad assumere questa posizione.

Non rinviare nel tempo

Ci dobbiamo preparare ad evitare la più comoda, ma anche la più grave ed irresponsabile, delle vie di fuga.

Non si può ignorare la presenza di ricerche riguardanti temi critici, come -per fare solo due esempi- la sostituzione di ogni lavoro umano o le armi autonome dotate di Intelligenza Artificiale.

E' facile dire: sì, esistono potenziali rischi e problemi, ma non sono così imminenti. E' facile dire: ce ne occuperemo a tempo debito. O peggio dire: se ne occuperanno i nostri nipoti.

Meschina appare l'opinione di chi si consola rinviando nel tempo la questione, considerando che gli effetti più perversi si manifesteranno solo in tempi futuri. Ingenuo e disinformato chi minimizza.

Evitare la sottrazione incrociata

Scienziati e tecnici si sottraggono dal farsi carico dei possibili usi di ciò sperimentano e sviluppo dicendo: a noi compete ricercare e innovare, delle conseguenze dei nuovi ritrovati si deve occupare la politica. Il cittadino si sottrae dicendo a sé stesso: non posso capire, non sono all'altezza. C'è sempre qualcun altro che deve occuparsene; con il risultato che non se ne occupa nessuno.

La responsabilità sociale e l'azione politica nascono sempre dal non rifiutare di assumersi responsabilità personali. Dovremo quindi evitare una seconda via di fuga, consistente nell'attribuire la responsabilità ad un soggetto diverso da noi stessi, quale che sia il nostro ruolo.

Non nascondere il male dietro il bene

Di fronte ad ogni novità tecnologica si potrà sempre facilmente dire: questo ritrovato serve a salvare vite umane. Così è, per fare solo due esempi, per le automobili a guida autonoma come per la connessione tra cervello umano e computer tramite nanofili di silicio.

Dovremo apprendere, tramite l'educazione civica digitale, ad evitare anche questa via di fuga. Chi sostiene che il ritrovato tecnologico è utile a salvare vite umane, sta nascondendo a sé stesso e agli altri che quello stesso ritrovato comporta anche, e spesso in maggior misura, il rischio di danni gravissimi non solo agli esseri umani, ma in senso lato a ciò che chiamiamo 'vita' e 'natura'.

L'educazione civica digitale dovrà quindi fare appello non tanto alla ragione o all'intelligenza, ma a quella umana attitudine che chiamiamo saggezza.

Questo articolo è stato pubblicato su Agenda Digitale il 22 aprile 2021 con il titolo Educazione civica digitale: cosa insegnare e perché è necessariaQui l'articolo.

mercoledì 14 aprile 2021

Onlife

 On life: se non avessimo perso l'abitudine a cercare il senso nelle espressioni in lingua straniera che ormai usiamo senza pensare, ci potrebbe venire in mente “sulla vita”: si tratta forse di un pensiero rivolto alla vita sulla terra, alla natura, alla vita umana?

Si tratta invece di un neologismo creato, o comunque diffuso, da un personaggio di pubblica notorietà, che ha eletto sé stesso a profeta o divulgatore di una nuova cultura digitale ai quali i cittadini tutti dovranno adattarsi.

Il neologismo è calcato sull'espressione inglese on line. Facilissima da tradurre con una identica espressione italiana: in linea.

Linea è una bella parola che ritroviamo in ogni lingua moderna, rimanda a una pianta usata da noi esseri umani fin da tempi remoti: il lino. L'idea di linea discende dall'osservare il filo di lino. Essere on line, in linea, è essere connessi tramite un filo. C'è della poesia nell'immagine che ci vede tutti connessi tramite sottili fili di lino. Più pesante, incombente, è un sinonimo di online: wired. L'inglese wire, discende da una radice protogermanica che sta per 'metallo'. Dunque un filo di ferro, che può essere torto e piegato.

Basterebbe dunque dire che viviamo nell'era della connessione. Tramite strumenti digitali, noi cittadini del pianeta siamo connessi l'uno all'altro.

Ma dire questo non basta al noto divulgatore. Egli intende educare il popolo, condurlo ad una disciplina. Cosa significa essere umani nell'era digitale? Si dovrà dunque far credere a noi esseri umani di essere oggi sbalzati in una dimensione dove le dicotomie fra reale e digitale, e tra umano e macchina non sono più definibili in maniera nitida.

Ecco dunque il noto divulgatore coniare la nuova espressione, buona per far capire il concetto al cittadino, considerato incapace di pensare in proprio e veramente comprendere. Il divulgatore constata: viviamo in nuovo ambiente, fatto di esperienze online e offline: esperienze vissute a prescindere da connessioni, e esperienze che sono conseguenza di connessioni. E fin qui possiamo facilmente essere d'accordo con lui.

L'umana consapevolezza può ben esserci di aiuto nel distinguere i momenti della vita, scegliere quali strumenti usare, decidere il come usarli, quando e dove. L'essere umano può scegliere quando e come perché, e con quali cautele usare una piattaforma digitale. Certo, questo richiede educazione, attenzione, senso di responsabilità. E' importantissimo oggi lavorare a formare questa nuova coscienza sociale e politica. Ma cosa dice invece il noto divulgatore: state vivendo in un'ibrida onlife. La condizione è data per fatale e per ineluttabile.

Ricalcando on line, si dice: on life. Una comoda assonanza tra due parole inglesi permette di un salto concettuale: un filo di lino non è nulla rispetto alla complessità della vita; eppure lì dove si parla di connessione, si vuol far pensare che si parli di vita intera.

C'è un esempio che il noto personaggio porta in ogni occasione. La società dell'informazione è la società delle mangrovie. Le mangrovie crescono nel delta del fiume, dove l’acqua dolce (l’analogico) si confonde con l’acqua salata del mare (il digitale). Ed è in questa dimensione ibrida, in questa acqua salmastra, che crescono le mangrovie, il mondo onlife.

Possiamo ripeterlo: la complessità della vita è ridotta ad una opposizione: analogico o digitale. Badate bene: analogico e digitale sono aggettivi che descrivono macchine. Certo, possiamo intendere l'essere umano come una macchina, e confrontare l'essere umano con altre macchine, e cercare la convivenza tra esseri umani e macchine. Ma è questo che vogliamo? Vogliamo considerare noi stessi come macchina, intendendo per macchina un computer, o magari una 'intelligenza artificiale'? C'è una ricchezza nell'essere-in-connessione degli esseri umani, nella società umana, nella vita umana, che la parola nuova onlife ci porta a dimenticare, o a considerare irrimediabilmente persa.

Le metafore, del resto, vanno usate con cautela. Sono narrazioni: dobbiamo accettare che ci dicano più di quanto appare a prima vista. O ancora: dobbiamo accettare che, al di là delle intenzioni dei noti divulgatori, parlino in modo differente ad ogni essere umano.

Un'arte tipicamente umana è il narrarsi storie. Ecco dunque cosa mi evoca la parola onlife, spiegata attraverso la metafora della mangrovia.

Ho vissuto e lavorato in un luogo la cui conformazione geofisica è la foresta di mangrovie. Il confondersi dell'acqua salmastra con l'acqua dolce non è che un aspetto. La marea sale e il suolo fangoso scompare alla vista e di questo intrico emergono ormai solo le chiome verdi. I rami si trasformano in radici. Il confine è sempre mutevole, non solo tra le acque, ma ancor più tra le terre. Isole emergono e scompaiono. Impossibile dire dove sta, tra San Lorenzo e Tumaco, tra Ecuador e Colombia, dove sta la frontiera.

Lì ho visto svolgere i lavori più disumani che abbia mai conosciuto in vita mia. Donne e bambini a raccogliere nel fango conchas prietas, apprezzati frutti di mare.



Ed oggi la zona è uno dei luoghi del mondo più crudeli, invivibili per gli esseri umani. Terra in mano alla malavita, a commercianti fuorilegge di droga e di armi.

Le mangrovie, e dietro le mangrovie l'onlife, parlano dunque anche di un pericolo, di una minaccia. Potremo certo muoverci su questo terreno. Ma ciò è possibile solo se ci manteniamo vigili.

La lezione che traggo da tutto questo è che a noi esseri umani compete la responsabilità di rispettare la natura e la vita. Ed anche la responsabilità di migliorare la natura e la vita, se possibile, ma sempre consapevoli del nostro farne parte.

Ci conviene pensare che l'onlife non è altro che una parte della vita che quotidianamente viviamo. Un terreno che possiamo esplorare.

Questo testo è stato pubblicato il 6 aprile 2021 sul blog Oltrepassare.

lunedì 12 aprile 2021

Essere umano o macchina. Un dilemma

È troppo facile dire: vogliamo un’Intelligenza Artificiale allo stesso tempo “robusta e benefica”. Di fronte alle implicazioni morali di innovazioni tecnologiche che minacciano la salute collettiva e il futuro del pianeta e il senso stesso della vita, è sconsiderato dire: la libertà di ricerca e l’etica possono andare a braccetto. Non è degno di esseri umani responsabili dire: l’etica consiste nel cercare “il giusto mezzo”. Perché ci sono momenti in cui le scelte si impongono. Giunti al dunque, non si può andare contemporaneamente in due direzioni: si deve scegliere una strada. 
Questo è in fondo l’insegnamento di quell’antica modalità di pensiero che gli antichi greci chiamavano dilemma: scelta tra due contrastanti soluzioni, quando ogni altra via d’uscita sia esclusa. La virtù formativa del dilemma si basa dunque sul togliere spazio agli alibi, alle vie di fuga, ai compromessi. Cercherò di argomentare qui a proposito di un dilemma: uomo o macchina. Forse è anzi meglio dire: essere umano o macchina, per ribadire che è una questione che riguarda ogni persona, non solo i maschi.
Conviviamo con macchine da tempi remotissimi: da quando usiamo l’aratro, il tornio e la fresa. 
La modernità ha portato con sé una significativa novità. Alla fine del Settecento. Sono entrate allora in campo macchine capaci non solo di accompagnare l’uomo nel lavoro, ma di sostituirlo: caso esemplare i telai meccanici governati da schede perforate e mossi dal vapore. Ma la rivoluzione che stiamo vivendo è più radicale. Più drastica. 
Nell’Ottocento, e nella prima metà del Novecento, la macchina accompagnava l’essere umano, lo sostituiva in attività faticose e ripetitive. Oggi siamo alle prese con la cosiddetta trasformazione digitale, il cui senso in fondo si riassume in questo: l’essere umano può essere sostituito dalla macchina in toto, in ogni attività mentale e fisica. Questa, infatti, è la promessa dell’automazione, della robotica, dell’Intelligenza Artificiale. 
È qui che si pone con drammatica evidenza il dilemma, che contrappone essere umano e macchina. Un difficile argomento. Una accurata propaganda tende a far apparire retrogrado, nemico del progresso e dell’innovazione chi prova a leggere in luce critica il passaggio al digitale. 
La narrazione più comune è appunto quella consistente nel sostenere che si può dare al contempo un colpo al cerchio e uno alla botte: un colpo al cerchio dell’etica e un colpo alla botte dell’innovazione senza limite. 
Ma il rigore logico del dilemma ci ricorda che non si può tenere il piede in due scarpe. Ci sono situazioni in cui si deve scegliere. Di fronte al dilemma si sono trovati i ricercatori impegnati nello sviluppo delle armi nucleari. Non dissimile è la situazione dei ricercatori impegnati sul fronte dell’automazione, della robotica e dell’Intelligenza Artificiale. 
Personalmente, sono appassionato esploratore di nuove frontiere tecnologiche. Provengo da una formazione umanistica, ma ho anche lavorato da professionista nel campo dell’informatica. Per tanti anni ho scritto cercando di mostrare gli indiscutibili, non sempre ben compresi, aspetti positivi, delle tecnologie digitali. 
Il personal computer, anche sotto forma, oggi, di smartphone, allarga l’area della coscienza di ogni essere umano; offre nuovi spazi di libertà e di relazione interpersonale. Ma proprio per questo non voglio chiudere gli occhi di fronte alle minacce. 
Oggi il dilemma essere umano-macchina non può e non deve essere eluso. Scrivo di questo in Le Cinque Leggi Bronzee dell’Era Digitale. E perché conviene trasgredirle, Guerini e Associati 2020. Mi limito qui a sottolineare quello che mi pare un passaggio chiave, che nel mio libro cerco di illustrare. 
La tanto celebrata cultura scientifica, tecnica, ingegneristica e matematica, STEM, come si dice con una sigla entrata nell’uso comune, nasconde questo pericoloso risvolto. I tecnici dicono: noi facciamo ricerca, questo è il nostro lavoro, questo è il nostro impegno etico, innovare e ricercare comunque. Delle conseguenze e degli usi delle nostre ricerche, altri dovranno occuparsene: i politici, i cittadini. 
Il tecnico, insomma, si chiude in laboratorio, e qui crea macchine. Il tecnico cessa di sentirsi cittadino. I cittadini così, a loro volta, si trovano costretti nel ruolo di sudditi, o più precisamente di utenti, deprivati di spazi di libertà, obbligati a usare macchine sulla cui costruzione, sui cui scopi nulla hanno potuto dire.
Si torna dunque alla necessità, all’urgenza di una formazione adatta ai tempi. Rivolta ai cittadini e ai lavoratori, tesa a far sì che si affermi un controllo civico, pubblico, diffuso sulla progettazione delle macchine. Rivolta a tecnici, ricercatori, scienziati, tesa a ricordare loro che essi non appartengono ad una casta, a una comunità a parte, ma sono anch’essi niente altro e niente più che esseri umani, e cittadini.

Questo articolo è apparso il 15 settembre 2020 su FormaFuturi, magazine di Asfor e Apaform.

sabato 3 aprile 2021

Quale filosofia per i tempi digitali

Sommario

Di fronte alla 'novità digitale', dove sembra che l'umana capacità di pensare possa essere trasferita ad una macchina, la filosofia è sempre più necessaria. Ugualmente è necessaria filosofia di fronte alla conoscenza scientifica, settoriale e specialistica, fondata su linguaggi escludenti.

Purtroppo ciò che vediamo accadere è invece la genuflessione della filosofia di fronte alla 'novità digitale', alla scienza ed alla tecnica.

Ma più che di morte della filosofia si deve parlare di resa dei filosofi. 

Possiamo guardare alla scena già presente, già popolata di intelligenze artificiali, robot, macchine autonome. Possiamo anche affacciarci sulla scena futura, dove è ben possibile che uomini e intelligenze artificiali convivano in pari posizione. Possiamo guardare a tutto questo con lo sguardo dell'essere umano che pensa dubitando, cercando la sintesi e la propria saggezza.



Il filosofo non è il sapiente, è l'amatore di sapienza. Non chi ha acquisito la sapienza, ma chi tende ad essa. Chi desidera attingere a conoscenza. Il filosofare è il pensiero che va oltre limiti e costrizioni, cercando il sapere al di là di ogni conoscenza settoriale. Per questo si arriva a proclamare la morte della filosofia: di fronte al proliferare di discipline, una conoscenza multidisciplinare appare oggi inattingibile.
Abbiamo assistito negli ultimi secoli al trionfo del pensiero scientifico e tecnico. Scienziati e tecnici non sono filosofi, perché rinunciano a priori ad accettare la complessità, la rete che tutto connette, l'interlacciamento, il garbuglio che lega tra di loro i saperi specialistici. Non solo scienziati e tecnici di discipline diverse non sono in grado di parlare tra di loro, ma anche all'interno della stessa disciplina la ricerca procede per crescente specializzazione. Esemplare il caso dell'informatica: chi conosce un codice non conosce l'altro, chi lavora su una tecnologia ignora del tutto l'altra. 
Si potrebbe da questa situazione dedurre che la figura del filosofo acquista oggi, nell'Era Digitale, una nuova centralità. Si potrebbe sostenere che più che mai servono oggi filosofi: esseri umani liberi pensatori tesi oltre ogni conoscenza settoriale, specialistica. Disposti a cercare il 'dischiudimento': la conoscenza narrata andando oltre i linguaggi escludenti degli addetti ai lavori. Disposti al rischiaramento: l'illuminazione che rende chiaro l'oscuro. Disposti a svelare il senso nascosto, quel senso che ogni scienza nomina e descrive a suo modo. Si potrebbe pensare al filosofo come al miglior compagno per il cittadino che cerca una via per addentrarsi nella novità digitale. 
  
Filosofie digitali 
Ciò che vediamo accadere, è qualcosa di diverso. Più che di morte della filosofia, possiamo forse parlare di resa dei filosofi. 
E' in fondo una resa quella dei finissimi pensatori che restano legati al passato, e lo proiettano sul presente che resta incompreso, non studiato né veramente accettato. L'antico esercizio si ripete uguale, si rileggono i classici e alla loro luce tutto si spiega. Bellamente si evita così di prendere in esame il mondo che si ha sotto gli occhi, di esercitarsi a comprendere ciò che in tempi recenti è accaduto ed emerso. Scienza e tecnica, ai loro occhi, nulla di differente mostrano, tutto è giù stato visto e detto. Tantomeno rilevante appare al loro sguardo la novità digitale. Non c'è non c'è discontinuità, catastrofe che non venga ricondotta a ciò che la storia in tempi andati ha già mostrato. Si evita così di osservare la novità che interroga. 
Basta citare un aspetto della novità: mai prima degli ultimi cent'anni, mai prima dell'apparire sulla scena della macchina digitale si era immaginato che potesse essere progettata da un umano una macchina in grado di prendere il posto dell'umano. Sostituendolo, come propone Turing, anche nel suo agire più alto e più nobile: il pensare. La novità è evidente – eppure si sceglie di non vederla. 
Altri filosofi di gran traiettoria hanno invece accettato la discontinuità: scienza e tecnica hanno ormai trionfato. Hanno accettato il fato avverso: la filosofia è ormai obsoleta. Con un misto di invidia nei confronti degli scienziati e di rimpianto per il tempo che fu, questi filosofi continuano a esercitare il loro pensiero finissimo, ma rivolti al passato, ripassando la storia, distinguendo filoni. Umiliati dagli abbaglianti successi della scienza e della tecnica, dubbiosi si interrogano, e cercano di ritagliarsi spazi sul terreno ormai così solidamente occupato. Se andrà bene, d'ora in poi la filosofia sopravviverà come epistemologia, studio dei metodi e dei fondamenti della scienza. Eppure qualcuno di questi filosofi coraggiosamente cerca di trovare ancora motivi per non rinunciare all'antica vocazione al pensiero senza confini: si inchina ai suoi successi della scienza e della tecnica, ma osserva come ogni disciplina sia chiusa nella propria stretta cultura, chiusa proprio lessico. Conclude quindi che forse resta aperto un possibile ruolo: il 'traduttore', dedito a promuove il dialogo tra famiglie professionali di scienziati e tecnici. 
Altri filosofi ancora, anche in età matura o avanzata, si avventurano invece con giovanile baldanza nelle nuove terre scientifiche e tecniche. E soprattutto, con speciale entusiasmo, si dichiarano abitatori della terra promessa digitale. Proclamano allora la loro dedizione a far proprio il nuovo verbo. Osservano giovani generazioni per imitarne i comportamenti; leggono e citano con reverente attenzione testi che cantano la bellezza e le virtù di algoritmi e di intelligenze artificiali. Finiscono così per essere ingenui ed acritici apologeti di una nuova indiscussa verità. 
C'è poi il nutrito gruppo di filosofi che da subito hanno incassato la sconfitta, e che su questa sconfitta, con abile giravolta, hanno costruito la propria carriera. Privi di qualsiasi nostalgia o rimpianto per un ruolo perduto, semplicemente badano a crearsene uno nuovo. Essi hanno rinunciato sotto ogni aspetto al pensiero senza limiti e costrizioni. Si sono fatti al contrario sacerdoti di un singolo, settoriale, escludente campo di ricerca. Hanno rinunciato ad essere 'filosofi', per essere invece 'filosofi di ...'. Non una, ma enne filosofie. Ognuna commenta e celebra la storia di una disciplina, la sua pretesa autonomia, ognuna si fa custode di un lessico specifico, di un metodo di ricerca. Filosofie di servizio, al servizio, abbelliscono così il panorama di ogni disciplina. 
Di queste filosofie fattesi ancelle di singoli rami della scienza e della tecnica, sono caso esemplare le varie filosofie, ognuna delle quali accompagna una sfaccettatura della ricerca e dello sviluppo nel campo della computer science. Filosofie con l'aggettivo, dove 'digitale' è solo uno dei diversi aggettivi usati. 
Il filosofo qui ha un ruolo di complemento; ruolo che può essere esercitato con un grado di libertà non concesso agli addetti ai lavori: tecnici, imprenditori e finanziatori. Il tecnico è impegnato a costruire strumenti e sistemi che funzionino davvero. L'imprenditore e il finanziatore cercano il ritorno dell'investimento. Il filosofo si limita a cantare le gesta. Storia e tradizione ci ricordano il filosofo che attraversava terre incognite alla ricerca di conoscenza, il filosofo che sondava l'oscuro alla ricerca della luce. Ma ora il pensiero che conta e quello degli scienziati e dei tecnici; il filosofo si limita ad accompagnarli. Ma in questo accompagnamento, il ruolo della filosofia appare rovesciato. Il vecchio filosofo cercava il rischiaramento. Il nuovo filosofo cerca l'oscurità. Neologismi e gerghi, abbondantemente usati, hanno un preciso scopo: confondere il cittadino, intimidirlo, mostrando la forza e la superiorità della tecnica digitale. E quindi, anche, la necessità del nuovo filosofo-accompagnatore. 
  
Spiacevoli costanti 
Le filosofie digitali appaiono accomunate da due spiacevoli costanti. Questa costante è la terzietà. 
La prima costante consiste nell'ambito di indagine e nell'ampiezza dello sguardo. Questi nuovi filosofi guardano esclusivamente al terreno digitale. Ciò che esiste al di fuori, al di là, del terreno digitale -la vita, la natura- è ignorato o rimosso. La storia del pensiero degna di essere presa in considerazione inizia con Alan Turing. Di quel vasto e sfumato esercizio umano che possiamo definire con la parola 'pensiero' sembra degno di restar vivo solo ciò che computabile, cioè calcolabile tramite una macchina. 
La seconda costante della filosofia dell'era digitale è la terzietà. Sul terreno digitale, si afferma, esistono due 'agenti ': l'essere umano e la macchina. Di fronte alla duplice presenza, il filosofo sceglie di seguire la via del fair play indicata da Alan Turing: offrire ad entrambi gli agenti le stesse chances, le stesse probabilità di successo. 
Il nuovo filosofo si pone nella posizione di estraneo, imparziale osservatore privo di interessi in comune con entrambe le parti in causa. Ci sono certo accenti diversi. C'è il filosofo digitale che mostra compassionevole interesse per gli esseri umani, e c'è il filosofo digitale che scommette sull'avvento di nuovi esseri digitali, di macchine morali che saranno migliori degli esseri umani. Ci sono filosofi che di fronte ad ogni innovazione tornano a dichiararsi sostenitori di una tecnologia Human-centered. E ci sono filosofi che invece si lanciano decisamente sullo scenario post-umano. 
Ma in ogni caso il nuovo filosofo considera doveroso produrre il massimo sforzo soggettivamente possibile per allontanare da sé ogni umana inclinazione; considera doveroso allontanarsi dal proprio essere umano.

Turing, Heidegger, Wittgenstein 
Insomma, nel Ventesimo Secolo si afferma una filosofia che guarda con lo stesso distacco ad esseri umani e macchine. Celebra infatti Turing, che era mosso dalla speranza di poter costruire una macchine migliore di lui stesso. 
Martin Heidegger e Ludwig Wittgenstein rispondono a Turing. Come ho mostrato in Macchine per pensare. L'informatica come prosecuzione della filosofia con altri mezzi, entrambi avevano ben presente in cosa consistesse quella novità che oggi comunemente riassumiamo tramite il termine digitale. Heidegger ci parla del senso dell'esperienza umana: si impara ad usare il martello nel martellare. Ma qualcosa cambia quando l'essere umano è privato della possibilità di fare esperienza, perché gli sono proposte o imposte esperienze già confezionate, progettate da tecnici nel chiuso dei loro laboratori. Come mostro nelle Cinque Leggi Bronzee dell'Era Digitale, questo è ciò che accade nell'odierna situazione digitale. 
E' sempre Heidegger a ricordarci che l'agire umano pienamente inteso consiste nell'accettare di trovarsi sbattuti a vivere in una terra sconosciuta, nell'essere nella condizione di chi si trova ad avventurarsi in luoghi dei quali nulla sappiamo veramente. 
Ora, proprio questo appare essere l'atteggiamento più conveniente per noi esseri umani di fronte alla novità digitale. Ci conviene pensare che ci avventuriamo nell'ignoto. Ignoto per tutti. Nessuno dei tecnici dediti a progettare un qualche aspetto della scena digitale ha una visione d'insieme. Nessuno di loro sa veramente cosa sta facendo. Anche i cosiddetti 'nativi digitali' si avventurano su un terreno nuovo - e nel farlo non dispongono nemmeno dell'esperienza di chi ha vissuto nel tempo precedente, e ha visto emergere la novità digitale. Heidegger ci dice: vivere è sentire su di sé il peso di una ansiosa preoccupazione, ed è solo da questa inquietudine che può nascere l'agire efficace e allo stesso tempo responsabile. Questo vale per ogni essere umano, ma innanzitutto per chi oggi progetta strumenti o mondi digitali. Heidegger ci ricorda che il progettare è sempre connesso al progettare sé stessi; è connesso alla personale ricerca di consapevolezza, alla personale saggezza. 
Facile notare come i filosofi digitali scelgono invece la via opposta. Non chiamano il progettista a fare i conti con la responsabilità personale. Al tecnico è chiesto solo di sviluppare nuove tecniche. 
Il filosofo digitale si rivolge semmai al cittadino, invitandolo a non dubitare, a fidarsi, a prendere per buona ogni innovazione. 
Wittgenstein non è tanto lontano da Heidegger quando ci invita a considerare che pensare significa superare quei umilianti momenti in cui siamo costretti ad ammettere: 'non mi ci raccapezzo', 'non so che strada prendere', 'non so come venirne fuori'. In questi momenti, forte è la tentazione di rinunciare, e di lasciare alla macchina il compito di pensare al nostro posto. 
Dice ancora Wittgenstein: noi siamo, quando filosofiamo, come uomini primitivi, come dei selvaggi, che ascoltano le espressioni di uomini civilizzati, le fraintendono, ma sanno poi sanno andare oltre, e trovare un senso. 
In effetti oggi è difficile, all'apparenza impossibile, mantener vivo l'approccio trans-disciplinare, multi-disciplinare, disposto alla complessità. Difficile abbracciare l'enorme e sempre crescente massa, l'intrico di conoscenze. Difficile anche accettare l'abisso della propria ignoranza, la povertà degli strumenti di cui disponiamo. 
Noi umani nel pensare ci muoviamo a tentoni, privi di certezze, guidati da deboli congetture. Ma proprio questo è il filosofare: sondare l'oscuro. E proprio qui sta l'amore per la sapienza: io, essere umano, nonostante tutto ci provo, e in questo tentativo sta la mia etica. 

Pensiero critico 
Questo umano pensare responsabile, riflessivo, per quanto possibile saggio, non rifiuta certo il progresso e l'innovazione. Possiamo guardare anzi con appassionata, affascinata attenzione a tutto ciò che di nuovo scienza e tecnica propongono. 
Eppure possiamo ritenere inutile una 'nuova filosofia' che si fa paladina della scienza e della tecnica. Possiamo sostenere, al contrario, che serva oggi una filosofia che si ponga come costruttiva critica della scienza e della tecnica. 
Possiamo guardare alla scena già presente, già popolata di intelligenze artificiali, robot, macchine autonome. Possiamo anche affacciarci sulla scena futura, dove è ben possibile che uomini e intelligenze artificiali convivano in pari posizione. Possiamo guardare a tutto questo con lo sguardo dell'essere umano che pensa dubitando, cercando la sintesi. 
Non importa se si tratta forse di una 'posizione di minoranza'. Di minoranza, perché lontana dalla posizione di scienziati e tecnici, che avanzano nella ricerca senza porsi troppe domande. Di minoranza, perché il mainstream della filosofia si è inginocchiato alla scienza. Di minoranza, perché i filosofi digitali hanno scelto la terzietà, l'indifferenza tra l'umano e il macchinico. In un senso più ampio, di minoranza anche perché forse Intelligenze Artificiali e robot sovrasteranno l'essere umano, e una nuova capacità di ragionare surclasserà ciò che è umanamente possibile. 
Si può del resto sostenere che chi merita il titolo di filosofo si trova sempre in una posizione di minoranza. 
In ogni caso resta a noi essere umani la possibilità di fidarci di noi stessi. Quindi posso dire: anche quando, in un futuro forse non così lontano, esisteranno macchine più 'intelligenti' di noi umani, più capaci, più efficienti, magari anche più 'morali', continuerò, in quanto essere umano, a pensare. A filosofare. 

 Questo articolo è stato pubblicato su Agenda Digitale il 30 marzo 2021 con il titolo Perché l'era digitale ha bisogno di filosofia. Qui l'articolo. Lo ripubblico in questa sede perché nel testo che appare su Agenda Digitale sono presenti -sopratutto nella parte iniziale- alcune modifiche al mio testo originale nelle quali non mi riconosco.

martedì 16 marzo 2021

La posizione del Vaticano di fronte all'Intelligenza Artificiale e la lezione della Lettera ai Filippesi

Il rapporto Artificial Intelligence Index 2021 della Stanford University, uscito all'inizio di marzo, segnala gli eventi più importanti dell'anno scorso nel campo dell'Intelligenza Artificiale. Tra questi cita i “five news topics that got the most attention in 2020”. Tra questi, “the Vatican’s AI ethics plan”, noto sotto il titolo Rome Call for Ethics AI
La figura che appare a fronte dell'iniziativa è monsignor Vincenzo Paglia, Presidente della Pontificia Accademia per la Vita, consigliere spirituale della Comunità di Sant'Egidio, ma la presenza papale è evidente: Venerdì, 28 febbraio 2020 Monsignor Paglia legge all'Assemblea Plenaria della Pontificia Accademia per la vita un discorso scritto da Papa Francesco (in quei giorni condizionato da problemi di salute). Si legge nel discorso del Papa: l'Intelligenza Artificiale porta “mutazioni profonde nel modo di interpretare e gestire gli esseri viventi e le caratteristiche proprie della vita umana”. 
In quella occasione viene presentata la Rome Call for Ethics AI. Firmano -insieme al Vaticano, al Ministro per l’Innovazione Tecnologica del governo italiano e alla FAO- Microsoft e IBM. 

Nuovi Concordati 
Il diverso statuto giuridico dei firmatari spinge ad una riflessione che possiamo articolare in due punti.
Primo punto, non certo nuovo, è la sovrapposizione tra Stato indipendente, Stato del Vaticano, e vertice della Chiesa Cattolica. Secondo punto, più nuovo, che troviamo tra i firmatari, con pari dignità e con pari autorevolezza, insieme a stati nazionale, organismi sovranazionali, entità private come Microsoft e IBM. 
I due punti spingono a ricordare quel particolare accordo, recepito del resto nella nostra stessa Costituzione, che è il Concordato. 
Facile ricordare l'importanza storica mostrata da questo istituto giuridico nel Ventesimo Secolo: basta ricordare i casi, tra le due guerre, dell'Italia e della Germania. La legittimazione dello Stato del Vaticano a stabilire accordi si fonda sulla sovrapposizione tra Stato del Vaticano stesso e Chiesa Cattolica. Le pubbliche autorità di Italia e della Germania ammettono una sorta di doppia cittadinanza. Numerosi cittadini dei due stati sono allo stesso tempo anche membri della Chiesa. I membri, o fedeli, della Chiesa attribuiscono alla Chiesa stessa una autorità. Lo Stato Vaticano legittimato da questa autorità tratta da pari a pari con gli Stati nazionali e gli organismi internazionali. 
Esistono forti analogie tra le fonti dell'autorità del Vaticano e le fonti dell'autorità di Microsoft, IBM, Google (dovremmo dire con più precisione la capogruppo Alphabet), Facebook, Amazon. Queste imprese private possono trattare da pari a pari con gli Stati nazionali e con gli organismi internazionali in virtù della legittimazione attribuita loro dai propri utenti. Come e più dei membri di una Chiesa, gli utenti delle grandi case digitali sono assoggettati alle loro leggi. Come ben sappiamo una parte sempre più significativa della vita politica e civile si svolge nel quadro delle regole e degli spazi concessi dalle grandi case digitali. La loro sorveglianza ed il loro controllo sull'agire dei cittadini è più efficace e pressante della sorveglianza e del controllo che gli stati nazionali sono in grado di esercitare. 
Dunque ci sono motivi per intendere la firma, un'anno fa, della Rome Call for Ethics AI come primo passo di un nuovo assetto del diritto internazionale. Il Vaticano, proponendo l'accordo, forte della propria storia, prepara il terreno per futuri concordati dove gli stati nazionali, federali o confederali, e l'Europa unita, nella sua duplice natura di riunione tra governi nazionali e di parlamento unico sovranazionale, gli stati tutti, insomma, si troveranno a dover stabilire accordi trattando da pari a pari con le nuove potenze private digitali. 
Qualcuno propone l'analogia tra le grandi case digitali e le Compagnie dell'epoca dell'Imperialismo. Ma c'è una grande differenza. Le Compagnie erano entità private come le grandi case digitali, ma agivano su concessione degli stati nazionali. La concessione alla Compagnia delle Indie fu infatti revocata nel 1800 dal governo inglese. La forza delle grandi case digitali sta nell'aver acquisito potere a prescindere da qualsiasi concessione. Le grandi case digitali, anzi, hanno creato un nuovo terreno di azione, solo a loro veramente noto, e da loro controllato, sono dunque loro nella situazione di concedere agli stessi stati nazionali spazi di azione. 
 Il potere delle grandi case digitali è dunque evidente nel presente nel governo delle piattaforme e nelle resti sociali: luoghi di vita per i cittadini; è evidente nell'appropriazione di beni comuni: i dati; è evidente nel concetto stesso di cloud: il luogo da dove si esercita il potere è ubiquo e fuori dal pubblico controllo. Ma l'attenzione dello Stato Vaticano, con motivo, va oltre, e guarda alla scena emergente sulla quale si va manifestando in modo più pesante il controllo sulle vite degli esseri umani. Il Vaticano guarda all'Intelligenza Artificiale. ​ 

Rome Call for Ethics AI 
Passiamo dunque ad osservare cosa nella Rome Call for Ethics AI è stato concordato. Per leggere senza fraintendimenti il documento, è necessario innanzitutto ricordare il senso dell'espressione Intelligenza Artificiale, Artificial Intelligence, AI. La storia stessa dell'Intelligenza Artificiale è resa irrilevante da un dato di fatto. Intelligenza Artificiale è oggi un termine ombrello teso a colpire e ammonire l'opinione pubblica. Filoni di ricerca diversissimi, ed anche in contraddizione tra di loro, sono confluiti sotto il termine ombrello. Ciò che accomuna i diversi campi di ricerca, e che a ragione inquieta le autorità vaticane, è lo scopo dei progetti: sostituire l'essere umano con macchine. Si può naturalmente disquisire all'infinito sulle modalità e sulla misura di questa sostituzione. Si può parlare di accompagnamento dell'umano, si può discettare di convivenza, interfacciamento, simbiosi tra uomo e macchina. Ma non si può ignorare la presenza dei progetti, i loro successi, l'enorme quantità di investimenti che i progetti raccolgono. Meschina appare l'opinione di chi si consola rinviando nel tempo la questione, considerando che gli effetti più perversi si manifesteranno solo in tempi futuri. Ingenuo e disinformato chi minimizza. Le autorità vaticane, giustamente, invitano ad occuparsene oggi. Perché, come si legge nel documento, è in gioco “il modo in cui percepiamo la realtà e la stessa natura umana”. Il Vaticano, facciata istituzionale della Chiesa Cattolica, si pone come difensore dei diritti degli esseri umani di fronte alla minaccia esistenziale implicita in “tecnologie che si comportano come attori razionali ma non sono in alcun modo umani”. ​ 

Ripitturare la facciata con nuovi paroloni 
Peccato che l'appello non contenga niente di nuovo, e si limiti a ripetere ciò che gli stessi attori impegnati nello sviluppo di Intelligenze Artificiali hanno, sulla carta, concordato, e scritto in ormai numerosi manifesti e lettere d'impegno. Non si pone minimamente in discussione la corsa del progresso.
La Chiesa si adegua al mondo. Come vogliono le grandi case digitali l'Intelligenza Artificiale dovrà essere robusta. In aggiunta, si concede, dovrà è essere anche benefica. Facile e comodo ripetere che “gli esseri umani e la natura” dovranno essere “al centro dello sviluppo dell'innovazione digitale”. 
Facile anche affermare che gli esseri umani dovranno essere “supportati e non sostituiti” dalle Intelligenze Artificiali. Solennemente si afferma che “affinché il progresso tecnologico si allinei con il vero progresso della razza umana e con il rispetto del pianeta, deve soddisfare tre requisiti. Deve includere ogni essere umano, senza discriminare nessuno; deve avere a cuore il bene dell'umanità e il bene di ogni essere umano; infine, deve essere consapevole della complessa realtà del nostro ecosistema”. “
Avere a cuore il bene dell'umanità e il bene di ogni essere umano”. Possiamo notare come nella Call si ripetano alla lettera le Tre Leggi della Robotica formulate nel 1940, sintetizzate dieci anni dopo nella Legge Zero dallo scrittore di fantascienza, e scienziato, Isaac Asimov: “Un robot non può recar danno all’umanità e non può permettere che, a causa di un suo mancato intervento, l’umanità riceva danno”. In più c'è solo il riferimento all'ecosistema. 
Ora, le leggi di Asimov sono ancora un riferimento affascinante e preciso. Però, anche se vorremmo che bastassero, hanno almeno tre punti deboli. 
Il primo consiste nell'universalismo: si dà per scontato che esista un'etica universale, indipendente dalle culture e dalla storia. Qui sta l'aspetto forse più insidioso del patto che la Chiesa propone ai fabbricanti di Intelligenze Artificiali: noi massimi portatori dei valori universali dell'umanità, vi legittimiamo nella vostra pretesa, o speranza, di inserire questi valori negli algoritmi. 
Il secondo è che si resta nelle mani dei tecnici che programmano il codice: il cittadino non ha modo di controllare, non esiste difesa di fronte ad un tecnico malevolo. 
Il terzo è che nel momento in cui si accetta l'esistenza di “attori razionali in alcun modo umani”, si deve accettare di conseguenza la possibilità che questi attori, Intelligenze Artificiali divenute autonome, possano divenire in grado di andare oltre le stesse regole imposte loro dai tecnici che le hanno progettate. 
Resta dunque aperto un doppio ordine di interrogativi. Osserviamo come nella Call si guarda al primo punto: si dice che è diritto di ogni persona essere messa in grado di sapere se sta interagendo con una macchina o con un essere umano (“must be aware when he or she is interacting with a machine”). Santa ipocrisia! Tra i firmatari c'è Microsoft, finanziatore di Open AI, impresa leader nel campo delle ricerche AI più avanzate. Open AI è al centro all'attenzione per aver sviluppato GPT-3, linguaggio la cui caratteristica è proprio rendere indistinguibile agli esseri umani se a parlare loro è una macchina o un essere umano. 
Quanto al secondo punto, si sceglie di non affrontarlo. Siccome la corsa al progresso non è messa in discussione, il rischio esistenziale dovrà essere accettato. Anche nel lungo periodo, la speranza resta affidata ai “valori e principi che saremo capaci di instillare nell'AI”. Saremo in grado: l'appello non chiama in causa gli esseri umani: cittadini, membri della Chiesa: ci si limita a chiamare in causa in causa gli imprenditori, i manager, i tecnici impegnati nel settore digitale. 
Caratteristico dell'appello vaticano è il ricorrente uso -a partire dal titolo- della parola etica. Si parla di “integrità etica della razza umana”. Che però appare esclusivamente affidata “impegno etico di tutti gli attori coinvolti” dell'industria digitale. 
Non aggiunge nulla l'uso del neologismo: algor-ethics. Che anzi sancisce che tutto dipende dagli addetti ai lavori. I cittadini ed i fedeli non sono che sudditi o utenti. “I promotori dell'appello esprimono il loro desiderio di lavorare insieme, in questo contesto e a livello nazionale e internazionale, per promuovere 'l'algor-etica'”. “Dobbiamo partire fin dall'inizio dello sviluppo di ogni algoritmo con una visione 'algor-etica', cioè un approccio di etica per progettazione”. ​ 

La voce di Papa Francesco 
Faremmo torto alle buone intenzioni dell'iniziativa, se non guardassimo, oltre che al testo della Call, al discorso del Papa che la promuove e la celebra. 
 Anzi, è giusto ricordare quanto il Papa afferma nell'Enciclica Laudato si'. “Il paradigma tecnocratico tende ad esercitare il proprio dominio” (109). “Di fatto la tecnica ha una tendenza a far sì che nulla rimanga fuori dalla sua ferrea logica” (108). “Non possiamo ignorare che l’energia nucleare, la biotecnologia, l’informatica, la conoscenza del nostro stesso DNA e altre potenzialità che abbiamo acquisito ci offrono un tremendo potere. (…) È terribilmente rischioso che esso risieda in una piccola parte dell’umanità” (104). 
Si coglie un richiamo a queste affermazioni nel discorso papale che motiva la Call: “la profondità e l’accelerazione delle trasformazioni dell’era digitale sollevano inattese problematiche, che impongono nuove condizioni all’ethos individuale e collettivo”. “'L'Intelligenza Artificiale' (…) induce mutazioni profonde nel modo di interpretare e gestire gli esseri viventi e le caratteristiche proprie della vita umana, che è nostro impegno tutelare e promuovere, non solo nella sua costitutiva dimensione biologica, ma anche nella sua irriducibile qualità biografica”. 
“Esiste una dimensione politica nella produzione e nell’uso della cosiddetta 'Intelligenza Artificiale', che non riguarda solo la distribuzione dei suoi vantaggi individuali e astrattamente funzionali”. “In altri termini: non basta semplicemente affidarci alla sensibilità morale di chi fa ricerca e progetta dispositivi e algoritmi; occorre invece creare corpi sociali intermedi che assicurino rappresentanza alla sensibilità etica degli utilizzatori e degli educatori”. 
La consapevolezza della tremenda potenza e della dimensione politica, però, per il momento si traduce in un povero frutto: l'algor-etica, appunto. Un appello alle “competenze che intervengono nel processo di elaborazione degli apparati tecnologici”, una chiamata loro rivolta, tesa ad “assicurare una verifica competente e condivisa dei processi secondo cui si integrano i rapporti tra gli esseri umani e le macchine nella nostra era”. Così il Santo Padre, nel mentre afferma che “non basta semplicemente affidarci alla sensibilità morale di chi fa ricerca e progetta dispositivi e algoritmi”, si presta a considerare significativo passo avanti un patto con chi fa ricerca e progetta dispositivi e algoritmi. 
L'algor-etica, dice, “potrà essere un ponte per far sì che i principi si inscrivano concretamente nelle tecnologie digitali”. Si fonda così l'accordo i nuovi potentati della scena digitale; l'intenzione di e lavorare insieme con loro espressa nella Call. “L’'algor-etica' potrà essere un ponte per far sì che i principi si inscrivano concretamente nelle tecnologie digitali”, dice il Papa, anticipando e legittimando il testo della Call. ​ 

Realpolitik 
Quali sono i principi che il Papa desidera si inscrivano concretamente nelle tecnologie digitali, possiamo chiederci. Quali sono valori e principi che, come si legge nella Call, dovranno essere insillatati in ogni Intelligenza Artificiale? Papa Francesco dice: “i principi della Dottrina Sociale della Chiesa offrono un contributo decisivo: dignità della persona, giustizia, sussidiarietà e solidarietà”. 
 Il riferimento alla Dottrina Sociale della Chiesa finisce per essere generico. Papa Francesco ritiene sia terribilmente rischioso che potenza implicita nell'Intelligenza Artificiale risieda in una piccola parte dell’umanità. Ma il monito papale finisce per trovare povera traduzione proprio in concordato con questi nuovi potentati. 
La Rome Call for Ethics AI è un appello. L'aspetto cruciale dell'approccio vaticano sta nel non rivolgersi agli esseri umani tutti, ai cittadini del pianeta, ma ai nuovi potenti della terra. Il Vaticano, prima e più dei governi nazionali e degli organismi internazionali, chiama in causa le imprese e i tecnici impegnati nello sviluppo di “sistemi di IA”. La Chiesa, come madre che ha a cuore i suoi figli, chiama i nuovi potenti a condividere il ruolo di guida e di protettore. 
Come testimonia l'apprezzamento da parte della Stanford University, l'iniziativa vaticana finisce per essere una legittimazione, quasi una santificazione delle imprese e i tecnici impegnati nello sviluppo di “sistemi di IA”, cui è concessa la patente di disseminatori di 'algor-etica'. 
Naturalmente, le imprese e i tecnici impegnati nello sviluppo di “sistemi di IA”, intendono l''algor-etica' a modo loro. La intendono come una ripetizione di ciò che già hanno sottoscritto in diversi manifesti. L'IA dovrà essere sviluppata alla luce generici e non impegnativi principi: trasparenza, inclusione, responsabilità, imparzialità, affidabilità, sicurezza e privacy. Principi affidati all'insindacabile cura degli addetti ai lavori. Questi sono i banali principi affermati nella Call, i principi che alla fine il Vaticano sottoscrive. Qualcosa di un po' diverso dai “principi della Dottrina Sociale della Chiesa”. Qualcosa di diverso da ciò che si leggi nell'enciclica Laudato si'. E ancor più. qualcosa di diverso da ciò che possiamo leggere nel Nuovo Testamento. 
Il Vaticano per ora si contenta di proporre una nuova vaga parola, interpretabile a proprio piacimento. Ottenendo il risultato di vedersi accolto nell'empireo di coloro che governano lo sviluppo dell'Intelligenza Artificiale. ​ 

Assumere la condizione di essere umano 
Così purtroppo la montagna vaticana partorisce il topolino. Eppure se teniamo presenti la tradizione cristiana e la Parola di cui la Chiesa è custode, ed anche se prendiamo spunto, come visto, dall'enciclica Laudato si', siamo stimolati a letture molto più profonde e impegnative. Per non entrare in dispute teologiche, dottrinali e pastorali, mi limito a citare di passaggio la parabola del Grande Inquisitore narrata da Dostoevskij. Il Grande Inquisitore, austero esponente della Chiesa, inveisce contro il Cristo, misteriosamente riapparso. Perché sei venuto a disturbarci? L'élite che regge il mondo si considera investita di una sacra missione; ha buon gioco a sostenere che il popolo, vittima delle proprie paure e della propria ignoranza non può capire. Il popolo deve essere governato con messaggi consolatori e rassicuranti. In modo da non disturbare gli 'addetti ai lavori', gli esperti, i professionisti, l'élite, la classe politica. 
Nell'Era Digitale questa distanza raggiunge la massima misura. I tecnici digitali, nuova avanguardia dell'élite, lavorano nei loro laboratori, sempre più lontani dai cittadini. Lontanissimi dai cittadini sono i tecnici che lavorano allo sviluppo di diverse forme di Intelligenza Artificiale. Lontanissimi da i lavoratori dei magazzini e dai consumatori sono i tecnici che scrivono gli algoritmi che governano il funzionamento della gran macchina di Amazon. 
Lontanissimi dai comuni esseri umani sono gli 'esperti' -ricercatori tecnico-scientifici e manager dei potentati digitali- che si impegnano a insufflare un'etica negli algoritmi. Anche dando per scontato che possa esistere una universale definizione dell'etica -cosa che appare indimostrabile- l'etica è affidata al buon senso ed al buon cuore dei tecnici. Ora il Vaticano si candida a partecipare a questa insufflazione. Il Vaticano offre anche alla comunità professionale degli esperti una nuova parola: algor-etica. Ma ben poco c'è dietro la parola. I tecnici vanno per la loro strada, e i preoccupati interrogativi posti nell'enciclica Laudato si' restano lettera morta. 
Paolo, nella Lettera ai Filippesi, indica un altro ben più impegnativo, radicale percorso. Il tecnico digitale, chi scrive algoritmi, disponendo di strumenti preclusi agli altri esseri umani, si trova ad essere oggi nelle condizioni di un dio che crea e governa il mondo. Nel versetto 2, 7 leggiamo: Cristo, lui che gode della condizione divina, se ne è spogliato, facendo propria la condizione umana; si è fatto riconoscere dagli esseri umani come essere umano. Spogliarsi dei propri privilegi. Svuotarsi del proprio potere. Guardare il mondo, la vita, i frutti stessi del proprio lavoro, con la saggezza dell'essere umano. Qualcosa di ben diverso dal comodo impegno ad insufflare principi etici negli algoritmi. 
Kènosis, la parola greca che indica questo atteggiamento, descrive un percorso di conversione doloroso: chiama alla rinuncia alle sicurezze e le certezze che il tecnico, nel corso della sua carriera, si costruisce. Ma solo attraverso questa conversione, chi lavora nel campo dell'Intelligenza Artificiale, potrà cogliere il senso di ciò che sta facendo.

giovedì 14 gennaio 2021

Per una Critica della Politica Digitale

Il mio libro Le Cinque Leggi Bronzee dell'Era Digitale. E perché conviene trasgredirle (Guerini e Associati, 2020) può essere inteso come una Critica della politica digitale. Per mettere a fuoco l'argomento, basta guardare a eventi che si svolgono nei giorni in cui scrivo questo post. 
A Washington assalto al Campidoglio. Amazon decide con atto unilaterale di non offrire più spazio al social network Parlor, reo di aver ospitato i messaggi e pubblicato i video dei facinorosi che hanno assaltato il Campidoglio. 
Amazon, però, in quanto società privata, difende le proprie informazioni. Nello svelarle e nel renderle pubbliche, più dell’FBI, si rivelano efficaci gli hackers. 
L'affermazione della giustizia e la difesa dei diritti è in mano a Amazon. 
Che spazio resta per lo Stato nell'Era Digitale? Dove sta la Cosa Pubblica, l’Istituzione nella quale ci riconosciamo tutti come cittadini, dotati di uguali diritti e doveri? Quale valore hanno le leggi stabilite dalla fonte autentica, i cittadini stessi, tramite i Parlamenti? Quale spazio resta per la pubblica erogazione di giustizia? 
Questi argomenti, che sono tema di sei incontri online organizzati presso la Casa della Cultura di Milano, primo incontro 21 gennaio 2020 ore 18, possono essere articolati per punti come segue. 

0. Per una critica della politica digitale 
Guru del nuovo tempo insistono nel presentare ai cittadini la novità digitale mettendo in luce il bello e il buono di una nuova era di abbondanza. Sul versante opposto, critici spesso privi di reali conoscenze delle tecnologie muovono critiche ingenue o preconcette. Il cittadino da un lato è portato a fidarsi ciecamente, dall’altro a diffidare per principio. Le narrazioni di un tipo e dell’altro si oppongono. Ma ogni voce, di un tipo o dell’altro, sembra infine ricordare a noi cittadini la nostra ignoranza, e quindi la nostra incapacità di capire. L’innovazione appare come fatale manifestazione di Leggi di Natura, incontrastabile. Si pone così la necessità di una nuova riflessione sul libero arbitrio, sulla libertà, sui diritti civili e politici. Serve dunque ricollocare la novità nella storia, e smascherare il linguaggio tecnico, per tornare ad una lettura politica. Serve dire di come oggi -e sempre più, a quanto sembra, negli anni a venire- strumenti, macchine e piattaforme digitali appaiono dispositivi orientati al controllo sociale, macchine per governare a scapito dei diritti civili. Solo alla luce di una lucida critica si potranno individuare e rendere attivi, sul terreno digitale, nuovi spazi di democrazia e di partecipazione. E solo così si potranno individuare vie che evitino il tradursi della ricerca scientifica e tecnologia in fonte di disuguaglianza sociale. L’avvento di macchine sempre più potenti ed autonome, infatti, può essere accettato e vissuto con fiducia. Purché la presenza della macchina sia intesa come stimolo che spinga ad apprezzare, per differenza, la nostra umanità; ed a scoprire modi nuovi di essere cittadini attivi, saggi e responsabili. 

1. Linguaggi umani e codici digitali come mezzi di partecipazione e di governo 
Ad ogni cittadino è offerto un insegnamento elementare, che è la base sulla quale si erige la democrazia: l’alfabetizzazione. Saper scrivere e saper leggere, è il modo per partecipare alla scrittura delle leggi che reggono lo Stato democratico. E’ il modo per conoscere le leggi che siamo chiamati a rispettare. E’ il modo per partecipare alla vita sociale e politica. 
Ma oggi tutto ciò che conta è scritto in un codice digitale, in una ‘lingua’ che solo tecnici specialisti conoscono, e che è invece inaccessibile ai cittadini. Si tratta, oltretutto, di una lingua progettata per essere letta da macchine, e non da esseri umani. Questa lingua pensata rivolgersi a macchine è infine imposta come nuova, più evoluta lingua, agli stessi esseri umani. 
Così al cittadino è negata anche la possibilità di controllare ciò che è scritto nel codice. E risulta impossibile distinguere se a parlare all’essere umano è un essere umano o una macchina. Di fronte a tutto questo serve una nuova alfabetizzazione.

2. La Legge di Moore: speranza di abbondanza o darwinismo volgare 
La tecnica consiste nel progressivo trasferimento di capacità dagli esseri umani a macchine. Con l’avvento delle tecnologie digitali la rapidità del trasferimento si incrementa a dismisura. Ma la tecnologia digitale comporta qualcosa di più: la macchina digitale appare sempre più autonoma dall’essere umano, e finisce per contrapporsi all’essere umano. 
La fonte dell’autonomia della macchina sta nella sua capacità di calcolo. Il trionfo della novità digitale trova la sua manifestazione nella cosiddetta Legge di Moore: la crescita esponenziale della potenza di calcolo dei computer. 
I limiti stessi delle capacità di progettazione dei tecnici sarebbero resi sempre meno rilevanti dall’incremento della capacità di calcolo. Fino al punto in cui, secondo alcuni, la macchine prenderebbe il posto dell’essere umano in quanto specie a suo modo vivente. 
La storia, dunque, sarebbe, in epoca digitale, determinata, trascinata in avanti dalla potenza di calcolo delle macchine. Il progresso senza crisi ed il trionfo dell’abbondanza sarebbero così garantiti. Si tratta, però, di un darwinismo volgare. La storia della vita non si svolge come crescita esponenziale; si svolge per errori, catastrofi, crisi. 
C’è motivo di pensare che l’affidamento alla Legge di Moore costituisca una fuga dalla responsabilità filosofica e politica – ed una rinunciataria concessione di autorità ai tecnici digitali. La ragione può spingere gli umani ad affidarsi alla macchina. Ma la saggezza e consapevolezza portano a non affidarsi ciecamente alla tecnica. 

3. L’innovazione tecnico-scientifica e la trasformazione delle élites 
L’Era Digitale è la stagione in cui si concretizzano i progetti dell’Illuminismo. La Rivoluzione Scientifica e Tecnica alimenta la Rivoluzione Industriale. Il tecnico entra a far parte dell’élite. 
Nei tempi digitali si assiste ad un ulteriore passaggio: ogni campo della scienza e della tecnica, così come ogni azione politica richiede l’uso di macchine digitali. Qualsiasi altra componente dell’élite, quindi, dipende dai computer scientist e dai tecnici digitali: solo essi progettano le macchine e conoscono veramente le macchine tramite le quali l’élite esercita il proprio potere. 
Assistiamo dunque a una duplice evoluzione. Scienza e tecnica appaiono sempre più come progettazione di nuova vita e di nuovi mondi. Scienziati e tecnici si allontanano dal loro essere cittadini. 
La libertà di ricerca che ogni scienziato ed ogni ricercatore merita rischia così di separarsi dalla responsabilità del cittadino, e dalla sua partecipazione alla cura della cosa pubblica. 

4. La forma Stato nell’Era Digitale: democrazie o democrature 
Nell’era digitale scienziati e tecnici si fanno tecnocrati. La tradizionale figura del suddito, inevitabilmente subordinato al sovrano, si manifesta nell’Era Digitale nella figura dell’utente di programmi, di servizi, di piattaforme. 
L’utente gode solo dei diritti che il tecnico programmatore gli concede. Gli utenti costituiscono una massa, un popolo. 
Ogni componente del popolo è descritto secondo indicatori definiti dai tecnici, ma è sostanzialmente privo di individualità e di autonomia. Così la democrazia formale, svuotata di sostanza, si trasforma in democratura. Esempio finale: la tecnocrazia cinese. 

5. Fondamenti della cittadinanza digitale 
La storia dell’informatica vede ciclicamente l’emergere di progetti che attribuiscono al cittadino autonomia nelle scelte e nella produzione di conoscenza. Basta citare il World Wide Web e Blockchain. 
Ma presto l’innovazione tecnica tesa alla partecipazione sociale si rovescia nel suo contrario: le élite si appropriano dei progetti, ripristinandovi l’orientamento alla sudditanza ed al controllo. 
Si vanifica così la promessa delle democrazie rappresentative fondate du una costituzione votata dai cittadini. L’utente di servizi prefabbricati è la nuova incarnazione del suddito. I fondamenti di una cittadinanza digitale restano da progettare. 

6. Politiche per il lavoro umano 
Si può intendere il lavoro come massima manifestazione dell'essere umano. Lavoro nel senso di azione consapevole e responsabile. 
Di fronte a macchine -Intelligenze Artificiali, algoritmi, robot, fabbriche automatiche- capaci di sostituire il toto il lavoro degli esseri umani, non basta più parlare di ‘politiche del lavoro’: si deve parlare di politiche per il lavoro umano. Il lavoro non è per l’essere umano solo cessione di tempo o conoscenze in cambio di una remunerazione. Il lavoro è esperienza vitale. Dunque anche quando il lavoro sia svolto da macchine autonome indipendenti dagli esseri umani, ed anche quando ad ognuno sia garantito un salario sociale, in quanto esseri umani dovremo interrogarci ancora in merito al lavoro. Il tempo liberato dovrà essere colmato di impegni che evitino all’essere umano la passività del mero consumatore, l’inanità. Ciò che chiamiamo hobby o attività svolta per diletto, è in realtà lavoro. Sembra dunque opportuno cercare nuovi ‘patti per il lavoro umano’. Nei patti dovranno essere necessariamente coinvolti i tecnici progettisti delle macchine. Perché deve in ogni caso essere chiara la responsabilità di esseri umani che progettano la sostituzione di esseri umani con macchine.