venerdì 19 gennaio 2024

Il Test di Turing è un inganno

Bisogna innanzitutto ricordare che Turing parlava più modestamente imitation game, 'gioco dell'imitazione'. La definizione Test di Turing è data successivamente da seguaci più realisti del re, bisognosi di dare fondamenti autorevoli alla disciplina che si apprestavano a fondare : la Computer Science. 
Potremmo dire anche trucco o truffa, ma va bene dire inganno, perché Turing evocava questo gioco per ingannare sé stesso, per trovare conferme logiche ad un bisogno che nasceva dalla sua triste storia di vita: deluso da sé stesso e dagli umani, voleva sperare in macchine migliori degli umani. Il trucco consiste nell'imporre, al posto di ciò che nella vita che emerge e fluisce, un suo simulacro descritto in termini indiscutibili per via logico-formale. 
La sostituzione si svolge attraverso il processo che passo ora a descrivere. 
Si isola e si definisce astrattamente una competenza umana: l'intelligenza, il vedere, il sentire, il decidere. Potremmo dire in termini più sintetici: il pensare e l'agire. Potremmo dire in termini più analitici: ogni lavoro, ogni mestiere. 
Il primo passo consiste nell'isolare le competenze; rimuovendone le connessioni tra l'una e l'altra. Si sceglie poi di ignorare la complessità interna di ogni competenza, ed il mutare delle competenze con l'evolversi delle esperienze e delle relazioni tra esseri umani. 
A questo punto, si predispone, per ogni competenza, una definizione semplificata. 
Si costruiscono quindi macchine capaci di raggiungere un qualche livello di prestazione corrispondente a quella definizione. 
Il gioco è fatto: alla luce delle riduttive definizioni, il nostro pensare ed agire è considerato confrontabile con il funzionamento della macchina. 
Ultimo passaggio, il più grave: la prestazione della macchina è proposta esplicitamente, o subdolamente suggerita, come modello e parametro del pensare e dell'agire umano. 
Dove sta dunque l'inganno? 
A un primo livello sta nel fatto che ciò che è dimostrato vero all'interno di quella riduttiva descrizione formalizzata del mondo che è la computazione non è vero nel mondo abitato da noi umani. 
A un secondo livello sta nel fatto che si educano capziosamente gli umani a considerare mondo nel quale abitiamo le 'realtà artificiali', 'realtà aumentate', i 'metaversi': simulacri del mondo costruiti da Computer Scientist: nella progettazione di questi mondi costruiti ad hoc è facile impostare come requisito di partenza la comparabilità e la sostituibilità tra umani e macchine. 
Il fatto che una qualche macchina superi il Test di Turing, si dimostri cioè capace di comportarsi in modo adeguato a quanto previsto dalla definizione formale di una imitazione di una competenza umana, potrà certo interessare i Computer Scientist, ma non ha nessuna rilevanza per noi umani.

mercoledì 17 gennaio 2024

Dato. Attorno al significato della parola


Viviamo osservando cose, creando cose, scambiando cose, utilizzando cose. Eppure, delle cose abbiamo una percezione imprecisa. La cosa è, in fondo, inconoscibile. Possiamo intendere la filosofia come il tentativo di dire ‘cosa è la cosa’. Kant ci dice che -essendo la cosa inafferrabile attraverso l’esperienza ‘fisica’, nella vita quotidiana- dobbiamo spostarci di piano. Ciò che può essere conosciuto è solo descrizione della della cosa. 
Qui interviene l’informatica, che è prosecuzione della filosofia con altri mezzi. Se la cosa è inconoscibile, può essere però conosciuto il dato che la rappresenta. Come vuole Kant, il dato descrive la cosa attraverso linguaggi formalizzati. Allo sfuggirci della cosa, si risponde con la pretesa ‘certezza del dato’. 
Dobbiamo quindi spostare l’attenzione sul dato
Dato, non a caso, deriva da data
Il latino littera data sta per ‘lettera consegnata al messaggero’. La data, dunque, è l’attimo successivo a quello in cui ‘sto dando’; è l’attimo in cui posso dire: ‘ho dato’. In questo attimo posso affermare che la descrizione della cosa contenuta nella lettera -potremmo anche dire: nel codice- esiste, e che dunque essa è un dato
Lo spagnolo sposta l’attenzione. Invece di littera data, carta fecha, ‘carta fatta’, ‘lettera scritta’: la data è infatti in spagnolo la fecha. Si tratta di uno spostamento significativo dal punto di vista del lavoro: il momento chiave non è quello in cui scambio o consegno, bensì il momento in cui faccio. Ma anche nella situazione proposta dallo spagnolo, a ben guardare, restiamo sul piano della convenzione. Nessuno può dire con precisione quando ho finito di fare la cosa. 
Sia guardando al fare, sia guardando al dare, se io descrivessi la cosa un attimo prima o un attimo dopo, la descrizione sarebbe diversa. E dunque, la formalizzazione dell’informatica non ci salva. La cosa resta inconoscibile; la sua descrizione è sempre convenzionale. 
Non resta che chiederci su quali basi si fonda il dato, e cioè l convenzionale descrizione della cosa. Proprio di questo interrogativo ci parla, in fondo, la parola cosa. Il latino ci ricorda che cosa deriva da causa. La descrizione della cosa è quindi ‘decisa da un tribunale’. Il tedesco Ding e l’inglese thing ci propongono invece l’idea che la descrizione della cosa sia ‘decisa da un’assemblea’. Possiamo preferire l’autorità del giudice o l’autorità dell’assemblea. Ma in ogni caso il dato -la descrizione della cosa, alla cui certezza così tanto ci piace afferraci- non è che una sempre discutibile opinione.

(Voce tratta da Francesco Varanini, Le nuove parole del manager. 113 voci per capire l'impresa, Guerini e Associati, 2011).

Parlo del concetto di dato (e di cosa) in vari altri articoli pubblicati su questo blog. Tra gli altri: L'ambigua natura del dato; Dal concetti di 'dato' all'editoria del futuro (articolo riguardante un seminario tenuto all'Università di Pisa; Persona, cosa, sasso.

domenica 14 gennaio 2024

Persona, cosa, sasso

Qualcuno torna a dirci che siamo colpevoli di antropocentrismo. Ci ricorda che, in quanto persone, abusiamo dei nostri privilegi nei confronti delle cose. E che rimaniamo fissati su una concezione binaria, su due categorie mutuamente esclusive: persona o cosa.

Noi umani, si dice quindi, dobbiamo imparare a mettere in discussione i nostri privilegi, a sviluppare prospettive critiche sui nostri valori, e ad assumerci più pienamente le nostre responsabilità. Anche nei confronti delle cose.

Ma l'asino casca quando si sceglie il portavoce delle cose. Qualcuno sceglie come portavoce delle cose il robot. La responsabilità umana, attraverso questo corto circuito, finisce per consistere nell'affermare e difendere i diritti dei robot. 

Alla luce del pensiero che osserva il presente della tecnica, si capisce come venga in mente quest'esempio. Ma uno sguardo più ampio, aperto alla storia, potrebbe ugualmente contemplare i diritti della cosa-orologio, o della cosa-tornio. Se poi si prende in considerazione la vita sulla terra, potremo prendere in considerazione i diritti di un batterio, un’alga, una foglia o un gatto. Ma forse ancora più calzante è guardare a cose inanimate. Allontandoci radicalmente dall'antropocentrismo, potremo osservare, ed assumere come nostro impegno, i diritti di un sasso.

Miglior portavoce delle cose, più del robot, è un sasso. Un sasso ci parla, se sappiamo ascoltarlo.

Del resto, per decostruire l'opposizione binaria tra persone e cose, basterebbe tornare a leggere Spinoza.

E poi bisogna ricordare che prendendo a portavoce delle cose il robot, si occulta l'umana azione del costruttore di robot. E' troppo comodo -questo sì è abuso di un umano privilegio, manifestazione di un antropocentrismo deresponsabilizzante- il considerare il robot come frutto di una evoluzione tecnica che prescinde dall'agire umano. 

Si può anche affermare: il robot è figlio dell'antropocentrismo, perché è frutto di un gesto di potere umano, e perché simula o imita l'umano. Comporta quindi un rifiuto dell'alterità della cosa rispetto all'umano.

Il robot, a differenza di altre cose, non esisterebbe senza una azione consapevole di un qualche essere umano. Si torna quindi alla responsabilità dell'essere umano costruttore di macchine. Perché costruisco macchine? Quale macchina scelgo di costruire?

Se l'essere umano costruttore di macchine non si assume le proprie responsabilità, starà ad altri esseri umani assumersi responsabilità a nome suo.

I diritti del sasso, qui ed ora. 

(Nel mio libro Macchine per pensare. L'informatica come prosecuzione della filosofia con altri mezzi, 2016, avvicino questi argomenti  nella parte finale. Chi volesse, potrebbe partire da p. 257, dove sotto il titolo Il senso della cosa, inizio a scrivere: "Con lo sguardo dell'umano che non pretende di essere artefice, ma si assume il compito di custode dell'essere, possiamo tornare a osservare la macchina come ente tra gli enti, come cosa.").

(Su questo blog si trovano vari altri articoli riguardanti in concetto di cosa. Per un percorso di senso che attraversa questo blog, consiglio di iniziare dall'articolo: Dato. Attorno al significato della parola).

martedì 9 gennaio 2024

Algor-etica. Un concetto sgangherato ed equivoco. Una lettura critica

Paolo Benanti, professore straordinario della facoltà di Teologia presso la Pontificia Università Gregoriana nominato il 5 gennaio 2024 Presidente della Commissione AI per l’Informazione del Governo italiano, pubblica su Formiche il 6 gennaio l'articolo Un nuovo rinascimento per l’IA, non a caso in Italia.

Qui propone una definizione del concetto di algor-etica - che a quanto pare continua ad essere il nucleo del suo pensiero e della sua azione politica. Una definizione aggiornata, che si sforza di tener conto di critiche portate al concetto stesso. 

Scrive Benanti: 

L’idea è di inserire dei guard rail etici alla macchina facendo riferimento all’algoretica, cioè un’etica computata dagli uomini ma che a questo punto diventi computabile dalle macchine stesse. Affiancare etica e tecnologia per un’intelligenza artificiale che ponga sempre al centro l’uomo e sia al servizio di un autentico sviluppo. 

L’idea è di inserire dei guard rail etici alla macchina

La metafora sembra poco precisa: i guard rail sembrerebbero più propriamente limiti, vincoli posti alla strada sulla quale la macchina sta viaggiando. L'etica è ridotta ad aggettivo. 

Si coglie comunque un presupposto: l'etica è qualcosa che può essere inteso come indipendente dalla persona umana, qualcosa di maneggevole e manipolabile. 

La definizione di cosa si intenda per etica è rimandata al prosieguo della frase.

facendo riferimento all’algoretica

Ecco la riduzione. Si stabilisce per via logico formale che all'etica può essere sostituita l'algoretica. Data la sostituzione, si assume che per definire l'etica basti definire l'algoretica.

cioè un’etica computata dagli uomini 

Si coglie l'intento di Benanti: rispondere a critiche che gli sono state rivolte. Benanti riconosce qui che l'algoretica, prima di essere un'etica della macchina, e nella macchina, è un'etica "degli uomini".

Non può però, e non vuole, dire ciò che andrebbe detto: l'etica è una competenza umana, esclusivamente umana.

L'aggettivo computata, poi, tradisce ancora la riduzione, e sostanzialmente finisce per affermare la disumanizzione dell'etica. Computabilità vuol dire: scrittura in un linguaggio adatto ad essere compreso dalla macchina. La computabilità, ricordiamolo, è una versione ridotta della calcolabilità. La calcolabilità, a sua volta, è rinuncia a tutto ciò che gli esseri umani sanno pensare e dire, ma sanno esprimere solo in forma narrativa, ed a ciò che gli esseri umani manifestano nelle loro azioni, pur essendo incapaci di esprimerlo a parole.

La precisazione appare scontata: se il codice è scritto in modo adeguato alla macchina che dovrà eseguire il codice, la macchina eseguirà il codice. 

Se Benanti sente il bisogno di esplicitare questo passaggio, è forse perché è consapevole di come i progettisti e gli sviluppatori di 'intelligenze artificiali', mirino oggi proprio a questo: permettere alle macchine di scrivere autonomamente il codice che le governa. Di fronte a questa possibilità l'algoretica non offre nessuna riposta o contromisura.

Affiancare etica e tecnologia

Affiancare? Possiamo forse considerare etica e tecnologia ambiti paralleli? Non dovrebbe venir prima l'etica della tecnologia? Non sarebbe opportuno parlare dell'etica dell'essere umano che computa e costruisce macchine?

Alla luce dell'appello all'affiancamento, i guard rail etici e l'etica computata si svelano come attrezzi di una accettazione passiva della tecnologia. Si accetta una tecnologia priva di etica. Si pretende poi di redimerla e di legittimarla attraverso una versione ridotta ed ancillare dell'etica: l'algoretica. 

per un’intelligenza artificiale che ponga sempre al centro l’uomo

Sarebbe opportuno che tutti coloro che giustificano forme diverse di cosiddetta intelligenza artificiale con l'affermazione 'l'uomo al centro' -Benanti non è certo il solo- definissero il concetto. 

Vogliono dire che il bene dell'essere umano consiste nell'essere oggetto dell'attenzione di un benefattore, umano o macchinico? Benanti o Yann LeCun o Elon Musk -e forse già oggi, o domani, una qualche 'intelligenza artificiale'- sono in grado di dire dove sta il bene dell'essere umano posto al centro della loro benevola attenzione?

La vuota espressione 'uomo al centro' permette di eludere la autentica presenza di ognuno. Non un ente astratto, ma io, tu, noi. Abitatori di una casa comune, ognuno portatore di un proprio contributo ed un proprio sguardo. 

Solo così si supera la comoda distinzione tra esperti -tra i quali Benanti si colloca- ed altri esseri umani,  ridotti ad utenti. 

e sia al servizio di un autentico sviluppo

Quale sviluppo? Sviluppo di chi, in quale direzione, a quale fine? L'aggettivo autentico non spiega. Restare nel vago significa accettare lo sviluppo che c'è. Senza discriminare tra una linea di sviluppo e un'altra. Senza accettare che possa esistere la necessità -alla luce dell'umana saggezza- di interrompere o bloccare una via di sviluppo. 

Quasi a dire: si accetta ogni sviluppo. Noi 'esperti', poi sapremo mettergli guard rail algoretici.

Il concetto di algoretica, insomma, resta impreciso, capzioso e pericoloso. La soluzione, in realtà, sarebbe semplice. Togliere il riferimento agli algoritmi, e parlare di etica tout court. O forse ancora meglio, parlare di responsabilità personale, dalla quale discenderanno azioni coerenti. 

Responsabilità personale del progettista o sviluppatore. Responsabilità personale del legislatore. Responsabilità personale del cittadino che sceglie se usare o non usare lo strumenti, sceglie come usarlo, sceglie di criticarlo o di bandirne lo sviluppo e l'uso.

venerdì 5 gennaio 2024

Denunciare o scendere a patti. Papa Francesco parla di intelligenza artificiale

Si è sentita il primo dell'anno la voce commossa del Pontefice parlare di amore e pace. Il primo gennaio, infatti, si celebra dal 1968, per volere di Paolo VI, il Papa di allora, la Giornata Mondiale della Pace. La scelta papale è poi stata fatta propria nel 1981 dall'Assemblea Generale delle Nazioni Unite.

Si sa di come il Pontefice abbia messo in gioco tutto il suo impegno, il suo coraggio, la sua autorevolezza, per mettere fine alle guerre in corso. Eppure il tema da lui proposto -già annunciato nell'agosto scorso, ed esplicitato nella lettera resa pubblica l'8 dicembre scorso- è Intelligenza artificiale e pace.

I fedeli si sono ritrovati dunque in piazza San Pietro per fare memoria di tutte le terre che nel Nord e nel Sud del mondo attendono la fine della guerra e del terrorismo, a partire dal doloroso conflitto ancora aperto in Ucraina e da quello tra Israele e Hamas – ed allo stesso tempo ad esprimere sostegno al sostegno al messaggio di Papa Intelligenza artificiale e pace.1

Certo la lettera contiene richiami all'“immensa tragedia della guerra”, alla follia della guerra”, ma il Papa sembra considerare aspetto chiave del tempo presente, più della guerra, più della povertà, dell'oppressione, la presenza di una nuova tecnologia.

Non si può evitare di notare le differenze. L'anno scorso il messaggio di pace del Papa diceva: Nessuno può salvarsi da solo. Ripartire dal Covid-19 per tracciare insieme sentieri di pace. Nel 2022 il tema era: Dialogo fra generazioni, educazione e lavoro: strumenti per edificare una pace duratura. Nel 2021: La cultura della cura come percorso di pace.

Nel 2020: La pace come cammino di speranza: dialogo, riconciliazione e conversione ecologica. Il messaggio di quell'anno esordiva con queste parole: “La pace è un bene prezioso, oggetto della nostra speranza, al quale aspira tutta l’umanità. Sperare nella pace è un atteggiamento umano che contiene una tensione esistenziale”. Oggi sorge un dubbio: possiamo forse affidare ad una qualche intelligenza artificiale questa speranza? Il messaggio nel 2020 proseguiva ricordando che “il mondo non ha bisogno di parole vuote, ma di testimoni convinti, di artigiani della pace aperti al dialogo senza esclusioni né manipolazioni”. Possiamo oggi chiederci: non dobbiamo forse diffidare delle parole vuote di tanti tecnologi? Possiamo forse considerarli artigiani della pace aperti al dialogo senza esclusioni né manipolazioni? A chi si rivolge dunque oggi il Papa? Ad ogni essere umano di buona volontà o a tecnologi portatori di un sapere esclusivo ed escludente?

Non a caso l'incipit della lettera di quest'anno non può parlare né di speranza, né di cura, né di dialogo. E' un incipit astratto, che si sforza di intendere “il progresso della scienza e della tecnologia come via verso la pace”. E che tenta l'ardua via di definire l'intelligenza attraverso citazioni veterotestamentarie.

Dato che tutto questo è scritto sotto un titolo nel quale campeggia l'espressione intelligenza artificiale, si accetta così implicitamente di fatto che possa esistere un qualche legame, una continuità o contiguità tra “l’intelligenza (...) espressione della dignità donataci dal Creatore” ed un certo funzionamento di una qualche macchina, funzionamento che quale capziosamente qualche tecnologo ha capziosamente chiamato intelligenza.

Non si corre forse così il rischio di essere schiavi del tempo, dell'ultima novità imposta da media e propaganda?


A chi si rivolge Papa Francesco

E' subito chiaro che stavolta il Pontefice non rivolge il suo messaggio agli uomini di buona volontà, ad ogni essere umano, ma parla invece ad un gruppo di esperti che si collocano fuori dal mondo - sacerdoti, potremmo dire, di nuove tecnologie digitali. A loro si rivolge.

Afferma quindi che “giustamente ci rallegriamo e siamo riconoscenti per le straordinarie conquiste della scienza e della tecnologia”. Ma sta rivolgendosi a scienziati e tecnologi quando si chiede:

quali saranno le conseguenze, a medio e a lungo termine, delle nuove tecnologie digitali? E quale impatto avranno sulla vita degli individui e della società, sulla stabilità internazionale e sulla pace?

Il Papa ammette in principio che il “progresso della scienza e della tecnica, nella misura in cui contribuisce a un migliore ordine della società umana, ad accrescere la libertà e la comunione fraterna, porta dunque al miglioramento dell’uomo e alla trasformazione del mondo”. Per poi notare che “i notevoli progressi delle nuove tecnologie dell’informazione, specialmente nella sfera digitale, presentano dunque entusiasmanti opportunità e gravi rischi, con serie implicazioni per il perseguimento della giustizia e dell’armonia tra i popoli”.

Sono, a guardar bene, le stesse cose che i tecnologi digitali ed i loro accoliti e filosofi di complemento si dicono da soli, negli ormai numerosissimi manifesti, lettere aperte, codici etici che si sono accumulati, senza influire più di tanto sugli indirizzi e sugli sviluppi delle cosiddette intelligenze artificiali.

Tutti coloro che a vario titolo sono impegnati nell'industria digitale vogliono sistemi che siano allo stesso tempo “robusti e benefici”, tutti a parole si pongono al servizio del benessere e della prosperità. Facile e comodo per tutti ripetere che “gli esseri umani e la natura” dovranno essere “al centro dello sviluppo dell'innovazione digitale”.

Il Pontefice sembra prendere per buoni questi impegni e questi intenti. Salvo poi mantener vivo qualche dubbio: “L’intelligenza artificiale, quindi, deve essere intesa come una galassia di realtà diverse e non possiamo presumere a priori che il suo sviluppo apporti un contributo benefico al futuro dell’umanità e alla pace tra i popoli”.


Francesco autore di Laudato si'

Non possiamo fare a meno di notare la differenza da quanto il Papa stesso afferma nell'enciclica Laudato si'.2 “La tecnologia che, legata alla finanza, pretende di essere l’unica soluzione dei problemi, di fatto non è in grado di vedere il mistero delle molteplici relazioni che esistono tra le cose, e per questo a volte risolve un problema creandone altri” (20).

Non solo due stili diversi. Due argomentazioni diverse nella sostanza, nelle premesse e nelle conclusioni.

Va ricordato che il Pontefice ha sentito di recente il bisogno, come a ribadirne l'importanza e l'attualità, i temi di Laudato si'. Eccolo così, otto anni dopo la pubblicazione dell'enciclica (24 maggio 2015), rendere pubblica il 4 ottobre, Festa di San Francesco d’Assisi, dell’anno 2023, “undicesimo del mio Pontificato”, l'esortazione apostolica Laudate Deum.3

Qui (Laudate Deum, 20) critica senza indulgenze il “paradigma tecnocratico” di cui l'intelligenza artificiale è il caso esemplare. “Si tratta di «un modo di comprendere la vita e l’azione umana che è deviato e che contraddice la realtà fino al punto di rovinarla». [Laudato si’, 101] In sostanza, consiste nel pensare «come se la realtà, il bene e la verità sbocciassero spontaneamente dal potere stesso della tecnologia e dell’economia». [Laudato si' 105] Come conseguenza logica, «da qui si passa facilmente all’idea di una crescita infinita o illimitata, che ha tanto entusiasmato gli economisti, i teorici della finanza e della tecnologia». [Laudato si' 106]”.

Ancora più chiaro è il paragrafo seguente (Laudate Deum, 21): “L’intelligenza artificiale e i recenti sviluppi tecnologici si basano sull’idea di un essere umano senza limiti, le cui capacità e possibilità si potrebbero estendere all’infinito grazie alla tecnologia. Così, il paradigma tecnocratico si nutre mostruosamente di sé stesso.”.

Il paragrafo 23, poi, è una accorata manifestazione della preoccupazione del Pontefice di fronte alla concentrazione di potere di cui godono i fautori delle intelligenze artificiali: “Fa venire i brividi rendersi conto che le capacità ampliate dalla tecnologia danno «a coloro che detengono la conoscenza e soprattutto il potere economico per sfruttarla un dominio impressionante sull’insieme del genere umano e del mondo intero. Mai l’umanità ha avuto tanto potere su sé stessa e niente garantisce che lo utilizzerà bene, soprattutto se si considera il modo in cui se ne sta servendo. [...] In quali mani sta e in quali può giungere tanto potere? È terribilmente rischioso che esso risieda in una piccola parte dell’umanità». [Laudato si' 104]”.

Il giudizio sembra senza appello (Laudate Deum 31): “La logica del massimo profitto al minimo costo, mascherata da razionalità, progresso e promesse illusorie, rende impossibile qualsiasi sincera preoccupazione per la casa comune e qualsiasi attenzione per la promozione degli scartati della società”. Sembra essere evidente una scelta di campo, una presa di posizione.


Un patto con una piccola parte dell'umanità

Ma ecco che ora, con la lettera Intelligenza artificiale e pace, il Pontefice sembra scegliere di scendere a patti con quella “piccola parte dell'umanità” che ha in mano lo sviluppo e l'uso delle cosiddette intelligenze artificiali.

Il fatto è che due diversi percorsi -allo stesso tempo teologici, politici ed etici- sembrano essere portati avanti parallelamente.

Da un lato, in Laudato si', il rigoroso, commosso discorso di denuncia, che si traduce nella chiamata rivolta ad ogni essere umano di buona volontà, ad ogni cittadino del pianeta: solo attraverso l'assunzione da parte di ognuno e di tutti di sincere impegnative responsabilità personali, potremo salvare la casa comune, a cui tutti apparteniamo.

Dall'altro la proposta di un patto rivolta alla sempre più “piccola parte dell'umanità” costituita detentori del potere - che ha oggi la duplice, sovrapposta veste, di potere tecnologico e finanziario insieme, e che ha manifestazione più evidente ed efficace nella cosiddetta intelligenza artificiale.

Patto diplomatico, politico, etico.

Per stare al passo con i tempi, il patto è noto con parole inglesi: Rome Call for Ethics AI.4 

La figura che appare a fronte dell'iniziativa è monsignor Vincenzo Paglia, Presidente della Pontificia Accademia per la Vita, consigliere spirituale della Comunità di Sant'Egidio. La presenza papale è però evidente: Venerdì, 28 febbraio 2020 Monsignor Paglia legge all'Assemblea Plenaria della Pontificia Accademia per la vita un discorso scritto da Papa Francesco (in quei giorni condizionato da problemi di salute).5 La Call è firmata -insieme al Vaticano, al Ministro per l’Innovazione Tecnologica del governo italiano e alla FAO- Microsoft e IBM. Seguiranno altre adesioni. Segue, nel gennaio 2023, proprio nei giorni in cui Open AI lancia Chat GPT -la più compiuta dimostrazione al popolo della potenza dell'intelligenza artificiale- l'adesione al progetto vaticano delle 'Chiese Abramitiche': un rabbino di Israele, uno sceicco di Abu Dhabi...6

Ho già raccontato questa storia.7

Se Laudate Deum è un addolorato ritorno, aggiornato alla luce di nuovi motivi di preoccupazione, sui temi di Laudato si', la lettera Intelligenza artificiale e pace è un nuovo avvallo del Pontefice al progetto espresso in Rome Call for AI Ethics


Due modi di intendere la Chiesa

Sono, a ben guardare, due modi di intendere la Chiesa. Da un lato comunità di esseri umani che cercano insieme luce e verità; dall'altro struttura, istituzione destinata a farsi carico di esseri umani bisognosi di guida e protezione.

Giustificati dall'intendere la Chiesa nel secondo di questi due modi, autorità Vaticane hanno scelto di dialogare con i vertici delle grandi case digitali e con i tecnologi dediti alla ricerca ed allo sviluppo. Ma hanno finito poi per fare il gioco di questa stessa élite, colludendo con essa, senza minimamente incidere sul disinteresse di questa élite per le conseguenze delle proprie azioni.

In un discorso del 2019, dedicato ad un tema particolarmente importante, Child Dignity in the Digital World,8 Francesco chiama gli attori della sena digitale alla “responsabilità nei confronti dei minori, della loro integrità e del loro futuro”. In questo discorso si sente risuonare appieno la voce di Francesco, la stessa che appare forte e chiara in Laudato si'.

Si rivolge alle “grandi compagnie del settore, che superano agevolmente le frontiere fra gli Stati, si muovono rapidamente sul fronte più avanzato dello sviluppo tecnologico e hanno accumulato risorse economiche ingenti”. Precisa che “è ormai evidente che esse non possono considerarsi completamente estranee all’uso degli strumenti che mettono nelle mani dei loro clienti”. “È ad esse quindi che rivolgo oggi il più impellente appello alla responsabilità nei confronti dei minori, della loro integrità e del loro futuro”. Chiaramente non basta – la prevalenza di interessi finanziari e speculativi ed il conseguenze cinismo non saranno certo scalfiti da un monito papale. Il Pontefice aggiunge allora: “faccio quindi appello agli ingegneri informatici, perché si sentano anch’essi responsabili in prima persona della costruzione del futuro”.

Questo è il punto chiave. Quest'appello chiama all'umiltà gli arroganti ricercatori drogati dal successo, dal senso di potenza implicito nel trovarsi a costruire una nuova simil-vita. Questo appello chiama alla conversione, al cambiar strada. Questo appello chiama all'uscita dalla torre d'avorio: tornate, vi prego, a sentirvi, prima che tecnologi, genitori, cittadini, appartenenti alla casa comune.

Invece nella lettera Intelligenza artificiale e pace, così già come nel discorso che accompagnava il lancio di Rome Call for AI Ethics, gli appelli alla responsabilità personale dei tecnologi passano in secondo piano. Si accetta invece la loro autorità 'sacerdotale' e si prone loro un patto, anzi un sostegno. “Tocca a loro [agli ingegneri informatici], con il nostro appoggio, impegnarsi in uno sviluppo etico degli algoritmi, farsi promotori di un nuovo campo dell’etica per il nostro tempo: la 'algor-etica'”.


Il nostro appoggio, un'etica per il nostro tempo

Il nostro appoggio: dunque il Vaticano -mi sembra fuori luogo parlare qui di Chiesa- appoggia i potenziatati digitali. Grandi case e tecnologi. In cosa? Nel definire e nell'imporre, mettendo in campo per questo la propria autorità, “un'etica del nostro tempo: l'algor-etica”.

La via è quella dell'impegno ad una autoregolazione etica da parte di ogni grande casa digitale. E' noto purtroppo quale trattamento -vessazioni ed espulsione- hanno subito i membri di questi comitati che hanno osato esprimere posizioni critiche, invitando alla cautela, al cambiamento di rotta, al bloccare linee di sviluppo.

La via è quella di organismi internazionali che dettano indirizzi e linee guida. Ne fanno parte esponenti di parte vaticana. Ma tutte queste belle parole sono ovviamente disattese, non spostano di una virgola investimenti ed indirizzi di sviluppo.

La via è quella di norme di legge di stati sovrani. Qui si può osservare come abbondino le affermazioni di principio: la più nota è l'affermazione europea di una Human-Centered AI. Affermazione retorica che non tocca il fatto che il principale interesse affermato dalle norme europee è il sostegno all'industria europea, nei confronti dell'industria statunitense e cinese.

A ciò si aggiunga il fatto che i politici non conoscono la materia. Si affideranno quindi inevitabilmente ad esperti, appartenenti alla famiglia professionale le cui azioni andrebbero poste sotto controllo.

In generale, dunque, la via è quella dei comitati etici. Ricercatori e tecnologi, accompagnati da qualche esperto -magari qualche filosofo- dovrebbero dettare regole e vincoli e indirizzi.

Iniziative vane. Utili purtroppo innanzitutto a questo: a fornire ad imprenditori, finanziatori, tecnici, una foglia di fico. Utili a permettere loro di dire: datemi una regola, stabilite una norma. Utili ad eludere il sincero e profondo riferimento di ognuno alla propria responsabilità personale.

Il Vaticano, purtroppo, finisce per legittimare questo disegno con una sorta di bolla papale. Si può capire che l'intrattenere legami con le grandi case digitali sia oggi importante per la diplomazia vaticana; si può anche capire l'ansia di parlare alla famiglia professionale dei tecnologi digitali.

Ma tra il dire “faccio quindi appello agli ingegneri informatici, perché si sentano anch’essi responsabili in prima persona della costruzione del futuro”, e il proporre, mettendo in campo l'autorità della Chiesa, una pretesa 'nuova etica per il nostro tempo', detta 'algor-etica', c'è un abisso.

Perché una nuova etica? Perché una nuova parola? Che cos'è poi l'algor-etica?

Ho mostrato in precedenti scritti9 come consiste in fondo nel tentativo di trasformare in codice digitale i principi della Dottrina Sociale della Chiesa: “dignità della persona, giustizia, sussidiarietà e solidarietà”.10 Conoscendo ciò che è buono per l'essere umano, una certa Chiesa si candida a rendere buone per gli esseri umani le piattaforme digitali. Si candida a far sì che le intelligenze artificiali diffondano il bene.

Disegno vano perché i grandi attori della scena digitale useranno la legittimazione della Chiesa senza dare nulla in cambio. Disegno ingiusto e pericoloso, perché così si finisce per alimentare il crescente divario tra l'élite di coloro che per via digitale governano il mondo ed i cittadini, gli abitatori della casa comune, sempre più ridotti a passivi utenti di servizi preconfezionati.


Più che etica, responsabilità personale

Come dimostrano l'enciclica Laudato si' e l'esortazione Laudate Deum, non è questa certo l'intenzione del Pontefice. Ma sarebbe interessante sapere per quali intrecci e disegni di potere vaticani il Santo Padre finisca per prestarsi a sostenere questo disegno.

Ritroviamo infatti l'algor-etica come snodo chiave nella lettera Intelligenza artificiale e pace.

“Uno sguardo umano e il desiderio di un futuro migliore per il nostro mondo portano alla necessità di un dialogo interdisciplinare finalizzato a uno sviluppo etico degli algoritmi -l’algor-etica-”.

Un conto è un benvenuto dialogo interdisciplinare: come afferma il Pontefice, “abbiamo perciò il dovere di allargare lo sguardo e di orientare la ricerca tecnico-scientifica al perseguimento della pace e del bene comune, al servizio dello sviluppo integrale dell’uomo e della comunità”.

Un conto è ridurre questa intenzione riconducendola allo “sviluppo etico degli algoritmi”.

Per dire che questa riduzione non è farina del sacco del Pontefice, credo basti citare un altro passaggio della lettera: “l’abilità di alcuni dispositivi nel produrre testi sintatticamente e semanticamente coerenti, ad esempio, non è garanzia di affidabilità. Si dice che possano 'allucinare', cioè generare affermazioni che a prima vista sembrano plausibili, ma che in realtà sono infondate o tradiscono pregiudizi”.

Mi chiedo e vi chiedo: vi sembrano queste parole di Papa Francesco? Ci interessa forse leggere in una sua lettera una qualche spiegazione dei limiti dei Foundation Model, dei Transformer, dei Large Language Model? Diciamolo allora semmai in parole semplici, adatte a tutti noi esseri umani abitatori di una casa comune: queste macchine forniscono a umane domande risposte sbagliate, erronee, infondate.

Chi ha scritto queste parole, che noi ci troviamo a leggere firmate dal Pontefice, vuol forse dire che l'algor-etica consiste nel collaborare con i costruttori di queste macchine per migliorare la qualità delle risposte?

Mi sembra convenga dire che l'etica è un attributo dell'essere umano, una caratteristica distintiva degli esseri umani, e che quindi in una macchina -anche nelle macchine che possono essere in base a un qualche criterio definite 'intelligenze artificiali'- potranno al massimo risiedere dati relativi ad atteggiamenti etici, e cioè tracce di atteggiamenti etici manifestati da esseri umani in momenti passati.

Non lasciamo che ‘etica’ sia trasformata -confondendola con un algoritmo- in una parola vuota.

Conviene considerare l'etica come qualcosa di ineffabile: ‘non esprimibile in parole’. L'etica può essere magari anche riassunta in principi, in valori. Ma resta ineludibile il fatto che l’etica esiste solo se la si pratica. Se se ne parla astratto, in modo distaccato dalla nostra personale e quotidiana vita, è perché non riusciamo a praticarla. Non c'è etica laddove si agisce eseguendo i dettami di una macchina.

Conviene quindi parlare di etica incarnata. Consiste in fondo nel vivere in carne propria, sulla propria pelle e allo stesso tempo nel proprio animo, la fatica di essere sé stessi - evitando di adattarci comodamente a ciò che altre persone decidono per noi.

E forse anche conviene evitare di usare la parola etica, e parlare invece di responsabilità. Responsabilità personale. Responsabilità personale di ogni abitante della casa comune, di ogni cittadino del pianeta, di ogni credente in ogni fede religiosa.

Leggiamo nella conclusione della lettera Intelligenza artificiale e pace l'auspicio di “modelli normativi che possano fornire una guida etica agli sviluppatori di tecnologie digitali”. Potranno essere d'aiuto, ma potranno anche essere fonte di comode elusioni ed alibi. Foglie di fico dietro cui vanamente nascondersi.

L'algor-etica si limita a ridipingere la facciata. Serve invece umiltà, senso del limite, saggezza, disponibilità alla conversione, consapevolezza di appartenere alla casa comune. Solo se il tecnologo sarà disposto a queste virtù la sua progettazione sarà rispettosa della natura, socialmente utile e costruttiva.

Leggiamo infatti nella stessa conclusione anche che “nei dibattiti sulla regolamentazione dell’intelligenza artificiale, si dovrebbe tenere conto della voce di tutte le parti interessate, compresi i poveri, gli emarginati”. Tutto sta nel dovrebbe. Il patto tra sacerdoti delle chiese adamitiche e sacerdoti digitali, però, non si fonda sull'ascolto e sulla partecipazione, si fonda purtroppo invece sulla presunzione degli 'esperti' di sapere già cosa è bene per ogni parte interessata, per i poveri e per gli emarginati.

Perciò, più che sperare che i progressi nello sviluppo di forme di intelligenza artificiale servano la causa della fraternità umana e della pace credo convenga ricordare che percorsi differenti di ricerca e sviluppo tecnologico sono possibili - evitando di considerare lo sviluppo delle cosiddette intelligenze artificiali che abbiamo sotto gli occhi l'unica, ormai ineluttabile via.

Sulla via della pace, certo le Chiese, e innanzitutto il Santo Padre, hanno qualcosa da dire. Ma più del cammino dell'algor-etica, più del cercar di educare ed accompagnare i tecnologi, più del proporre loro di accettare i rappresentanti delle Chiese nel consesso di coloro che scrivono il codice digitale che governa il mondo, sembrano adeguate le parole con le quali Papa Francesco conclude l'esortazione apostolica Laudate Deum: “un essere umano che pretende di sostituirsi a Dio diventa il peggior pericolo per sé stesso”.

Note:

1    Messaggio di Sua Santità Francesco per la LVII Giornata mondiale della Pace, Intelligenza artificiale e pace, 1° gennaio 2024. https://www.vatican.va/content/francesco/it/messages/peace/documents/20231208-messaggio-57giornatamondiale-pace2024.html.

2   Lettera Enciclica Laudato si’ del Santo Padre Francesco Sulla cura della casa comune, 24 maggio 2015. https://www.vatican.va/content/francesco/it/encyclicals/documents/papa-francesco_20150524_enciclica-laudato-si.html

3   Esortazione Apostolica Laudate Deum del Santo Padre Francesco. A tutte le persone di buona volontà. Sulla crisi climatica, 4 ottobre 2023. https://www.vatican.va/content/francesco/it/apost_exhortations/documents/20231004-laudate-deum.html

5    Discorso preparato dal Santo Padre Francesco per l'Incontro con i partecipanti alla plenaria della Pontificia Accademia per la Vita, letto da mons. Vincenzo Paglia, Presidente della Pontificia Accademia per la Vita, Sala Clementina, venerdì, 28 febbraio 2020. https://www.vatican.va/content/francesco/it/speeches/2020/february/documents/papa-francesco_20200228_accademia-perlavita.html

7    Francesco Varanini, “La posizione del Vaticano di fronte all'Intelligenza Artificiale e la lezione della Lettera ai Filippesi”, Dieci Chili di Perle, 16 marzo 2021, https://diecichilidiperle.blogspot.com/2021/03/la-posizione-del-vaticano-di-fronte.html; seconda versione: Francesco Varanini, “Il piano del Vaticano per l’AI etica: basterà a ricordarci di restare umani?”, Agenda Digitale, 12 aprile 2021. https://www.agendadigitale.eu/cultura-digitale/il-piano-del-vaticano-per-lai-etica-bastera-a-ricordarci-di-restare-umani/Francesco Varanini, “Etica dell'intelligenza artificiale. Le religioni abramitiche si accodano al Vaticano”, Dieci chili di perle, 15 gennaio 2023, https://diecichilidiperle.blogspot.com/2023/01/etica-dellintelligenza-artificiale-le.html

8    Discorso del Santo Padre Francesco ai Partecipanti Al Congresso "Child Dignity in the Digital World", Sala Clementina, giovedì, 14 novembre 2019. https://www.vatican.va/content/francesco/it/speeches/2019/november/documents/papa-francesco_20191114_convegno-child%20dignity.html

9    Francesco Varanini, “La posizione del Vaticano di fronte all'Intelligenza Artificiale e la lezione della Lettera ai Filippesi”, Dieci Chili di Perle, 16 marzo 2021, https://diecichilidiperle.blogspot.com/2021/03/la-posizione-del-vaticano-di-fronte.html. Francesco Varanini, “La pericolosa banalità dell'Algoretica e dell'Antronomia. Ovvero la pretesa di sostituire il 'computabile' all''umano'”, Dieci Chili di Perle, , 22 febbraio 2022. https://diecichilidiperle.blogspot.com/2022/02/la-pericolosa-banalita-dellalgoretica.html

10 Discorso preparato dal Santo Padre Francesco per l'Incontro con i partecipanti alla plenaria della Pontificia Accademia per la Vita, letto da mons. Vincenzo Paglia, Presidente della Pontificia Accademia per la Vita, Sala Clementina, venerdì, 28 febbraio 2020. https://www.vatican.va/content/francesco/it/speeches/2020/february/documents/papa-francesco_20200228_accademia-perlavita.html


mercoledì 20 dicembre 2023

Nishida Paradox: "Knowing and its object are completely unified"

"Knowing and its object are completely unified". L'umana conoscenza è 'pura esperienza'. 
L’esperienza individuale non è che un piccolo e limitato ambito particolare all’interno dell’esperienza. La conoscenza è emergente, è una sorgente che si rinnova in ogni istante. 
I dati non sono che tracce del passato, o scorie. 
I filosofi digitali e i computer scientist che cercano una qualche intelligenza artificiale, trarrebbero grande giovamento dallo studio di Kitarō Nishida, filosofo giapponese che ci avvicina allo Zen e allo stesso tempo riassume il senso più profondo del pensiero fenomenologico occidentale. 




Il 'Polanyi Paradox' (vedi mio precedente post), in effetti, non è che una versione semplificata del 'Nishida Paradox'. 
E' accaduto questo: Ikujiro Nonaka, studioso giapponese di management, nel suo affermare il concetto di impresa fondata sulla continua creazione di nuova conoscenza, sentí il bisogno di non apparire troppo legato alla cultura e alla filosofia orientale. Si cercò quindi un testimone mitteleuropeo e poi anglosassone: Michael Polanyi, contribuendo notevolmente a crearne la fama. 
Ma la vera fonte di Nonaka è Nishida, formatosi nella cultura Zen e poi grande studioso della filosofia occidentale. 
Ecco il punto essenziale: ogni algoritmo, ogni struttura dei dati, ogni modello fondazionale, ogni sistema di regole o lista di assiomi, impongono una chiave di lettura a priori. 
Nishida e Nonaka ci ricordano che la conoscenza non discende da fondamenti, ma emerge nel basho. Basho: ubicazione, posto, topos, terra, focolare, situazione, base materiale e allo stesso tempo spirituale. Non radici alle quali siamo vincolati, ma luogo che abitiamo. L'esperienza che in ogni istante stiamo vivendo si situa in un qui. Solo se c'è basho c'è conoscenza. 

Sensazioni, percezioni, corpo, contribuiscono al fenomeno emergente. Il fenomeno si manifesta così, solo in questo istante e solo in questo luogo. 
Le macchine 'generative' o 'causali' faranno pure il loro lavoro, apprenderanno a loro modo qualcosa da dati e informazioni, ma ciò non avrà mai nulla a che fare con l'umana conoscenza. 
Più che il supporto di macchine, cerchiamo sempre nuove esperienze! 
Ci aiutano forse a vivere esperienze le 'intelligenze artificiali' che ci vengono offerte? No. Al contrario, ci costringono a esperienze impersonali, lontane dal basho, o peggio ancora, ci spingono a ripetere situazioni già vissute. 

venerdì 15 dicembre 2023

Polanyi Paradox: "We can know more than we can tell"

Polanyi Paradox
Periodicamente appaiono nella letteratura digitale concetti formali, definiti in modo tale che la macchina possa risolverli. Ciò che sta dietro queste formalizzazioni viene bellamente ignorato. 
"We can know more than we can tell", cosi è noto ai computer scientist il complesso pensiero di Michael Polanyi. Le conoscenze esplicite sono solo una parte delle conoscenze. Molte conoscenze restano tacite. Emergono solo quando serve, dove serve. 
Tema ben studiato da filosofi, epistemologi, sociologi e psicologi. Ma i computer scientist sono preoccupati: se noi umani non sappiamo o non vogliamo dire in che modo conosciamo ciò che conosciamo, come farà la macchina ad appropriarsi del nostro sapere? 
A ben vedere è una questione -prima che tecnica- filosofica, sociale, politica, economica. Ma è anche una questione puramente inerente al management e all'organizzazione del lavoro. 
Gli esperti digitali non sanno che Polanyi è la fonte di Nonaka, maestro del management. Il suo famoso schema (SECI) presiede alla creazione del valore di ogni impresa. 
E cosa ne sanno gli esperti digitali della difficile e sofferta storia personale di Michael Polanyi, costretto a lasciare la sua terra natale, fisico passato ad essere epistemologo, cosa ne sanno del formarsi del suo pensiero, dei suoi rapporti con il fratello economista... 


Tirando un sospiro di sollievo esperti digitali vari sostengono ora la tesi della progressiva erosione del paradosso di Polanyi da parte dell'AI generative. 
Ma non hanno capito. Le macchine 'generative' faranno pure il loro lavoro, apprenderanno a loro modo qualcosa da dati e informazioni, ma ciò non avrà mai nulla a che fare con l'umana conoscenza. Così ben descritta da Polanyi. (Vedi continuazione nel mio successivo post: Nishida Paradox).

Breveissima bibliografia:
Michael Polanyi, Personal Knowledge: Towards a Post-Critical Philosophy, 1958
Michael Polanyi, Tacit Dimension, 1966
Ikujiro Nonaka, Management of Knowledge Creation, 1990
David Autor, Polanyi Paradox and the Shape of Employment Growth, 2014