martedì 9 gennaio 2024

Algor-etica. Un concetto sgangherato ed equivoco. Una lettura critica

Paolo Benanti, professore straordinario della facoltà di Teologia presso la Pontificia Università Gregoriana nominato il 5 gennaio 2024 Presidente della Commissione AI per l’Informazione del Governo italiano, pubblica su Formiche il 6 gennaio l'articolo Un nuovo rinascimento per l’IA, non a caso in Italia.

Qui propone una definizione del concetto di algor-etica - che a quanto pare continua ad essere il nucleo del suo pensiero e della sua azione politica. Una definizione aggiornata, che si sforza di tener conto di critiche portate al concetto stesso. 

Scrive Benanti: 

L’idea è di inserire dei guard rail etici alla macchina facendo riferimento all’algoretica, cioè un’etica computata dagli uomini ma che a questo punto diventi computabile dalle macchine stesse. Affiancare etica e tecnologia per un’intelligenza artificiale che ponga sempre al centro l’uomo e sia al servizio di un autentico sviluppo. 

L’idea è di inserire dei guard rail etici alla macchina

La metafora sembra poco precisa: i guard rail sembrerebbero più propriamente limiti, vincoli posti alla strada sulla quale la macchina sta viaggiando. L'etica è ridotta ad aggettivo. 

Si coglie comunque un presupposto: l'etica è qualcosa che può essere inteso come indipendente dalla persona umana, qualcosa di maneggevole e manipolabile. 

La definizione di cosa si intenda per etica è rimandata al prosieguo della frase.

facendo riferimento all’algoretica

Ecco la riduzione. Si stabilisce per via logico formale che all'etica può essere sostituita l'algoretica. Data la sostituzione, si assume che per definire l'etica basti definire l'algoretica.

cioè un’etica computata dagli uomini 

Si coglie l'intento di Benanti: rispondere a critiche che gli sono state rivolte. Benanti riconosce qui che l'algoretica, prima di essere un'etica della macchina, e nella macchina, è un'etica "degli uomini".

Non può però, e non vuole, dire ciò che andrebbe detto: l'etica è una competenza umana, esclusivamente umana.

L'aggettivo computata, poi, tradisce ancora la riduzione, e sostanzialmente finisce per affermare la disumanizzione dell'etica. Computabilità vuol dire: scrittura in un linguaggio adatto ad essere compreso dalla macchina. La computabilità, ricordiamolo, è una versione ridotta della calcolabilità. La calcolabilità, a sua volta, è rinuncia a tutto ciò che gli esseri umani sanno pensare e dire, ma sanno esprimere solo in forma narrativa, ed a ciò che gli esseri umani manifestano nelle loro azioni, pur essendo incapaci di esprimerlo a parole.

La precisazione appare scontata: se il codice è scritto in modo adeguato alla macchina che dovrà eseguire il codice, la macchina eseguirà il codice. 

Se Benanti sente il bisogno di esplicitare questo passaggio, è forse perché è consapevole di come i progettisti e gli sviluppatori di 'intelligenze artificiali', mirino oggi proprio a questo: permettere alle macchine di scrivere autonomamente il codice che le governa. Di fronte a questa possibilità l'algoretica non offre nessuna riposta o contromisura.

Affiancare etica e tecnologia

Affiancare? Possiamo forse considerare etica e tecnologia ambiti paralleli? Non dovrebbe venir prima l'etica della tecnologia? Non sarebbe opportuno parlare dell'etica dell'essere umano che computa e costruisce macchine?

Alla luce dell'appello all'affiancamento, i guard rail etici e l'etica computata si svelano come attrezzi di una accettazione passiva della tecnologia. Si accetta una tecnologia priva di etica. Si pretende poi di redimerla e di legittimarla attraverso una versione ridotta ed ancillare dell'etica: l'algoretica. 

per un’intelligenza artificiale che ponga sempre al centro l’uomo

Sarebbe opportuno che tutti coloro che giustificano forme diverse di cosiddetta intelligenza artificiale con l'affermazione 'l'uomo al centro' -Benanti non è certo il solo- definissero il concetto. 

Vogliono dire che il bene dell'essere umano consiste nell'essere oggetto dell'attenzione di un benefattore, umano o macchinico? Benanti o Yann LeCun o Elon Musk -e forse già oggi, o domani, una qualche 'intelligenza artificiale'- sono in grado di dire dove sta il bene dell'essere umano posto al centro della loro benevola attenzione?

La vuota espressione 'uomo al centro' permette di eludere la autentica presenza di ognuno. Non un ente astratto, ma io, tu, noi. Abitatori di una casa comune, ognuno portatore di un proprio contributo ed un proprio sguardo. 

Solo così si supera la comoda distinzione tra esperti -tra i quali Benanti si colloca- ed altri esseri umani,  ridotti ad utenti. 

e sia al servizio di un autentico sviluppo

Quale sviluppo? Sviluppo di chi, in quale direzione, a quale fine? L'aggettivo autentico non spiega. Restare nel vago significa accettare lo sviluppo che c'è. Senza discriminare tra una linea di sviluppo e un'altra. Senza accettare che possa esistere la necessità -alla luce dell'umana saggezza- di interrompere o bloccare una via di sviluppo. 

Quasi a dire: si accetta ogni sviluppo. Noi 'esperti', poi sapremo mettergli guard rail algoretici.

Il concetto di algoretica, insomma, resta impreciso, capzioso e pericoloso. La soluzione, in realtà, sarebbe semplice. Togliere il riferimento agli algoritmi, e parlare di etica tout court. O forse ancora meglio, parlare di responsabilità personale, dalla quale discenderanno azioni coerenti. 

Responsabilità personale del progettista o sviluppatore. Responsabilità personale del legislatore. Responsabilità personale del cittadino che sceglie se usare o non usare lo strumenti, sceglie come usarlo, sceglie di criticarlo o di bandirne lo sviluppo e l'uso.

Nessun commento:

Posta un commento