sabato 22 maggio 2021

L'ultima scappatoia: Le leggi di Frank Pasquale

Non si può fare a meno di interrogarci sui rischi derivati da uno sviluppo di Intelligenze Artificiali sempre più difficili da controllare.

Un caso tra i numerosissimi. Computer Scientist hanno sviluppato strumenti che rendono impossibile comprendere se a parlare e a interagire con noi è un altro essere umano, o una macchina programmata in modo ignoto. I Computer Scientist stessi ammettono ora i rischi sociali, politici, etici impliciti in questi strumenti. E puntano il dito contro Google o altri grandi Case che ne hanno promosso lo sviluppo e li usano. Quale soluzione propongono? Dicono: non fidatevi di Google, fidatevi di noi. "We can’t really stop this craziness around large language models, but what we can do is try to nudge this in a direction that is in the end more beneficial”. Comodo dire che la corsa a cui si partecipa non può essere fermata. Perché mai dovremmo di questi scienziati? Ci dicono che sono strumenti pericolosi ma vogliono continuare a svilupparli. 

Un amico rinomato ricercatore e progettista nel campo dell'Intelligenza Artificiale mi dice: io so cosa vuol dire assumersi la pesante responsabilità di decidere che una 'macchina medica' lavora in un modo o in un altro... Grave responsabilità decidere quale grado di autonomia attribuire alla macchina; decidere se farla intervenire in un modo in un altro. In che momento.

Un altro amico profondo conoscitore della materia, Domenico Talia, si interroga sull'Impero degli algoritmi (Rubbettino, 2021). Si pone l'obiettivo politico di evitare che "questa nuova élite tecnologica  diventi la nuova 'razza padrona' delle vite di miliardi di persone". Ci ricorda quindi che "la democratizzazione delle tecnologie passa attraverso la diffusione delle conoscenze su di esse e in particolare sugli algoritmi che sono a loro fondamento". E conclude: "non abbiamo bisogno di gabbie algoritmiche razionali ed efficienti", ma invece di "strumenti risolutori per alimentare il pensiero critico". Nell'aggettivo 'risolutore' colgo un riferimento ad un ragionamento aperto alla complessità, e cioè orientato a risolvere, a sciogliere garbugli e intrichi. O per dirla altrimenti: non leggi a cui appellarsi, ma impegno personale etico e politico.

Considero questi amici una eccezione. Di gran lunga prevalente è la posizione degli 'addetti ai lavori' che nascondono a sé stessi agli altri gli aspetti problematici. Non si parla nemmeno tra colleghi di questi pesi e dei dubbi e dei dilemmi che si vivono nel progettare. Tantomeno se ne parla in pubblico. Il cittadino nulla deve sapere di tutto questo. Rispetto all'opinione pubblica la posizione che gli 'addetti ai lavori' -salvo rare eccezioni- contribuiscono a mantenere si può riassumere in un breve frase: spargere fiducia.

Adesso si fa un gran parlare di 'leggi etiche' alle quali rifarsi in queste situazioni critiche. Si può vedere per esempio Frank Pasquale, New Laws of Robotics (Harvard University Press, ottobre 2020). Il libro sarà pubblicati in italiano da Luiss University Press [il libro è stato pubblicato in italiano nel giugno 2021; nota che aggiungo a questo post lasciandolo per il resto così come l'avevo pubblicato il 22 maggio 2021], ma già ora, mentre è ancora inedito nella nostra lingua, leggo vari commenti entusiasti, anche su quotidiani: la Stampa, il Manifesto. In realtà questi commenti mi sembra che non facciano altro che seguire l'onda di commenti usciti negli States. Più interessante di questi commenti, che mi sembrano acritici e che si ripetono l'un l'altro, è ciò che scrive a proposito del libro di Pasquale Lelio Demichelis su Agenda digitale

In un altro  post commenterò su questo blog le Leggi di Pasquale una per una. E discuterò l'assunto: la tesi che alla base delle leggi stesse: le Leggi della Robotica di Isaac Asimov sono superate; servono nuove norme. Ma prima del guardare al contenuto delle leggi, serve notare come la 'legge' costituisca in sé una comodo modo per scansare  il problema. 

Frank Pasquale, precedentemente autore di un libro che merita di essere letto: The Black Box Society (Harvard Unversity Press, 2016), ha una formazione giuridica. E' un aspetto non trascurabile: cerchiamo in fondo qualcuno che ci dica quali sono le leggi da rispettare.  Abbassando così il livello di responsabilità.

Infatti, appare gravissimo il peso della responsabilità di chi si trova a scrivere algoritmi ed in generale a progettare macchine destinate ad agire autonomamente, al posto di esseri umani impegnati in un qualsiasi lavoro, e anche destinate ad agire andando oltre i limiti della stessa programmazione iniziale definita dal progettista.

Ma di fronte alla responsabilità, la prima scelta è purtroppo l'elusione o la fuga. Chi sviluppa nel campo dell'Intelligenza Artificiale elude la responsabilità -responsabilità personale- nascondendosi dietro l'idea che il progresso e la tecnica non possono essere in ogni caso fermati, e che quindi 'se non sviluppassi io questo strumento, lo svilupperebbe comunque un altro tecnico'. Chi sviluppa nel campo dell'Intelligenza Artificiale elude la responsabilità dicendo: 'a noi compete fare ricerca e sviluppo, degli usi se ne occuperà la politica'.

Ed ora ben vengano a togliere di dosso il peso della responsabilità anche le Leggi di Pasquale.

E' una scappatoia: ci si tranquillizza con il rispetto della legge e così ci si deresponsabilizza. Ed anche ci si allontana dal caso singolo: da ciò che io, ricercatore e sviluppatore sto facendo qui ed ora. Ed anche: si rinforza il potere del tecnico - ora legittimato ad agire dal fatto che rispetta le leggi di Pasquale. Ma allo stesso tempo così ogni ricercatore e sviluppatore resta solo, nella comunità di tecnici probabilmente meno orientati di lui all'etica...

Due sono le strade che i tecnici digitali giustamente preoccupati potrebbero adottare. 

Impegnarsi pubblicamente a rinunciare a lavorare in questo campo. 

Tornare a considerare sé stessi cittadini tra i cittadini 

Peccato siano invece restii ad incamminarsi in questa direzione. A quanto sembra non intendono rinunciare ai loro privilegi. Non sembrano disposti ad assumere posizioni veramente critiche all'interno della comunità professionale cui appartengono.

Eppure possiamo dire che di fronte allo spargere fiducia di tanti addetti ai lavori, la risposta politica è spargere cautela. Di fronte a comode leggi che dicono cosa è giusto e cosa è sbagliato, cosa si può fare e cosa non si può fare, la risposta etica è: mi sento responsabile di quello che sto facendo e delle conseguenze delle mie azioni

2 commenti:

  1. Mi sento vicino a quel progettista di Intelligenza Artificiale Medica a cui hai accennato. Il tema della responsabilità, nel senso di impegno nei confronti delle conseguenze della propria azione, è centrale.
    La soluzione che però proponi "Impegnarsi pubblicamente a rinunciare a lavorare in questo campo" equivale, per chi osa levare delle voci critiche (e ne paga ogni giorno le conseguenze all'interno della propria comunità scientifica ed accademica) ad una resa. Deve astenersi chi si rende complice, con la propria ricerca (immersa nei conflitti di interesse anche di natura economica, ma non solo) del disegno industrialista e neoliberista, in cui la AI è solo un pezzo, ma forse non il meno importante, del mosaico, in cui è bene che i cittadini anestetizzino il proprio sdegno per il prezzo che si deve pagare per mantenere o accrescere il proprio benessere materiale, e si affidino sempre più alle logiche della macchina, adagiandosi così nella posizione di quieti e produttivi consumatori. Tutti gli altri devono continuare a fare ricerca per spargere cautela.

    RispondiElimina
    Risposte
    1. D'accordo. Mai arrendersi. Intendo: rinunciare a lavorare a ricerche a cui altri, pur non condividendone il senso, continuano a partecipare solo per quieto vivere. Non smettere di fare ricerca in assoluto. Continuare a fare parte della famiglia professionale per spargere fiducia.

      Elimina