Che problema c’è? Mi chiede un
professore di informatica nella discussione che segue a una
presentazione del mio libro Macchine per pensare. E
sottintende: il problema non esiste.
Il tema dell’argomentare è presto
detto: un tempo forse era sensata la critica a una Intelligenza
Artificiale Forte. E in anni successivi, forse, era motivata anche
una critica all’Intelligenza Artificiale Debole. A entrambe queste
concezione dell’Intelligenza Artificiale s’attaglia infatti la
critica: si vuol sostituire la macchina all’uomo. Si vuol
sostituire all’intelligenza umana, accettata così com’è,
un’intelligenza progettata secondo il modello di un’intelligenza
ben fatta, depurata dagli umani limiti e difetti.
Il computer scientist, così, pretende
quindi di sapere, a priori, quali sono i limiti e difetti
dell’intelligenza umana, ponendosi al sopra del suo stesso essere
uomo, ponendosi nel ruolo del demiurgo -’artefice’, ‘ordinatore’-
pretendendo di sapere meglio degli altri uomini cosa è giusto per
gli uomini.
Mi si dice: forse questa era una
pretesa eccessiva. Ma che problema c’è? Non c’è problema,
perché oggi l’Intelligenza che noi computer scientist,
l’Intelligenza che perseguiamo e sviluppiamo non può più nemmeno
essere definita, a rigore, ‘artificiale’. Perché è la stessa
intelligenza umana. Potrebbe semmai essere definita Intelligenza
Sociale. Lavoriamo infatti sui frutti dell’umano pensare, frutti
collazionati in rete, rese accessibili da quella Rete di Reti che è
il Web.
Studiamo sintassi e semantica non a
partire da grammatiche intese come sistemi di regole. Osserviamo
invece l’emergere di regole da corpora che raccolgono l’umano
libero modo di esprimersi. Cerchiamo traduzioni da lingua a lingua
via via migliori attraverso l’accumulazione, la sovrapposizioni di
traduzioni diverse degli stessi testi canonici, e attraverso le
correzioni alle stesse traduzioni di umani disposti a collaborare.
Ricostruiamo i comportamenti degli uomini a partire dalle loro stesse
tracce: le tracce lasciate, passando da cella in cella, dal telefono
cellulare che ormai accompagna ogni essere umano; le tracce lasciate
dalla scatola nera posta dalle Compagnie di Assicurazioni sulle
automobili; le tracce lasciate dalla battuta di cassa, rilevate nel
momento in cui l’essere umano compra qualcosa in un negozio.
I Big Data, che non sono altro che il
frutto dell’intelligenza umana, costituiscono insomma la materia
sulla quale noi lavoriamo. Non veniteci quindi a dire -ecco il succo
dell’argomentazione che mi viene proposta-, non veniteci a dire che
pretendiamo di imporre all’uomo un’intelligenza diversa dalla
sua. Veniteci semmai, invece, a ringraziare, per come diffondiamo e
redistribuiamo ad ogni uomo i frutti della sua stessa intelligenza.
Permettendo ad ogni uomo di godere dei frutti dell’intelligenza che
non sa di avere.
E allora, che problema c’è?
Tralascio di qui di toccare il tema della privatezza (detto tra
parentesi, non vedo la necessità di usare il termine inglese
privacy), della riservatezza, di come in molti casi siano raccolti i
dati sui comportamenti degli esseri umani. I dati sul personale uso,
da parte di ognuno, della propria personale intelligenza. Perché
spesso, si sa, i dati sono raccolti nostro malgrado, senza che noi
esseri umani ne siamo adeguatamente portati a conoscenza. E senza che
ci venga garantito un adeguato compenso per questo uso (o abuso)
della nostra intelligenza.
Tralascio qui questo tema -del quale
del resto parlo in Macchine per pensare, e che comunque
tratterò in un altro articolo, qui su Dieci chili di perle.
Tralascio qui il tema, pur considerandolo importante, perché
cerco di evitare una trappola in cui vedo finire spesso riflessioni
simili a quella che propongo in questo articolo. Scivolando a parlare
del furto dell’umana intelligenza, si finisce per distogliere
l’attenzione dalla riflessione sul ruolo del computer scientist,
alle prese con l’intelligenza più o meno umana. Si cerca lontano
da noi il colpevole dell’ingiustizia, allontanandoci abbastanza
comodamente dal riflettere attorno a ciò che stiamo facendo.
Torniamo quindi alla domanda iniziale:
che problema c’è? Torniamoci accettando anche di chiamare ora il
computer scientist ‘social data scientist’.
Il problema che c’è, e che tocca il
social data scientist così come il computer scientist, può essere
formulato sotto forma di nuova domanda. Se tu avessi lavorato negli
ultimi Anni Cinquanta o negli Anni Sessanta, al tempi in cui dominava
in canone dell’Intelligenza Artificiale Forte, come ti saresti
comportato? Ti saresti mosso nei confini del canone, o avresti forse
-in virtù della libera scelta riconosciuta al ricercatore
universitario- indirizzato la tua ricerca in altre direzioni? Ti
saresti posto domande etiche a proposito del tuo arrogarti il ruolo
di demiurgo? E analogamente: se tu ti trovassi nell’epoca in cui
domina il canone dell’Intelligenza Artificiale Debole, come ti
comporteresti? E dunque: è sufficiente, oggi, tranquillizzarsi
dicendo che non sono più attuali i dubbi etici che erano attuali
sessanta o trenta anni fa?
Sono propenso a sostenere che il lavoro
del ricercatore, e del progettista di macchine che tendono a
sostituire l’uomo, comporta di per sé dubbi etici e interrogativi
relativi alla personale responsabilità. Semplicemente: ciò che fa
la differenza tra ricercatore e ricercatore, è la personale
disponibilità -quale che sia il canone vigente- a non rifiutare i
dubbi etici e ad assumersi personali responsabilità. Non serve
nemmeno lavarsi la coscienza firmando appelli, per esempio per
moratorie delle ricerche relative a robot-soldato. La domanda è
esistenziale, rivolta alla persona: cosa faccio io personalmente, al
di là del firmare un appello, nel mio quotidiano lavoro di ricerca e
di sviluppo? So bene che l’assumere questo atteggiamento non è
facile.
Una prima, non irrilevante conseguenza,
è che legare le ricerche al proprio personale punto di vista
significa spesso uscire dal canone; e l’uscire dal canone comporta
spesso, di fatto, una penalizzazione della stessa carriera del
ricercatore.
Una seconda, più ampia conseguenza è
che si tratta di imparare a muoversi su un campo nuovo, il campo
filosofico. Non solo allargando lo sguardo sul terreno già noto e
battuto: pur restando sul terreno indicato da Turing -il ‘pensiero
calcolante’- tornare a guardare alla matematica assiomatica di
Hilbert, alla logica di Frege, ritornare magari a Leibniz. Ma
accettando anche di muoversi in territori estranei al canone
informatico: Freud, Wittgenstein, Heidegger. O altri ancora.
Wittgenstein ci ricorda che, di fronte ad ogni macchina, e ad ogni
funzionamento della macchina, è possibile contemplare un’altra
macchina, ed un altro funzionamento. Heidegger ci fornisce precisi
indirizzi a proposito di come concepire una macchina a misura d’uomo.
Non sono forse queste fonti importanti per chi lavora a studiare i
modi per gestire, tramite computer, l’intelligenza umana?
Di questo cerco di parlare in Macchine per pensare. Credo non sia difficile muoversi sul terreno della
filosofia. Ma anche se lo fosse? Dobbiamo forse rinunciare a cose
interessanti solo perché ci appaiono, di primo acchito, difficili?
Lascio rispondere alla domanda il mio
amato poeta cubano José Lezama Lima: “sólo lo difícil es
estimulante”. Solo ciò che è difficile è stimolante. Perché,
sostiene Lezama, solo ciò che è difficile ci stimola ad andare
oltre le nostre resistenze, e le resistenze dei materiali con i quali
lavoriamo. Masse di dati destrutturati appaiono sorde. Sembrano non
dire nulla. Ci sfidano, chiedendoci di provare a coglierne in senso.
Nessun commento:
Posta un commento