giovedì 31 marzo 2016

Watson

Watson: adesso è sulla bocca di tutti, ma tutti i ragionamenti sui giornali e in tv sono superficialissimi.
'Supercomputer' non vuol dire nulla: si parla di hardware, di software? di basi dati? di algoritmi? Eppure leggete i titoli dei giornali, e anche gli interi articoli: sperticata apologia della meravigliosa macchina.



In estrema sintesi:
Simulazione del comportamento umano presentato come risposta adeguata ad esigenze umane e anche a scientifica ricerca della verità: ma 'simulare' è ben diverso da 'essere' e da 'esistere', cioè dall'agire umano.
Capacità della macchina di capire linguaggio naturale umano e di interagire con l'uomo senza mediazione di interfacce come tastiere mouse e scrivanie come metafore sullo schermo: non è che un più sofisticato inganno. Perché comunque stiamo avendo a che fare con una macchina.
Ricerca di risposte dentro dati prodotti dall'uomo: quale che sia la 'base dati' su cui si lavora resta aperto il problema centrale: tramite quale 'logica' si leggono e interpretano i dati. Quali sono gli algoritmi usati. A partire da quali scelte ideologiche e politiche sono stati scritti questi algoritmi.
I giornalisti non si sforzano di capire. E usano passivamente i comunicati stampa IBM. Il governo italiano, per motivi evidenti di politica di breve termine, ostenta l'accordo con l'IBM prendendo per buono ciò che l'IBM dice. Gli esperti di computing e di Intelligenza Artificiale hanno tutti i motivi per essere conniventi: l'affermazione di Watson è la loro affermazione. Il loro atteggiamento è del tipo: 'non disturbate il manovratore'.
La propaganda costruita attorno a Watson sfrutta l'insicurezza umana di fronte alla complessità, di fronte a scelte difficili. Sfrutta l'umana disponibilità ad accettare con sollievo soluzioni magiche.
Vogliamo discutere su come invece su come, anche con l'ausilio di macchine, possiamo assumerci responsabilmente l'onere, ma anche il piacere, di affrontare problemi, e di risolverli.

Nel capitolo 'L'essere umano e i due modi di essere Turco' del mio libro Macchine per pensare parlo proprio di Watson e delle sue implicazioni non solo filosofiche, ma anche politiche e sociali.
Trascrivo qui sotto un breve brano:

Al termine del Ventesimo Secolo l’IBM lancia il computer Deep Blue. La macchina sconfigge, in una partita a scacchi, il campione Garry Kasparov. Di fronte a questo successo, subito si elevano i peana: ‘E solo una questione di tempo e le macchine diventeranno imbattibili’. Si cela dietro questa celebrazione della cosiddetta Intelligenza Artificiale un messaggio non da poco: si vuole convincere con questa propaganda i cittadini a credere che sia meglio affidarsi ad una macchina meravigliosa, che pensa, e risolve i problemi complessi, meglio di quanto sappiano fare gli esseri umani.
Non paghi, gli strateghi e i tecnici dell’IBM, nei primi anni del nuovo millennio, rilanciano, costruendo una nuova macchina ancora chiamata, per colpire la fantasie delle masse, Supercompuer: Watson, in onore di Thomas John Watson Sr., Chairman per quarantadue anni della Corporation.
Si tenta di argomentare che il progetto ha come scopo facilitare l’interazione tra uomo e macchina. Si vuole sostenere che sia utile all’uomo una macchina con la quale si possa interagire senza dover ricorrere ai complicati linguaggi che la normale macchina è in grado di capire. Ma per l’uomo, come non è mai un problema comunicare con un cane o con un gatto, non è mai un problema colloquiare con una macchina. L’aspettativa, che spesso l’uomo, insicuro, nasconde a se stesso, è disporre di una macchina in grado di sostenerlo nel proprio libero pensiero.
Stavolta, con Watson, poiché alle masse si devono offrire spettacoli adatti, si trascura il troppo sofisticato gioco degli scacchi, e si scende sul piano della più comune volgarizzazione della conoscenza: la capacità di rispondere alle domande di un quiz televisivo. Ecco la grande sfida, che naturalmente la Macchina vince: esibirsi sui teleschermi, durante una puntata di Jeopardy!, ovvero Rischiatutto. Naturalmente, anche in questo caso si tratta di una sfida comoda, fondata in realtà su ciò che è facile per la macchina, ed è al contempo un inevitabile punto debole umano: la mera capacità di memoria, il tenere in archivio masse di dati. Si sceglie dunque, per colpire l’immaginario popolare, un gioco adatto più a una macchina che a un uomo, un gioco dove intuizione ed abduzione giocano un ruolo marginale.

Questa è l’intelligenza, il modo di intendere il pensiero, che si pone alla fine come modello all’uomo-massa. Per indurlo a smettere di pensare.

Sullo stesso tema, potete leggere questo mio articolo, apparso sul Sole 24 ore, supplemento Nova, il 10 aprile 2016.

venerdì 25 marzo 2016

E’ tutta colpa di Google?

Un’opinione diffusa, sempre più presente sui mass media, giornali e televisione, ma anche sui social network, un’opinione di cui sono portatori intellettuali, politici, e anche informatici di professione, guarda con preoccupazione all’abuso posizione dominante da parte di imprese operanti sulla scena delle cosiddette ‘nuove tecnologie’. Una sempre crescente, massa di conoscenze, frutto dell’intelligenza umana, è oggetto di appropriazione indebita. Un caso per tutti: Google.
Google è responsabile di sempre più pericolosi attacchi alla sfera privata dei cittadini, Google è responsabile dell’appropriazione indebita, del furto di conoscenze prodotte da ognuno. Bastano pochi esempi.Google spia i nostri gusti e le nostre intenzioni osservando le nostre interrogazioni al motore di ricerca. Google viola la nostra sfera privata usando, non sappiamo bene come, la possibilità di sapere tutto sul nostro uso della posta elettronica. Google, tramite il servizio di Analytics messo a nostra disposizione, è in grado di sapere quali siti, e quali pagine su ogni sito, preferiamo visitare. Google, alimenta e via via migliora il proprio sistema di traduzione usando la capacità degli esseri umani di tradurre da una lingua all’altra: usa la mia capacità di tradurre senza darmi nulla in cambio. Ribadisco che si tratta solo di esempi.
E’ superfluo soffermarsi troppo nel ricordare che ciò che vale per Google vale in uguale o maggiore misura per ogni piattaforma offerta al nostro uso: Facebook, Twitter, Instagram. Anch’io sono inquietato da questa situazione.
Anch’io vedo in questa appropriazione -che passa sopra la testa di cittadini e stati sovrani- un’enorme problema politico, sociale, culturale. Ma non sono d’accordo nel considerare tutto questo una novità. Se vediamo in Google un pericolo nuovo, è solo per carenza di prospettiva storica. E’ solo perché siamo abbagliati dalla nuova veste di un fenomeno che non è per nulla nuovo, un fenomeno che viene da lontano, e che, dall’inizio del Ventesimo Secolo, ha caratterizzato l’intera storia dell’Informatica, fin dalla sua nascita. Abbagliati dalla pretesa novità, credo, finiamo per non vedere il pericolo dove veramente è, e quindi per non adottare contromisure efficaci.
Per questo in Macchine per pensare ripercorro la storia dell’Informatica. E’ fuorviante legare la storia dell’Informatica a Turing e a von Neumann, alla costruzione di ‘macchine matematiche’ destinate a sostituire il povero pensiero umano con il più efficiente e preciso ‘pensiero calcolante’. C’è un altro filone compresente: la progettazione e la costruzione di macchine destinate al controllo sociale. Macchine destinate a portare a compimento il sogno di ogni burocrazia, ma anche di ogni stato totalitario: sapere tutto il possibile della vita e dei comportamenti dei cittadini.
Racconto così in Macchine per pensare dell’avvento delle prime ‘macchine per il controllo sociale’ veramente efficienti: le macchine Hollerith, macchine elettromeccaniche che conservano le informazioni su schede perforate, nate negli Stati Uniti per automatizzare l’elaborazione dei dati raccolte con i censimenti. Macchine che trovano l’esemplare, estremo utilizzo nella Germania nazista negli Anni Trenta e Quaranta.
Si usavano allora queste macchine, in modo consapevole e trasparente, per sapere tutto di ogni persona, nel privato e al lavoro. Come racconto in sintesi qui. Non si osava forse pensare di potersi anche appropriare, tramite un’espansione della capacità del controllo di queste macchine, anche dei frutti del pensiero umano. Ma il progetto era già, nei primi trenta anni del secolo scorso, ben chiaro. Nulla dunque di nuovo.
Karl Marx l’aveva capito con un secolo d’anticipo. Solo oggi possiamo ben capire ciò che paventava parlando di General Intellect, knowledge sociale generale, prodotto del pensiero e del lavoro umano, defraudato ai produttori e reso disponibile, tramite macchine, a chi -stati, imprese, poteri occulti- potrà così usare a proprio piacimento ciò come nasce come risorsa personale e sociale.
Ora, il fatto è che, a partire dagli Anni Sessanta del Ventesimo Secolo, si assiste a una rottura storica. Quelle macchine che erano in esclusiva disponibilità di Stati, imprese, poteri occulti, quelle macchine che servivano al controllo sociale, entrano nella disponibilità di ogni cittadino. Il Personal Computer e in World Wide Web, pur con tutti loro difetti, sono questo: strumenti di liberazione, strumenti per difendere e garantire la propria libertà personale, la propria possibilità di creare conoscenze e di goderne i frutti.
Google nasce con il Web. Nasce con il progetto libertario dell’esplorazione di nuove frontiere per la conoscenza. Conoscenza di ognuno e conoscenza come bene comune, liberata dal controllo centrale il cui simbolo è proprio il Mainframe, in computer centrale che tutto conserva, diretto erede delle macchine Hollerith. Il fatto che poi alcuni tra i tecnici che hanno creato il Personal Computer e il Web, in casa Google e in altre case, si siano trasformati in speculatori finanziari, e pur di trarne profitto, siano passati a distruggere la propria creatura, non può negare la storia. L’atteggiamento via via sempre più esplicitamente assunto da Google e da Facebook, la loro minacciosa posizione dominante di onnipresenti attori globali sciolti da vincoli dettati dagli Stati sovrani, il loro attacco alla sfera personale dei cittadini del pianeta, dunque, ben lungi dall’essere una novità, è un rigurgito del passato. Insomma: la posizione dominante di Google non è che il ritorno, al di là della rottura culturale politica che l’avvento del Personal Computer e il World Wide Web hanno comportato, a quel controllo sulla vita e sul lavoro umano che è caratteristica originaria dell’Informatica.
Non serve dunque demonizzare Google, né serve vedere nuovi pericoli conseguenti a misteriose tecnologie. Serve mantener viva, in quanto cittadini, la propria attiva presenza sulla scena politica. La democrazia è frutto di responsabilità diffusa. La democrazia, oggi, è anche frutto dell’uso consapevole delle tecnologie oggi disponibili. Che restano, nonostante Google, strumenti democratici tramite i quali combattere le pretese totalitarie e l’incombere eccessivo del controllo sociale.
Va bene quindi parlare dell’antica minaccia alle libertà individuali, oggi incarnata da Google. Ma, intanto, occupiamoci di usare con più consapevolezza e con più pienezza, come strumenti di liberazione, gli spazi di libertà personale, di interazione sociale e di creazione collettiva di conoscenza che prima non ci saremmo neanche sognati di possedere. E che oggi, anche per merito di di Google, abbiamo a disposizione.

(Ho già scritto a proposito di Google, qui su Dieci chili di perle, qui e qui).

Cosa c’entra Richard Rorty? Non basta Terry Winograd? Ovvero: sei consapevole di essere un ermeneuta?


Dopotutto, l’informatica si occupa della costruzione, della conservazione e della diffusione di conoscenza. Proprio l’ambito di attività che da noi, in Occidente, è stato coperto da figure chiamate ‘filosofi’. Oggi, sostengo nel mio libro Macchine per pensare, assistiamo ad un passaggio di mano. L’informatica prende il posto della filosofia. L’informatica è la prosecuzione della filosofia con altri mezzi. Per muoversi nell’enorme massa di informazioni di cui disponiamo, massa che si incrementa istante dopo istante, serve all’uomo l’ausilio di macchine che ci siamo abituati a chiamare computer.
Perciò, con il mio libro, propongo una riflessione filosofica sulle macchine dette computer. Non penso di portare una qualche verità. Ma intendo mostrare come si può ragionare su questi temi. Vorrei così sostenere gli amici -informatici, computer scientist, o social data scientist, chiamatevi come volete- che scelgono di pensare da sé. E che scelgono di percorrere la strada dell’assunzione di responsabilità personali a proposito delle loro ricerche. E che cercano anche, doveroso ricordarlo, di percorrere la strada della responsabilità personale rispetto a come in quanto docenti formano gli studenti ad essere a loro volta ricercatori responsabili.
Un semplice esempio. Sostengo che è rilevante per chi si occupa oggi di computing il passaggio proposto da Richard Rorty: dall’epistemologia all’ermeneutica. Ma mi si dice: che c’è di nuovo in tutto questo? Non c’è bisogno di Rorty. Basta Winograd, anche lui parlava di ermeneutica. Winograd fa parte del canone informatico, Rorty no. Che bisogno c’è di uscire dal canone?
Andando a guardare, possiamo osservare che Winograd non cita Rorty. Ma ponendo un po’ di attenzione al contesto nel quale i due si muovono, risulta evidente il fatto che Rorty scrive prima di Winograd, lo anticipa. E’ Rorty a sostenere nel dibattito filosofico degli Anni Settanta, che non vale più la pena di cercare di edificare sistemi di conoscenza ben strutturati, e che conviene invece cercare la conoscenza nelle conversazioni: negli scambi, nelle interazioni, nelle reti.
Winograd viene dopo. Perché allora limitarsi a Winograd. Perché non risalire a chi ha portato scandalo, contrapponendo direttamente e polemicamente l’ermeneutica all’epistemologia.
Ma se proprio non si vuol leggere Rorty, fatene a meno. Alla fin fine, io che adesso qui sostengo l’importanza della sua lezione, in Macchine per pensare non lo cito nemmeno una volta. Se volete restar fedeli alla pista indicata da Winograd, leggete Heidegger, Wittgenstein, Gadamer. Ma uscite dal recinto della letteratura di settore. Cercate fuori dal recinto riferimenti filosofici, concettuali, a partire dai quali costruire, in piena libertà e responsabilità, la vostra ricerca.

Un semplice esempio, ho scritto qui sopra. Ma non un esempio a caso. Il passare dal lavorare con dati strutturati al lavorare con dati destrutturati porta con se il transito dall’epistemologia all’ermeneutica.
Chi lavora oggi nel campo dell’informatica, in particolar modo chi fa ricerca, si trova a doversi allontanare dal consolidato terreno dei dati strutturati. E’ chiamato, invece, ad avventurarsi sull’incerto terreno dei Big Data, masse di dati di cui si ignora la struttura, o che comunque debbono essere usati a prescindere dall’originaria struttura.
E’ un lavoro del tutto diverso. Chi è abituato ad affidarsi ad algoritmi di riconosciuta efficacia, può essere portato a dimenticare che l’efficacia è conseguenza della struttura. Dove la struttura non c’è, e dove la ricerca non è governata dalla mera applicazione di algoritmi, il ricercatore, per abitudine, potrà magari illudersi che ‘le cose si mettono a posto da sole’. Così, per esempio, il ricercatore può osservare l’emergere, dalla sovrapposizione di diversi corpora testuali, un sistema di regole grammaticali, sintattiche, semantiche. In apparenza, senza aver fatto nulla.
Ma in realtà, cosa ha fatto il ricercatore? Ha svolto, magari senza averne piena consapevolezza, un lavoro ermeneutico. Ha lavorato formulando ipotesi interpretative, e quindi applicandole ai dati.
Il ricercatore ha lavorato come il filologo che collaziona manoscritti diversi, varianti, alla ricerca del senso implicito nel testo.
Scrivevo qui su Dieci chili diperle, nell’articolo precedente: masse di dati destrutturati appaiono sorde. Sembrano non dire nulla. Ci sfidano, chiedendoci di provare a coglierne in senso. Ci sfidano ad interpretarli. Ci chiedono, cioè, di essere ermeneuti.
Per questo è importante il campo condiviso che chiamiamo ‘informatica umanistica’ - dove l’umanista può mettere a disposizione dell’informatico la propria esperienza di interprete di testi e di linguaggi. Ovvero, di ermeneuta.
Insomma: la domanda ‘perché chiamare in causa Rorty?’ può essere rovesciata in un’altra domanda. Tu, ricercatore, computer scientist al lavoro con dati destrutturati, sei consapevole di essere un ermeneuta?

Appunti a proposito delle responsabilità dei computer scientist


Che problema c’è? Mi chiede un professore di informatica nella discussione che segue a una presentazione del mio libro Macchine per pensare. E sottintende: il problema non esiste.
Il tema dell’argomentare è presto detto: un tempo forse era sensata la critica a una Intelligenza Artificiale Forte. E in anni successivi, forse, era motivata anche una critica all’Intelligenza Artificiale Debole. A entrambe queste concezione dell’Intelligenza Artificiale s’attaglia infatti la critica: si vuol sostituire la macchina all’uomo. Si vuol sostituire all’intelligenza umana, accettata così com’è, un’intelligenza progettata secondo il modello di un’intelligenza ben fatta, depurata dagli umani limiti e difetti.
Il computer scientist, così, pretende quindi di sapere, a priori, quali sono i limiti e difetti dell’intelligenza umana, ponendosi al sopra del suo stesso essere uomo, ponendosi nel ruolo del demiurgo -’artefice’, ‘ordinatore’- pretendendo di sapere meglio degli altri uomini cosa è giusto per gli uomini.
Mi si dice: forse questa era una pretesa eccessiva. Ma che problema c’è? Non c’è problema, perché oggi l’Intelligenza che noi computer scientist, l’Intelligenza che perseguiamo e sviluppiamo non può più nemmeno essere definita, a rigore, ‘artificiale’. Perché è la stessa intelligenza umana. Potrebbe semmai essere definita Intelligenza Sociale. Lavoriamo infatti sui frutti dell’umano pensare, frutti collazionati in rete, rese accessibili da quella Rete di Reti che è il Web.
Studiamo sintassi e semantica non a partire da grammatiche intese come sistemi di regole. Osserviamo invece l’emergere di regole da corpora che raccolgono l’umano libero modo di esprimersi. Cerchiamo traduzioni da lingua a lingua via via migliori attraverso l’accumulazione, la sovrapposizioni di traduzioni diverse degli stessi testi canonici, e attraverso le correzioni alle stesse traduzioni di umani disposti a collaborare. Ricostruiamo i comportamenti degli uomini a partire dalle loro stesse tracce: le tracce lasciate, passando da cella in cella, dal telefono cellulare che ormai accompagna ogni essere umano; le tracce lasciate dalla scatola nera posta dalle Compagnie di Assicurazioni sulle automobili; le tracce lasciate dalla battuta di cassa, rilevate nel momento in cui l’essere umano compra qualcosa in un negozio.
I Big Data, che non sono altro che il frutto dell’intelligenza umana, costituiscono insomma la materia sulla quale noi lavoriamo. Non veniteci quindi a dire -ecco il succo dell’argomentazione che mi viene proposta-, non veniteci a dire che pretendiamo di imporre all’uomo un’intelligenza diversa dalla sua. Veniteci semmai, invece, a ringraziare, per come diffondiamo e redistribuiamo ad ogni uomo i frutti della sua stessa intelligenza. Permettendo ad ogni uomo di godere dei frutti dell’intelligenza che non sa di avere.
E allora, che problema c’è? Tralascio di qui di toccare il tema della privatezza (detto tra parentesi, non vedo la necessità di usare il termine inglese privacy), della riservatezza, di come in molti casi siano raccolti i dati sui comportamenti degli esseri umani. I dati sul personale uso, da parte di ognuno, della propria personale intelligenza. Perché spesso, si sa, i dati sono raccolti nostro malgrado, senza che noi esseri umani ne siamo adeguatamente portati a conoscenza. E senza che ci venga garantito un adeguato compenso per questo uso (o abuso) della nostra intelligenza.
Tralascio qui questo tema -del quale del resto parlo in Macchine per pensare, e che comunque tratterò in un altro articolo, qui su Dieci chili di perle. Tralascio qui il tema, pur considerandolo importante, perché cerco di evitare una trappola in cui vedo finire spesso riflessioni simili a quella che propongo in questo articolo. Scivolando a parlare del furto dell’umana intelligenza, si finisce per distogliere l’attenzione dalla riflessione sul ruolo del computer scientist, alle prese con l’intelligenza più o meno umana. Si cerca lontano da noi il colpevole dell’ingiustizia, allontanandoci abbastanza comodamente dal riflettere attorno a ciò che stiamo facendo.
Torniamo quindi alla domanda iniziale: che problema c’è? Torniamoci accettando anche di chiamare ora il computer scientist ‘social data scientist’.
Il problema che c’è, e che tocca il social data scientist così come il computer scientist, può essere formulato sotto forma di nuova domanda. Se tu avessi lavorato negli ultimi Anni Cinquanta o negli Anni Sessanta, al tempi in cui dominava in canone dell’Intelligenza Artificiale Forte, come ti saresti comportato? Ti saresti mosso nei confini del canone, o avresti forse -in virtù della libera scelta riconosciuta al ricercatore universitario- indirizzato la tua ricerca in altre direzioni? Ti saresti posto domande etiche a proposito del tuo arrogarti il ruolo di demiurgo? E analogamente: se tu ti trovassi nell’epoca in cui domina il canone dell’Intelligenza Artificiale Debole, come ti comporteresti? E dunque: è sufficiente, oggi, tranquillizzarsi dicendo che non sono più attuali i dubbi etici che erano attuali sessanta o trenta anni fa?
Sono propenso a sostenere che il lavoro del ricercatore, e del progettista di macchine che tendono a sostituire l’uomo, comporta di per sé dubbi etici e interrogativi relativi alla personale responsabilità. Semplicemente: ciò che fa la differenza tra ricercatore e ricercatore, è la personale disponibilità -quale che sia il canone vigente- a non rifiutare i dubbi etici e ad assumersi personali responsabilità. Non serve nemmeno lavarsi la coscienza firmando appelli, per esempio per moratorie delle ricerche relative a robot-soldato. La domanda è esistenziale, rivolta alla persona: cosa faccio io personalmente, al di là del firmare un appello, nel mio quotidiano lavoro di ricerca e di sviluppo? So bene che l’assumere questo atteggiamento non è facile.
Una prima, non irrilevante conseguenza, è che legare le ricerche al proprio personale punto di vista significa spesso uscire dal canone; e l’uscire dal canone comporta spesso, di fatto, una penalizzazione della stessa carriera del ricercatore.
Una seconda, più ampia conseguenza è che si tratta di imparare a muoversi su un campo nuovo, il campo filosofico. Non solo allargando lo sguardo sul terreno già noto e battuto: pur restando sul terreno indicato da Turing -il ‘pensiero calcolante’- tornare a guardare alla matematica assiomatica di Hilbert, alla logica di Frege, ritornare magari a Leibniz. Ma accettando anche di muoversi in territori estranei al canone informatico: Freud, Wittgenstein, Heidegger. O altri ancora. Wittgenstein ci ricorda che, di fronte ad ogni macchina, e ad ogni funzionamento della macchina, è possibile contemplare un’altra macchina, ed un altro funzionamento. Heidegger ci fornisce precisi indirizzi a proposito di come concepire una macchina a misura d’uomo. Non sono forse queste fonti importanti per chi lavora a studiare i modi per gestire, tramite computer, l’intelligenza umana?
Di questo cerco di parlare in Macchine per pensare. Credo non sia difficile muoversi sul terreno della filosofia. Ma anche se lo fosse? Dobbiamo forse rinunciare a cose interessanti solo perché ci appaiono, di primo acchito, difficili?
Lascio rispondere alla domanda il mio amato poeta cubano José Lezama Lima: “sólo lo difícil es estimulante”. Solo ciò che è difficile è stimolante. Perché, sostiene Lezama, solo ciò che è difficile ci stimola ad andare oltre le nostre resistenze, e le resistenze dei materiali con i quali lavoriamo. Masse di dati destrutturati appaiono sorde. Sembrano non dire nulla. Ci sfidano, chiedendoci di provare a coglierne in senso.