sabato 18 luglio 2020

La Legge di Moore: mito fondativo o comoda scusa

Il testo che segue è un breve brano tratto dal mio libro Le Cinque Leggi Bronzee dell'Era Digitale E perché conviene trasgredirle, Guerini e Associati, in libreria il 3 settembre 2020.

Il cavallo di battaglia di tutti coloro che non vogliono guardare ai difetti della macchina che c'è, e che ogni giorno ci è data da utilizzare, e preferiscono invece saltare in fosso, e immaginarsi già in un mondo dove umani e macchine pari sono, ed anzi il computer è modello per l'umano, è la cosiddetta Legge di Moore.
Gordon Moore, tecnico specializzato in fisica applicata, direttore di un centro di ricerca, scrive nell'aprile 1965 che il numero di transistor contenuti in un circuito integrato appoggiato su una piastrina di silicio raddoppia ogni 18 mesi. "Cramming more components onto integrated circuits", recita il titolo dell'articolo che appare sulla rivista Electronics.1 Il verbo to cram discende dalla stessa radice indoeuropea da cui anche il latino grex, gregge. Non si possono radunare più di tante pecore in un recinto. Ma ora il progressivo sviluppo nel campo delle nanotecnologie garantisce una crescente miniaturizzazione dei componenti. I limiti apparenti della fisica possono essere continuamente spostati.
Mosso da questa visione, nel '68 Moore è uno dei cofondatori di Intel, Integrated Electronics, che presto si affermerà come leader nel mercato della unità di elaborazione centrale, i supporti fisici, l'hardware sul quale si appoggia la potenza di calcolo dei Personal Computer. Nel 1975, in vista del decennio successivo, Moore rivede la sua previsione, affermando che la potenza si raddoppierà ogni due anni. Potenza crescente a costi decrescenti. Su questa promessa di abbondanza si fondano le pretese certezze dell'Era Digitale.

La miniaturizzazione dei transistor che compongono i circuiti integrati in silicio si avvicina forse ad un limite invalicabile. Ma resterebbe comunque aperta a quel punto la via del Cloud, e della moltiplicazione delle macchine che lavorano in parallelo.
Si aggiunge una nuova via, che promette un salto in avanti nella potenza di calcolo disponibile: i computer quantistici. Basta qui dire che su questa frontiera si muovono, lontano dai riflettori della cultura digitale raccontata ai cittadini, non solo IBM, Google, Microsoft, Intel, ma anche -in un gioco geopolitico gravido di conseguenze- la NASA (National Aeronautics and Space Administration), negli Stati Uniti, così come centri di ricerca cinesi e russi.
Così, in un modo o in un altro, nel presente e nel futuro, si considera il fatto che disporremo di una sempre maggiore potenza, di una sempre maggiore velocità di calcolo come una sorta di Legge della nuova Natura Digitale.

Se prendiamo per buono questo trend, dovremmo anche ammettere che siamo di fronte alla più
Già nel 2000 Jaron Lanier, programmatore finissimo, ma anche musicista, osservava questo fideistico affidamento alla provvidenziale Legge di Moore. Scriveva: “i computer diventano sempre più veloci, ma non per questo ci mostriamo capaci di scrivere software migliore”. “Il software dei nostri computer continua a deludere”. Questa, diceva Lanier, è la Great Shame of computer science, Grande Vergogna dell'Informatica.2
Vent'anni dopo, avendo nell'orecchio le parole di Computer Scientist, imprenditori e guru e filosofi del digitale, il giudizio merita di essere ripreso. Se c'è una cosa sulla quale si trovano d'accordo questi apologisti del nuovo mondo, è il collocare i propri ragionamenti in un rassicurante contesto: viviamo su un tappeto mobile -la situazione determinata dalla Legge di Moore- che per nostra fortuna ci trascina in avanti. L'abbondanza di risorse, di potenza di calcolo, sempre crescente, giustifica i nostri errori presenti, e garantisce comunque un mirabolante futuro. Qualsiasi presentazione al popolo delle meraviglie dell'Era Digitale inizia con una slide: la curva che rappresenta la Legge di Moore sale verso il cielo.
“Che ci importa di una comprensione razionale quando invece si può contare su un feticcio?”, scrive Lanier commentando questo atteggiamento. “Il feticizzare la legge di Moore seduce i ricercatori all'autocompiacimento”. “Se si ha dalla propria parte una forza esponenziale, sicuramente si sarà all'altezza di qualsiasi sfida”.

Lanier richiama alla realtà, all'immediata concretezza e e alla responsabilità: facile nascondere magagne e difetti del codice che scriviamo quando si dispone di potenza di calcolo sempre maggiore. Finisce per importar poco la scelta del linguaggio, e la cura stessa con la quale il codice viene scritto.
Scrivendo nel 2000, Lanier non disconosceva i progressi visibili nella scrittura del codice: ricordava come esempi di significativi risultati raggiunti i software di riconoscimento vocale e di traduzione da una lingua naturale all'altra. Oggi, vent'anni dopo, possiamo notare che i risultati raggiunti in questi campi sono dovuti alla capacità di calcolo fornita dai supporti fisici, all'hardware via via più potente, molto più che alla qualità del codice.
Anzi, si deve notare un fenomeno inverso: buona parte della nuova potenza di calcolo via via disponibile è assorbita dal software, senza che ssi notino miglioramenti nelle prestazioni del software.
Le parole di Lanier sono chiare ed incisive: “c'è una legge inversa di Moore osservabile nel software: man mano che i processori diventano più veloci e la memoria diventa più economica, il software utilizza comunque tutte le risorse disponibili, diventando più lento e più gonfio”.

Basta ricordare l'esperienza di ogni cittadino. Ogni nuovo computer -o smartphone- che compriamo dispone di memoria e di potenza di calcolo notevolmente superiore alla macchina che possedevamo prima. Ma non notiamo nessun miglioramento nelle prestazioni.
Ogni cittadino ha ben presente il fastidioso modo di funzionare dei programmi di uso quotidiano, per esempio, Microsoft Word. Ogni nuova versione occupa più spazio in memoria. Ogni nuova versione di un programma fa rimpiangere la precedente: la nuova è più macchinosa, più lenta; costringe a cambiare abitudini, contiene nuove funzione inutili, mentre sono state eliminate possibilità d'azione che l'utente trovava utilissime. “La distanza tra i computer ideali che immaginiamo nei nostri esperimenti di pensiero e i veri computer che sappiamo offrire al mondo non potrebbe essere più amara”, nota Lanier.

1Gordon E. Moore [Director, Research and Development Laboratories, Fairchild Semiconductor division of Fairchild Camera and Instrument Corp.], "Cramming more components onto integrated circuits", Electronics, Volume 38, Number 8, April 19, 1965. https://newsroom.intel.com/wp-content/uploads/sites/11/2018/05/moores-law-electronics.pdf
2Jaron Lanier, “One Half a Manifesto”, con commenti di George Dyson, Freeman Dyson. Cliff Barney, Bruce Sterling, Rod Brooks, Henry Warwick, Kevin Kelly, Margaret Wertheim, John Baez, Lee Smolin, Stewart Brand, Rod Brooks, Lee Smolin, Daniel C. Dennett, Philip W. Anderson, Ray Kurtzweil, Edge, 10 novembre, 2000, https://www.edge.org/conversation/jaron_lanier-one-half-a-manifesto.

domenica 10 maggio 2020

Cosa posso fare accompagnato dalla macchina

Sto terminando di scrivere un libro, di cui su questo blog esistono varie tracce: Le Cinque Leggi Bronzee dell'Era Digitale. E perché ci conviene trasgredirle. Sono anche grandemente in ritardo nella consegna del libro al mio editore, Guerini e Associati.
Il blog è una libera accumulazione di testi, il libro ha una struttura più  chiusa. Giunti verso la  fine della stesura del libro si toglie, si aggiunge, si lima. Questo testo era compreso nella Conclusione delle Cinque Leggi Bronzee. Ma ora l'ho tolto. Lo pubblico qui, Nel libro, di questo testo, ho tenuto buono solo un capoverso, quello che inizia dicendo: Inevitabilmente, è un mare ricco di insidie...

Cosa possiamo fare accompagnati dalla macchina che abbiamo sempre con noi - in tasca, sulle ginocchia, sul tavolo. 
Possiamo intanto scientemente ignorare e trasgredire le pressanti indicazioni provenienti in modo sempre più subdolo dalla macchina. Possiamo scegliere di non dar retta alle notifiche. Diffidare da ogni contenuto che la macchina spaccia come “consigliato per te”. Possiamo per quanto possibile evitare di farci dettare i tempi e le priorità dalla macchina. Lungi dal sentirci obbligati ad entrare ogni giorno, ogni ora nei cosiddetti Social Network -Facebook,Twitter, Instagram o qualsiasi altro- possiamo entrarci solo quando e se abbiamo un motivo per farlo legato alla nostra vera vita di persone in carne ed ossa. Nel muoverci all'interno di questi poveri simil-mondi -in realtà istituzioni totali dove ci è negata libertà- converrà fare il possibile per portare lì conoscenze nuove, temi, argomenti provenienti dal mondo. Per esempio, proporre link, legami che rinviano ad altri testi, documenti, fonti accessibili in qualche luogo del World Wide Web.
Non dobbiamo infatti dimenticare che esiste un abisso tra la libertà e l'apertura che -con tutti i suoi limiti e le sue contraddizioni- ci offre il World Wide Web e la chiusura che caratterizza i Social Network. Basta vedere come ogni regime dittatoriale osteggia e limita il libero accesso al Web, ed accetta invece l'uso dei Social Network. E anche che c'è da preferire in ogni caso un sito Web ad una App. Le App sono una gabbia. Dietro la semplicità d'uso c'è l'assenza di qualsiasi trasparenza su quali dati ci vengono fatti vedere, e quale uso viene fatto dei dati da noi prodotti, quale tracciamento di ogni nostra azione. Usiamo qualsiasi strumento digitale partendo dalla supposizione che tramite quello strumento siamo sorvegliati, controllati. Che qualsiasi cosa pubblichiamo in un qualsiasi luogo digitale è, come dice il verbo stesso, pubblica.
Teniamo presente che siamo stati drogati e che i processi di disintossicazione sono lenti e faticosi; che esiste una tecnocrazia che ha interesse a tenerci chiusi in questi simil-mondi; che siamo condizionati da spinte gentili, ma tese a forzare la nostra volontà, la nostra scelta.
Restimo consapevoli che le nostre umani relazioni -amicizie, affetti, amori- non sono quelle che appaiono nei luoghi digitali. La più grave minaccia risiede proprio nello spingerci a rileggere il nostro complessivo modo di essere umani alla luce dei modi di essere che ci sono concessi, offerti, imposti dai Social Network.

Converrà ricordare il perverso disegno politico che si nasconde dietro concetti come Infosfera e OnLife. Noi non viviamo nell'Infosfera. Perché i frutti del nostro pensiero, le nostre conoscenze -come ci ricordano i verbi latini- sono qualcosa di enormemente più ricco delle mere 'informazioni'. E perché la nostra appartenenza alla natura, e alla storia e alla cultura non vengono meno con l'avvento dell'Era Digitale. Dobbiamo saper guardare a come in ogni proposta di passaggio al digitale siano implicite riduzioni della vita materiale e spirituale, di ciò che è più nobile nell'essere umano. Le tecnologie nel campo della manifattura, l'automazione, la robotica tolgono all'uomo il vitale lavoro. Le cosiddette smart city sono luoghi dove ogni angolo di strada è sorvegliato. La digitalizzazione della medicina trasforma la cura, che è preoccupazione, attenzione per se stessi e per gli altri, in esecuzione di protocolli affidati a macchine. L'enfatica celebrazione dei dati significa espropriare agli esseri umani conoscenze per poi riproporle filtrate attraverso lo sguardo della tecnocrazia.
La nuova proposta di una vita digitale è minacciosa, perché l'imitazione del mondo che viene proposto a noi come luogo dove vivere non si appoggia su gandi visioni, sulla grandezza e sulla nobiltà umana: è frutto invece -da Turing a Yudkowsky- di progetti nati dall'insicurezza, dal dolore, dal bisogno di fuggire, dal rifiuto del vitale equilibrio tra maschile e femminile. Frutto di allontanamento dall'essere umani.
La nostra vita, per nostra fortuna, già ben entrati nel Nuovo Millennio, in scarsissima misura si esplica sul terreno digitale. Camminiamo per terra, ci muoviamo nei prati e nei boschi, nuotiamo nel mare. Ci alimentiamo di cibo e curiamo la nostra salute e abbiamo rapporti affettivi e sessuali fuori dalla sfera digitale. Questo è essere umani. Vi aggiungeremo volentieri qualcosa, se potremo. Tramite l'uso di sempre nuovi strumenti, come del resto l'essere umano ha sempre fatto nel corso della storia, potremo migliorare la nostra vita. Sempre ricordando che la dote che ci caratterizza è la saggezza, non la sola ragione. La sola ragione taglia via, pretende di far apparire semplice ciò che è complesso, sostituisce la vita con imitazioni. La saggezza è coltivare il piacere, il gusto della vita, l'armonia e l'appartenenza.
I tecnocrati e i tecnici e gli scienziati ritengono di essere più vicini alla ragione dei comuni cittadini: è vero, ma questo è un loro limite, non un pregio. Se la ragione è un'esclusiva dei tecnici, la saggezza è una dote di ogni essere umano. E' la saggezza che ci porta a dire: intuisco e sento che qualcosa che mi è giustamente caro viene violato. Che può dirci come muoverci sulla soglia che abbiamo di fronte: scegliere se restare noi stessi o preferire una macchina a noi stessi.

Cosa possiamo fare. Non dovremo preoccuparci di disporre dell'ultima versione o dell'ultimo aggiornamento. Sappiamo anzi per esperienza che dal personale punto di vista di ognuno di noi, ogni nuova versione farà rimpiangere la precedente. Non dovremo preoccuparci di quale sia l'uso esatto previsto per ogni macchina, ogni programma; per quanto possibile la risposta umana dovrà essere: non mi lascio guidare. La uso come strumento per essere più pienamente me stesso, per portare avanti miei progetti, mie azioni. Perché, abbagliati da novità vuote di senso, viziati da inutili automatismi, distratti da notifiche, ci siamo dimenticati quanto la macchina ci sia utile. Così, tornati a considerare la macchina un mero strumento, possiamo tornare a vedere con chiarezza i grandi vantaggi che ci porta.

Mi limito a qualche esempio tratto dalla mia esperienza personale. Del resto, ognuno di noi dovrà imparare da sé a usare la macchina come gli serve.
Se ci troviamo in un incontro, in una riunione, non ci sarà bisogno di spengere lo strumento. Possiamo evitare di lasciarci distrarre da ciò che ci propone; scegliere di restare concentrati e seguire lo sviluppo dell'azione collettiva a cui stiamo partecipando, godendo pienamente della relazione con i presenti. Lo strumento ci permetterà al contempo di accedere a fonti -documenti, dizionari, enciclopedie- che allargano e approfondiscono le conoscenze che si vanno sviluppando, la comprensione del qui ed ora.
Se ci troviamo da soli a lavorare, possiamo continuare ad usare documenti e libri cartacei, avendo però a disposizione nello stesso momento altri testi che non abbiamo sul nostro tavolo. L'uso di un testo digitale comporta non trascurabili vantaggi: possiamo, per esempio, cercare all'interno del testo il ricorrere di una parola.

Esistono strumenti di base che, ad di là di inutili fronzoli, migliorano veramente il nostro lavoro, e la qualità del prodotto: programmi di scrittura, fogli elettronici.I programmi per scrivere incrementano in modo significativo la gamma di scelte in mano a chi scrive. Permettono di entrare nella struttura del testo. Liberano chi scrive dal vincolo delle scrittura sequenziale: lettera dopo lettera, parola dopo parola, riga dopo riga. Si può ora saltare da una parte all'altra del testo, manipolarlo plasticamente per approssimazioni successive al testo che abbiamo in mente. Forse ci facciamo poco caso, ma la letteratura è cambiata da quando i romanzi sono scritti tramite un programma di scrittura.

Esistono altri strumenti che allargano la nostra comprensione. La posta elettronica resta uno strumento di enorme valore. Non solo ha avuto lo storico ruolo di essere il primo strumento digitale ad aprire possibilità di relazioni tra persona e persona. Ma conserva grandi vantaggi sulle diverse ondate di strumenti di messaggistica che si sono succeduti. Si appoggia su un codice non proprietario, trasparente. Permette di conservare con facilità i messaggi e di tornare ad accedervi. La libertà del formato permette scelte personali nel modo di scrivere, e nel modo di interagire con gli interlocutori. L'Era Digitale, nata da idee libertarie, proponeva inizialmente una relazione da pari a pari, senza mediazioni autoritarie. La posta elettronica ci mantiene aperta ancora oggi questa situazione. Non solo leggiamo libri, possiamo scrivere all'autore ed attenderci risposta.

Programmi per tradurre ci permettono di avvicinarci a testi scritti in una qualsiasi lingua. In lingue che non conosciamo. Si sa che la qualità delle traduzioni migliorano via via, ma attraverso una appropriazione indebita, perché la casa produttrice del software utilizza il nostro lavoro non pagato: ogni nostra traduzione permette alla macchina di migliorare la qualità del suo lavoro. Si sa anche che il software che presiede alla traduzione potrebbe essere strumento di censura: potrebbe eliminare parti del testo o renderlo in modi corrispondenti a qualche autorità. Ma possiamo accettare questi limiti, essendone consapevoli. I programmi di traduzione ci aprono la porta di mondi altrimenti inaccessibili. Chi conosce bene quella lingua straniera potrà notare limiti nel programma. Ma qui la differenza è tra trovarsi di fronte a una porta chiusa, o avere invece la possibilità di avventurarci, di tentare di comprendere. Del resto, ogni traduzione è un tentativo di interpretare, comprendere. I testi classici possiamo trovarli facilmente già tradotti nella nostra lingua. Ma anche qui il programma di traduzione permette un salto dei qualità e di responsabilità. Un conto è affidarsi al traduttore, un conto è avventurarsi da soli a leggere in lingua originale Kant o Heidegger. Il traduttore-essere umano, nel tradurre, ha messo in campo la sua conoscenza di entrambe le lingue, la sua dottrina, ma anche i suoi pregiudizi.

Infine, il search engine, motore di ricerca. E' il più evidente esempio di strumento in grado di potenziare il lavoro intellettuale dell'essere umano. Nonostante il suo progressivo adattamento a scopi commerciali -come abbiamo visto descrivendo la Prima Legge- resta la più efficace macchina per pensare, il miglior esempio di efficace accompagnamento offerto all'intelligenza umana. Quel personalissimo lavoro mentale che abbiamo avvicinato ricordando il senso di alcuni verbi latini, è grandemente incrementato, sostenuto dall'uso del motore di ricerca. E' un cono di luce che ci permette di scoprire l'ignoto, di stabilire connessioni. Mettendo alla prova la nostra capacità di scegliere, criticare, valutare. Non a caso scriveva Vannevar Bush: come potremmo pensare. Come potrebbe pensare, come può pensare ogni essere umano che nell'Era Digitale non vuol rinunciare alla propria saggezza. Il primo passo è essere lettori critici, capaci di scegliere e giudicare.
Per questo è importante il motore di ricerca: lo strumento tramite il quale ogni cittadino può navigare in quella galassia di conoscenze che è il Web.
Inevitabilmente, è un mare ricco di insidie. Ma la pretesa di individuare, smascherare con certezza e magari sanzionare le cosiddette fake news è vana e pericolosa. Si torna per questa via affidarsi ad una autorità umana -ecco subito apparire un'altra delle nuove professioni tipiche dell'Era Digitale: fact checker, debunker- o a un qualche algoritmo, o intelligenza artificiale. Dietro l'autorità umana o digitale, sta una Legge. Che ci conviene trasgredire. Per cercare di persona, con l'aiuto del motore di ricerca, un'approssimazione alla conoscenza. Ricordiamo che il latino veritas traduce il greco alétheia: scoprire ciò che è nascosto, cogliere ciò che si nasconde dietro l'apparenza.

Kant aveva ben spiegato che l'Illuminismo è, per ogni essere umano, l'età dell'uscita dallo stato di minorità. Poi però, timoroso del disordine sociale, finiva per affidare i cittadini a Guardiani e celebrare il ruolo del Sovrano Illuminato. (1)
1(1) L'Era Digitale è il culmine del tempo immaginato da Kant. Gli scienziati sembrano condividere lo scetticismo di Kant. Ma forse vogliono solo difendere il proprio ruolo di Esperti aristocraticamente distinti dai restanti esseri umani. La scienza ha finito per diventare schiava della tecnica. La tecnica si è trasformata in tecnocrazia. L'Intelligenza Artificiale è divenuta strumento di dominio. E' il modo attraverso il quale viene tolto dalle mani degli esseri umani il volante. E forse è anche l'annuncio di un futuro dove potrebbe non esserci più spazio per gli esseri umani.
Dunque l'enfasi posta sull'imminente avvento di Intelligenze Artificiali di un tipo o di un altro è, in fondo, una narrazione tesa ad annichilire gli esseri umani. Ci conviene sperare in noi stessi. Le speranze degli esseri umani non si nutrono di ragione. Si alimentano con narrazioni.

(1)  Immanuel Kant, "Beantwortung der Frage: Was ist Aufklärung?", Berlinische Monatsschrift, Dicembre 1784, pp. 481-494.

domenica 9 febbraio 2020

Viaggio bibliografico nella ‘cultura digitale’



Be There Here”
Headline di una campagna pubblicitaria AT&T

"Nei modello dei mezzi di comunicazione di massa, il messaggio procede dalla posizione dell'emittente a quella del destinatario. Nella comunicazione umana reale, invece, chi invia il messaggio, prima di poter inviare qualcosa, non deve essere solo nella posizione dell'emittente, ma anche in quella del destinatario".
Walter J. Ong

"Immaginate una accessibilità ed un entusiasmo nuovi, che possano schiodare dalla narcosi da video che oggi incombe come una cappa di nebbia. Immaginate una nuova cultura, dove spiegazioni alternative permettano a ciascuno di scegliere il tracciato a lui più confacente, così che l'esperienza umana possa godere di una nuova libertà e di una nuova ricchezza."
Ted Nelson

"Sta avvenendo oggi una rivoluzione nella tecnologia della comunicazione, una rivoluzione profonda come quella dell'invenzione della stampa."
Ithiel de Sola Pool

"L'economia del futuro non si baserà più sul possesso, ma sulle relazioni."
John Perry Barlow

"Vivere nell'era digitale significherà una sempre minore dipendenza dall'essere in un determinato posto in un determinato momento, e diventerà possibile trasmettere anche il posto."
Nicholas Negroponte


Sul rapporto tra oralità e scrittura, e sulla ‘nuova oralità’ legata all’uso di nuovi media, il principale riferimento è: Walter J. Ong, Orality and Literacy. The Technologizing of the Word, London and New York, Methuen; trad. it. Oralità e scrittura. Le tecnologie della parola, Bologna, Il Mulino, 1986.

Sulla rivoluzione epocale legata al superamento della concezione tradizionale di 'testo' legata all'idea di 'libro stampato': Jay David Bolter, Writing Spaces. The computer Hypertext and The History of Writing, Lawrence Erlbaum Associates, Hillsdale (N.J.), 1991.

Sulla continuità tra la ‘nuova cultura’ degli anni sessanta e l’uso libertario' delle tecnologie, sul 'nuovo modo di pensare' legato ad un uso 'democratico' dell'informatica: Ted H. (Teodor Holm) Nelson, Computer Lib/Dream Machines, 1974, ora Seattle (Wash.), Microsoft Press, 1987;
Teodor Holm Nelson, "A Vision of the Future", Publishers Weekly, 23 novembre 1986. Sulla genesi dei concetti di 'ipertesto' e di Rete delle Reti: Ted H. Nelson, Literary Machines, Swarthmore (Pa), 1981 (pubblicato in proprio). Trad. it. dell'ed. 1990: Literary Machines 90.1, Padova, Muzzio, 1992.
A proposito di Ted Nelson: Peter Jackson, “Ted Nelson touch: Project Xanadu”, PC Magazine (ed. inglese), July 1992. Jim Whitehead, “Orality and Hypertext: An Interview whit Ted Nelson”, Cyberspace Report, 1966.

Ancora sulla continuità tra la ‘nuova cultura’ degli anni sessanta e l’uso libertario' delle tecnologie, in particolare sulle figure degli hacker (ed anche sulla storia del sistema telefonico negli USA), Bruce Sterling, The Hacker Crackdown. Law and Disorder on the Electronic Frontier, 1992; trad. it. Giro di vite contro gli hacker. Legge e disordine sulla frontiera elettronica, Milano, Shake, 1993.

Sul concetto di 'digitalizzazione delle informazioni': Nicholas Negroponte, Being Digital, New York, Alfred A. Knopf, 1995; trad. it. Essere digitali, Milano, Sperling & Kupfer, 1995. (Raccolta di interventi apparsi su Wired, il mensile californiano che si presenta come ‘bibbia della cultura digitale’. Gli eccessivi costi della versione on–line della rivista, Hot Wired, hanno causato la crisi della casa editrice, ceduta nella primavera 1988 al Gruppo Condé Nast, editore di Vogue).

Sulla ‘nuova libertà’ offerta dalle nuove tecnologie alle persone –che possono presentarsi sul mondo virtuale della Rete coperti da maschere diverse– , vedi Sherry Turkle, Life on the Screen: Identity in the Age of the Internet, New York, Simon & Schuster, 1995
Ancora su Sherry Turkle(psicanalista–semiologa americana cresciuta in Francia alla scuola del decostruzionismo): Sherry Turkle, “Who am We”, Wired, January 1996; Pamela McCorduck, “Sex, Lies and Avatars”, Wired, April 1996 (profilo di Sherry Turkle).

Sulla ‘vita artificiale’ generata dal software: Claus Emmeche, The Garden in the Machine. The Emerging Science of Artificial Life, Princeton N. J., Princeton University Press, 1994; trad. it. Il giardino delle macchine. La nuova scienza della vita artificiale, Torino, Bollati Boringhieri, 1996.

Sulla ‘vita nel cyberspazio’ -–parola inventata agli inizi degli anni ottanta dallo scrittore di fantascienza William Gibson(Neuromancer, 1984) vedi: Cyberspace. First Steps, Massachusetts Institute of Technology, 1991; trad. it. Cyberspace. Primi passi nella realtà virtuale, Padova, Muzzio, 1993. E: Douglas Rushkoff, Cyberia, New York, Harper Collins, 1994; trad. it. Cyberia. La vita tra le pieghe dell'iperspazio, Milano, Urra, 1994.

L’idea ‘cyberspazio’, mondo apparente creato dalle tecnolgie delle comunicazioni, luogo virtuale nel quale i soggetti si ‘incontrano’ per mezzo delle tecnologie digitali, era stata largamente anticipata: basti citare il teorico situazionista francese Debord e lo scrittore di fantascienza Philip Dick: Guy Debord, La Societé du spectacle, Paris, Lebovici, 1971; Commentaires sur la Societé du spectacle, Paris, Lebovici, 1988; trad. it. Commentari sulla società dello spettacolo e La società dello spettacolo, Milano, Sugarco, 1990. Philip K. Dick, Ubik, 1969; Roma, Fanucci, 1989.


lunedì 16 dicembre 2019

L'imperfezione dei linguaggi. Machine Translation e lingua Aymara

(Ripubblico qui un articolo che avevo pubblica su www.bloom.it il 27 agosto 2003. Mi pare ancora attuale. Anche se racconta di software degli Anni Ottanta del secolo scorso),

Mi ricapita in mano un libro di Umberto Eco dedicato alla ‘lingua perfetta’.1 Ragionando attorno all’idea di Europa, ci si può interrogare sulla differenza delle lingue, ponendo l’accento sulle difficoltà organizzative che ne conseguono. E naturalmente potremmo anche generalizzare: la globalizzazione dell’economia, così come il World Wide Web ci impongono l’esigenza di una unica lingua.
Questa esigenza deve convivere con il fatto che le lingue corrispondono in fondo alle culture, corrispondono a diversi atteggiamenti di fondo e a diverse letture del mondo, atteggiamenti e letture del mondo che non possono essere rimossi, non possono essere ridotti ad unità ‘per legge’, o per volontà politica.
Ecco quindi la necessità di ‘tradurre’: lo scambio da un mondo linguistico ad un altro porta con sé sempre una perdita di senso; potremmo dire anche che, al limite, la traduzione è una operazione impossibile: rendere veramente il significato in un’altra lingua è una operazione che può dare risultati solo parziali, si può esprimere il significato espresso in un lingua straniera solo attraverso analogie, come quando i primi spagnoli giunti in America non trovarono di meglio che chiamare ‘pigna’ uno strano, ignoto frutto del Nuovo Mondo, l’ananasso.
Si può dunque dire che una vera traduzione sarebbe possibile se non traducessimo da una lingua all’altra, ma traducessimo da ogni lingua in una lingua terza, idioma puramente veicolare, destinato mai a sostituirsi, ma semplicemente ad aggiungersi alla lingua originaria di ognuno.
Solo la lingua originaria è veramente portatrice di senso, la lingua veicolare si aggiunge e permette lo scambio tra diversi. Uno scambio efficace per garantire una prima comprensione, ma consapevolmente insufficiente, come accade quando si traduce la poesia: si lascia sempre accanto il testo nella lingua originale, perché è dato per scontato che la poesia è in fondo intraducibile, la traduzione non può rendere tutto. Ora, noi usiamo come lingua veicolare l’inglese, o meglio, appunto un basic english. Lo facciamo in mancanza di meglio. Perché l’inglese non nasce come lingua veicolare –come ogni vera lingua nasconde veri significati dietro l’apparenza– e quindi è in fondo inadatta allo scopo. Più adatto sarebbe l’esperanto, o simili lingue.
Insomma, secondo Eco (ed altri) una lingua veicolare ‘ottima’ è una lingua artificiale. Pensata già in origine come lingua aggiuntiva: come è stato detto, una LIA, Lingua Internazionale Ausiliaria. Risultano evidenti i vantaggi: pensiamo alla Babele delle lingue che è l’Unione Europea, pensiamo alla complessità organizzativa ed ai costi legati alla traduzione di ogni testo ufficiale nelle diverse lingue degli stati membri. Pensiamo al fatto che la traduzione di tutto ‘solo’ in inglese costituirebbe una semplificazione, un vantaggio pratico, ma un ingiustificato privilegio per uno degli stati membri.
Resta, naturalmente, la difficoltà insita nel progettare una simile lingua. E resta, ancora più grave, la difficoltà insita nell’imporre, politicamente e culturalmente e praticamente, l’uso di una simile lingua.
Si può poi aggiungere, a complicare il quadro, un ulteriore aspetto: se si pensa ad una lingua veicolare, intesa non come sostituzione ma come aggiunta, tesa a rendere comprensibile un contenuto a chi non conosce la lingua nella quale il contenuto è originariamente espresso, allora si deve potere ritener percorribile, almeno in linea di principio, la via della ‘traduzione automatica’, affidata al software. In questo caso l’interlingua potrà essere pensata come una lingua estremamente formalizzata, nel senso dei ‘linguaggi di programmazione’, una lingua cioè destinata ad essere compresa dal computer. Una lingua di natura algoritmica, capace di tradurre i concetti espressi in ogni lingua naturale, anche le sottigliezze, senza bisogno di fastidiose perifrasi.
Non senza fondamento dunque Ursula K. Le Guin –che è qualcosa di più di una scrittrice di fantascienza, potremmo dire una antropologa di un possibile futuro – immagina un domani in cui la lingua veicolare “lingua franca dei commercianti di tutto il mondo, dei viaggiatori e di quanti intendevano comunicare con persone di un’altra lingua madre” è proprio un evoluto linguaggio di programmazione.2
Si potrebbe pensare che questa lingua, di indiscutibile utilità, possa forse essere immaginata, ma sia difficile o impossibile da progettare. Non è così. Di fatto, già oggi la questione si pone con grande forza: notevoli investimenti sono dedicati allo sviluppo di machine translation system. Esempi in qualche misura efficaci sono disponibili a tutti noi come complemento ai motori di ricerca.
Ma c’è davvero bisogno di inventare qualcosa di nuovo? Studiosi –per primo il matematico e computer scientist boliviano Iván Guzmán de Rojas– sostengono di no. Questa lingua, forse, esiste da quattromila anni, è l’idioma di indios andini, abitanti nei pressi delle rive del lago Tititcaca, l’aymara.
C’è però un paradosso: l’ aymara (ci riferiamo qui in particolare alla sua versione formalizzata da Iván Guzmán de Rojas, l’Atamiri3), come forse ogni possibile ‘interlingua’ – può esprimere ogni concetto espresso in lingue mutuamente intraducibili – ma proprio a causa della sua ‘perfezione’ questa lingua risulta poi difficilmente traducibile nei nostri imperfetti, e diversamente sfumati linguaggi naturali.
Cosicché anche per questa via si torna alla circostanza fattuale che vuole ogni traduzione niente più che una più o meno soddisfacente perifrasi. Insomma, siamo in grado di comunicare, ma sempre in maniera imperfetta. Questo vale per la comunicazione tra uomo ed uomo, ma anche tra uomo e macchina, e tra macchina e macchina.
Proprio per questo divengono sempre più importanti le metafore e la ridondanza. Comunichiamo attraverso una Babele di linguaggi: la probabile comprensione, più che attraverso una possibile ‘esattezza’, passa attraverso l’accettazione della complessità, della possibilità del fraintendimento. Meglio abbondare, meglio ripetere, meglio conservare anche quello che appare scarto, meglio esprimere lo stesso contenuto attraverso modalità differenti. Forse le perifrasi non vanno considerate un fastidio, ma una necessità. Forse lì, dove si deve ricorrere a perifrasi, si annida il senso più profondo.

1 Umberto Eco, La ricerca della lingua perfetta, Roma-Bari, Laterza, 1993. (Appartiene alla collana ‘Fare l’Europa’ prodotta in coedizione insieme ad altre quattro casi editrici europee). Avevo snobbato questo libro, un po’ perché secondo me dopo il Trattato di semiotica e Il nome della rosa aveva esaurito la sua vena migliore, un po’ per un limite specifico che attribuisco alla La ricerca della lingua perfetta: non contiene nemmeno una citazione di un personaggio che a mio modo di vedere in questa storia non dovrebbe mancare: l’umanista spagnolo Elio Antonio de Nebrija. Negli stessi giorni in cui Colombo perorava la sua causa di fronte regina Isabella, Nebrija perorava un progetto diverso ma complementare. Spiegava alla regina che per edificare un impero insieme alla spada, e prima della spada, serve la lingua. Una lingua normalizzata, intesa come strumento di dominio e di controllo. Lo spagnolo nacque così: lingua ‘moderna’ in quanto codificata, imposta per legge, fondata su una grammatica ed un dizionario chiusi, stabiliti dall’autorità.
2 Ursula K. Le Guin, Always Coming Home, 1985; trad. it.Sempre la valle, Mondadori, 1986. E’ il TOK “che poteva essere pronunciato, oltre che battuto sulle tastiere”.
3 Esperti di machine translation system e di interlingue formalizzate hanno messo in discussione il legame tra aymara e Atamiri. In effetti, l’Atamiri è frutto delle capacità progettuali di Guzmán de Rojas, matematico. Ma è proprio Guzmán de Rojas ad affermare che la stuttura profonda dell’Atamiri è la struttura profonda dell’aymara. Per sconfermare questa affermazione si dovrebbe conoscere l’aymara meglio di Guzmán de Rojas. In lingua aymara, Atamiri significa “comunicatore”. http://www.aymara.org/biblio/5RepMatrC.pdf ; www.atamiri.cc/es/AtamiriSolution/History/ .

venerdì 6 dicembre 2019

Come narrare l'Intelligenza Artificiale al cittadino

Una narrazione in sei passi. E' la traccia che ho seguito il 3 dicembre 2019, nel primo dei due incontri sul tema L'Intelligenza Artificiale come risorsa civile o come furto di cittadinanza, presso la Casa della Cultura di Milano. Qui il video dell'incontro.

Uno. Il cittadino è un essere umano. Non un organismo vivente, non un animale, non una macchina.  Sembra un'affermazione scontata, ma non lo è.
C'è infatti la pretesa, già nella cibernetica, di imporre una unica definizione -organismi- capace di abbracciare alla stessa stregua esseri umani e macchine. Accettare questa definizione significa togliere le basi per qualsiasi discorso relativo alla cittadinanza.

Due. Il latino cives, 'cittadino', da una radice che parla di 'insediamento': processo, percorso verso un luogo.
Oggi questo modo di intendere la cittadinanza è particolarmente vero. Siamo tutti gettati in un novo mondo digitale, un mondo sconosciuto. L'ansia è inevitabile. L'ansia accettata, elaborata può trasformarsi in responsabilità. Responsabilità di scoprire come essere cittadini nel mondo digitale.
Questo vale anche per i tecnici, costruttori di strumenti e mondi digitali. Eppure tecnici e costruttori, salvo eccezioni, lavorano 'fuori dal mondo', considerandosi esentati dalle responsabilità del cittadino.

Tre. Intelligenza Artificiale: è una espressione ombrello che copre ambiti differenti.
Possiamo fissare due punti. Primo punto: l'Intelligenza Artificiale nasce alla metà degli Anni Cinquanta del secolo scorso come 'imitazione e simulazione dell'intelligenza umana'. Secondo punto: l'Intelligenza Artificiale appare sessanta anni dopo come ambigua oscillazione tra l'aiuto all'essere umano e la  sostituzione dell'essere umano.

Quattro. Il senso dell'intelligenza umana può essere avvicinato a partire dalla storia della parola. Il latino legere è 'raccogliere'. Ancestrale attività umana. L'essere umano ancestrale, cacciatore-raccoglitore, è rappresentato da due verbi latini: capere, 'afferrare la preda', da cui capire, e appunto legere. Raccogliere frasche. Inter legere. Inter: tra. trascegliere, scegliere tra le frasche raccolte. Sottilmente diverso è il verbo ex legere, da cui eleggere, ma anche scegliere. Ex: tirar fuori, estrarre.
Il verbo latino intelligere si accompagna a vari verbi che contribuiscono a dare il senso dell'umana intelligenza. Cogitare: agitare insieme, dove agitare riprende in modo più intenso il senso del verbo agere, 'agire. Considerare: 'stare con le stelle': astronomia e astrologia come vie per conoscere. Contemplare: 'osservare uno spazio celeste delimitato'. Pensare: derivato da pendere... Fino a putare,
da cui computazione, computer.
Il putare , tra tutti questi verbi, ci parla di uno solo tra i tanti diversi aspetti del pensiero umano, testimoniato dai diversi verbi. Ci parla solo di di riduzionismo e razionalità. Sta infatti per 'potare': quindi progettare come la pianta sarà, piegare per così dire la natura al disegno, considera ridondante, e quindi destinato all'eliminazione ciò non appare immediatamente legato ad una funzione.

Cinque. Si può ritenere che l'Era Digitale è la fase storica in cui si invera definitivamente l'Illuminismo. Illuminismo come ragione tecnica. Tecnica figlia della ragione.
Proprio nei tempi digitali la via dell'affidamento ai lumi della ragione mostra i suoi pericoli: le macchine sono più razionali degli esseri umani; la pura ragione porta alla sostituzione dell'essere umano con la macchina. La storia e la cultura dell'essere umano mostrano come serva controbilanciare la ragione con la saggezza. Se la macchina a suo modo intelligente può essere più razionale dell'essere umano, all'essere umano conviene cercare una via impraticabile per la macchina: la via della saggezza.
Si può ricordare il percorso di Goethe, che incapace di arrendersi a una lettura esclusivamente 'razionale' dell'Illuminismo torna a leggere Shakespeare, e sopratutto Spinoza. Nel decennio 1770-1780 appare il concetto dell'Illuminismo e allo stesso tempo si afferma la Rivoluzione Industriale. La natura appare materia prima da sfruttare. Spinoza, cent'anni prima aveva ricordato agli esseri umani il loro appartenere alla Natura.
Se si sente oggi necessità di 'sostenibilità' è perché l'ansia di progresso -visibile oggi in forma estrema nell'innovazione digitale- ha rotto un equilibrio al quale l'essere umano era abituato.

Sei. Nel 1945 Vannevar Bush scriveva As we may think. Immaginava come l'essere  umano avrebbe potuto pensare, se supportato da una macchina in grado di sostenerlo fornendogli fonti, permettendogli di connetterle tra loro, incrementando l'umana capacità di costruire reti di senso, e di muoversi nel conoscere come si muove il pioniere nel bosco, seguendo tracce.
Nel 1950 Alan Turing propone l'altra via. Scrive, in conclusione del suo articolo Computing Machinery and Intelligence: "We may hope that machines will eventually compete with men in all purely intellectual fields". Tante parole sono state spese a proposito di Intelligenza Artificiale. Tante vie si sono seguite nel tentare di svilupparla. Ma già qui, nell'articolo che apre il campo, si dice già che l'Intelligenza Artificiale si presenta forse anche come aiuto all'essere umano, ma è, fin dalle origini, potenziale sostituzione dell'essere umano.
Se il terreno 'puramente intellettuale' porta a dover competere con la macchina, converrà all'essere umano coltivare altri terreni, come quello della saggezza, dove la macchina non si propone come competitore. Perché la macchina di Turing, di Leibniz, si propone di imitare l'essere umano, o di competere con lui, sul piano della ragione, del riduzionistico potare. La macchina di Turing non si candida ad essere saggia. Invece di imporre a noi stessi di stare sugli stessi terreni su cui può stare la macchina, a noi esseri umani conviene scegliere i terreni sui quali la competizione della macchina è assente. Ci conviene per questo giocare sul terreno della saggezza.

giovedì 28 novembre 2019

I limiti della macchina imposti all'uomo. Un modo di intendere l'Intelligenza Artificiale


Se alla cibernetica poteva essere imputata la presunzione filosofica -comprendere e formalizzare le regole che presiedono alla vita-, alla computer science può essere imputato il comodo riduzionismo. Nel solco di Cartesio e di Leibniz -ma in assenza della finezza che caratterizzava il pensiero di Cartesio e di Leibniz- la computer science su una spettacolare serie di riduzioni.
Scrive Alan Turing nel 1950: “L’idea che sta alla base dei calcolatori digitali può essere spiegata dicendo che queste macchine sono costruite per compiere qualsiasi operazione che possa essere compiuta da un calcolatore umano. Si suppone che il calcolatore umano segua regole fisse; egli non ha l’autorità di deviare da esse in alcun dettaglio. Possiamo supporre che queste regole siano fornite da un libro, che viene modificato ogni volta che egli viene adibito a un nuovo lavoro”.1
Insomma: si assume che dell’agire e del pensare umano si debba prendere in considerazione solo una specifica attività: il calcolare. Si assume che del calcolare si debba prendere in considerazione solo una parte, il computare. Si assume che l’essere umano ridotto a ‘computatore’ sia costretto ad operare seguendo regole fisse, scritte in un Libro delle Regole, senza poter deviare da esse in alcun dettaglio.
C'è dunque, nel progetto di Turing, e quindi in tutta la computer science, un vizio originario: si propone sostituire l'uomo con la macchina. Con una macchina, però, di cui sono descritti i precisi limiti. Siccome la macchina può funzionare solo eseguendo un 'libro delle regole', un programma, si finisce così per assumere che anche il lavoro umano dovrà essere inteso come mera esecuzione di un programma. E' esclusa la creatività, la libertà, l'innovazione.
Cinque anni dopo la pubblicazione dell'articolo di Turing, appare il termine Intelligenza Artificiale. “Il tentativo è quello di procedere sulla base della congettura che ogni aspetto dell'apprendimento o qualsiasi altro aspetto dell’intelligenza può in linea di principio essere descritto in modo tanto preciso da poter essere simulato da una macchina”.2
Come apprende l'essere umano? In mille modi che qui possiamo ricordare per minimi accenni: apprende dalla propria storia, facendo esperienza, scambiando conoscenze con altri esseri umani, sperimentando, lanciandosi nell'ignoto... L'affermazione di principio su cui si basa l'Intelligenza Artificiale porta quindi a dire si tratta di insegnare ai computer ad imitare l'apprendimento umano. Non a caso oggi, sessant'anni dopo l'annuncio dell'Intelligenza Artificiale, con motivo si sostiene che più che di Intelligenza Artificiale sarebbe corretto parlare di Machine Learning, capacità delle macchine di apprendere.
Ma come si svolge il Machine Learning? L'originaria contraddizione del computing è ancora attuale. Si vuole imitare tramite computer il comportamento umano, ma si deve fare i conti con i limiti del computer, con ciò che la macchina è in grado di fare. Così la vasta e sfumata capacità di apprendere è ridotta dai computer scientist a tre sole modalità: apprendimento sorvegliato, apprendimento non sorvegliato, apprendimento rinforzato.
Ogni macchina digitale ha precisi limiti. Non ci sarebbe problema, per noi umani, se non fosse che siamo bombardati da una martellante propaganda: confida nell'intelligenza della macchina, fidati della macchina più di te stesso.


1   Alan Turing, “Computing Machinery and Intelligence”, Mind, Vol. 59, Number 236, October 1950, pp. 433-460. Poi in Alan Mathison Turing, Mechanical Intelligence, edited by Darrel C. Ince, North-Holland, Amsterdam-London-New York-Tokio, 1992; trad. it. Intelligenza meccanica, Boringhieri, Torino, 1994. Prima trad. it. “Macchine calcolatrici e intelligenza”, in Johann von Neumann, Gilbert Ryle, C. E. Shannon, Charles Sherrington, A. M. Turing, Norbert Wiener e altri, La filosofia degli automi, a cura di Vittorio Somenzi, Boringhieri, Torino, 1965, pp. 116-156.
2   John McCarthy, Marvin L. Minsky, Nathaniel Rochester, Claude E. Shannon, Proposal for the Dartmouth Summer Reaserch Project on Artificial Intelligence, August 31, 1955; vedi in: AI Magazine 27, 4, 2006, pp. 12-14.

giovedì 24 ottobre 2019

Scrivere è cancellare


Una studentessa durante una lezione del mio corso di Tecnologie dell'informazione e produzione di letteratura mi ha detto: 'Ma allora, seguendo questo ragionamento, scrivere è cancellare'.
Una delle novità più significative dell'epoca digitale consiste nel modo con cui ogni persona costruisce conoscenza.
L'epoca della stampa era caratterizzata dalla scarsità. Scarse le conoscenze documentate attraverso la stampa. Scarsa l'accessibilità alle fonti. Limitato nel numero di coloro che possono accedervi.
L'epoca digitale è invece caratterizzata dalla sovrabbondanza, dalla ridondanza, dal rumore, dalla libertà d'accesso.
Nell'epoca pre-digitale il lavoro di conservazione della conoscenza è condizionato dalla pochezza di mezzi ed è faticoso. E' faticoso scrivere, disegnare. Nell'epoca digitale disponiamo, senza bisogno di nessuno specifico lavoro, tracce di qualsiasi cosa accada: ogni parola detta può essere registrata e quindi anche facilmente trasformata in scrittura. Ogni evento può essere fotografato o filmato.
Nelle epoche pre-digitali esisteva una netta differenza di ruoli sociali tra scrittore e lettore – e possiamo facilmente proporre un'analogia: la distanza tra scrittore e lettore è la distanza tra docente e discente.
Nell'epoca digitale esiste in partenza per ogni cittadino la possibilità di essere al contempo lettore e scrittore.
Nell'epoca pre-digitale la pubblicazione esigeva un processo tecnico complesso e costoso. Nell'epoca digitale la pubblicazione consiste in una operazione semplicissima alla portata di ogni cittadino. Possiamo infatti considerare pubblicato ogni testo che abbiamo salvato sul disco del nostro personal computer o smartphone.

Possiamo insomma dire che in epoca digitale ci troviamo di fronte ad un enorme, sconfinato testo già scritto. Tutto è già scritto. Conoscere significa focalizzarsi su ciò che serve in questo momento, concentrarsi su una zona, su alcuni nodi dello sconfinato testo. Cioè conoscere significa cancellare mentalmente ciò che non serve in questo momento.

Da ciò deriva una netta discontinuità nella competenza chiave necessaria per costruire conoscenza.
Nelle epoche pre-digitali la competenza consisteva nel trarre il massimo profitto dalle poche fonti a cui si riesce ad avere accesso.
Nell'epoca digitale la competenza consiste nel non soccombere alla sovrabbondanza, ovvero nel saper selezionare, nel saper scegliere, nel saper attribuire autorevolezza scegliendo tra fonti simili. Saper scegliere in modo differente in considerazione di di diverse esigenze. Saper scommettere, tentando un'interpretazione personale.
E' compito della formazione della scuola, dell'università e della formazione degli adulti cogliere l'importanza di questa discontinuità. Oggi serve insegnare a scegliere da soli, assumendosene la responsabilità.

Nota. Ho trattato lo stesso argomento -in modo meno sintetico, più analogico e letterario, e forse anche più efficace- in questo post di dieci anni fa.