mercoledì 14 giugno 2017

What is Digital. Ma perché non dire Numerico?

Troppo spesso finiamo per dare per scontate le parole che usiamo. E poi, non mi stancherò di ripetere che per chi non è nato nella lingua inglese, le parole inglesi non possono risuonare con pienezza.
Finiamo così vittima di una sorta di esotismo tecnologico: il passaggio attraverso una lingua che non è la nostra ci penalizza, impedendoci di comprendere
Being Digital, il saggio di Nicholas Negroponte, esce nel 1995.1 Segna un punto di svolta. Il termine digital esce dal lessico tecnico dell'Informatica e della Computer Science per entrare definitivamente nel linguaggio comune.
Digital: un aggettivo che distingueva un tipo di macchina da un altra. Tra gli Anni Trenta e gli Anni Quaranta due possibili progetti di computer si contrapponevano: Digital Computer e Analog Computer. Mentre l'Analog Computer lavora rilevando in continuo l'andamento di un processo, il Digital Computer lavora su dati convertiti in numeri binari (number expressed in the binary numeral system), cioè sotto forma di stringhe di 0 e 1. L'Analog Computing non è scomparso, ma le macchine che conosciamo e usiamo sono Digital Computer, fondati sull'idea astratta di Alan Turing -Turing Machine- e sull'architettura di von Neumann: macchine digitali.
Ora però, negli Anni Novanta, si parla di digital non più solo a proposito di macchine, ma di persone. Gli esseri umani stessi sono invitati ad essere digital. Scrive Negroponte: fino ad ora l'uomo è vissuto in un mondo fisico, circondato da cose materiali. Ora dobbiamo prepararci a vivere in mondi virtuali.
I bits -le unità minime di informazione, espresse in binary code- stanno rapidamente sostituendo le cose fatte di atomi. Se muoveremo bits, not atoms, nota Negroponte, la vita di noi esseri umani, costantemente interfacciati con computer, interconnessi l'uno all'altro tramite computer, non sarà mai più quella di prima.

Being Digital è la raccolta delle rubriche scritte da Negroponte su Wired, monthly magazine che Negroponte stesso ha contribuito a fondare nel 1993. Wired profetizza l'imminente avvento di una Digital Revolution. Il magazine ha sede a San Francisco, a poche miglia dalla Stanford University, e da quell'area che in quegli anni si iniziava a chiamare dalla Silicon Valley. Siamo cioè nel cuore di quella zona dove stanno nascendo, al contempo, una new technology, una new culture e una new economy.
Being Digital ha una immediata diffusione planetaria. Nello stesso 1995 è tradotto in tedesco, in francese, in italiano, in spagnolo. L'edizione giapponese è del 2001.
Negroponte, figlio di un ricco armatore greco, giovanissimo, ventiquattrenne, dirigeva già nel 1967
l'Architecture Machine Group presso il Massachusetts Institute of Technology, laboratorio e think tank destinato allo studio dell'human-computer interaction. Per proseguire ed approfondire la ricerca nel 1985, Negroponte fonda presso il MIT, assieme a Jerome B. Wiesner, il Media Lab.
Media è, inglese come in latino, plurale di medium. Media, treated as singular or plural, può voler dire 'main means of mass communication (broadcasting, publishing, and the Internet) regarded collectively'. Ma non è questo il senso inteso da Negroponte.

Negroponte riprende il concetto da Marshall McLuhan, filosofo e semiologo canadese che nel 1964 aveva pubblicato Understanding Media.2 Per McLuhan medium è sinonimo di technology. Un medium è "any new technology". Famoso l'esempio della lampadina: "a light bulb creates an environment by its mere presence."3 E' un mezzo - o tecnologia. E come ogni mezzo o tecnologia ha un effetto sociale. Ogni mezzo o tecnologia porta con sé un 'messaggio'. "The 'message' of any medium or technology is the change or scale or pace or pattern that it it introduces into human affairs."4 La light bulb consente agli esseri umani di trasformare in spazio vivibile il buio del la notte. Analogamente ha cambiato il modo di vivere dell'uomo ogni altro nuovo mezzo, o tecnologia: il treno e l'automobile e la radio e la televisione.
Ancora più significativo appare il cambiamento dell'human environment causato dalla pervasiva presenza di computer, connessi tra loro e legati da interfacce agli human beings.
Siamo fin troppo abituati a sentir dire digitale. Così la traduzione francese del titolo di Negroponte
-L'homme numérique- ci spiazza; ci sorprende ed interroga. Non siamo abituati a sostituire digital con numeric. Si sa che i francesi si impongono di tradurre l'inglese - così software è logiciel. Ma mentre logiciel rende solo parzialmente il senso dell'originale, numérique ci appare traduzione del tutto corretta, ed anzi ci riallaccia alla storia che sta nascosta dietro il digitale.

Parliamo di Digital Computer perché la macchina funziona per mezzo di codici espressi tramite due cifre, 0 e 1. Ma in realtà nella parola digit non c'è nessun riferimento alla numerazione binaria.
Digitus significa in latino 'finger'. Da digitus: l'italiano dito, lo spagnolo dedo, il francese doigt. Digitalis significa ‘di un finger’, ‘della dimensione di un finger’, ‘della forma di un finger’. Prende questo nome anche una pianta che ha la forma di un finger.
L'origine sta nella radice indoeuropea deik, che ha il senso di 'indicare', 'mostrare', 'to point out'. Da questa radice anche il sanscrito dic-, il greco antico deiknynai e il tedesco zeigen, verbi che significano 'mostrare', 'to show'. E ancora, dalla stessa radice, il verbo latino dicere 'to say', 'speak'.
Forse dalla stessa radice deik anche toe.
Finger deriva invece dal proto-germanico fingraz, probabilmente da una radice indeuropea penkwe, che significa 'cinque'. Cinque come le dita della mano. Usando le dita delle nostre mani -con dieci dita, con cinque, o con due- l'uomo ha imparato a far di conto.
Puntando il dito noi esseri umani distinguiamo l'io dal tu e dalle altre persone, e indichiamo gli stati del mondo, le cose che abbiamo intorno.
E poi, con le nostre mani, costruiamo utensili, attrezzi, strumenti.

----
1Nicholas Negroponte, Being Digital, Knopf, New York 1995. German translation: Total digital: die Welt zwischen 0 und 1 oder die Zukunft der Kommunikation, Bertelsmann, München, 1995.French translation: L'homme numérique, Laffont, Paris, 1996. Italian translation: Essere digitali, Sperling & Kupfer, Milano, 1995. Spanish edition: Ser digital, : Editorial Atlántida, Buenos Aires, 1995. Chinese translation: ビーイング・デジタル - ビットの時代 新装版 [Digital Revolution], New Taipei (Taiwan) 1997. Japanese edition: [Being Digital: The Bit Era], Asukī, Tōkyō, 2001. Audiobook: Nicholas Negroponte; Penn Jillette, Being Digital, Random House Audiobooks, New York, 1994.
2Marshall McLuhan, Understanding Media. The extension of Man, MacGrow Hill, New York, 1964.
3Marshall McLuhan, Understanding Media, p. 8.
4Marshall McLuhan, Understanding Media, p. 8.

martedì 14 marzo 2017

Computare o Supputare. Due vie per l'informatica e la Computer Science

Ci sono seri motivi per sostenere che non dovremmo parlare di computer, ma di supputer. Non dovremmo parlare di computazione (computation) ma di supputazione (supputation). Non dovremmo parlare di pensiero computazionale (computational thinking), ma di pensiero supputazionale (supputational thinking).
Se così facessimo, descriveremmo con più precisione ciò che oggi comunemente definiamo con le parole computer, computazione, pensiero computazionale.
Così, liberandole dal loro attuale uso, potremo più convenientemente usare le espressioni computer, computazione, pensiero computazionale per definire quel tipo di macchina e di pensiero che tengono conto della presenza sulla scena dell'essere umano.
Per argomentare a questo proposito, torno su una pagina che ho pubblicato sei anni fa.
Nel 2011 è uscito il mio libro Nuove parole del manager. 113 voci per capire l’azienda (Guerini e Associati. Il secondo di una serie: fa seguito a Le parole del manger. 108 voci per capire l'impresa, Guerini e Associati, 2006 ). Il senso di parole che usiamo senza più pensare è portato alla luce attraverso percorsi etimologici. In entrambi i libri ragiono su diverse parole del lessico informatico. In Nuove parole del manager una voce è dedicata alla parola computer.

Putare sub e putare con
Scrivevo lì che "il verbo latino putare -pensare, giudicare, credere, stimare, supporre, immaginare- risale ad una originaria idea di 'tagliare'". Potrei ora aggiungere una connessione che sei anni fa non avevo esplicitato: il senso originario del putare è ben espresso da un verbo italiano che ne deriva: potare. Potare la pianta, togliendo l'inutile, investendo nel futuro, perseguendo un progetto di sviluppo e di miglioramento. E ancora, per manter vivo il senso originario del putare, possiamo ricordare il ricco senso dell'espressione "puta caso che".
Continuavo nelle Nuove parole del manager: dall'idea del 'tagliare "si passa, cercando la precisione, al 'calcolare', 'conteggiare', 'determinare un valore numerico'". Ma il punto chiave che toccavo sei anni fa, sul quale ora vorrei soffermarmi, sta nelle frasi successive.
Il passaggio dal 'tagliare' al 'calcolare', scrivevo, avviene "attraverso due verbi: computare e supputare. Il cum, 'con', rimanda all'idea di insieme, di classe. Supputare (sub putare) allude con più precisione al campo della matematica: sub, 'sotto', descrive tempo e ambito, territorio logico all'interno del quale il calcolo può essere ritenuto valido.
Il calcolo di una posizione astrale, il calcolo di un arco temporale all'interno di un calendario, la stima del valore di un bene: tecnicamente si tratta di supputatio. Ma i due verbi, e i sostantivi supputatio e computatio, e supputator e computator, si sovrappongono. Computatio, forse proprio perché espressione meno tecnica, più vicina al senso comune, finisce per prevalere. Così in latino, così in italiano, in spagnolo, in francese e -attraverso il francese- in inglese".

Il computer come uomo e come macchina
Ancora in quella voce, sei anni fa, ho cercato di ricostruire l'le vicende del sostantivo computer."L'Oxford Dictionary data al 1610 computator, e -con pressoché identico significato- data al 1646 computer: “one who computes, a calculator, reckoner, a person employed to make calculations in an observatory, in surveying, etc.”. Charles Babbage, nella prima metà del 1880, chiama la sue macchine engines. Verso la fine del secolo si intendeva ormai per computer non solo la persona, ma anche la macchina. La nuova accezione del termine, però, sfugge ai pur occhiuti redattori dell'Oxford English Dictionary. Non appare nell'edizione del 1928: e questo potevamo aspettarcelo, perché il fascicolo della lettera C era stato chiuso nel 1893. Non appare nemmeno, però, nel Supplement del 1933 – eppure in quegli anni, al MIT e altrove, le macchine per computare esistevano, e si chiamavano con quel nome. La lacuna è colmata nel Supplement del 1987. Lì troviamo computer nel senso di “A calculating machine; especially an automatic electronic device for performing mathematical or logical operations”.
Per datare la parola si deve tornare a sfogliare vecchie riviste. Su Engineering, rivista datata 22 gennaio 1897, si può leggere: “This was (...) a computer made by Mr. W. Cox. He described it as of the nature of a circular slide rule”.
Macchine calcolatrici. supporti tecnici a sostegno del lavoro del computista esistevano da che l'uomo imparò a calcolare: calculus è il sasso o gettone usato pre rappresentare quantità o numeri. Già i romani usavano una 'tavola specializzata' per il lavoro del computista: l'abacum. Di seguito, gli strumenti si evolvono. Possiamo limitarci a citare la machine d’arithmétique costruita nel 1642 dal diciannovenne Pascal. Ma in ogni caso nessuno si sarebbe mai sognato di confondere l'uomo con il suo strumento. Dunque, posso riassumere ora, il computer è esclusivamente, fino alla fine del 1800, un essere umano che svolge il lavoro di contabile o computista.

Nelle parole di Seneca
Possiamo datare con precisione la sopravvivenza del supputare nelle lingue moderne. Il Dizionario di Oxford dichiara in uso supputate fino al 1691, suppute fino al 1727, supputation fino al 1825.
In italiano supputatore, 'esecutore di calcoli', scompare con il 1300. Ma supputare, nel senso di 'calcolare', 'computare attentamente', e supputazione, 'calcolo', 'computo', sono espressioni considerate dai dizionari (Zingarelli, Garzanti, Devoto-Oli).
Non c'è mutamento di senso dal latino. Perciò, per dire dell'uso dei verbi supputare e computare, vale rifarsi a testi classici. Citiamo quindi dalle Lettere a Lucilio di Seneca la lettera 88, dove si parla sia di supputatio, sia di computatio.
La lettera ha per argomenti le 'arti liberali', potremmo dire le professioni tecniche specializzate. Seneca contrappone la competenza applicativa del geometres -agrimensore, matematico- e del tabularius -ragioniere, contabile, amministratore, computista-, tecnici esperti in calcoli, alla visione d'insieme del sapiens, il filosofo.

10. Metiri me geometres docet latifundia potius quam doceat quomodo metiar quantum homini satis sit; numerare docet me et avaritiae commodat digitos potius quam doceat nihil ad rem pertinere istas conputationes, non esse feliciorem cuius patrimonium tabularios lassat, immo quam supervacua possideat qui infelicissimus futurus est si quantum habeat per se conputare cogetur.

10 Il geometra mi insegna a misurare i latifondi, invece che insegnarmi quanto basta a un uomo. Mi insegna a fare i conti prestando le dita alla mia avidità: mi insegni piuttosto che questi calcoli non hanno nessuna importanza, che non è più felice chi possiede un patrimonio tale da affaticare i ragionieri; anzi possiede beni superflui e sarà infelicissimo se è costretto a contare da sé i suoi averi.

26. Praeterea utraque fines suos habet. Sapiens enim causas naturalium et quaerit et novit, quorum numeros mensurasque geometres persequitur et subputat. Qua ratione constent caelestia, quae illis sit vis quaeve natura, sapiens scit; cursus et recursus et quasdam observationes, per quas descendunt et adlevantur ac speciem interdum standum praebent, cum caelestibus stare non liceat, colligit mathematicus.

26 Entrambe [la filosofia e la geometria], inoltre, hanno fini propri; il saggio ricerca e conosce le cause dei fenomeni naturali, mentre il geometra ne determina e ne calcola la quantità e la grandezza. Il saggio sa su quali leggi si basino i corpi celesti, qual è la loro forza e la loro natura: il matematico calcola i loro corsi e ricorsi e certe orbite lungo le quali essi sorgono e tramontano e sembrano talvolta stare immobili, fenomeno impossibile per i corpi celesti.

Il geometres "persequitur et subputat", "determina e calcola". "Numerare docet me", "mi insegna a far di conto", "potius quam doceat nihil ad rem pertinere istas conputationes", "invece di insegnarmi che questi calcoli non hanno nessuna importanza". Lo scetticismo di Seneca è evidente. Ma anche a prescindere dalla sua posizione, possiamo osservare come usa, con un senso che appare a prima vista lo stesso, una volta subputare e una volta conputare.

Biforcazione
La divaricazione di senso che separa i due verbi, computare e supputare mi appare oggi -mentre sto scrivendo il seguito di Macchine per pensare, secondo volume del mio Trattato di Informatica Umanistica- più significativa di quanto mi apparisse sei anni fa. Mi appare come strumento efficace per distinguere i due percorsi nei quali si divarica, nella propria evoluzione, l'informatica.

Sub
Il significato fondamentale della radice indeuropea da cui sub deriva, spiega Giacomo Devoto, è "la stasi su una superficie e il movimento verticale dal basso verso l'alto".
Sub ci parla con evidenza a un procedimento cartesiano: la catena deduttiva che discende dall'assioma. Ci parla del calcolo proposizionale e del calcolo delle classi di Russell: la classe superiore che spiega in senso della classe inferiore. Ci parla dell'informatica strutturata, costruita per strati sovrapposti. Ci parla del file system: la struttura e alle regole logiche usate per gestire i gruppi di informazioni e i loro nomi. Ci parla della ricorsività: un algoritmo innesca un algoritmo che a sua volta innesca un algoritmo. Potrei proseguire con gli esempi. Ma posso arrivare subito alla conclusione che penso di poter trarre: ciò che chiamiamo pensiero computazionale, potrebbe essere detto, in modo più rigoroso e preciso, pensiero supputazionale.

Cum
Passiamo ora ad osservare il senso del cum. Cum -mi rifaccio ancora a Giacomo Devoto- ci parla di due possibili valori. Il primo è il senso di 'compiutezza': latino complere (da cui completus): cum plenus, 'riempire', e quindi 'condurre a termine'; latino conficere: con facere: 'ultimare', 'rifinire', 'confezionare'. Il secondo è il senso di 'compagnia': latino medievale companio, cum pani-, colui che ha il pane in comune'.

Brevissima storia delle origini di ciò che Turing ha chiamato computazione
Possiamo ben accettare l'ampiezza del cum, il suo abbracciare sia la 'compiutezza' che la 'compagnia'.
Ma avendo accettato l'ampiezza del cum, dobbiamo tornare a guardarae a quel tipo di putatio, modo di ragionare, che chiamiamo comunemente oggi 'pensiero com-putazionale'.
Il pensiero computazionale cerca, in effetti, la  'compiutezza', l'esattezza, la perfezione. Esattezza: ex agere, 'condurre a termine', quindi exactus, 'condotto a termine'. Perfezione: per ficere: 'condurre a compimento', quindi perfectus, 'compiuto'.
E' d'uopo anche ricordare come questa tensione all'esattezza e alla perfezione, questa tensione al 'compiere', 'finalizzare', 'ultimare', 'terminare' stia veramente nel cuore del pensiero computazionale. Ricordiamo l'interrogarsi di Turing (e di Alonzo Church) nel 1936 a proposito dell'Halting problem, il problema dell'arresto, o della terminazione: il chiedersi se sia sempre possibile, descritto un algoritmo e un determinato input finito, stabilire se l'algoritmo in questione termini o continui la sua esecuzione all'infinito.
Ricordiamo che lo stesso considerare l'Halting problem è frutto di un percorso logico perseguito per la via del sub. Guardare all'Halting problem è già di per sé scegliere una via sub-ordinata. Un modo riduttivo di guardare all'Entscheidungsproblem, il problema della decisione, posto da Hilbert nel 1928: trovare una procedura, eseguibile meccanicamente, in grado di stabilire se un enunciato è o non è deducibile all'interno di un sistema formale. Meccanicamente, deducibile, sistema formale: tutto qui ci parla di sub. Si guarda a formule espresse nel linguaggio formale della 'logica del primo ordine': ci si riferisce a un insieme; i quantificatori riguardano questo insieme, e non i sottoinsiemi: siamo ancora nel dominio del sub.
Turing sceglie di ridurre -ancora sub- la questione dell'esistenza di un 'algoritmo' o 'metodo generale' in grado di risolvere l'Entscheidungsproblem all'Halting problem, ovvero alla questione dell'esistenza di un 'metodo generale' che decide se una data macchina di Turing si ferma o no.

Nel regno del sub
Possiamo dunque ben sostenere che il sub definisce efficacemente la scelta logica per cui il tentativo di risolvere il problema è subordinato alla definizione formale dei termini tramitei i quali il problema è espresso.
Il sub, anche, ci parla dunque efficacemente della scelta -la scelta di Turing- che consiste nel considerare calcolabile per l'uomo una funzione se questa è calcolabile per una macchina, la macchina descritta da Turing e che da Turing prende il nome.
Il pensiero che  ci siamo abituati a chiamare computazionale, insomma, risolve i problemi aperti dall'ampiezza del cum per via riduttiva: riducendo il cum a sub, intendendo il cum come sub.
Possiamo quindi sostenere che, avendo a disposizione, in latino come nelle lingue moderne, due verbi -computare e supputare- ognuno dei quali indica con precisione una declinazione del putare, in senso lato 'pensare', supputare è il verbo più adeguato per definire la via della logica formale, del calcolo ricorsivo, del considerare calcolabile per l'uomo ciò che è calcolabile per la macchina.

Nel regno del cum
Si libera così l'altro verbo, il cum-putare. Si libera il cum inteso come compiutezza dalla gabbia cartesiana. Se quel tipo di compiutezza che è cercato per via cartesiana, sub-ordinata, meccanica, riduttiva, ricorsiva, logico formale, è definita dal sub, il cum si apre a parlarci di un altra via di ricerca della compiutezza: la compiutezza del cum plexus, complesso e del cum nexus, connesso. Plexum è participio passato di plectere, 'intrecciare'; così come nexus è participio passato di nectere, 'collegare'. Dunque due radici indoeuropee. Plek, da cui piegare, implicito, semplice, perplesso, il tedesco flechten, 'intrecciare'. Negh , da cui il sanscrito nayhati, 'congiunge', da cui nesso, nodo, da cui l'inglese net. Due radici indeuropee che ci guidano nel riportare il senso del cum nei pressi dell'idea di 'compagnia'.
Possiamo ben intendere la 'compagnia' come 'orientamento a stare insieme', 'in reciproca unione'. Ci aiutano a intendere questo senso espressioni come contingenza, contiguità: espressioni che non a caso associamo al pensiero complesso, quel pensiero che sceglie di non ridursi a deduzione, a logica formale, insomma: a supputazione. In latino contingere è cum tangere, 'toccare con', 'toccarsi con'. Potremmo dire, nel lessico di Maturana e Varela,  accoppiamento strutturale.
Relazione che per esperienza sappiamo possibile tra essere umano ed essere umano, ma che possiamo considerare possibile anche tra uomo e macchina. Ralazione: re è 'movimento in senso inverso', latus è forma irregolare del verbo fero, 'portare'. Refero è 'portare indietro'. Ma è lo stesso sistema del verbo fero a ricordarci la sempre presente posizione complementare: il necessario e sempre presente complemento della relazione è l'offerta. Ob fero, 'portare verso'. Possiamo sostenere che l'accoppiamento strutturale -il regno del cum- contempla sempre -siano gli attori uomini, siano gli attori uomini e macchine- sia l'ob, 'andare verso', sia il re 'movimento in senso inverso'.

Provvisoria sintesi
Si può così tentare, a partire dalla divaricazione tra supputatio e computatio, una lettura sintetica della divaricazione che percorre l'intera storia dell'informatica - o, guardando il nosto oggetto con un'ottica parzialmente differente, della Computer Science.
Un primo effetto della distinzione tra supputatio e computatio ci porta a vedere da un lato, dal lato della supputatio, una macchina che funziona, descritta nel suo movimenti e nelle sue articolazioni interne. Movimenti essenzialmente verticali, dal basso in alto, dall'alto in basso. Pensiamo agli strati sottostanti di cablatura e di hardware. Pensiamo alla sovrapposizione di strati di software. Possiamo richiamarci al verbo latino supponere: sub ponere, mettere, collocare, porre sotto. Possiamo ricordare anche il verbo struo: 'collocare a strati sovrapposti'. Da struo, costruzione, distruzione, e struttura,
Dal lato della computatio, osserviamo invece enti che guardano oltre i propri confini, stando in relazione ed offrendosi reciprocamente servizio. Possiamo richiamaci al verbo latino componere: mettere insieme, riunire, comporre.
Stimolati dalla distinzione tra supputatio e computatio possiamo anche tornare ad osservare, in luce più precisa, le varie letture dicotomiche che tentano di leggere la divaricazione interna all'informatica, o Comptuer Science. Cito qui al volo qualche distinzione esemplare.
L'informatica strutturata e l'informatica semistrutturata o destrutturata. Il mondo del Mainframe e il mondo del Personal Computer. La cattedrale e il bazar. Il castello e la rete.
Distinguere, come propongo qui, il supputare dal computare ci garantisce una maggiore precisione. Basta un solo esempio: il Web esiste se è dato il Persona Computer, è destrutturato, è un bazar, una rete. Ma se osserviamo il Web attraverso l'opposizione supputare/computare, avremo modo di osservare come, pur in presenza della rete e del Personal Computer, pur in un quadro destrutturato, Google, macchina autonoma che succhia il lavoro dell'uomo, vive in realtà a prescindere dall'uomo, come macchina supputante.
Una provvisoria sintesi ci porta a dire che nel regno della supputazione l'uomo è irrilevante, e quindi alla fine non presente. Il regno della computazione può darsi invece se, e solo se esiste, ed è attivamente presente, l'essere umano.


lunedì 14 novembre 2016

Sulle insidie dell'User Experience Design


Avvicinamento
L'esperienza d'uso: ciò che una persona prova quando utilizza un prodotto, un sistema o un servizio.
Percezioni, reazioni, emozioni. Si dice anche: l'esperienza d'uso è ciò che una persona prova quando si interfaccia con un prodotto o servizio.
Ovviamente oggi per essere al passo dei tempi bisogna dirlo in inglese: User Experience. Ma questo modo di dire è già di per sé contraddittorio. Se dico User Experience in inglese mi sto già allontanando dalla mia esperienza.
Esperienza: in latino ex, intensivo, perior: 'io provo'. L'esperienza si manifesta qui ed ora, nel mondo in cui mi trovo, io che vivo in un ambiente, in una cultura, in un luogo, io che nomino il mondo attraverso la mia lingua materna. Ma purtroppo si va consolidando l'uso della definizione inglese.

Con l'espressione inglese si consolida anche la definizione di una figura professionale: User Experience Designer, o User Experience Architect. La figura di uno specialista dotato di misteriosi strumenti, ignoti al volgo. Uno specialista attento all'applicazione di tecniche, ma non altrettanto attento alla propria e all'altrui esperienza.

Conosco diversi User Experience Designer che non meritano la descrizione che ho appena dato. Il loro spessore culturale, la loro autonomia di pensiero, il loro atteggiamento critico di fronte alle facili mode ed al comodo indulgere dei tecnici a linguaggi pomposi e vuoti. Proprio pensando a loro scrivo questo articolo. Per condividere con loro una riflessione sugli aspetti problematici del ruolo.

Potrei proporre un parallelo: gli User Experience Designer come gli Human Resource Manager. Un tempo si diceva Direzione del Personale; oggi si dice Human Resource Management. Gli Human Resource Manager si occupano di persone, che meritano di essere poste in condizioni adeguate a far sì che possano lavorare efficacemente. Ma le aspettative a cui gli Human Resource manager devono rispondere finiscono per imporre loro di vedere, al posto delle persone, mere risorse, mera materia prima, forza lavoro spersonalizzata. Certo l'Human Resource Manager può restare fedele a se stesso, e interpretare il ruolo a proprio modo. Ma la pressione è forte.
Simile la situazione dell'User Experience Designer.
Per un altro verso la posizione degli User Experience Designer può essere avvicinata alla posizione del Marketing Manager: entrambi si propongono di guardare non solo agli abitanti di un mondo ristretto, l'azienda. Entrambe le figure guardano agli abitanti di ogni mondo, agli abitanti di un universo senza confini. Il Marketing Manager propone la posizione del cliente, o customer, ad ogni essere umano. Così come l'User Experience Designer propone ad ogni essere umano la posizione dell'utente.
Possiamo aggiungere che l'User Experience Designer si colloca un passo oltre l'Human Resource Manager ed il Marketing Manager. Generalizzando, possiamo osservare la diversità tra le figure del manager e la figura del designer. Nel ruolo del manager prevale la gestione di una situazione già esistente. Il designer si progettare la situazione. E lo stesso mondo all'interno del quale si manifesta l'umano agire.
Serve, quindi collocare la nuovissima arte dell'User Experience Design in una prospettiva storica e filosofica. Serve accettare di osservarla nelle sue estreme conseguenze.

Definizioni
In campo informatico, in particolare, l'User Experience, UX, sembra essere la nuova frontiera della progettazione. Progettare le applicazioni oggi non è troppo difficile. Esiste già una innumerevole quantità di applicazioni. Esistono oggetti e strati di codice già pronti con i quali costruire applicazioni. Ciò che fa la differenza sta, si dice, nell'interfaccia: Human Interface (HI). Ciò che fa la differenza è la qualità dell'interazione tra l'uomo e la macchina: Human-Computer Interaction (HCI).
Ho appena detto che le definizioni non sono irrilevanti: verso la metà degli Anni Novanta un esperto che al momento lavora per la Apple, Don Norman, decide che sia Human Interface che Human-Computer Interaction sono denominazioni poco convenienti. Propone in cambio User Experience.

Abituati come siamo ad essere gregari ('appartenenti ad un gregge'), piuttosto che a pensare in proprio, anche parlando di User Experience e User Interface (UI), finiamo troppo spesso per far riferimento a qualche guru.
Ora, guarda caso, Don Norman ("The Guru of Workable Technology", Newsweek),
Jakob Nielsen ("The Guru of Web Page Usability", New York Times), ed anche Bruce "Tog" Tognazzini ("The User Interface Guru" (Wired), sono i Principal di una società di consulenza, Nielsen Norman Group, alla quali molti ricorrono per conoscere il Verbo.
Tra i tre, il Guru dei Guru è Norman, portabandiera dell'User Experience. Uno dei modi di imporre il proprio potere, si sa, è imporre le proprie definizioni. Ascoltiamo dunque Norman.
"We should distinguish UX and usability: according to the definition of usability, it is a quality attribute of the UI, covering whether the system is easy to learn, efficient to use, pleasant, and so forth".
Altrettanto importante, continua Norman, è "to distinguish the total user experience from the user interface (UI). As an example, consider a website with movie reviews. Even if the UI for finding a film is perfect, the UX will be poor for a user who wants information about a small independent release if the underlying database only contains movies from the major studios"
Ma comunque, sia rispetto all'usability che all'user interface, "UX is an broader concept".

Il concetto è elaborato da Norman negli Anni Ottanta: Ma allora Norman lo denominava User Centered Design. Alla metà degli Anni Novanta trova la sua esplicita affermazione e la denominazione: User Experience Design. Racconta lo stesso Norman: “I invented the term because I thought human interface and usability were too narrow. I wanted to cover all aspects of the person’s experience with the system including industrial design graphics, the interface, the physical interaction and the manual.”

Non c'è motivo di negare le buone intenzioni di Norman. Il cui pensiero si nutre di ottimi studi -tra gli ultima Anni Cinquanta e gli Anni Settanta- in campi diversi, che contribuisce ad ibridare: Ingegneria, Computer Science, filosofia, matematica, psicologia. Fino ad approdare alle Scienze Cognitive.
Nel 1986 cura, insieme a Stephen Draper, User Centered System Design: New Perspectives on Human-Computer Interaction (L. Erlbaum Associates, Hillsdale, N.J.). Dove appare anche il saggio a sua firma Cognitive Engineering (pp. 31-61).
Due anni dopo esce quella che resta la sua opera più rilevante, The Psychology of Everyday Things (Basic Books, New York, 1988).
Concetto chiave, in entrambi i libri, è l'User-Centered Design. La progettazione deve contemplare la compresente elaborazione di due modelli. C'è ovviamente il Design model: ciò che il progettista, in considerazione della propria visione creativa, immagina. Ma, aggiunge Norman, al Design Model dovrà accompagnarsi lo User Model: il modo in cui l'utente si spiega il funzionamento del sistema. Idealmente, i due modelli dovrebbero essere equivalenti. "However, the user and designer communicate only through the system itself: its physical appearance, its operation, the way it responds, and the manuals and instructions that accompany it". Di qui il fatto che non basta progettare il sistema. Serve porre attenzione alla System Image: "the designer must ensure that everything about the product is consistent with and exemplifies the operation of the proper conceptual model." (The Psychology of Everyday Things, pp. 189-190)
Dunque: "a User-Centered Design, a philosophy based on the needs and interests of the user, with an emphasis on making products usable and understandable." (p. 188).
Norman arriva così a proporre un patto tra progettisti e utenti: "Now you are on your own. If you are a designer, help fight the battle for usability. If you are a user, then join your voice with those who cry for usable products." (p. 215).

C'è un altro aspetto, non trascurabile, del pensiero di Norman. "When I use a direct manipulation system -whether for text editing, drawing pictures, or creating and playing games- I do think of myself not as using a computer but as doing the particular task. The computer is, in effect, invisible. The point cannot be overstressed: make the computer system invisible. This principle can be applied with any form of system interaction, direct or indirect." (p. 184).
"The computer is invisible, hidden beneath the surface; only the task is visible", insiste Norman due pagine dopo. "Although I may actually be using a computer, I feel as if I am using my appointment calendar." (p. 186).
A prima vista, non possiamo che concordare con Norman. In questo momento sto scrivendo. La mia mente è connessa alle dita che si muovono sulla tastiera, lo sguardo è rivolto allo schermo. Non voglio essere molestato o distratto da rallentamenti del sistema, da informazioni riguardanti software da aggiornare o altre operazioni inerenti al mero funzionamento della macchina.

Il cielo del Designer e la terra dell'User
Trent'anni dopo, nei giorni in cui scrivo, Norman, guru acclamato, in stanze riservate consiglia i produttori di ogni tipo di prodotto. Mentre arringa le folle dalla tribuna di Ted.
Le sue parole ci appaiono ancora buone intenzioni. Sicuramente una via da perseguire.
Resta valido l'invito, anche etico, rivolto ai Designer e progettisti tutti: tenete conto del punto di vista delle esigenze degli utenti. Considerate la frustrazione dell'utente di prodotti e servizi di fronte a sistemi che 'non fanno quello che si vorrebbe'; o meglio: 'ciò che si ritiene sensato'. Considerate il dispetto dell'utente costretto a leggere certi manuali d'uso.
Resta valido anche l'invito rivolto agli utenti: non demordete, non rinunciate a battagliare per prodotti meno astrusi, più semplici, più facili da usare.
Ma possiamo anche cogliere un aspetto minaccioso nelle parole di Norman. "True user experience goes far beyond giving customers what they say they want". Per quanto si parli enfaticamente di 'utente al centro', per quanto si sbandieri l'importanza del suo punto di vista e del suo interesse e del suo piacere e della sua esperienza, il Designer Cognitivista, pensa di saperne di più.
Con buona pace di Norman, l'utente di servizi resi accessibili via computer vive una condizione di pesante sudditanza. Non sa, e non deve sapere, come funziona il sistema. Il sistema per l'utente invisibile. L'utente vede solo il prodotto e il servizio. Resta quindi vivo per l'utente un motivato timore: cosa nasconde il sistema? Non nasconderà forse un qualche inganno? Timori non infondati: basta pensare al costante tracciamento dei nostri comportamenti personali. Norman proponeva un patto tra Designer e User. Ma oggi il potere dei Designer -che tramite macchine digitali disegnano gli ambiti nei quali viviamo la stessa vita degli utenti- appare sconfinato.

Quindi, dobbiamo riprendere il discorso daccapo. Tornando al senso dell'esperienza: in latino ex, intensivo, perior: 'io provo'; e chiedendoci cosa si nasconde dietro il definire l'essere umano utente.
L'esperienza umana si manifesta attraverso l'uso di utensili. In latino: verbo uti, 'usare'. Utensilis, aggettivo per ‘utile’, ‘necessario’. Utensilia, ‘cose utili’. E dunque: utens, 'qui utitur aliqua re', 'chi usa una qualsiasi cosa'.
L'essere umano scopre la possibilità di usare una cosa come utensile. E' attraverso l'esperienza del martellare che si apprende a martellare. E' martellando che l'uomo coglie e definisce il senso dello strumento, e della parola usata per definirlo: martello. Heidegger parlava di Zuhandenheit, l''essere alla mano', 'vicino alla mano' 'nella mani'. Questo è alla fin fine l'utensile.

Nell'esperienza umana -'io provo'- non c'è soluzione di continuità tra il costruire l'utensile e l'usarlo. Possiamo ritenere che l'utensile -ogni mezzo, strumento ogni tecnologia, nelle mani dell'uomo- sia sempre in via di costruzione. L'esperienza dell'uso ritorna nel progetto dell'utensile, in una spirale di miglioramento continuo.

Fenomenologia e psicologia sono studio di come l'uomo l'uomo osserva e percepisce le cose. Ogni uomo è 'gettato nel mondo', ci ricorda Heidegger: Geworfenheit. Possiamo tradurre: Thrownness, gettatezza. L'esperienza di sentirsi gettato giù, gettato fuori dalle zone di conforto, scagliato, solo un mondo inospitale e sconosciuto, come Robinson Crusoe. L'esperienza umana è scoprire come cose che sono disponibili nel mondo in cui si è nostro malgrado gettati -nel mondo nel quale nostro malgrado ci troviamo- possono essere usate come utensili.

Dunque l'uomo può essere detto utens, perché, mosso da una intenzione, da un piacere, da una necessita, usa cose. Le cose, battezzate come utensilia, 'cose utili', sono un mezzo. Le caratteristiche del mezzo -medium, tecnologia- influenzano l'agire.
Ma l'agire umano non si riassume nell'uso di un mezzo, di una tecnologia, di un utensile. L'uomo dispone sempre -vale l'esempio di Robinson Crusoe- di alternative e di possibilità. Potrebbe in ogni caso costruire, e usare, un altro utensile. L'essere umano è sempre qualcosa di più dell'essere utente - fruitore obbligato di un dato utensile, di una data tecnologia, di un dato costrutto, di un dato programma, di un dato algoritmo.

Si dovrebbe dunque parlare di Human Experience. Perché invece porre riduttivamente l'attenzione sull'User Experience?
Torniamo a Don Norman. Norman pubblica The Psychology of Everyday Things nel 1988. Ma subito modifica il titolo: The Design of Everyday Things (Currency Doubleday, New York, 1990). Viene così reso evidente un passaggio: un conto è guardare alle cose dal punto di vista della propria esperienza - come potrebbe suggerire il titolo Psychology of Everyday Things. Un conto è guardare alla altrui esperienza, considerandola il frutto del progetto di uno specialista: il Designer.
Norman, passando dal dire Psychology of Everyday Things a dire Design of Everyday Things esplicita in effetti l'approccio del libro. L'approccio fenomenologico -che pone al centro l'essere umano- resta confinato sullo sfondo. In primo piano non sta l'uomo, ma un soggetto del tutto differente: il Designer.

Norman non considera il Designer come abitante del mondo. Norman considera il Designer abitante di un meta-mondo abitato da Designer.
L'essere umano è costretto a manifestarsi esclusivamente come utilisateur, usuario, Benutzer. utente di strumenti predisposti da un progettista. Strumenti che permettono di fare esperienza, certo. Ma solo l'esperienza prevista in un progetto. L'User Experience non è esperienza dell'essere umano. L'User Experience consiste dunque nell'imporre all'uomo il progetto di un Designer.

Come scriveva già Tito Livio, esistono due tipi di utensili: “divina humanaque utensilia”, ‘gli utensili umani e gli utensili divini’. (Tito Livio, Ab urbe condĭta [Storia di Roma], XXXIII).
I Designer, super-uomini o dei, operanti nell'Empireo, nel meta-mondo a loro riservato, usano divina utensilia, strumenti e linguaggi di progettazione - tramite i quali costruiscono humana utensilia, gli oggetti concessi in uso agli esseri umani, ridotti a utenti.

In virtù di vincoli previsti dal progetto, gli utensili concessi all'uomo-utente resistono ad essere usati come sogna, come desidera, come necessita l'uomo. L'uomo vive la Geworfenheit, la Thrownness, gettatezza: il trovarsi in un mondo difficile sconosciuto. L'uomo apprende agendo, e che agisce apprendendo. L'uomo manifesta la propria umanità, la propria cura, costruisce la propria identità e la propria autostima nello scoprire il senso di cose che posso essere considerate utensili. Così, anche, l'uomo costruisce la propria autostima. E' l'esperienza di Robinson.

Quest'uomo oggi è impedito, nel proprio agire, dal progetto del Designer. Che decide per lui.
L'user, l'utente di Norman è lontanissimo dall'uomo-Robinson. L'user, l'utente di Norman è il giovane Truman costretto all'interno dello show, attore ignaro di uno spettacolo governato da un designer-regista.
Perché oggi la stessa vita umana si svolge in larga misura -secondo alcuni: l'intera vita umana- si svolge in un mondo progettato da disegnatori.

The Design of Digital World
Trent'anni dopo The Design of Everyday Things il primato del disegno sull'agire umano appare fatto compiuto.
"Le tecnologie dell'informazione e della comunicazione" -potremmo anche dire: l'informatica e il computing- portano con "sé l’erosione dei confini tra il reale e il virtuale e l’erosione dei confini tra uomo, macchina, e natura", si legge nell'OnLifeManifesto. L'uomo, si sostiene, non vive più nel mondo che aveva conosciuto l'arco della sua intera storia. Vive onLife: in una nuova vita che comprende la la vita off line e la vita on line. Vive in un luogo virtuale, in un'Infosfera, nel Cyberspazio. In una certa misura la profezia di Matrix è già avverata. Anche se secondo i profeti del nuovo è solo l'inizio.
Già oggi con il Clouding informazioni che ci riguardano, conoscenze che noi stessi abbiamo prodotto, così come ogni dato, tutto risiede in una nuvola senza luogo progettata da un Disegnatore.
Le stesse applicazioni con le quali interagiamo sulle nostre macchine personali -computer o tablet o smartphone- sono perennemente aggiornate dal Disegnatore -in base una propria insindacabile scelta dei modi e dei tempi e delle scelte- sulla macchina personale di ogni essere umano. Con Internet of Things il progetto arriva al suo compimento.
In The Design of Everyday Things Norman, trent'anni fa, mostrava numerosi esempi di cose di uso quotidiano. Si inizia con la paradossale caffettiera disegnata da Jaques Carleman: inutilizzabile, perché il beccuccio e il manico sono sullo stesso lato, sovrapposti l'uno all'altro. Si continua con maniglie, apparecchi telefonici, pulsanti e interruttori, manopole e rubinetti, elettrodomestici, giocattoli, scarpe. Tutte queste cose sono state progettate da un Designer che pretende di sapere meglio di noi quale esperienza d'uso desideriamo.
Con Internet delle Cose il peso del progetto si aggrava oltremisura: questi oggetti restano sotto il controllo del Designer anche in ogni istante del loro uso. In ogni istante il Disegnatore potrà decidere come impedire usi che ritiene aberranti; o potrà anche dichiarare obsoleta la cosa, distruggendola.

E' in gioco la libertà dell'uomo-Robinson. Possiamo prendere ad esempio il Web: è un mondo co- creato da esseri umani, disordinato, complesso, confuso, e secondo alcuni anche pericoloso. Il Designer ci parla ogni giorno di questi pericoli e di questo disordine, cercando di convincerci i vantaggio di un mondo disegnato, e quindi ordinato, sicuro e semplice.

Norman tra i primi auspicò i vantaggi del nascondere all'essere umano il complesso funzionamento del computer: non devi preoccupartene, pensa solo a quello che vuoi fare. Ma questo nascondimento si rivela come enorme rischio sociale e politico. Per l'essere umano ridotto a utente il computer, effettivamente, "is invisible, hidden beneath the surface". Non gli resta che muoversi negli spazi previsti dal Disegnatore - lui sì eletto detentore dei divina utensilia che permettono, a diversi livelli, di programmare la macchina fino a definire gli spazi di libertà nei quali è confinato l'utente.

Il Design dell'Experience finisce quindi per essere l'elemento cardine dell'edificazione stessa dell'OnLife, nuovo mondo dove scompaiono i confini tra il reale e il virtuale e i confini tra uomo, macchina, e natura. Non a caso Norman sostiene che "the System Image plays the key role". System Image: l'immagine del sistema che il progettista si propone di far apparire agli occhi dell'utente.
L'icona nascondeva al fedele bizantino il mistero dell'altare. L'icona sullo schermo -esemplare manifestazione storica dell'abilità del Designer dell'User Experience- nasconde a noi esseri umani ridotti a utenti il misterioso funzionamento della macchina-mondo chiamata computer.

Riappare così in una luce preoccupante, quasi sinistra, la frase di Norman: "True user experience goes far beyond giving customers what they say they want". La vera User Experience va ben al di là dal dare ai customer quello che dicono di volere.
Ridotto a customer e user l'essere umano dovrà subire il progetto. L'intento della Propaganda e dell'Advertising, sia in ambito di business che in ambito politico, avevano la stessa pretesa. Ma l'essere umano viveva nel proprio mondo -un mondo solo parzialmente progettato; un mondo dove il progettista era assente- e poteva disattendere le altrui pretese. Adesso, se l'essere umano vive nell'OnLife, vive in un mondo progettato. Progettato anche per evitare che l'uomo disattenda le aspettative del Designer.

Sono da guardare con sospetto tutti gli approcci che comportano il tentativo di 'far prendere coscienza agli altri’ di qualcosa, pretendendo di sapere meglio di loro stessi cosa sia meglio per loro.
E' la pretesa, anche, dei Dittatori che in cuor loro pensano di governare per il bene del popolo. E' la pretesa del Grande Inquisitore di Dostoevskji. E' la minaccia che vediamo narrata in romanzi come Il mondo nuovo di Huxley, 1984 di Orwell, Noi di Zamjatin. La tecnologia che in quei romanzi si immaginava è oggi disponibile. Il Design della User Experience è un passo in quella direzione.

E siccome si sa che, nella visione del management, ogni aspetto importante del business deve essere affidato alla cura di un manager 'C level', un Chief, ecco, accanto al CEO: Chief Executive Officer, accanto al CFO Chief Financial Officer, accanto al CIO Chief Information Officer, e via dicendo, ecco comparire accanto a queste figure il CXO: Chief Experience Officer, "an executive responsible for the overall experience" implicita in ogni prodotto o servizio.

Ed ecco anche che, sull'onda dell'User Experience Designer, o User Experience Architect, si vanno definendo figure professionali sempre più precise. Non solo, genericamente, progettisti dell'esperienza, ma anche progettisti delle conversazioni e le pratiche sociali.

Ciò che inquieta non è in sé la pretesa di imporre. Ciò che inquieta è la pretesa di imporre accoppiata ad una crescente impossibilità di evitare l'imposizione. Come in Truman Show il Designer ci sorveglia e ci impedisce di uscire dal disegno.
Possiamo fidarci dell'etica e della responsabilità sociale dei Designer? Possiamo credere che la loro formazione universitaria e professionale garantisca loro ampiezza di vedute, sottigliezza, saggezza, senso della misura?

Possiamo puntare su più seria formazione dei Designer. Ma forse la via politica da perseguire è diversa, anzi opposta. Ignorare i Designer. Non dar loro corda. Smettere di attribuir loro importanza solo perché possiedono divina utensilia a noi negata.
Possiamo prepararci a fare miglior uso dell'humana utensilia di cui disponiamo. Possiamo cercare una educazione diffusa: conoscere la macchina per saperla usare. Possiamo perseguire la via della sistematica violazione delle regole imposte al nostro agire dai Designer. Possiamo trascurare istruzioni per l'uso e insistere nel cercare di far fare alla macchina quello che vogliamo.

Sì, è vero, viviamo già forse nell'OnLife, nell'Infosfera, in un mondo dove tendono a scomparire i confini tra il reale e il virtuale ed i confini tra uomo, macchina, e natura. Ma niente può vietarci di coltivare, anche in questo contesto, la nostra umanità.
Il libero accesso garantito alle conoscenze garantito dal Web viene condizionato e ridotto tramite il disegno: per esempio attraverso l'invito ad accedere al Web tramite una app - che sceglie per noi a quali conoscenze attingere, e il modo di attingervi, e il quando attingervi. Ma il Web ormai esiste e non può essere oscurato da nessun Designer.
La libertà garantita dai software che usiamo quotidianamente viene progressivamente erosa - ma possiamo scegliere di non aggiornare il software. Possiamo scegliere di usare macchine vecchie che si adattino a noi come confortevoli scarpe vecchie.
L'inevitabile imperfezione di ogni progetto permette rovesciamenti di senso e usi imprevisti dal Designer. Occupiamo questi spazi. Le stesse macchine che usiamo, alla fin fine, possono comunque, in qualche misura, essere usate in modo che il Designer riterrà aberrante - ma che a noi piace e torna conveniente.
Possiamo cercare di emanciparci dal ruolo di utenti, tornando ad essere umani.

Queste riflessioni costituiscono un primo assaggio dei temi che tratterò nel secondo volume del mio Trattato di Informatica Umanistica. (Primo volume: Macchine per pensare. L'informatica come prosecuzione della filosofia con altri mezzi, Guerini e Associati, 2016).

domenica 24 luglio 2016

La selezione naturale è un processo meccanico, algoritmico, mindless? Possiamo essere d'accordo con Dennet e Dawkins?


Newton era allo stesso tempo scienziato, alchimista e teologo. Non credo che questa singolare pluralità infici i risultati del suo lavoro di scienziato. Newton sapeva convivere con il suo essere ibrido.
La compresenza, nella mente del pensatore e nella vita del pensatore, di diversi approcci alla conoscenza, non limita l’accesso alla conoscenza, anzi la facilita, tenendo lontano il pensatore da ogni fondamentalismo. L’essere umano pensante che si muove in, tra molteplici discipline è spinto ed esplorare i propri limiti, ad evitare l’autocensura. Possiamo anche dire: l’essere umano pensante pone così se stesso nelle condizioni di convivere con i propri fantasmi. Con le proprie paure e i propri dubbi e le proprie contraddizioni.
Dobbiamo dubitare invece di coloro che non sanno convivere con la pluralità , con l’ibrido e l’ambiguo. Latino hybrida: bastardo. Abbiamo forse timore di essere bastardi? Meticci? Figli illegittimi o senza padre o senza madre?
La matematica è innocenza: non c’è colpa nella matematica, la matematica mostra una sincerità disarmante, la matematica indica la via verso la purezza e la limpidezza. Ma proprio per questo la matematica, proprio per questa sua predisposizione a separare la res cogitans dalla res extensa, la mente dal corpo, proprio per questa sua purezza, usabile come fuga da ogni impurezza, proprio per questo la matematica finisce per essere la metafora -‘veicolo’- per conoscere il mondo necessario per chi cerca di tener lontana da sé il proprio essere ibrido, la propria ambiguità, il proprio terribile inconscio.
Dobbiamo quindi dubitare di coloro che usano la matematica -strumento adattissimo allo scopo- per cercare chiavi descrittive del mondo prive di ogni ogni ambiguità, mondate da ogni impurezza. Dobbiamo dubitare di chi cerca tramite la matematica un sistema di regole indefettibile, superiore ad ogni debolezza ed incertezza umana. Non è in gioco qui il ‘come è fatto il mondo in sé’. Qui è in gioco il ‘come io, soggetto pensante, sono in grado di osservare e descrivere il mondo’.
Questo bisogno di matematica, quando la matematica con Gödel critica se stessa, rinasce come bisogno di informatica. E’ questo il passaggio compiuto da Alan Turing. Passaggio che porta direttamente a sostituire l’uomo che pensa con una macchina - priva dei difetti che lo stesso costruttore di macchina riconosce in se stesso. Passaggio che porta anche a immaginare il mondo come macchina – macchina lontanissima dall’uomo. Rispetto alla macchina-mondo l’uomo è entità minuscola e irrilevante.
Proprio qui Walter Pitts si oppone a Turing. Pitts usa la matematica come linguaggio sempre connesso alla sfera affettiva: ‘traduce’ in forma matematica il pensiero degli amici, e dei padri. Usa la matematica come linguaggio bastardo, corsivo, per ri-narrare e perpetuare ciò che pensano gli amici e i padri.
La matematica strumento di difesa dal mondo è rovesciato nel suo opposto. E’ trasformata dal solitario e diverso Walter in strumento per descrivere il mondo, inteso nella sua ambiguità e complessità. Accettato nella sua assenza di fondamenti.

All’opposto di Newton, scienziati e filosofi di oggi, dei giorni in cui scrivo: Dawkins e Dennet, si mostrano incapaci di convivere con i propri fantasmi. Finendo non a caso col considerare se stessi robot, e l’universo una macchina, un computer che perpetua l’esecuzione di un algoritmo. Comodo pensare che Darwin offre la via d’uscita al confrontarsi con la complessità. l’incertezza, l’assenza di fondamenti e l’inconscio. Comodo pensare che, in accordo con Darwin, la natura è un processo mindless, meccanico, regolato da un algoritmo che trascende l’uomo. Mindless: se temo la mia stessa mente, mi è conveniente nascondermi dietro la scienza, anzi la Scienza. Affermando per via scientifica che la mia povera mente è irrilevante.
E’ così difficile assumersi la responsabilità di essere umano che ‘esiste’? Essere umano che non si limita ad essere, ma si interroga sul ‘cosa ci faccio qui’, sul come influisco sul mondo-che-ho-intorno. Molto meglio appellarsi a Darwin, ed affermare per via di legge scientifica che l’uomo non conta nulla nella scenario dell’evoluzione. Cosa c’è di meglio, per allontanare da sé ogni dilemma etico, ogni carico legato all’ermeneutica -l’arte di interpretare i segni-, cosa c’è di meglio che affermare l’inesistenza dell’uomo. L’uomo, infatti, per Dawkins e Dennet, non esiste. Non è che un ospite irresponsabile e innocente di geni egoisti. No conta nulla la vita umana. L’essere umano non è che un accidentale costrutto. Conta solo la vita dei geni.
Comodo sostenere, come fa Dennett, che essendo la vita un algoritmo, anche la morale sia un algoritmo. Comodo aggiungere che è opportuno non coltivare troppe speranze nell’umana capacità di scoprire l’algoritmo che porti a ‘fare le cose giuste’. Si tratta, nelle migliore delle ipotesi, di scoprire una ‘legge di natura’, e di adattarvisi.

Penso ed ora scrivo da una posizione umana. Sono un essere umano. Per l’essere umano laicità e libertà stanno nell’accettare stili di vita e di pensiero diversi, sta nell’accettare di essere al contempo teologi e alchimisti e scienziati. Sta nell’accettare la presenza di culture diverse. Sta nell’accettare la compresenza, nello stesso luogo dove vivo, di esseri umani differenti da me per razza e per storia, per bisogni e per sono. Dalla mia posizione di essere umano cerco quindi di immaginare macchine in grado di aiutarmi ad essere più umano.
Facile al contrario affermare, trasformando alla fin fine Darwin in Garante dell’Alibi, che il punto di vista umano non conta nel gran disegno della natura. Facile dire che anche la cultura e la storia, che gli uomini credono proprio costrutto, frutto del proprio lavoro, non sono altro che manifestazione delle intenzioni e dell’agire dei geni egoisti.
Facile in fondo, dal punto di vista umano, costruire la propria carriera di scienziati sull’assenza di responsabilità dell’uomo, e quindi dello stesso scienziato.
Facile anche provare soddisfazione nell’affermare: ‘io sono un robot’, l’universo è un omincomprensiva macchina, un computer che esegue algoritmi contro i quali nulla posso. Facile e comodo, dal punto di vista umano, affermare che non si tratta di una scappatoia che scelgo per me, ma di una legge universale. Facile evitare così, lo ripeto, evitare di confrontarsi con i propri fantasmi e il proprio inconscio.
Siccome c’è spazio per tutti nel mondo, e ci sono certo sotto il cielo cose
Il punto chiave, il luogo del pensiero dove Dawkins e Dennet, e altri come loro, svelano la meschinità della propria posizione, è il loro fondamentalismo. Il loro bisogno di assoluto ateismo.
Newton accettava se stesso accettando la compresenza di modi diversi di essere. Le leggi scientifiche che Newton porta alla luce convivono con ricerche alchemiche e con speculazioni teologiche. Newton resta lontano da ogni fondamentalismo. Dawkins e Dennet sono invece i portabandiera di un irrinunciabile fondamentalismo. La posizione darwiniana potrebbe essere sostenuta senza assolutismi. Ma Dawkins e Dennet hanno bisogno invece di un Unico Assoluto. Nessuno lo chiedeva loro, non ce n’è bisogno logico, non ce n’è esigenza razionale. Eppure loro legano indissolubilmente la posizione scientifica darwiniana all’ateismo. Non c’è laicità qui. C’è sussunzione alla norma. Non c’è osservazione di un algoritmo in base al quale funziona la natura. C’è bisogno di un algoritmo, una superiore indiscutibile e comunque efficace legge che esima dall’umana responsabilità del dubitare e dello scegliere.
In superficie, l’ateismo potrebbe apparire come libertà rispetto a un Dio che determina il mondo. Ma l’ateismo indissolubilmente legato al darwinismo, all’affermazione di una superiore legge che determina il mondo, è peggio di una fede in un Dio. E’ la sussunzione ad una religione. Ad una regola deresponsabilizzante.
Osservando la campagna in pro dell’ateismo condotta da Dawkins e Dennet, ed altri come loro, si ha sotto gli occhi un atteggiamento identico a quello di altri fondamentalismi: le argomentazioni -apodittiche, assiomatiche- di Dawkins e Dennet in pro dell’ateismo sono del tutto analoghe a quelle delle loro bestie nere, i creazionisti. Non c’è differenza tra le due posizioni. Dire che tutto dipende da inconoscibili scelte di Dio, o da inconoscibili scelte del gene egoista, è dire la stessa cosa. In entrambi i casi l’uomo si chiama fuori.

Abbiamo motivo di ritenere che per Turing fosse molto difficile accettare la propria differenza. La propria omosessualità. E che quindi proiettasse questa difficoltà nell’immaginare un mondo dove i confini fossero netti, di qua o di la, uomo o donna, bianco o nero, interruttore aperto o interruttore chiuso, stato a o stato b. Possiamo supporre che questa esigenza abbia contribuito a portare Turing ad immaginare una macchina siffatta: una macchina per discriminare in modo netto gli stati del mondo. Una macchina funzionante in base a un algoritmo, un algoritmo indefettibile, privo delle umane debolezze.

Newton aveva in mente l’orologio: la macchina che, ai suoi tempi, più si avvicinava a rappresentare, per analogia, la complessità della vita. La cibernetica, in fondo, si collega direttamente alla fisica newtoniana, la supera senza discontinuità. Intorno alla metà del Ventesimo Secolo l’immagine dell’orologio appare ormai vecchia. Alla singola immagine dell’orologio si sostituiscono una pluralità di immagini: sono ‘macchine cibernetiche’ sia l’organismo vivente - anche lo stesso essere umano, sia il computer, macchina nuova che appare sulla scena in quegli anni. In ogni caso la cibernetica, stando alla stessa radice greca dell’espressione, ci parla di ‘governo del mondo’. Nelle Macy Conferences si parla di autoregolazione dei sistemi, ma anche di governo, di possibile ruolo attivo, spazio per l’uomo. McCulloch e Wiener si interrogano, dubitano e coltivano la multidisciplinarità.
Dawkins e Dennet tornano indietro. Tornano alla Scolastica. Un solo rassicurante e totalizzante sapere.
Possiamo riconoscere in differenti pensatori evoluzione del pensiero, l’accettazione del dubbio, con il conseguente faticoso abbandono di una posizione fondamentalista: questa è, per vie diverse, ma in fondo convergenti, l’esperienza di Frege e di Russel, di Wittgenstein, dello stesso Putnam.
Dawkins e Dennet no. Dennet, filosofo, sembra dubitare. Le svolte del suo pensiero sono anche affascinanti, per questo ci delude più di Dawkins, puro scienziato. Dennet ci delude perché torna sempre lì. Al suo bisogno di Legge Universale. Alla necessità di un ateismo dogmatico.
Ci parla con accattivante vis polemica di coloro che cercano spiegazioni attraverso skyhooks, ganci per salire in cielo. In quanto esseri umani capaci di ermeneutica, capaci di leggere tra le righe, possiamo cogliere nella sua critica di coloro che cercano skyhooks un disperato bisogno. L’ateismo, il concepire il mondo come l’esecuzione di un algoritmo sono skyhooks. Dennet, comprensibilmente, bisognoso di fondamenti, propone come alternativa agli skyhooks i cranes, solide gru ben piantate per terra. Sostiene, giustamente, che non conviene cercare miracoli, serve piuttosto un intelligent design. Ma la posizione è invalidata dalla preconcetta affermazione dell’impossibilità, per l’uomo, di un intelligent design diverso dal comprendere, adeguandovisi, ciò che è già definito dall’algoritmo dell’evoluzione.
Secondo Dennet l’uomo non può muoversi se non on the ground of physical science. Ovvero dentro una macchina che esegue un algoritmo ignoto all’uomo e immodificabile per l’uomo.
Ciò che deve importarci di Daniel Dennet non sono i suoi ammonimenti all’umanità. Non dobbiamo lasciarci abbagliare dalla sua autorevole barba. Non siamo tenuti a badare alla insistente campagna in pro dell’ateismo, sua e dei suoi compari. Il loro considerarsi emarginati per le proprie posizioni atee fa parte di uno spettacolo al quale non siamo obbligati a partecipare. Certo, gli omosessuali seppero liberarsi da definizioni vili autonominandosi gay. Ed ora Dennet e sodali ci chiedono di di essere chiamati bright. Roba di poco conto.
Ciò che ci può importare non sono le pubbliche esibizioni durante le quali si dichiara un robot, nient’altro che un ospite di geni egoisti. Ciò che ci può importare sono i suoi tentativi di Dennet vivere la propria umanità. Viverla senza fondamenti. Senza dogmi.
Il vecchio Böhme, parlandoci di Ungrund, ci indica la strada.
Per Böhme né la presenza, né l’assenza di Dio sono già date. Non c’è bisogno di dichiararsi atei. Il ground of physical science non è l’unica risposta ai bisogni umani. L’uomo vive in uno spazio di possibilità.
Dennet non si limita a dire ‘non ce la faccio’. Ha bisogno di affermare che l’uomo non ce la può fare. Così, ciò che è probabilmente vero per la persona Daniel Dennet -il bisogno di una norma a cui attenersi- è proposto come verità e come vincolo universale. La scienza avrà pure le sue leggi dimostrate, leggi che travalicano la pochezza umana. L’uomo esiste comunque. La filosofia, e in senso più lato l’umana esperienza, l’arte e la letteratura, ci mostrano una porta che Dennet non vuole aprire, non sa aprire, non accetta di aprire: il vivere senza fondamenti, il vivere consapevoli dell’Ungrund.
Forse, accompagnato da macchine amichevoli, l’uomo ce la può fare. Vivere, per esempio, formulando oscure congetture e trovando nel Web la possibile risposta. 

giovedì 31 marzo 2016

Watson

Watson: adesso è sulla bocca di tutti, ma tutti i ragionamenti sui giornali e in tv sono superficialissimi.
'Supercomputer' non vuol dire nulla: si parla di hardware, di software? di basi dati? di algoritmi? Eppure leggete i titoli dei giornali, e anche gli interi articoli: sperticata apologia della meravigliosa macchina.



In estrema sintesi:
Simulazione del comportamento umano presentato come risposta adeguata ad esigenze umane e anche a scientifica ricerca della verità: ma 'simulare' è ben diverso da 'essere' e da 'esistere', cioè dall'agire umano.
Capacità della macchina di capire linguaggio naturale umano e di interagire con l'uomo senza mediazione di interfacce come tastiere mouse e scrivanie come metafore sullo schermo: non è che un più sofisticato inganno. Perché comunque stiamo avendo a che fare con una macchina.
Ricerca di risposte dentro dati prodotti dall'uomo: quale che sia la 'base dati' su cui si lavora resta aperto il problema centrale: tramite quale 'logica' si leggono e interpretano i dati. Quali sono gli algoritmi usati. A partire da quali scelte ideologiche e politiche sono stati scritti questi algoritmi.
I giornalisti non si sforzano di capire. E usano passivamente i comunicati stampa IBM. Il governo italiano, per motivi evidenti di politica di breve termine, ostenta l'accordo con l'IBM prendendo per buono ciò che l'IBM dice. Gli esperti di computing e di Intelligenza Artificiale hanno tutti i motivi per essere conniventi: l'affermazione di Watson è la loro affermazione. Il loro atteggiamento è del tipo: 'non disturbate il manovratore'.
La propaganda costruita attorno a Watson sfrutta l'insicurezza umana di fronte alla complessità, di fronte a scelte difficili. Sfrutta l'umana disponibilità ad accettare con sollievo soluzioni magiche.
Vogliamo discutere su come invece su come, anche con l'ausilio di macchine, possiamo assumerci responsabilmente l'onere, ma anche il piacere, di affrontare problemi, e di risolverli.

Nel capitolo 'L'essere umano e i due modi di essere Turco' del mio libro Macchine per pensare parlo proprio di Watson e delle sue implicazioni non solo filosofiche, ma anche politiche e sociali.
Trascrivo qui sotto un breve brano:

Al termine del Ventesimo Secolo l’IBM lancia il computer Deep Blue. La macchina sconfigge, in una partita a scacchi, il campione Garry Kasparov. Di fronte a questo successo, subito si elevano i peana: ‘E solo una questione di tempo e le macchine diventeranno imbattibili’. Si cela dietro questa celebrazione della cosiddetta Intelligenza Artificiale un messaggio non da poco: si vuole convincere con questa propaganda i cittadini a credere che sia meglio affidarsi ad una macchina meravigliosa, che pensa, e risolve i problemi complessi, meglio di quanto sappiano fare gli esseri umani.
Non paghi, gli strateghi e i tecnici dell’IBM, nei primi anni del nuovo millennio, rilanciano, costruendo una nuova macchina ancora chiamata, per colpire la fantasie delle masse, Supercompuer: Watson, in onore di Thomas John Watson Sr., Chairman per quarantadue anni della Corporation.
Si tenta di argomentare che il progetto ha come scopo facilitare l’interazione tra uomo e macchina. Si vuole sostenere che sia utile all’uomo una macchina con la quale si possa interagire senza dover ricorrere ai complicati linguaggi che la normale macchina è in grado di capire. Ma per l’uomo, come non è mai un problema comunicare con un cane o con un gatto, non è mai un problema colloquiare con una macchina. L’aspettativa, che spesso l’uomo, insicuro, nasconde a se stesso, è disporre di una macchina in grado di sostenerlo nel proprio libero pensiero.
Stavolta, con Watson, poiché alle masse si devono offrire spettacoli adatti, si trascura il troppo sofisticato gioco degli scacchi, e si scende sul piano della più comune volgarizzazione della conoscenza: la capacità di rispondere alle domande di un quiz televisivo. Ecco la grande sfida, che naturalmente la Macchina vince: esibirsi sui teleschermi, durante una puntata di Jeopardy!, ovvero Rischiatutto. Naturalmente, anche in questo caso si tratta di una sfida comoda, fondata in realtà su ciò che è facile per la macchina, ed è al contempo un inevitabile punto debole umano: la mera capacità di memoria, il tenere in archivio masse di dati. Si sceglie dunque, per colpire l’immaginario popolare, un gioco adatto più a una macchina che a un uomo, un gioco dove intuizione ed abduzione giocano un ruolo marginale.

Questa è l’intelligenza, il modo di intendere il pensiero, che si pone alla fine come modello all’uomo-massa. Per indurlo a smettere di pensare.

Sullo stesso tema, potete leggere questo mio articolo, apparso sul Sole 24 ore, supplemento Nova, il 10 aprile 2016.

venerdì 25 marzo 2016

E’ tutta colpa di Google?

Un’opinione diffusa, sempre più presente sui mass media, giornali e televisione, ma anche sui social network, un’opinione di cui sono portatori intellettuali, politici, e anche informatici di professione, guarda con preoccupazione all’abuso posizione dominante da parte di imprese operanti sulla scena delle cosiddette ‘nuove tecnologie’. Una sempre crescente, massa di conoscenze, frutto dell’intelligenza umana, è oggetto di appropriazione indebita. Un caso per tutti: Google.
Google è responsabile di sempre più pericolosi attacchi alla sfera privata dei cittadini, Google è responsabile dell’appropriazione indebita, del furto di conoscenze prodotte da ognuno. Bastano pochi esempi.Google spia i nostri gusti e le nostre intenzioni osservando le nostre interrogazioni al motore di ricerca. Google viola la nostra sfera privata usando, non sappiamo bene come, la possibilità di sapere tutto sul nostro uso della posta elettronica. Google, tramite il servizio di Analytics messo a nostra disposizione, è in grado di sapere quali siti, e quali pagine su ogni sito, preferiamo visitare. Google, alimenta e via via migliora il proprio sistema di traduzione usando la capacità degli esseri umani di tradurre da una lingua all’altra: usa la mia capacità di tradurre senza darmi nulla in cambio. Ribadisco che si tratta solo di esempi.
E’ superfluo soffermarsi troppo nel ricordare che ciò che vale per Google vale in uguale o maggiore misura per ogni piattaforma offerta al nostro uso: Facebook, Twitter, Instagram. Anch’io sono inquietato da questa situazione.
Anch’io vedo in questa appropriazione -che passa sopra la testa di cittadini e stati sovrani- un’enorme problema politico, sociale, culturale. Ma non sono d’accordo nel considerare tutto questo una novità. Se vediamo in Google un pericolo nuovo, è solo per carenza di prospettiva storica. E’ solo perché siamo abbagliati dalla nuova veste di un fenomeno che non è per nulla nuovo, un fenomeno che viene da lontano, e che, dall’inizio del Ventesimo Secolo, ha caratterizzato l’intera storia dell’Informatica, fin dalla sua nascita. Abbagliati dalla pretesa novità, credo, finiamo per non vedere il pericolo dove veramente è, e quindi per non adottare contromisure efficaci.
Per questo in Macchine per pensare ripercorro la storia dell’Informatica. E’ fuorviante legare la storia dell’Informatica a Turing e a von Neumann, alla costruzione di ‘macchine matematiche’ destinate a sostituire il povero pensiero umano con il più efficiente e preciso ‘pensiero calcolante’. C’è un altro filone compresente: la progettazione e la costruzione di macchine destinate al controllo sociale. Macchine destinate a portare a compimento il sogno di ogni burocrazia, ma anche di ogni stato totalitario: sapere tutto il possibile della vita e dei comportamenti dei cittadini.
Racconto così in Macchine per pensare dell’avvento delle prime ‘macchine per il controllo sociale’ veramente efficienti: le macchine Hollerith, macchine elettromeccaniche che conservano le informazioni su schede perforate, nate negli Stati Uniti per automatizzare l’elaborazione dei dati raccolte con i censimenti. Macchine che trovano l’esemplare, estremo utilizzo nella Germania nazista negli Anni Trenta e Quaranta.
Si usavano allora queste macchine, in modo consapevole e trasparente, per sapere tutto di ogni persona, nel privato e al lavoro. Come racconto in sintesi qui. Non si osava forse pensare di potersi anche appropriare, tramite un’espansione della capacità del controllo di queste macchine, anche dei frutti del pensiero umano. Ma il progetto era già, nei primi trenta anni del secolo scorso, ben chiaro. Nulla dunque di nuovo.
Karl Marx l’aveva capito con un secolo d’anticipo. Solo oggi possiamo ben capire ciò che paventava parlando di General Intellect, knowledge sociale generale, prodotto del pensiero e del lavoro umano, defraudato ai produttori e reso disponibile, tramite macchine, a chi -stati, imprese, poteri occulti- potrà così usare a proprio piacimento ciò come nasce come risorsa personale e sociale.
Ora, il fatto è che, a partire dagli Anni Sessanta del Ventesimo Secolo, si assiste a una rottura storica. Quelle macchine che erano in esclusiva disponibilità di Stati, imprese, poteri occulti, quelle macchine che servivano al controllo sociale, entrano nella disponibilità di ogni cittadino. Il Personal Computer e in World Wide Web, pur con tutti loro difetti, sono questo: strumenti di liberazione, strumenti per difendere e garantire la propria libertà personale, la propria possibilità di creare conoscenze e di goderne i frutti.
Google nasce con il Web. Nasce con il progetto libertario dell’esplorazione di nuove frontiere per la conoscenza. Conoscenza di ognuno e conoscenza come bene comune, liberata dal controllo centrale il cui simbolo è proprio il Mainframe, in computer centrale che tutto conserva, diretto erede delle macchine Hollerith. Il fatto che poi alcuni tra i tecnici che hanno creato il Personal Computer e il Web, in casa Google e in altre case, si siano trasformati in speculatori finanziari, e pur di trarne profitto, siano passati a distruggere la propria creatura, non può negare la storia. L’atteggiamento via via sempre più esplicitamente assunto da Google e da Facebook, la loro minacciosa posizione dominante di onnipresenti attori globali sciolti da vincoli dettati dagli Stati sovrani, il loro attacco alla sfera personale dei cittadini del pianeta, dunque, ben lungi dall’essere una novità, è un rigurgito del passato. Insomma: la posizione dominante di Google non è che il ritorno, al di là della rottura culturale politica che l’avvento del Personal Computer e il World Wide Web hanno comportato, a quel controllo sulla vita e sul lavoro umano che è caratteristica originaria dell’Informatica.
Non serve dunque demonizzare Google, né serve vedere nuovi pericoli conseguenti a misteriose tecnologie. Serve mantener viva, in quanto cittadini, la propria attiva presenza sulla scena politica. La democrazia è frutto di responsabilità diffusa. La democrazia, oggi, è anche frutto dell’uso consapevole delle tecnologie oggi disponibili. Che restano, nonostante Google, strumenti democratici tramite i quali combattere le pretese totalitarie e l’incombere eccessivo del controllo sociale.
Va bene quindi parlare dell’antica minaccia alle libertà individuali, oggi incarnata da Google. Ma, intanto, occupiamoci di usare con più consapevolezza e con più pienezza, come strumenti di liberazione, gli spazi di libertà personale, di interazione sociale e di creazione collettiva di conoscenza che prima non ci saremmo neanche sognati di possedere. E che oggi, anche per merito di di Google, abbiamo a disposizione.

(Ho già scritto a proposito di Google, qui su Dieci chili di perle, qui e qui).