Eliezer,
è l'alba, mi sono alzato, mi sono messo un maglione, sono andato nel mio studio, ho aperto la finestra, ho spostato lo schermo per vedere dietro il mare e il cielo, sento i gabbiano gracchiare, ne vedo salire un in alto. Passa nel golfo il primo traghetto.
E' tempo di scriverti. Sono mesi che mi propongo di farlo, senza riuscire a trovare il filo, la chiave. Ho accartocciato e buttato nel cestino decine di lettere. Virtualmente, certo, sono quarant'anni che scrivo con il computer -questo Eliezer vuol dire che potrei darti i file di quello che ho scritto. Credo tu sia d'accordo con me nel dire che contano i sessanta e più anni di storia di quel campo di ricerca cui fu attribuito il nome 'intelligenza artificiale'; ma conta ancor più la personale esperienza con questa macchina detta 'computer', strumento nelle nostre mani, ma anche simbolo costantemente presente di una entità aliena che forse si emancipa, che si allontana da noi. Nessun altro mi ha parlato in modo così sottile di questa sensazione. Solo tu. Possiamo chiamarla sensazione o è meglio dire consapevolezza?
Così ho passato questa estate a leggere tuoi testi. Saggi su temi di epistemologia, libri che immagino per ragazzi, lunghi e articolati post su LessWrong. Colgo il tentativo di sintesi nelle tue interviste, i tuoi ultimi video. Ho in mente ora in particolare il tuo colloquio con Lex Fridman e il tuo articolo su Times. La minaccia che senti incombere impone di non andare troppo per il sottile: le Superintelligenze mettono a repentaglio la specie umana. Shut Down. Chiudiamo tutto, interrompiamo la ricerca, smantelliamo le server farm, mettiamo sotto controllo la vendita di ogni singola scheda grafica. Per carità, facciamolo, siamo lontani da una sufficiente comprensione di ciò a cui abbiamo incontro. E poi l'ultima risorsa argomentativa: la citazione della email della tua compagna che parla del dentino caduto della tua figlia. Che futuro avranno questi bambini? Queste macchine lavoreranno al posto loro, condizioneranno la loro vita. Sta andando tutto troppo veloce. Fermiamoci. Facciamolo per loro.
E' facile accantonare la tua posizione dandoti del millenarista, del vano profeta annunciatore di catastrofi. Per questo nei mesi scorsi mi sono messo a rileggere quello che hai scritto. Per immergersi in quella materia che sapevo che c'era. E che prima avevo solo assaggiato. Avvicinato a spizzichi. Mi ci sono immerso ora per cogliere le origini, la storia, il senso di quel pensiero che sfocia adesso nel tuo annuncio della disperata urgenza. Scritti di grande ampiezza e profondità. Un corpus omogeneo e variato, serrato e aperto. Nutrito di discipline diverse, logica, matematica, statistica, ingegneria, biologia: lista provvisoria, che subito tradisce l'insignificanza dei confini disciplinari. Visione senza confini, alimentata dalla tua benedetta distanza da ogni ogni formazione scolastica, accademica, settoriale. Profondità è ampiezza, ti dicevo, un sistema così ben tessuto. Non ti seguo su tutti i fronti, ovviamente, ma colgo, credo, l'armonia, la struttura. Il genio non può che essere autodidatta. Il pensiero va oltre i confini, è trascinato oltre i confini provvisoriamente raggiunti dal suo stesso sviluppo.
Seguo il tuo modo di intendere la teoria bayesiana. Inseguo la tua epistemologia. Mi appoggio però inevitabilmente alle mie letture, alla mia formazione. Non mi faccio bello citando le contiguità che posso immaginare per te immagino abbiano più senso. Cito invece, a costo di gettare la palla lontano dal tuo cesto, forse magari quasi di offenderti, testi ed autori che hanno senso per me. Opere intrinsecamente legate all'autobiografia, generate dal dolore e da una profonda solitudine. La solitudine di chi si sente il solo a vedere. L'Esegesi di Philip Dick. La scrittura lenta e metodica di Juan Emar, scrittura che, da un certo giorno in poi, accompagna ogni giorno della vita. Il tornare e il ritornare di Lezama Lima tramite ondate barocche su ogni dettaglio, ogni anfratto della propria vita, il sogno sempre presente del proprio personale Paradiso, forse non perduto – convocando nel discorso ogni brandello del sapere universale, cornucopia che sparge immagini. Sei anche questo Eliezer, un grande scrittore.
Del testo tu stesso hai scritto da qualche parte -riesco a scriverti ora perché finalmente ho una visione sintetica dei tuoi testi- che bisogna saper narrare. Non solo calcolare. Anche per questo mi permetto di citarti narratori.
Ma più leggo, più il tuo pensiero si apre ai miei occhi, nella sua solida consistenza scientifica e filosofica, nella sua coerenza interna, nel suo rispondere anticipatamente a critiche che potrebbero minarlo.
Così, Eliezer, ho maturato l'intenzione di scriverti. Volevo scriverti per confortarti dicendoti che ti sbagli. In più parti delle mie bozze di lettere non spedite avevo scritto: Eliezer, hai torto marcio; dici che soccomberemo, ma non accadrà. Mi sembrava che la tua definizione di Superintelligenza riprendesse alla lettera la definizione di Turing. Macchine in grado di competere con gli esseri umani in “all purely intellectual fields, dice lui”. “A Superintelligence is something that can beat any human, and the entire human civilization, at all the cognitive tasks”. Non solo in grado di competere, ma battere. Però sempre solo nei cognitive tasks. Mi chiedevo: non è forse riduttiva la tua definizione? Non stai descrivendo invece un attacco che tocca ogni aspetto della vita umana? Avevo scritto anche: hai ragione a metterci in guardia, ma la tua idea di una minaccia così forte, così grave, così imminente, è infondata. La Superintelligenza non ci distruggerà. Non saremo tutti morti. Tua figlia avrà un mondo in cui crescere. Mi sembrava infatti possibile fondare la mia speranza osservando che tu restavi chiuso nella scatola ricorsiva della computazione, senza saper vedere la complessità dei sistemi viventi, la cui descrizione non può che essere subottimale e incompleta. Quindi, accettata la complessità, aperta all'evento, all'imprevisto, all'emergente: come predire la probabile con la sicurezza che mostri?
Ma più procedevo nel mio tentativo di cercare contraddizioni e lacune nella tua posizione, e più mi accanivo a vedere luci di futuro lì dove tu vedi segni di catastrofe, più mi accorgevo della modestia e della vanità del mio tentativo. Modestia, perché sono in grado di seguirti solo parzialmente. Vanità, perché più penso al tuo pensiero, più credo che dobbiamo accoglierlo come dono, come cattedrale in un deserto. C'è così poco di interessante da leggere, così pochi testi veramente stimolanti, visionari. Le tue scritture svettano tra testi aridi, incapaci di cogliere le sfaccettature degli stessi argomenti trattati, viziati da arroganza speculativa, da interessi di parte. Nei tuoi testi si respira invece un'aria rarissima di libertà di pensiero. Se vogliamo vederla, anche di spietatezza, di costante critica nei confronti di te stesso che pensi.
Perché quindi tentare di smontare l'architettura così ben costruita. Prendiamola com'è. Ammiriamo l'edificio, la sua bellezza. Cogliamo il monito, l'insegnamento.
Accetto quello che mi dici, Eliezer. Rischiamo un'apocalissi. Una minaccia pantoclastica incombe su di noi. Se anche la tua posizione potrebbe essere classificata, in base a certi criteri, come millenarista e catastrofista, questa classificazione non le toglie valore. Abbiamo bisogno di profeti che sposino l'annuncio e la denuncia. L'annuncio della Superintelligenza che verrà. La denuncia dei rischi enormi, mai vissuti dalla specie umana prima, che questo avvento comporta.
Io non credo come te all'avvento di Superintelligenze. Ma forse non ci credo perché non so, non capisco abbastanza. Di altri non mi fido. Di te, per la tua onestà personale, per l'atteggiamento etico che ti riconosco, per la struttura ammirevole dei tuoi testi, mi fido. Ti ascolto.
Se quindi ora pongo a me stesso, e a te, qualche domanda, è solo perché voglio capire.
Per farla semplice, parto da una tua narrazione orale. Dal tuo colloquio con Fridman. Ti racconto di una sensazione: una discontinuità nel tuo discorso mi è balzata agli occhi in un punto preciso. Mi è parsa immotivata. Non so cosa non ho capito.
Giustamente citi un certo punto nella conversazione dici: io sono la persona che ha letto da ragazzo Great Mambo Chicken & The Transhuman Condition come tuo libro di fondazione: l'adolescente si nutre del sogno di una scienza potente, capace di forzare i confini, i limiti stessi di ciò che chiamiamo vita. Ma perché ora, quando ti sei dato il compito compito arduo, e in un modo o nell'altro giusto- di convincere i tuoi simili, esseri umani, a non subire passivamente il fato, a intervenire politicamente, attivamente, in prima persona, contro una minaccia epocale, perché citi come libro che tutti dovrebbero leggere, o rileggere Adaption and Natural Selection di George Williams, quel libro del 1966 dove si afferma che l'evoluzione delle specie naturali si svolge a livello di geni. Solo di geni. Geni egoisti di cui l'essere umano è solo ospitante. Sto semplificando, certo, ma mi pare una lettura riduttiva della teoria dell'evoluzione, una teoria che finisce per essere esclusivamente matematica, formalizzata. Faccio fatica, sinceramente, a tenere insieme questo approccio con il tuo atteggiamento personale pienamente umano, consapevole, compassionevole.
Conosci bene, certo meglio di me, questa storia. 1964: Hamilton, The Genetical Evolution of Social Behaviour; Williams, 1966; Robert Trivers, 1971; Maynard Smith e Price, 1973.
Fitness, tradurrei in italiano idoneità: efficienza riproduttiva di un genotipo rispetto agli altri. Il conflitto tra animali diviene oggetto di speculazioni esclusivamente logiche. Scusami ancora per l'esposizione rozza, forse forzata: vince il più idoneo, il più adatto in partenza. L'EES, strategia evolutivamente stabile, desunta da una formalizzazione del conflitto tra falchi e colombe. L'evoluzione ridotta a teoria dei giochi. A ordine di beccata tra polli. Fino alla Sociobiology di Wilson, 1975. La nuova sintesi: ogni specie cerca di riprodursi. Il successo sta nei geni presenti nella generazione successiva. Ogni comportamento sociale è funzionale a questo scopo. L'altruismo, la cura dei giovani, si spiegano con questa pressione biologica. D'accordo, ma tu e la tua compagna siete mossi solo da un automatismo, da una deriva deterministica, quando siete ansiosamente preoccupati per il futuro di vostra figlia? Non so. Non credo.
Forse, Eliezer, questi modelli sono i più fitted, idonei a spiegare e descrivere l'avvento della Superintelligenza, che si eleva dal calcolo, dalla mera computazione. Ma bastano questi modelli per descrivere la complessa vita della natura, dei sistemi viventi? Contano solo i geni, o esiste la possibilità di osservare l'evoluzione a livello di organismi viventi?
Non sto a ricordarti ipotesi neodarwinistiche che conosci meglio di me. Lasciami dire ancora in modo rozzo: certo il genotipo determina il fenotipo. La filogenesi determina l'ontogenesi. Ma la funzione dell'organo non è scritta una volta per tutte nel codice. L'organismo vivente genera risposte necessarie per sopravvivere nell'ambiente. Le piume primordiali garantivano protezione al corpo, e cambiano funzione, divenendo strumenti per il volo. La selezione convive con la mutazione. Non c'è forse eccessiva fede nel potere della selezione naturale come agente ottimizzante? Non converrebbe invece osservare il manifestarsi di storie adattative diverse?
Non si riduce così il ruolo giocato in questo contesto dalla nostra specie? Facciamo parte della natura, ma abbiamo imparato a manipolare la natura, stiamo apprendendo a ri-scrivere il codice della vita. Quindi abbiamo la responsabilità di essere custodi della natura, di cui facciamo parte. Responsabili della cura di noi stessi, della nostra specie, della vita.
Mi provoca una grande malinconia ascoltare amici che parlano di sé stessi come 'intelligenze a base carbonio' che si preparano a convivere con 'intelligenze a base silicio'. Quale aridità! Come se ci si vergognasse di essere umani. Come se si preferisse ignorarlo. Come se, privi di autocoscienza e di fiducia in sé stessi, si preferisse immaginare sé stessi come macchine. Come se si aspettasse la salvezza nell'avvento di una qualche forma di 'intelligenza artificiale'.
Questa credo proprio fosse la speranza di Turing. I hope. Spero che le macchine pensino. Pensino meglio e al posto degli umani. Deluso dagli umani, incapaci di elevarsi oltre il proprio dolore, Turing proiettava la propria salvezza, la visione della propria salute, nel trionfo della macchina. Forse anche tu, Eliezer, quando eri ragazzo, adolescente, la pensavi in questo modo. Preferivi vedere te stesso come macchina. Giustificavi le tue incapacità con limiti della macchina. Turing non ha saputo uscire da questo circolo vizioso. Mentre nel 1950 stava scrivendo l'articolo sulle macchine che pensano, stava scrivendo anche un altro articolo, che aveva per tema la metamorfosi. Non credo fosse un caso. Ma non ce l'ha fatta. Si è tolto la vita. Tu invece Eliezer, guarda che uomo sei diventato. Solo tu sai a costo di quali sofferenze. Ma ce l'hai fatta. Non ti sei fermato a recriminare sui difetti del tuo codice. Non ti sei certo rassegnato ad una storia scritta nei tuoi geni.
Eccoti qui ad ammonirci e a preoccuparti e a prenderti cura. Benvenuta la tua voce a dire: state attenti, la crescente autonomia di cosiddette intelligenze artificiali non è un gioco così facile né così indolore. Guardate ai rischi immani. Leggo in tutte le tue pagine un invito: assumetevi responsabilità, io cerco di assumermi le mie. Ogni cosa che capisco è fonte di responsabilità.
Hamilton, Williams, Trivers, Maynard Smith e Price, Wilson sono stati credo giustamente criticati non solo per intrinseche debolezze delle loro teorie, ma anche per aver offerto una via di fuga psicologica, sociale e politica: la storia e la cultura sono frutto di pressione genetica. I comportamenti sono tempi remotissimi già scritti nel codice genetico della specie. L'essere umano è impotente. La passività e la dipendenza sono giustificate a priori. Non è certo il tuo caso. La tua cara presenza ci accompagna nel tenere gli occhi aperti. Credi ancora, credi sempre in noi esseri umani.
E' questo che mi desta un po' di meraviglia. O forse non capisco. Mi sembra quasi che tutto quello che leggo nelle tue fittissime, geniali pagine, sia in qualche modo superato dal tuo sguardo un po' triste, partecipe, dalla tua attenzione rivolta ai rischi presenti. Come se tutto quello che hai scritto fosse la narrazione di un passaggio, di una transizione, di una emancipazione. Usi codici logico-formali, matematici, computazionali, statistici. Ma mi pare che tu sia andato oltre. Sul terreno di un rischio e di una speranza dove le parole sono superate, i codici che adotti sono inadeguati. In effetti usi i codici e gli argomenti di coloro ai quali ti opponi. Ti opponi ad irresponsabili cultori del progresso - mossi in realtà da interessi personali di denaro, di carriera. Ti opponi ad accelerazionisti che dicono: se l'intelligenza artificiale deve arrivare, facciamola arrivare subito, affidiamoci a lei.
Eliezer, mi sembra alla fine che tu usi apparentemente li stessi codici, gli stessi argomenti di coloro ai quali ti opponi, ma che tu usi in realtà atri codici, umanissimi: codici affettivi, codici narrativi. Certo anche i codici affettivi e narrativi si appoggiano su basi biologiche e matematiche, ma che non parlano ad un agente, ad un ente metafisico: parlano agli esseri umani.
Eliezer, anch'io cerco di fare la mia piccola parte ammonendo, rischiarando per quello che sono capace la scena digitale, al di là dei miti, delle illusioni e degli inganni.
Sento qui il tuo accompagnamento. La tua calorosa vicinanza. Non mi importa tanto sapere se applichi a casi immediati la teoria bayesiana. Non mi importano più di tanto riferimenti e quadri concettuali ai quali ti attieni.
Il fatto è che ti sento vicino quando devo rispondere ad amici che mi dicono: noi umani siamo una specie come tante, siamo nient'altro che organismi viventi. Apparteniamo alla natura come altri animali, come piante, come sassi. E oltretutto siamo meno saggi di altri enti naturali. E' vero. Ma abbiamo sviluppato una potenza che nessun altro ente naturale ha. Ci tocca fare i conti con questa potenza. Decidere quando e come esercitarla, decidere quando fermarci. Se anche aspetti disfunzionali dei sistemi viventi non sono stati causati dall'agire umano, solo l'essere umano dispone degli strumenti e della forza per intervenire, correggere, riassestare, o almeno mitigare.
Ancora più vicino ti sento quando mi trovo a rispondere agli amici che dicono: il nostro futuro sta nel convivere con intelligenze artificiali. Nessuno più di te ha studiato l'argomento.
Così, seguendoti, mi guardo bene dall'escludere la possibilità che questo accada. Può darsi che ci troveremo a convivere con intelligenze autonome, del tutto indipendenti da noi - e anche, come tu supponi enormemente potenti, tanto diverse da rendere difficilissimo il colloquio. In questo scenario quali possibilità abbiamo? Mi pare tu sia d'accordo con me nel considerare che le risposte possibili non stanno nell'imitare la macchina, stanno invece nell'orgoglio della propria storia e della propria specie. Nell'essere umani che non si affidano e non si arrendono.
Esseri umani che scelgono le parole, anche. Giustamente dici che ormai conviene uno usare più la parola singolarità, abusata o mal usata. Altrettanto si può dire delle parole rischio esistenziale. Lasciamo la parola singolarità a Kurzweil. Lasciamo il rischio esistenziale a Bostrom, Tekmark e Elon Musk. Per quanto mi riguarda, prendo con le molle anche il concetto di cognizione. Troppo ambiguo. Credo tu sia d'accordo con me nel considerare mente e corpo inscindibili. Psicosoma. Ebodiments. Embodied mind. Ma lo ripeto: Eliezer, quali che siano le parole che usi, la tua compassione umana ti porta oltre.
E ancora, ti sento vicino nel rispondere agli amici che dicono: la scena digitale è una utile provocazione, ci spinge a migliorarci. Non credo questa posizione sia onesta fino in fondo. In realtà vuole salvare capra e cavoli. Si accetta che una tecnologia dis-umana -una tecnologia contraria all'etica, a ciò che appare a noi umani saggio- definisca la scena, e poi si dice: è comunque un'utile provocazione per noi! Ci stimola a crescere, a cambiare! No amici: come ci dice Eliezer, la scelta saggia -ed efficace dal punto di vista della costruzione del futuro- sta talvolta nel dire no. Nel non seguire l'onda, nel fermarsi.
Insomma Eliezer, ho imparato tanto da te, dalla tua storia di persona che ha saputo cercare sé stesso, e che ora è ansiosamente preoccupato. Siamo diversi per lingua, cultura, per età, per formazione. Ma ti sento vicino. Vorrei dari un piccolo dono, fatto di parole che risuonano mentre ti sto scrivendo.
José Lezama Lima, poeta cubano a me caro, diceva: “Solo lo difícil es estimulante”. Certo è difficile, e per questo stimolante, il compito di cui ti sei fatto carico. Mettere in guardi di fronte al possibile avvento di Superintelligenze. Mettere in guardia, innanzitutto, dall'affidarsi ad esse, subordinando il nostro essere umani a quel fallace rispecchiamento dell'umano che la macchina ci restituisce.
Lezama ha scritto una poesia che inizia con questi versi: “Ah, que tú escapes en el instante/
en el que ya habías alcanzado tu definición mejor”. Mi auguro che tu scappi oltre, altrove, nell'istante in cui ti sembra di aver trovato il miglior schema che ci definisce. Potremmo dire che questo è la computazione: la pretesa di dare di noi stessi, degli altri, della natura, della vita, la definizione migliore. Scappa via, fuggi, dagli schemi già dati. Mi sembra, Eliezer, tu lo faccia sempre.
Trovo consonanti questi versi, scritti nel Ventesimo Secolo, con i versi che scriveva Goethe verso il termine del Diciottesimo Secolo, mentre leggeva Spinoza, e cercava una scienza, lui poeta-scienziato, attenta più che alla quantità, alla qualità, al complesso, all'emergente. Sembrano una novità oggi transumanesimo, e appaiono accattivanti titolo di libri che parlano di Homo Deus. Ma già allora Goethe intitolava la poesia Il Divino. E stava parlando di noi esseri umani, come siamo, come potremmo essere. “Secondo eterne, grandi,/ inflessibili leggi/ tutti dobbiamo/ compiere il cerchio/ della nostra esistenza”. “Eppure, l'uomo soltanto/ può l'impossibile:/ egli distingue,/ giudica e sceglie”. Ecco: la nostra natura e la nostra cultura ci invitano ad assumerci la responsabilità di decidere. Cedere le redini alla macchina è il contrario. “Egli soltanto può
premiare il giusto,/ punire il malvagio;/ salvare e guarire”. Tu Eliezer non stai arrogandoti il ruolo di chi premia e punisce. Ma stai accollandoti il compito di fare quello che puoi per salvare noi umani dalla dipendenza da Superintelligenze. Permettimi di dire che la Superintelligenza è una minaccia reale, ti credo. Ma ancor prima è una metafora della sudditanza scelta come fuga dalla responsabilità. Guarire: la tua storia personale, mi permetto di dire, è la storia di una cura, di una guarigione. Dalla cura di sé stessi nasce la cura per gli altri e per il mondo.
Wilson, con la sua sociobiologia, ha detto qualcosa di nuovo? Non credo. Noi umani replichiamo comportamenti ancestrali, certo. Siamo predeterminati geneticamente. Ma sappiamo anche rinnovarci e cambiare. La tecnica è il frutto della nostra capacità di rinnovarci e cambiare. Ma sappiamo anche cambiare noi stessi: tu Eliezer ne sei la prova. La tua etica non credo si spieghi solo con la genetica.
Tu Eliezer hai definito la Superintelligenza come qualcosa che sconfigge ogni umano e l'intera umana civiltà nei cognitive tasks. Importano poco le definizioni, il lessico dettato da più o meno nuove discipline. Ma andiamo al sodo. Penso di poterti dire che quando parli di cognitive task non fai che ripetere una vecchia lezione. Credo tu sia d'accordo con me nel pensare che a noi umani -non enti astratti, non agenti, ma esseri umani come ci sentiamo di essere tu ed io- compete
distinguere, giudicare, scegliere, premiare il giusto e punire il malvagio. Vogliamo lasciare questo compito a una macchina?
Vogliamo forse ancora -seguendo Turing, e tutto un filone di scienze cognitive, di neuroscienze- considera la mente umana un mero sistema di elaborazione di informazioni? Per quanto mi riguarda, non voglio questo. La tua storia di vita, il tuo sguardo e le tue parole compassionevoli mi dicono che neanche tu, Eliezer, lo vuoi.
Vogliamo lasciare alle macchine spazio per una loro possibile storia evolutiva? Le più nuove macchine digitali sono sistemi predisposti, allenati a cercare correlazioni in sempre più grandi insiemi di dati. Potremmo dire: bene, accompagniamole nel loro sviluppo e lasciamo seguano la loro strada. Ora tu dici: no. Troppo pericoloso. Ti seguo in questo invito a fermarsi, a fermare lo sviluppo di queste macchine.Hai sperato di poterti fidare di una macchina, hai sperato di affidarti a lei, ma ora dici Shut Down. Ti seguo.
Ma ancora più importante, a questo punto, mi pare tornare ad affermare la differenza. Noi umani non ci accontentiamo di correlazioni. Cerchiamo cause. Tu Eliezer parli di correlazioni, di statistica, usi ancora il linguaggio della computazione, va bene, ogni linguaggio è buono. Ma sei andato oltre. Grazie di questo.
Sei l'esempio brillante e commovente di come noi umani non siamo schiavi di nessuna determinazione evolutiva. Tu ci mostri come siamo in grado di andare oltre la nostra stessa programmazione biologica. Ci mostri come l'empatia, la compassione ci portino oltre il nostro stesso linguaggio, oltre la nostra storia. Ci ribelliamo, ci indigniamo, e davanti ad evidenze non rinunciamo a vedere e denunciamo.
Agiamo con il lume dell'umano intelletto. Guidato, più che da una pura ragione, dalla saggezza, e dalla scintilla della coscienza. Non siamo Moral Machines, siamo esseri umani. Coltiviamo noi stessi. Apprendere dalla macchina o tramite la macchina, apprendere dalla convivenza con la macchina, sono solo alcuni degli infiniti modi per apprendere di cui disponiamo.
Perché poi, seguendo il tuo monito, dobbiamo chiederci: non è forse giunto il momento di pensare anche a come cautelarci, a come difenderci, a proteggere noi stessi dall'invasiva, incombente presenza di macchine digitali?
E' così, Eliezer, vero?
Nessun commento:
Posta un commento