tag:blogger.com,1999:blog-33870391866659846282024-03-23T21:03:55.391+01:00Dieci chili di perleTracce di un testo che vado scrivendoFrancesco Varaninihttp://www.blogger.com/profile/16191894598697362552noreply@blogger.comBlogger167125tag:blogger.com,1999:blog-3387039186665984628.post-80872071139912316352024-01-19T16:03:00.013+01:002024-03-02T16:46:55.756+01:00Il Test di Turing è un ingannoBisogna innanzitutto ricordare che Turing parlava più modestamente <i>imitation game</i>, 'gioco dell'imitazione'. La definizione Test di Turing è data successivamente da seguaci più realisti del re, bisognosi di dare fondamenti autorevoli alla disciplina che si apprestavano a fondare : la Computer Science. <div>Potremmo dire anche trucco o truffa, ma va bene dire inganno, perché Turing evocava questo gioco per ingannare sé stesso, per trovare conferme logiche ad un bisogno che nasceva dalla sua triste storia di vita: deluso da sé stesso e dagli umani, voleva sperare in macchine migliori degli umani.
Il trucco consiste nell'imporre, al posto di ciò che nella vita che emerge e fluisce, un suo simulacro descritto in termini indiscutibili per via logico-formale. </div><div>La sostituzione si svolge attraverso il processo che passo ora a descrivere. </div><div>Si isola e si definisce astrattamente una competenza umana: l'intelligenza, il vedere, il sentire, il decidere. Potremmo dire in termini più sintetici: il pensare e l'agire. Potremmo dire in termini più analitici: ogni lavoro, ogni mestiere. </div><div>Il primo passo consiste nell'isolare le competenze; rimuovendone le connessioni tra l'una e l'altra.
Si sceglie poi di ignorare la complessità interna di ogni competenza, ed il mutare delle competenze con l'evolversi delle esperienze e delle relazioni tra esseri umani. </div><div>A questo punto, si predispone, per ogni competenza, una definizione semplificata. </div><div>Si costruiscono quindi macchine capaci di raggiungere un qualche livello di prestazione corrispondente a quella definizione. </div><div>Il gioco è fatto: alla luce delle riduttive definizioni, il nostro pensare ed agire è considerato confrontabile con il funzionamento della macchina. </div><div>Ultimo passaggio, il più grave: la prestazione della macchina è proposta esplicitamente, o subdolamente suggerita, come modello e parametro del pensare e dell'agire umano. </div><div>Dove sta dunque l'inganno? </div><div>A un primo livello sta nel fatto che ciò che è dimostrato vero all'interno di quella riduttiva descrizione formalizzata del mondo che è la computazione non è vero nel mondo abitato da noi umani. </div><div>A un secondo livello sta nel fatto che si educano capziosamente gli umani a considerare mondo nel quale abitiamo le 'realtà artificiali', 'realtà aumentate', i 'metaversi': simulacri del mondo costruiti da Computer Scientist: nella progettazione di questi mondi costruiti ad hoc è facile impostare come requisito di partenza la comparabilità e la sostituibilità tra umani e macchine. </div><div>Il fatto che una qualche macchina superi il Test di Turing, si dimostri cioè capace di comportarsi in modo adeguato a quanto previsto dalla definizione formale di una imitazione di una competenza umana, potrà certo interessare i Computer Scientist, ma non ha nessuna rilevanza per noi umani.</div>Francesco Varaninihttp://www.blogger.com/profile/16191894598697362552noreply@blogger.com0tag:blogger.com,1999:blog-3387039186665984628.post-16107973780406769342024-01-17T15:28:00.004+01:002024-01-17T15:43:49.920+01:00Dato. Attorno al significato della parola<p align="LEFT" style="border: none; break-after: auto; break-before: auto; break-inside: auto; line-height: 1px; margin-bottom: 0cm; padding: 0cm;"><br /></p>Viviamo osservando cose, creando cose, scambiando cose, utilizzando cose. Eppure, delle cose abbiamo una percezione imprecisa. La cosa è, in fondo, inconoscibile. Possiamo intendere la filosofia come il tentativo di dire ‘cosa è la cosa’. Kant ci dice che -essendo la cosa inafferrabile attraverso l’esperienza ‘fisica’, nella vita quotidiana- dobbiamo spostarci di piano. Ciò che può essere conosciuto è solo descrizione della della cosa. <div>Qui interviene l’informatica, che è prosecuzione della filosofia con altri mezzi. Se la <i>cosa</i> è inconoscibile, può essere però conosciuto il <i>dato</i> che la rappresenta. Come vuole Kant, il dato descrive la cosa attraverso linguaggi formalizzati. Allo sfuggirci della cosa, si risponde con la pretesa ‘certezza del dato’. </div><div>Dobbiamo quindi spostare l’attenzione sul <i>dato</i>. </div><div>Dato, non a caso, deriva da <i>data</i>. </div><div>Il latino <i>littera data</i> sta per ‘lettera consegnata al messaggero’. La <i>data</i>, dunque, è l’attimo successivo a quello in cui ‘sto dando’; è l’attimo in cui posso dire: ‘ho dato’. In questo attimo posso affermare che la descrizione della cosa contenuta nella lettera -potremmo anche dire: nel <i>codice</i>- esiste, e che dunque essa è un <i>dato</i>. </div><div>Lo spagnolo sposta l’attenzione. Invece di <i>littera data</i>, <i>carta fecha</i>, ‘carta fatta’, ‘lettera scritta’: la data è infatti in spagnolo la <i>fecha</i>. Si tratta di uno spostamento significativo dal punto di vista del lavoro: il momento chiave non è quello in cui scambio o consegno, bensì il momento in cui faccio.
Ma anche nella situazione proposta dallo spagnolo, a ben guardare, restiamo sul piano della convenzione. Nessuno può dire con precisione quando ho finito di fare la cosa. </div><div>Sia guardando al fare, sia guardando al dare, se io descrivessi la cosa un attimo prima o un attimo dopo, la descrizione sarebbe diversa. E dunque, la formalizzazione dell’informatica non ci salva. La cosa resta inconoscibile; la sua descrizione è sempre convenzionale. </div><div>Non resta che chiederci su quali basi si fonda il <i>dato</i>, e cioè l convenzionale descrizione della <i>cosa</i>. Proprio di questo interrogativo ci parla, in fondo, la parola <i>cosa</i>. Il latino ci ricorda che cosa deriva da <i>causa</i>. La descrizione della cosa è quindi ‘decisa da un tribunale’. Il tedesco <i>Ding</i> e l’inglese <i>thing</i> ci propongono invece l’idea che la descrizione della cosa sia ‘decisa da un’assemblea’.
Possiamo preferire l’autorità del giudice o l’autorità dell’assemblea. Ma in ogni caso il <i>dato</i> -la descrizione della <i>cosa</i>, alla cui certezza così tanto ci piace afferraci- non è che una sempre discutibile opinione. </div><div><br /></div><div><i>(Voce tratta da Francesco Varanini, </i>Le nuove parole del manager. 113 voci per capire l'impresa<i>, Guerini e Associati, 2011).</i></div><div><br /></div><div>Parlo del concetto di <i>dato</i> (e di <i>cosa</i>) in vari altri articoli pubblicati su questo blog.<i> </i>Tra gli altri: <a href="https://diecichilidiperle.blogspot.com/2011/05/lambigua-natura-del-dato.html" style="font-style: italic;" target="_blank">L'ambigua natura del dato</a>;<i> <a href="https://diecichilidiperle.blogspot.com/2011/11/dal-concetto-di-dato-alleditoria-del.html" target="_blank">Dal concetti di 'dato' all'editoria del futuro</a></i> (articolo riguardante un seminario tenuto all'Università di Pisa; <i><a href="https://diecichilidiperle.blogspot.com/2024/01/persona-cosa-sasso.html" target="_blank">Persona, cosa, sasso</a></i>.</div>Francesco Varaninihttp://www.blogger.com/profile/16191894598697362552noreply@blogger.com0tag:blogger.com,1999:blog-3387039186665984628.post-85725545924737144942024-01-14T14:30:00.013+01:002024-02-14T19:32:21.162+01:00Persona, cosa, sasso<p>Qualcuno torna a dirci che siamo colpevoli di antropocentrismo. Ci ricorda che, in quanto persone, abusiamo dei nostri privilegi nei confronti delle cose. E che rimaniamo fissati su una concezione binaria, su due categorie mutuamente esclusive: persona o cosa.</p><p style="margin-bottom: 0cm;">Noi umani, si dice quindi, dobbiamo imparare a mettere in discussione i nostri privilegi, a sviluppare prospettive critiche sui nostri valori, e ad assumerci più pienamente le nostre responsabilità. Anche nei confronti delle cose.</p><p style="margin-bottom: 0cm;">Ma l'asino casca quando si sceglie il portavoce delle cose. Qualcuno sceglie come portavoce delle cose il robot. La responsabilità umana, attraverso questo corto circuito, finisce per consistere nell'affermare e difendere i diritti dei robot. </p><p style="margin-bottom: 0cm;">Alla luce del pensiero che osserva il presente della tecnica, si capisce come venga in mente quest'esempio.
Ma uno sguardo più ampio, aperto alla storia, potrebbe ugualmente contemplare i diritti della cosa-orologio, o della cosa-tornio.
Se poi si prende in considerazione la vita sulla terra, potremo prendere in considerazione i diritti di un batterio, un’alga, una foglia o un gatto.
Ma forse ancora più calzante è guardare a cose inanimate. Allontandoci radicalmente dall'antropocentrismo, potremo osservare, ed assumere come nostro impegno, i diritti di un sasso.</p><p style="margin-bottom: 0cm;">Miglior portavoce delle cose, più del robot, è un sasso. Un sasso ci parla, se sappiamo ascoltarlo.</p><p style="margin-bottom: 0cm;">Del resto, per decostruire l'opposizione binaria tra persone e cose, basterebbe tornare a leggere Spinoza.</p><p style="margin-bottom: 0cm;">E poi bisogna ricordare che prendendo a portavoce delle cose il robot, si occulta l'umana azione del costruttore di robot. E' troppo comodo -questo sì è abuso di un umano privilegio, manifestazione di un antropocentrismo deresponsabilizzante- il considerare il robot come frutto di una evoluzione tecnica che prescinde dall'agire umano. </p><p style="margin-bottom: 0cm;">Si può anche affermare: il robot è figlio dell'antropocentrismo, perché è frutto di un gesto di potere umano, e perché simula o imita l'umano. Comporta quindi un rifiuto dell'alterità della cosa rispetto all'umano.</p><p style="margin-bottom: 0cm;">Il robot, a differenza di altre cose, non esisterebbe senza una azione consapevole di un qualche essere umano. Si torna quindi alla responsabilità dell'essere umano costruttore di macchine. Perché costruisco macchine? Quale macchina scelgo di costruire?</p><p style="margin-bottom: 0cm;">Se l'essere umano costruttore di macchine non si assume le proprie responsabilità, starà ad altri esseri umani assumersi responsabilità a nome suo.</p><p style="margin-bottom: 0cm;">I diritti del sasso, qui ed ora. </p><p style="margin-bottom: 0cm;">(Nel mio libro <i>Macchine per pensare. L'informatica come prosecuzione della filosofia con altri mezzi</i>, 2016, avvicino questi argomenti nella parte finale. Chi volesse, potrebbe partire da p. 257, dove sotto il titolo <i>Il senso della cosa</i>, inizio a scrivere: "Con lo sguardo dell'umano che non pretende di essere artefice, ma si assume il compito di custode dell'essere, possiamo tornare a osservare la macchina come ente tra gli enti, come cosa.").</p><p style="margin-bottom: 0cm;">(Su questo blog si trovano vari altri articoli riguardanti in concetto di cosa. Per un percorso di senso che attraversa questo blog, consiglio di iniziare dall'articolo: <i><a href="https://diecichilidiperle.blogspot.com/2024/01/dato-attorno-al-significato-della-parola.html" target="_blank">Dato. Attorno al significato della parola</a></i>).</p>Francesco Varaninihttp://www.blogger.com/profile/16191894598697362552noreply@blogger.com3tag:blogger.com,1999:blog-3387039186665984628.post-23883883007149111222024-01-09T16:25:00.006+01:002024-02-03T16:10:43.956+01:00Algor-etica. Un concetto sgangherato ed equivoco. Una lettura critica<p>Paolo Benanti, professore straordinario della facoltà di Teologia presso la Pontificia Università Gregoriana nominato il 5 gennaio 2024 Presidente della Commissione AI per l’Informazione del Governo italiano, pubblica su <i>Formiche</i> il 6 gennaio l'articolo <i><a href="https://formiche.net/2024/01/ia-rinascimento-tech-paolo-benanti/" target="_blank">Un nuovo rinascimento per l’IA, non a caso in Italia</a>.</i></p><p>Qui propone una definizione del concetto di <i>algor-etica </i>- che a quanto pare continua ad essere il nucleo del suo pensiero e della sua azione politica. Una definizione aggiornata, che si sforza di tener conto di critiche portate al concetto stesso. </p><p>Scrive Benanti: </p><p><i>L’idea è di inserire dei guard rail etici alla macchina facendo riferimento all’algoretica, cioè un’etica computata dagli uomini ma che a questo punto diventi computabile dalle macchine stesse. Affiancare etica e tecnologia per un’intelligenza artificiale che ponga sempre al centro l’uomo e sia al servizio di un autentico sviluppo. </i></p><p><i>L’idea è di inserire dei guard rail etici alla macchina</i></p><p>La metafora sembra poco precisa: i <i>guard rail</i> sembrerebbero più propriamente limiti, vincoli posti alla strada sulla <span>quale la macchina sta viaggiando. L'etica è ridotta ad aggettivo. </span></p><p><span>Si coglie comunque un presupposto: l'etica è qualcosa che può essere inteso come indipendente dalla persona umana, qualcosa di maneggevole e manipolabile. </span></p><p><span>La definizione di cosa si intenda per <i>etica</i> è rimandata al prosieguo della frase.</span></p><p><span><i>facendo riferimento all’algoretica</i></span></p><p><span>Ecco la riduzione. Si stabilisce per via logico formale che all'<i>etica</i> può essere sostituita l'<i>algoretica</i>. Data la sostituzione, si assume che per definire l'<i>etica</i> basti definire l'<i>algoretica</i>.</span></p><p><span><i>cioè un’etica computata dagli uomini </i></span></p><p><span>Si coglie l'intento di Benanti: rispondere a critiche che gli sono state rivolte. Benanti riconosce qui che l'algoretica, prima di essere un'etica della macchina, e nella macchina, è un'etica "degli uomini".</span></p><p>Non può però, e non vuole, dire ciò che andrebbe detto: l'etica è una competenza umana, esclusivamente umana.</p><p><span>L'aggettivo <i>computata</i>, poi, tradisce ancora la riduzione, e sostanzialmente finisce per affermare la disumanizzione dell'etica. <i>Computabilità</i> vuol dire: scrittura in un linguaggio adatto ad essere compreso dalla macchina. La <i>computabilità</i>, ricordiamolo, è una versione ridotta della <i>calcolabilità</i>. La <i>calcolabilità</i>, a sua volta, è rinuncia a tutto ciò che gli esseri umani sanno pensare e dire, ma sanno esprimere solo in forma narrativa, ed a ciò che gli esseri umani manifestano nelle loro azioni, pur essendo incapaci di esprimerlo a parole.</span></p><p>La precisazione appare scontata: se il codice è scritto in modo adeguato alla macchina che dovrà eseguire il codice, la macchina eseguirà il codice. </p><p><span>Se Benanti sente il bisogno di esplicitare questo passaggio, è forse perché è consapevole di come i progettisti e gli sviluppatori di 'intelligenze artificiali', mirino oggi proprio a questo: permettere alle macchine di scrivere autonomamente il codice che le governa. Di fronte a questa possibilità l'algoretica non offre nessuna riposta o contromisura.</span></p><p><span><i>Affiancare etica e tecnologia</i></span></p><p>Affiancare? Possiamo forse considerare <i>etica</i> e <i>tecnologia</i> ambiti paralleli? Non dovrebbe venir prima l'etica della tecnologia? Non sarebbe opportuno parlare dell'etica dell'essere umano che computa e costruisce macchine?</p><p>Alla luce dell'appello all'affiancamento, i <i>guard rail etici</i> e l'<i>etica computata </i>si svelano come attrezzi di una accettazione passiva della tecnologia. Si accetta una tecnologia priva di etica. Si pretende poi di redimerla e di legittimarla attraverso una versione ridotta ed ancillare dell'etica: l'algoretica. </p><p><i>per un’intelligenza artificiale che ponga sempre al centro l’uomo</i></p><p>Sarebbe opportuno che tutti coloro che giustificano forme diverse di cosiddetta <i>intelligenza artificiale </i>con l'affermazione <i>'l'uomo al centro' </i>-Benanti non è certo il solo- definissero il concetto. </p><p>Vogliono dire che il bene dell'essere umano consiste nell'essere oggetto dell'attenzione di un benefattore, umano o macchinico? Benanti o Yann LeCun o Elon Musk -e forse già oggi, o domani, una qualche 'intelligenza artificiale'- sono in grado di dire dove sta il bene dell'essere umano posto al centro della loro benevola attenzione?</p><p>La vuota espressione 'uomo al centro' permette di eludere la autentica presenza di ognuno. Non un ente astratto, ma <i>io</i>, <i>tu</i>, <i>noi</i>. Abitatori di una casa comune, ognuno portatore di un proprio contributo ed un proprio sguardo. </p><p>Solo così si supera la comoda distinzione tra esperti -tra i quali Benanti si colloca- ed altri esseri umani, ridotti ad utenti. </p><p><i>e sia al servizio di un autentico sviluppo</i></p><p>Quale sviluppo? Sviluppo di chi, in quale direzione, a quale fine? L'aggettivo <i>autentico</i> non spiega. Restare nel vago significa accettare lo sviluppo che c'è. Senza discriminare tra una linea di sviluppo e un'altra. Senza accettare che possa esistere la necessità -alla luce dell'umana saggezza- di interrompere o bloccare una via di sviluppo. </p><p>Quasi a dire: si accetta ogni sviluppo. Noi 'esperti', poi sapremo mettergli <i>guard rail algoretici</i>.</p><p>Il concetto di <i>algoretica</i>, insomma, resta impreciso, capzioso e pericoloso.
La soluzione, in realtà, sarebbe semplice. Togliere il riferimento agli algoritmi, e parlare di etica tout court. O forse ancora meglio, parlare di responsabilità personale, dalla quale discenderanno azioni coerenti. </p><p>Responsabilità personale del progettista o sviluppatore. Responsabilità personale del legislatore. Responsabilità personale del cittadino che sceglie se usare o non usare lo strumenti, sceglie come usarlo, sceglie di criticarlo o di bandirne lo sviluppo e l'uso.</p>Francesco Varaninihttp://www.blogger.com/profile/16191894598697362552noreply@blogger.com0tag:blogger.com,1999:blog-3387039186665984628.post-90396928326453274862024-01-05T18:04:00.000+01:002024-01-05T18:04:02.097+01:00Denunciare o scendere a patti. Papa Francesco parla di intelligenza artificiale<p>Si è sentita il primo dell'anno la voce commossa del Pontefice parlare di amore e pace. Il primo gennaio, infatti, si celebra dal 1968, per volere di Paolo VI, il Papa di allora, la <i>Giornata Mondiale della Pace</i>. La scelta papale è poi stata fatta propria nel 1981 dall'Assemblea Generale delle Nazioni Unite.</p><p style="margin-bottom: 0cm;">Si sa di come il Pontefice abbia messo in gioco tutto il suo impegno, il suo coraggio, la sua autorevolezza, per mettere fine alle guerre in corso. Eppure il tema da lui proposto -già annunciato nell'agosto scorso, ed esplicitato nella lettera resa pubblica l'8 dicembre scorso- è <i>Intelligenza artificiale e pace</i>.</p><p style="margin-bottom: 0cm;">I fedeli si sono ritrovati dunque in piazza San Pietro per fare memoria di tutte le terre che nel Nord e nel Sud del mondo attendono la fine della guerra e del terrorismo, a partire dal doloroso conflitto ancora aperto in Ucraina e da quello tra Israele e Hamas – ed allo stesso tempo ad esprimere sostegno al sostegno al messaggio di Papa <i>Intelligenza artificiale e pace</i>.<sup><a class="sdfootnoteanc" href="#sdfootnote1sym" name="sdfootnote1anc" style="font-size: 0.475px;"><sup>1</sup></a></sup></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Certo la lettera contiene richiami all'“immensa tragedia della guerra”, alla follia della guerra”, ma il Papa sembra considerare aspetto chiave del tempo presente, più della guerra, più della povertà, dell'oppressione, la presenza di una nuova tecnologia.</span></p><p style="margin-bottom: 0cm;">Non si può evitare di notare le differenze. L'anno scorso il messaggio di pace del Papa diceva: <i>Nessuno può salvarsi da solo. Ripartire dal Covid-19 per tracciare insieme sentieri di pace</i>. Nel 2022 il tema era: D<i>ialogo fra generazioni, educazione e lavoro: strumenti per edificare una pace duratura</i>. Nel 2021: <i>La cultura della cura come percorso di pace</i>.</p><p style="margin-bottom: 0cm;">Nel 2020: <i>La pace come cammino di speranza: dialogo, riconciliazione e conversione ecologica</i>. Il messaggio di quell'anno esordiva con queste parole: “La pace è un bene prezioso, oggetto della nostra speranza, al quale aspira tutta l’umanità. Sperare nella pace è un atteggiamento umano che contiene una tensione esistenziale”. Oggi sorge un dubbio: possiamo forse affidare ad una qualche intelligenza artificiale questa speranza? Il messaggio nel 2020 proseguiva ricordando che “il mondo non ha bisogno di parole vuote, ma di testimoni convinti, di artigiani della pace aperti al dialogo senza esclusioni né manipolazioni”. Possiamo oggi chiederci: non dobbiamo forse diffidare delle parole vuote di tanti tecnologi? Possiamo forse considerarli artigiani della pace aperti al dialogo senza esclusioni né manipolazioni? A chi si rivolge dunque oggi il Papa? Ad ogni essere umano di buona volontà o a tecnologi portatori di un sapere esclusivo ed escludente?</p><p style="margin-bottom: 0cm;">Non a caso l'incipit della lettera di quest'anno non può parlare né di speranza, né di cura, né di dialogo. E' un incipit astratto, che si sforza di intendere “il progresso della scienza e della tecnologia come via verso la pace”. E che tenta l'ardua via di definire l'intelligenza attraverso citazioni veterotestamentarie.</p><p style="margin-bottom: 0cm;">Dato che tutto questo è scritto sotto un titolo nel quale campeggia l'espressione intelligenza artificiale, si accetta così implicitamente di fatto che possa esistere un qualche legame, una continuità o contiguità tra “l’intelligenza (...) espressione della dignità donataci dal Creatore” ed un certo funzionamento di una qualche macchina, funzionamento che quale capziosamente qualche tecnologo ha capziosamente chiamato <i>intelligenza</i>.</p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Non si corre forse così il rischio di essere schiavi del tempo, dell'ultima novità imposta da media e propaganda?</span></p><p style="margin-bottom: 0cm;"><br /></p><p style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial; margin-bottom: 0cm;"><b>A chi si rivolge Papa Francesco</b></p><p style="margin-bottom: 0cm;">E' subito chiaro che stavolta il Pontefice non rivolge il suo messaggio agli uomini di buona volontà, ad ogni essere umano, ma parla invece ad un gruppo di esperti che si collocano fuori dal mondo - sacerdoti, potremmo dire, di nuove tecnologie digitali. A loro si rivolge.</p><p style="margin-bottom: 0cm;">Afferma quindi che “giustamente ci rallegriamo e siamo riconoscenti per le straordinarie conquiste della scienza e della tecnologia”. Ma sta rivolgendosi a scienziati e tecnologi quando si chiede:</p><p style="margin-bottom: 0cm;">quali saranno le conseguenze, a medio e a lungo termine, delle nuove tecnologie digitali? E quale impatto avranno sulla vita degli individui e della società, sulla stabilità internazionale e sulla pace?</p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Il Papa ammette in principio che il “progres</span>so della scienza e della tecnica, nella misura in cui contribuisce a un migliore ordine della società umana, ad accrescere la libertà e la comunione fraterna, porta dunque al miglioramento dell’uomo e alla trasformazione del mondo”. Per poi notare <span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">che “i notevoli progressi delle nuove tecnologie dell’informazione, specialmente nella sfera digitale, presentano dunque entusiasmanti opportunità e gravi rischi, con serie implicazioni per il perseguimento della giustizia e dell’armonia tra i popoli”.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Sono, a guardar bene, le stesse cose che i tecnologi digitali ed i loro accoliti e filosofi di complemento si dicono da soli, negli ormai numerosissimi manifesti, lettere aperte, codici etici che si sono accumulati, senza influire più di tanto sugli indirizzi e sugli sviluppi delle cosiddette intelligenze artificiali.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Tutti coloro che a vario titolo sono impegnati nell'industria digitale vogliono sistemi che siano allo stesso tempo “robusti e benefici”, tutti a parole si pongono al servizio del benessere e della prosperità. Facile e comodo per tutti ripetere che “gli esseri umani e la natura” dovranno essere “al centro dello sviluppo dell'innovazione digitale”.</span></p><p style="margin-bottom: 0cm;">Il Pontefice sembra prendere per buoni questi impegni e questi intenti. Salvo poi mantener vivo qualche dubbio: “L’intelligenza artificiale, quindi, deve essere intesa come una galassia di realtà diverse e non possiamo presumere a priori che il suo sviluppo apporti un contributo benefico al futuro dell’umanità e alla pace tra i popoli”.</p><p style="margin-bottom: 0cm;"><br /></p><p style="margin-bottom: 0cm;"><b>Francesco autore di </b><i><b>Laudato si'</b></i></p><p style="margin-bottom: 0cm;">Non possiamo fare a meno di notare la differenza da quanto il Papa stesso afferma nell'enciclica <i>Laudato si'</i>.<sup><a class="sdfootnoteanc" href="#sdfootnote2sym" name="sdfootnote2anc" style="font-size: 0.475px;"><sup>2</sup></a></sup> “La tecnologia che, legata alla finanza, pretende di essere l’unica soluzione dei problemi, di fatto non è in grado di vedere il mistero delle molteplici relazioni che esistono tra le cose, e per questo a volte risolve un problema creandone altri” (20).</p><p style="margin-bottom: 0cm;">Non solo due stili diversi. Due argomentazioni diverse nella sostanza, nelle premesse e nelle conclusioni.</p><p style="margin-bottom: 0cm;">Va ricordato che il Pontefice ha sentito di recente il bisogno, come a ribadirne l'importanza e l'attualità, i temi di <i>Laudato si'</i>. Eccolo così, otto anni dopo la pubblicazione dell'enciclica (24 maggio 2015), rendere pubblica il 4 ottobre, Festa di San Francesco d’Assisi, dell’anno 2023, “undicesimo del mio Pontificato”, l'esortazione apostolica <i>Laudate Deum</i>.<sup><a class="sdfootnoteanc" href="#sdfootnote3sym" name="sdfootnote3anc" style="font-size: 0.475px;"><sup>3</sup></a></sup></p><p style="margin-bottom: 0cm;">Qui (<i>Laudate Deum</i>, 20) critica senza indulgenze il “paradigma tecnocratico” di cui l'intelligenza artificiale è il caso esemplare. “Si tratta di «un modo di comprendere la vita e l’azione umana che è deviato e che contraddice la realtà fino al punto di rovinarla». [<i>Laudato si’</i>, 101] In sostanza, consiste nel pensare «come se la realtà, il bene e la verità sbocciassero spontaneamente dal potere stesso della tecnologia e dell’economia». [<i>Laudato si'</i> 105] Come conseguenza logica, «da qui si passa facilmente all’idea di una crescita infinita o illimitata, che ha tanto entusiasmato gli economisti, i teorici della finanza e della tecnologia». [Laudato si' 106]”.</p><p style="margin-bottom: 0cm;">Ancora più chiaro è il paragrafo seguente (<i>Laudate Deum</i>, 21): “L’intelligenza artificiale e i recenti sviluppi tecnologici si basano sull’idea di un essere umano senza limiti, le cui capacità e possibilità si potrebbero estendere all’infinito grazie alla tecnologia. Così, il paradigma tecnocratico si nutre mostruosamente di sé stesso.”.</p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Il paragrafo 23, poi, è una accorata manifestazione della preoccupazione del Pontefice di fronte alla concentrazione di potere di cui godono i fautori delle intelligenze artificiali: “Fa venire i brividi rendersi conto che le capacità ampliate dalla tecnologia danno «a coloro che detengono la conoscenza e soprattutto il potere economico per sfruttarla un dominio impressionante sull’insieme del genere umano e del mondo intero. Mai l’umanità ha avuto tanto potere su sé stessa e niente garantisce che lo utilizzerà bene, soprattutto se si considera il modo in cui se ne sta servendo. [...] In quali mani sta e in quali può giungere tanto potere? È terribilmente rischioso che esso risieda in una piccola parte dell’umanità». [</span><i>Laudato si'</i><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;"> 104]”.</span></p><p style="margin-bottom: 0cm;">Il giudizio sembra senza appello (<i>Laudate Deum</i> 31): “La logica del massimo profitto al minimo costo, mascherata da razionalità, progresso e promesse illusorie, rende impossibile qualsiasi sincera preoccupazione per la casa comune e qualsiasi attenzione per la promozione degli scartati della società”. Sembra essere evidente una scelta di campo, una presa di posizione.</p><p style="margin-bottom: 0cm;"><br /></p><p style="margin-bottom: 0cm;"><b>Un patto con una piccola parte dell'umanità</b></p><p style="margin-bottom: 0cm;">Ma ecco che ora, con la lettera <i>Intelligenza artificiale e pace</i>, il Pontefice sembra scegliere di scendere a patti con quella “piccola parte dell'umanità” che ha in mano lo sviluppo e l'uso delle cosiddette intelligenze artificiali.</p><p style="margin-bottom: 0cm;">Il fatto è che due diversi percorsi -allo stesso tempo teologici, politici ed etici- sembrano essere portati avanti parallelamente.</p><p style="margin-bottom: 0cm;">Da un lato, in <i>Laudato si'</i>, il rigoroso, commosso discorso di denuncia, che si traduce nella chiamata rivolta ad ogni essere umano di buona volontà, ad ogni cittadino del pianeta: solo attraverso l'assunzione da parte di ognuno e di tutti di sincere impegnative responsabilità personali, potremo salvare la casa comune, a cui tutti apparteniamo.</p><p style="margin-bottom: 0cm;">Dall'altro la proposta di un patto rivolta alla sempre più “piccola parte dell'umanità” costituita detentori del potere - che ha oggi la duplice, sovrapposta veste, di potere tecnologico e finanziario insieme, e che ha manifestazione più evidente ed efficace nella cosiddetta intelligenza artificiale.</p><p style="margin-bottom: 0cm;">Patto diplomatico, politico, etico.</p><p style="margin-bottom: 0cm;">Per stare al passo con i tempi, il patto è noto con parole inglesi: <i>Rome Call for Ethics AI</i>.<sup><a class="sdfootnoteanc" href="#sdfootnote4sym" name="sdfootnote4anc" style="font-size: 0.475px;"><sup>4</sup></a></sup> </p><p style="margin-bottom: 0cm;">La figura che appare a fronte dell'iniziativa è monsignor Vincenzo Paglia, Presidente della Pontificia Accademia per la Vita, consigliere spirituale della Comunità di Sant'Egidio. La presenza papale è però evidente: Venerdì, 28 febbraio 2020 Monsignor Paglia legge all'Assemblea Plenaria della Pontificia Accademia per la vita un discorso scritto da Papa Francesco (in quei giorni condizionato da problemi di salute).<sup><a class="sdfootnoteanc" href="#sdfootnote5sym" name="sdfootnote5anc" style="font-size: 0.475px;"><sup>5</sup></a></sup> La <i>Call</i> è firmata -insieme al Vaticano, al Ministro per l’Innovazione Tecnologica del governo italiano e alla FAO- Microsoft e IBM. Seguiranno altre adesioni. Segue, nel gennaio 2023, proprio nei giorni in cui Open AI lancia Chat GPT -la più compiuta dimostrazione al popolo della potenza dell'intelligenza artificiale- l'adesione al progetto vaticano delle 'Chiese Abramitiche': un rabbino di Israele, uno sceicco di Abu Dhabi...<sup><a class="sdfootnoteanc" href="#sdfootnote6sym" name="sdfootnote6anc" style="font-size: 0.475px;"><sup>6</sup></a></sup></p><p style="margin-bottom: 0cm;">Ho già raccontato questa storia.<a class="sdfootnoteanc" href="#sdfootnote7sym" name="sdfootnote7anc" style="font-size: 0.57px;"><sup>7</sup></a></p><p style="margin-bottom: 0cm;">Se <i>Laudate Deum</i> è un addolorato ritorno, aggiornato alla luce di nuovi motivi di preoccupazione, sui temi di <i>Laudato si'</i>, la lettera <i>Intelligenza artificiale e pace</i> è un nuovo avvallo del Pontefice al progetto espresso in <i>Rome Call for AI Ethics</i>. </p><p style="margin-bottom: 0cm;"><br /></p><p style="margin-bottom: 0cm;"><b>Due modi di intendere la Chiesa</b></p><p style="margin-bottom: 0cm;">Sono, a ben guardare, due modi di intendere la Chiesa. Da un lato comunità di esseri umani che cercano insieme luce e verità; dall'altro struttura, istituzione destinata a farsi carico di esseri umani bisognosi di guida e protezione.</p><p style="margin-bottom: 0cm;">Giustificati dall'intendere la Chiesa nel secondo di questi due modi, autorità Vaticane hanno scelto di dialogare con i vertici delle grandi case digitali e con i tecnologi dediti alla ricerca ed allo sviluppo. Ma hanno finito poi per fare il gioco di questa stessa élite, colludendo con essa, senza minimamente incidere sul disinteresse di questa élite per le conseguenze delle proprie azioni.</p><p style="margin-bottom: 0cm;">In un discorso del 2019, dedicato ad un tema particolarmente importante, <i>Child Dignity in the Digital World</i>,<sup><a class="sdfootnoteanc" href="#sdfootnote8sym" name="sdfootnote8anc" style="font-size: 0.475px;"><sup>8</sup></a></sup> Francesco chiama gli attori della sena digitale alla “responsabilità nei confronti dei minori, della loro integrità e del loro futuro”. In questo discorso si sente risuonare appieno la voce di Francesco, la stessa che appare forte e chiara in <i>Laudato si'</i>.</p><p style="margin-bottom: 0cm;">Si rivolge alle “grandi compagnie del settore, che superano agevolmente le frontiere fra gli Stati, si muovono rapidamente sul fronte più avanzato dello sviluppo tecnologico e hanno accumulato risorse economiche ingenti”. Precisa che “è ormai evidente che esse non possono considerarsi completamente estranee all’uso degli strumenti che mettono nelle mani dei loro clienti”. “È ad esse quindi che rivolgo oggi il più impellente appello alla responsabilità nei confronti dei minori, della loro integrità e del loro futuro”. Chiaramente non basta – la prevalenza di interessi finanziari e speculativi ed il conseguenze cinismo non saranno certo scalfiti da un monito papale. Il Pontefice aggiunge allora: “faccio quindi appello agli ingegneri informatici, perché si sentano anch’essi responsabili in prima persona della costruzione del futuro”.</p><p style="margin-bottom: 0cm;">Questo è il punto chiave. Quest'appello chiama all'umiltà gli arroganti ricercatori drogati dal successo, dal senso di potenza implicito nel trovarsi a costruire una nuova simil-vita. Questo appello chiama alla conversione, al cambiar strada. Questo appello chiama all'uscita dalla torre d'avorio: tornate, vi prego, a sentirvi, prima che tecnologi, genitori, cittadini, appartenenti alla casa comune.</p><p style="margin-bottom: 0cm;">Invece nella lettera <i>Intelligenza artificiale e pace</i>, così già come nel discorso che accompagnava il lancio di <i>Rome Call for AI Ethics</i>, gli appelli alla responsabilità personale dei tecnologi passano in secondo piano. Si accetta invece la loro autorità 'sacerdotale' e si prone loro un patto, anzi un sostegno. “Tocca a loro [agli ingegneri informatici], con il nostro appoggio, impegnarsi in uno sviluppo etico degli algoritmi, farsi promotori di un nuovo campo dell’etica per il nostro tempo: la 'algor-etica'”.</p><p style="margin-bottom: 0cm;"><br /></p><p style="margin-bottom: 0cm;"><b>Il nostro appoggio, un'etica per il nostro tempo</b></p><p style="margin-bottom: 0cm;">Il nostro appoggio: dunque il Vaticano -mi sembra fuori luogo parlare qui di Chiesa- appoggia i potenziatati digitali. Grandi case e tecnologi. In cosa? Nel definire e nell'imporre, mettendo in campo per questo la propria autorità, “un'etica del nostro tempo: l'algor-etica”.</p><p style="margin-bottom: 0cm;">La via è quella dell'impegno ad una autoregolazione etica da parte di ogni grande casa digitale. E' noto purtroppo quale trattamento -vessazioni ed espulsione- hanno subito i membri di questi comitati che hanno osato esprimere posizioni critiche, invitando alla cautela, al cambiamento di rotta, al bloccare linee di sviluppo.</p><p style="margin-bottom: 0cm;">La via è quella di organismi internazionali che dettano indirizzi e linee guida. Ne fanno parte esponenti di parte vaticana. Ma tutte queste belle parole sono ovviamente disattese, non spostano di una virgola investimenti ed indirizzi di sviluppo.</p><p style="margin-bottom: 0cm;">La via è quella di norme di legge di stati sovrani. Qui si può osservare come abbondino le affermazioni di principio: la più nota è l'affermazione europea di una Human-Centered AI. Affermazione retorica che non tocca il fatto che il principale interesse affermato dalle norme europee è il sostegno all'industria europea, nei confronti dell'industria statunitense e cinese.</p><p style="margin-bottom: 0cm;">A ciò si aggiunga il fatto che i politici non conoscono la materia. Si affideranno quindi inevitabilmente ad esperti, appartenenti alla famiglia professionale le cui azioni andrebbero poste sotto controllo.</p><p style="margin-bottom: 0cm;">In generale, dunque, la via è quella dei comitati etici. Ricercatori e tecnologi, accompagnati da qualche esperto -magari qualche filosofo- dovrebbero dettare regole e vincoli e indirizzi.</p><p style="margin-bottom: 0cm;">Iniziative vane. Utili purtroppo innanzitutto a questo: a fornire ad imprenditori, finanziatori, tecnici, una foglia di fico. Utili a permettere loro di dire: datemi una regola, stabilite una norma. Utili ad eludere il sincero e profondo riferimento di ognuno alla propria responsabilità personale.</p><p style="margin-bottom: 0cm;">Il Vaticano, purtroppo, finisce per legittimare questo disegno con una sorta di bolla papale. Si può capire che l'intrattenere legami con le grandi case digitali sia oggi importante per la diplomazia vaticana; si può anche capire l'ansia di parlare alla famiglia professionale dei tecnologi digitali.</p><p style="margin-bottom: 0cm;">Ma tra il dire “faccio quindi appello agli ingegneri informatici, perché si sentano anch’essi responsabili in prima persona della costruzione del futuro”, e il proporre, mettendo in campo l'autorità della Chiesa, una pretesa 'nuova etica per il nostro tempo', detta 'algor-etica', c'è un abisso.</p><p style="margin-bottom: 0cm;">Perché una nuova etica? Perché una nuova parola? Che cos'è poi l'<i>algor-etica</i>?</p><p style="margin-bottom: 0cm;">Ho mostrato in precedenti scritti<a class="sdfootnoteanc" href="#sdfootnote9sym" name="sdfootnote9anc" style="font-size: 0.57px;"><sup>9</sup></a> come consiste in fondo nel tentativo di trasformare in codice digitale i principi della Dottrina Sociale della Chiesa: “dignità della persona, giustizia, sussidiarietà e solidarietà”.<a class="sdfootnoteanc" href="#sdfootnote10sym" name="sdfootnote10anc" style="font-size: 0.57px;"><sup>10</sup></a> Conoscendo ciò che è buono per l'essere umano, una certa Chiesa si candida a rendere buone per gli esseri umani le piattaforme digitali. Si candida a far sì che le intelligenze artificiali diffondano il bene.</p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Disegno vano perché i grandi attori della scena digitale useranno la legittimazione della Chiesa senza dare nulla in cambio. Disegno ingiusto e pericoloso, perché così si finisce per alimentare il crescente divario tra l'élite di coloro che per via digitale governano il mondo ed i cittadini, gli abitatori della casa comune, sempre più ridotti a passivi utenti di servizi preconfezionati.</span></p><p style="margin-bottom: 0cm;"><br /></p><p style="margin-bottom: 0cm;"><b>Più che etica, responsabilità personale</b></p><p style="margin-bottom: 0cm;">Come dimostrano l'enciclica <i>Laudato si'</i> e l'esortazione <i>Laudate Deum</i>, non è questa certo l'intenzione del Pontefice. Ma sarebbe interessante sapere per quali intrecci e disegni di potere vaticani il Santo Padre finisca per prestarsi a sostenere questo disegno.</p><p style="margin-bottom: 0cm;">Ritroviamo infatti l'algor-etica come snodo chiave nella lettera <i>Intelligenza artificiale e pace</i>.</p><p style="margin-bottom: 0cm;">“Uno sguardo umano e il desiderio di un futuro migliore per il nostro mondo portano alla necessità di un dialogo interdisciplinare finalizzato a uno sviluppo etico degli algoritmi -<i>l’algor-etica</i>-”.</p><p style="margin-bottom: 0cm;">Un conto è un benvenuto dialogo interdisciplinare: come afferma il Pontefice, “abbiamo perciò il dovere di allargare lo sguardo e di orientare la ricerca tecnico-scientifica al perseguimento della pace e del bene comune, al servizio dello sviluppo integrale dell’uomo e della comunità”.</p><p style="margin-bottom: 0cm;">Un conto è ridurre questa intenzione riconducendola allo “sviluppo etico degli algoritmi”.</p><p style="margin-bottom: 0cm;">Per dire che questa riduzione non è farina del sacco del Pontefice, credo basti citare un altro passaggio della lettera: “l’abilità di alcuni dispositivi nel produrre testi sintatticamente e semanticamente coerenti, ad esempio, non è garanzia di affidabilità. Si dice che possano 'allucinare', cioè generare affermazioni che a prima vista sembrano plausibili, ma che in realtà sono infondate o tradiscono pregiudizi”.</p><p style="margin-bottom: 0cm;">Mi chiedo e vi chiedo: vi sembrano queste parole di Papa Francesco? Ci interessa forse leggere in una sua lettera una qualche spiegazione dei limiti dei Foundation Model, dei Transformer, dei Large Language Model? Diciamolo allora semmai in parole semplici, adatte a tutti noi esseri umani abitatori di una casa comune: queste macchine forniscono a umane domande risposte sbagliate, erronee, infondate.</p><p style="margin-bottom: 0cm;">Chi ha scritto queste parole, che noi ci troviamo a leggere firmate dal Pontefice, vuol forse dire che l'algor-etica consiste nel collaborare con i costruttori di queste macchine per migliorare la qualità delle risposte?</p><p style="margin-bottom: 0cm;">Mi sembra convenga dire che l'etica è un attributo dell'essere umano, una caratteristica distintiva degli esseri umani, e che quindi in una macchina -anche nelle macchine che possono essere in base a un qualche criterio definite 'intelligenze artificiali'- potranno al massimo risiedere dati relativi ad atteggiamenti etici, e cioè tracce di atteggiamenti etici manifestati da esseri umani in momenti passati.</p><p style="margin-bottom: 0cm;">Non lasciamo che ‘etica’ sia trasformata -confondendola con un algoritmo- in una parola vuota.</p><p style="margin-bottom: 0cm;">Conviene considerare l'etica come qualcosa di ineffabile: ‘non esprimibile in parole’. <span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">L'etica può essere magari anche riassunta in principi, in valori. Ma resta ineludibile il fatto che l’etica esiste solo se la si pratica. Se se ne parla astratto, in modo distaccato dalla nostra personale e quotidiana vita, è perché non riusciamo a praticarla. Non c'è etica laddove si agisce eseguendo i dettami di una macchina.</span></p><p style="margin-bottom: 0cm;">Conviene quindi parlare di etica incarnata. Consiste in fondo nel vivere in carne propria, sulla propria pelle e allo stesso tempo nel proprio animo, la fatica di essere sé stessi - evitando di adattarci comodamente a ciò che altre persone decidono per noi.</p><p style="margin-bottom: 0cm;">E forse anche conviene evitare di usare la parola <i>etica</i>, e parlare invece di responsabilità. Responsabilità personale. Responsabilità personale di ogni abitante della casa comune, di ogni cittadino del pianeta, di ogni credente in ogni fede religiosa.</p><p style="margin-bottom: 0cm;">Leggiamo nella conclusione della lettera <i>Intelligenza artificiale e pace </i>l'auspicio di “modelli normativi che possano fornire una guida etica agli sviluppatori di tecnologie digitali”. Potranno essere d'aiuto, ma potranno anche essere fonte di comode elusioni ed alibi. Foglie di fico dietro cui vanamente nascondersi.</p><p style="margin-bottom: 0cm;">L'algor-etica si limita a ridipingere la facciata. Serve invece umiltà, senso del limite, saggezza, disponibilità alla conversione, consapevolezza di appartenere alla casa comune. Solo se il tecnologo sarà disposto a queste virtù la sua progettazione sarà rispettosa della natura, socialmente utile e costruttiva.</p><p style="margin-bottom: 0cm;">Leggiamo infatti nella stessa conclusione anche che “nei dibattiti sulla regolamentazione dell’intelligenza artificiale, si dovrebbe tenere conto della voce di tutte le parti interessate, compresi i poveri, gli emarginati”. Tutto sta nel <i>dovrebbe</i>. Il patto tra sacerdoti delle chiese adamitiche e sacerdoti digitali, però, non si fonda sull'ascolto e sulla partecipazione, si fonda purtroppo invece sulla presunzione degli 'esperti' di sapere già cosa è bene per ogni parte interessata, per i poveri e per gli emarginati.</p><p style="margin-bottom: 0cm;">Perciò, più che sperare che i progressi nello sviluppo di forme di intelligenza artificiale servano la causa della fraternità umana e della pace credo convenga ricordare che percorsi differenti di ricerca e sviluppo tecnologico sono possibili - evitando di considerare lo sviluppo delle cosiddette intelligenze artificiali che abbiamo sotto gli occhi l'unica, ormai ineluttabile via.</p><p style="margin-bottom: 0cm;">Sulla via della pace, certo le Chiese, e innanzitutto il Santo Padre, hanno qualcosa da dire. Ma più del cammino dell'algor-etica, più del cercar di educare ed accompagnare i tecnologi, più del proporre loro di accettare i rappresentanti delle Chiese nel consesso di coloro che scrivono il codice digitale che governa il mondo, sembrano adeguate le parole con le quali Papa Francesco conclude l'esortazione apostolica <i>Laudate Deum</i>: “un essere umano che pretende di sostituirsi a Dio diventa il peggior pericolo per sé stesso”.</p><p style="margin-bottom: 0cm;"><i>Note:</i></p><div id="sdfootnote1"><p class="sdfootnote" style="font-size: 10pt; margin-bottom: 0cm; margin-left: 0.5cm; text-indent: -0.5cm;"><a class="sdfootnotesym" href="#sdfootnote1anc" name="sdfootnote1sym">1</a> Messaggio di Sua Santità Francesco per la LVII Giornata mondiale della Pace, <i>Intelligenza artificiale e pace</i>, 1° gennaio 2024. <a href="https://www.vatican.va/content/francesco/it/messages/peace/documents/20231208-messaggio-57giornatamondiale-pace2024.html">https://www.vatican.va/content/francesco/it/messages/peace/documents/20231208-messaggio-57giornatamondiale-pace2024.html</a>.</p></div><div id="sdfootnote2"><p class="sdfootnote" style="font-size: 10pt; margin-bottom: 0cm; margin-left: 0.5cm; text-indent: -0.5cm;"><a class="sdfootnotesym" href="#sdfootnote2anc" name="sdfootnote2sym">2</a> Lettera Enciclica <i>Laudato si’</i> del Santo Padre Francesco Sulla cura della casa comune, 24 maggio 2015. <a href="https://www.vatican.va/content/francesco/it/encyclicals/documents/papa-francesco_20150524_enciclica-laudato-si.html">https://www.vatican.va/content/francesco/it/encyclicals/documents/papa-francesco_20150524_enciclica-laudato-si.html</a></p></div><div id="sdfootnote3"><p class="sdfootnote" style="font-size: 10pt; margin-bottom: 0cm; margin-left: 0.5cm; text-indent: -0.5cm;"><a class="sdfootnotesym" href="#sdfootnote3anc" name="sdfootnote3sym">3</a> Esortazione Apostolica <i>Laudate Deum </i>del Santo Padre Francesco. A tutte le persone di buona volontà. Sulla crisi climatica, 4 ottobre 2023. <a href="https://www.vatican.va/content/francesco/it/apost_exhortations/documents/20231004-laudate-deum.html">https://www.vatican.va/content/francesco/it/apost_exhortations/documents/20231004-laudate-deum.html</a></p></div><div id="sdfootnote4"><p class="sdfootnote" style="font-size: 10pt; margin-bottom: 0cm; margin-left: 0.5cm; text-indent: -0.5cm;"><a class="sdfootnotesym" href="#sdfootnote4anc" name="sdfootnote4sym">4</a> <span style="color: navy;"><span lang="zxx"><u><a href="https://www.romecall.org/">https://www.romecall.org/</a></u></span></span> </p></div><div id="sdfootnote5"><p class="sdfootnote" style="font-size: 10pt; margin-bottom: 0cm; margin-left: 0.5cm; text-indent: -0.5cm;"><a class="sdfootnotesym" href="#sdfootnote5anc" name="sdfootnote5sym">5</a> <i>Discorso preparato dal Santo Padre Francesco per l'Incontro con i partecipanti alla plenaria della Pontificia Accademia per la Vita</i>, letto da mons. Vincenzo Paglia, Presidente della Pontificia Accademia per la Vita, Sala Clementina, venerdì, 28 febbraio 2020. <a href="https://www.vatican.va/content/francesco/it/speeches/2020/february/documents/papa-francesco_20200228_accademia-perlavita.html">https://www.vatican.va/content/francesco/it/speeches/2020/february/documents/papa-francesco_20200228_accademia-perlavita.html</a></p></div><div id="sdfootnote6"><p class="sdfootnote" style="font-size: 10pt; margin-bottom: 0cm; margin-left: 0.5cm; text-indent: -0.5cm;"><a class="sdfootnotesym" href="#sdfootnote6anc" name="sdfootnote6sym">6</a> “Etica dell’intelligenza artificiale: l’impegno delle religioni abramitiche nella Rome Call”, <i>Microsoft News</i>, <span style="font-size: 10pt; text-indent: -0.5cm;">Gennaio 10, 2023, </span><span style="color: navy; font-size: 10pt; text-indent: -0.5cm;"><span lang="zxx"><u><a href="https://news.microsoft.com/it-it/2023/01/10/etica-dellintelligenza-artificiale-limpegno-delle-religioni-abramitiche-nella-rome-call/">https://news.microsoft.com/it-it/2023/01/10/etica-dellintelligenza-artificiale-limpegno-delle-religioni-abramitiche-nella-rome-call/</a></u></span></span><span style="font-size: 10pt; text-indent: -0.5cm;">. </span><a href="https://diecichilidiperle.blogspot.com/2023/01/etica-dellintelligenza-artificiale-le.html." style="font-size: 10pt; text-indent: -0.5cm;">https://diecichilidiperle.blogspot.com/2023/01/etica-dellintelligenza-artificiale-le.html.</a></p></div><div id="sdfootnote7"><p class="sdfootnote" style="font-size: 10pt; margin-bottom: 0cm; margin-left: 0.5cm; text-indent: -0.5cm;"><a class="sdfootnotesym" href="#sdfootnote7anc" name="sdfootnote7sym">7</a> Francesco Varanini, “La posizione del Vaticano di fronte all'Intelligenza Artificiale e la lezione della Lettera ai Filippesi”, <i>Dieci Chili di Perle</i>, 16 marzo 2021, <a href="https://diecichilidiperle.blogspot.com/2021/03/la-posizione-del-vaticano-di-fronte.html">https://diecichilidiperle.blogspot.com/2021/03/la-posizione-del-vaticano-di-fronte.html</a>; seconda versione: <span style="font-size: 10pt; text-indent: -0.5cm;">Francesco Varanini, “Il piano del Vaticano per l’AI etica: basterà a ricordarci di restare umani?”, </span><i style="font-size: 10pt; text-indent: -0.5cm;">Agenda Digitale</i><span style="font-size: 10pt; text-indent: -0.5cm;">, 12 aprile 2021. </span><a href="https://www.agendadigitale.eu/cultura-digitale/il-piano-del-vaticano-per-lai-etica-bastera-a-ricordarci-di-restare-umani/" style="font-size: 10pt; text-indent: -0.5cm;">https://www.agendadigitale.eu/cultura-digitale/il-piano-del-vaticano-per-lai-etica-bastera-a-ricordarci-di-restare-umani/</a>. <span style="font-size: 10pt; text-indent: -0.5cm;">Francesco Varanini, “Etica dell'intelligenza artificiale. Le religioni abramitiche si accodano al Vaticano”, </span><i style="font-size: 10pt; text-indent: -0.5cm;">Dieci chili di perle</i><span style="font-size: 10pt; text-indent: -0.5cm;">, 15 gennaio 2023, </span><a href="https://diecichilidiperle.blogspot.com/2023/01/etica-dellintelligenza-artificiale-le.html" style="font-size: 10pt; text-indent: -0.5cm;">https://diecichilidiperle.blogspot.com/2023/01/etica-dellintelligenza-artificiale-le.html</a></p></div><div id="sdfootnote8"><p class="sdfootnote" style="font-size: 10pt; margin-bottom: 0cm; margin-left: 0.5cm; text-indent: -0.5cm;"><a class="sdfootnotesym" href="#sdfootnote8anc" name="sdfootnote8sym">8</a> Discorso del Santo Padre Francesco ai Partecipanti Al Congresso "Child Dignity in the Digital World", Sala Clementina, giovedì, 14 novembre 2019. <a href="https://www.vatican.va/content/francesco/it/speeches/2019/november/documents/papa-francesco_20191114_convegno-child dignity.html">https://www.vatican.va/content/francesco/it/speeches/2019/november/documents/papa-francesco_20191114_convegno-child%20dignity.html</a></p></div><div id="sdfootnote9"><p class="sdfootnote" style="font-size: 10pt; margin-bottom: 0cm; margin-left: 0.5cm; text-indent: -0.5cm;"><a class="sdfootnotesym" href="#sdfootnote9anc" name="sdfootnote9sym">9</a> Francesco Varanini, “La posizione del Vaticano di fronte all'Intelligenza Artificiale e la lezione della Lettera ai Filippesi”, <i>Dieci Chili di Perle</i>, 16 marzo 2021, <a href="https://diecichilidiperle.blogspot.com/2021/03/la-posizione-del-vaticano-di-fronte.html">https://diecichilidiperle.blogspot.com/2021/03/la-posizione-del-vaticano-di-fronte.html</a>. Francesco Varanini, “La pericolosa banalità dell'Algoretica e dell'Antronomia. Ovvero la pretesa di sostituire il 'computabile' all''umano'”, <i>Dieci Chili di Perle</i>, , 22 febbraio 2022. <a href="https://diecichilidiperle.blogspot.com/2022/02/la-pericolosa-banalita-dellalgoretica.html">https://diecichilidiperle.blogspot.com/2022/02/la-pericolosa-banalita-dellalgoretica.html</a></p></div><div id="sdfootnote10"><p class="sdfootnote" style="font-size: 10pt; margin-bottom: 0cm; margin-left: 0.5cm; text-indent: -0.5cm;"><a class="sdfootnotesym" href="#sdfootnote10anc" name="sdfootnote10sym">10</a> <i>Discorso preparato dal Santo Padre Francesco per l'Incontro con i partecipanti alla plenaria della Pontificia Accademia per la Vita</i>, letto da mons. Vincenzo Paglia, Presidente della Pontificia Accademia per la Vita, Sala Clementina, venerdì, 28 febbraio 2020. <a href="https://www.vatican.va/content/francesco/it/speeches/2020/february/documents/papa-francesco_20200228_accademia-perlavita.html">https://www.vatican.va/content/francesco/it/speeches/2020/february/documents/papa-francesco_20200228_accademia-perlavita.html</a></p><p class="sdfootnote" style="font-size: 10pt; margin-bottom: 0cm; margin-left: 0.5cm; text-indent: -0.5cm;"><br /></p></div>Francesco Varaninihttp://www.blogger.com/profile/16191894598697362552noreply@blogger.com0tag:blogger.com,1999:blog-3387039186665984628.post-3940046240068262372023-12-20T17:48:00.002+01:002024-01-05T18:06:04.816+01:00Nishida Paradox: "Knowing and its object are completely unified""Knowing and its object are completely unified". L'umana conoscenza è 'pura esperienza'. <div>L’esperienza individuale non è che un piccolo e limitato ambito particolare all’interno dell’esperienza. La conoscenza è emergente, è una sorgente che si rinnova in ogni istante. </div><div>I dati non sono che tracce del passato, o scorie. </div><div>I filosofi digitali e i computer scientist che cercano una qualche intelligenza artificiale, trarrebbero grande giovamento dallo studio di Kitarō Nishida, filosofo giapponese che ci avvicina allo Zen e allo stesso tempo riassume il senso più profondo del pensiero fenomenologico occidentale. </div><div><br /></div><br /><div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiVefPVHdWu8mtfD-SEyx9GUL3uEV-MkyW8WID50OlmwPWA-HJO0kxjbAkWfdSxcZuFxKqyfcI9cUNLzy9YZGXuV5SI4_9EGkZ3Fcp1eNDhTaFynmjfFLmBbCApQMOLAr4V-gUwmc9UjucOirhFX-DRq9WBjCr3KC-RPkT5IWOpLct_7pmr5zKtZoqW/s1248/Schermata%202024-01-05%20alle%2017.53.13.png" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="1248" data-original-width="836" height="348" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiVefPVHdWu8mtfD-SEyx9GUL3uEV-MkyW8WID50OlmwPWA-HJO0kxjbAkWfdSxcZuFxKqyfcI9cUNLzy9YZGXuV5SI4_9EGkZ3Fcp1eNDhTaFynmjfFLmBbCApQMOLAr4V-gUwmc9UjucOirhFX-DRq9WBjCr3KC-RPkT5IWOpLct_7pmr5zKtZoqW/w233-h348/Schermata%202024-01-05%20alle%2017.53.13.png" width="233" /></a></div><br /></div><div><br /></div><div>Il 'Polanyi Paradox' (<a href="https://diecichilidiperle.blogspot.com/2024/01/polanyi-paradox.html" target="_blank">vedi mio precedente post</a>), in effetti, non è che una versione semplificata del 'Nishida Paradox'. </div><div>E' accaduto questo: Ikujiro Nonaka, studioso giapponese di management, nel suo affermare il concetto di impresa fondata sulla continua creazione di nuova conoscenza, sentí il bisogno di non apparire troppo legato alla cultura e alla filosofia orientale. Si cercò quindi un testimone mitteleuropeo e poi anglosassone: Michael Polanyi, contribuendo notevolmente a crearne la fama. </div><div>Ma la vera fonte di Nonaka è Nishida, formatosi nella cultura Zen e poi grande studioso della filosofia occidentale. </div><div>Ecco il punto essenziale: ogni algoritmo, ogni struttura dei dati, ogni modello fondazionale, ogni sistema di regole o lista di assiomi, impongono una chiave di lettura a priori. </div><div>Nishida e Nonaka ci ricordano che la conoscenza non discende da fondamenti, ma emerge nel <i>basho</i>. <i>Basho</i>: ubicazione, posto, topos, terra, focolare, situazione, base materiale e allo stesso tempo spirituale. Non radici alle quali siamo vincolati, ma luogo che abitiamo. L'esperienza che in ogni istante stiamo vivendo si situa in un qui. Solo se c'è <i>basho</i> c'è conoscenza. </div><div>Sensazioni, percezioni, corpo, contribuiscono al fenomeno emergente. Il fenomeno si manifesta così, solo in questo istante e solo in questo luogo. </div><div>Le macchine 'generative' o 'causali' faranno pure il loro lavoro, apprenderanno a loro modo qualcosa da dati e informazioni, ma ciò non avrà mai nulla a che fare con l'umana conoscenza. </div><div>Più che il supporto di macchine, cerchiamo sempre nuove esperienze! </div><div>Ci aiutano forse a vivere esperienze le 'intelligenze artificiali' che ci vengono offerte? No. Al contrario, ci costringono a esperienze impersonali, lontane dal basho, o peggio ancora, ci spingono a ripetere situazioni già vissute. </div>Francesco Varaninihttp://www.blogger.com/profile/16191894598697362552noreply@blogger.com0tag:blogger.com,1999:blog-3387039186665984628.post-88010072009923649222023-12-15T17:48:00.002+01:002024-01-05T18:07:58.147+01:00Polanyi Paradox: "We can know more than we can tell"<i>Polanyi Paradox</i>. <div>Periodicamente appaiono nella letteratura digitale concetti formali, definiti in modo tale che la macchina possa risolverli.
Ciò che sta dietro queste formalizzazioni viene bellamente ignorato. </div><div>"We can know more than we can tell", cosi è noto ai computer scientist il complesso pensiero di Michael Polanyi.
Le conoscenze esplicite sono solo una parte delle conoscenze. Molte conoscenze restano tacite. Emergono solo quando serve, dove serve. </div><div>Tema ben studiato da filosofi, epistemologi, sociologi e psicologi.
Ma i computer scientist sono preoccupati: se noi umani non sappiamo o non vogliamo dire in che modo conosciamo ciò che conosciamo, come farà la macchina ad appropriarsi del nostro sapere? </div><div>A ben vedere è una questione -prima che tecnica- filosofica, sociale, politica, economica. Ma è anche una questione puramente inerente al management e all'organizzazione del lavoro. </div><div>Gli esperti digitali non sanno che Polanyi è la fonte di Nonaka, maestro del management. Il suo famoso schema (SECI) presiede alla creazione del valore di ogni impresa. </div><div>E cosa ne sanno gli esperti digitali della difficile e sofferta storia personale di Michael Polanyi, costretto a lasciare la sua terra natale, fisico passato ad essere epistemologo, cosa ne sanno del formarsi del suo pensiero, dei suoi rapporti con il fratello economista... </div><div><br /></div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjM4j7LlWGlgdECSDP4WJC8WzaKWLrai0kXcrFB_heRuL7XsDEzbsXAfMmllH1qjPkOrgaWgF6YeoDtkQy-LGaK-4SS8kzhLJ-3Y8l4hdH1loioux6hA4mCd3iipY600y7rcc2Q6tvhnIQT-t52YbUA1Cphv28pLuHlXIKq7_lPKrtnrwK19pDde7zi/s1230/Schermata%202024-01-05%20alle%2017.45.55.png" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="1230" data-original-width="988" height="320" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjM4j7LlWGlgdECSDP4WJC8WzaKWLrai0kXcrFB_heRuL7XsDEzbsXAfMmllH1qjPkOrgaWgF6YeoDtkQy-LGaK-4SS8kzhLJ-3Y8l4hdH1loioux6hA4mCd3iipY600y7rcc2Q6tvhnIQT-t52YbUA1Cphv28pLuHlXIKq7_lPKrtnrwK19pDde7zi/s320/Schermata%202024-01-05%20alle%2017.45.55.png" width="257" /></a></div><div><br /></div><div>Tirando un sospiro di sollievo esperti digitali vari sostengono ora la tesi della progressiva erosione del paradosso di Polanyi da parte dell'AI generative. </div><div>Ma non hanno capito. Le macchine 'generative' faranno pure il loro lavoro, apprenderanno a loro modo qualcosa da dati e informazioni, ma ciò non avrà mai nulla a che fare con l'umana conoscenza. Così ben descritta da Polanyi. (<a href="https://diecichilidiperle.blogspot.com/2023/12/nishida-paradox-knowing-and-its-object.html" target="_blank">Vedi continuazione nel mio successivo post: <i>Nishida Paradox</i></a>).</div><div><br /></div><div><i>Breveissima bibliografia:</i></div><div>Michael Polanyi, <i>Personal Knowledge: Towards a Post-Critical Philosophy</i>, 1958</div><div>Michael Polanyi, <i>Tacit Dimension</i>, 1966</div><div>Ikujiro Nonaka, <i>Management of Knowledge Creation</i>, 1990</div>David Autor, <i>Polanyi Paradox and the Shape of Employment Growth</i>, 2014Francesco Varaninihttp://www.blogger.com/profile/16191894598697362552noreply@blogger.com0tag:blogger.com,1999:blog-3387039186665984628.post-30533919754531972692023-11-30T17:17:00.001+01:002024-01-05T17:26:27.145+01:00Marcel Mauss, 'Le tecniche del corpo', 1934. Un testo chiave che ogni tecnologo dovrebbe leggereSi dice che è inevitabile ed opportuno affidarci ai tecnici ed alla tecnica. <div>Sappiamo di cosa stiamo parlando?
Quanti testi inutili leggiamo? Quante volte leggiamo testi di seconda mano, che citano interpretando malamente o capziosamente? </div><div>Con quale cognizion di causa i tecnici progettano?
Invece di leggere testi scritti nei recenti tempi digitali, torniamo a leggere testi che illuminano la scena digitale. </div><div>Ecco un testo chiave: Marcel Mauss, <i>Le tecniche del corpo</i>, 1934. </div><div><br /></div><div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEj3QzTKEYaJP4-ncpf6kNpIkOhSr50nXMaSAgN9vSnzaZ5akDeRkOeRglq6aQigC3Ev_BSHKX83Uc0rEqX7xxDW7GKK_U4tLj8T5P9bzzhyZ1224nEy-vpIt9opeUCiPoQOURgr6tseqPC3-j63YaA6nJiL41KdF6OD0lAkGXFPSJ7ShqUtIL6YFLVn/s996/Schermata%202024-01-05%20alle%2017.20.45.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="900" data-original-width="996" height="289" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEj3QzTKEYaJP4-ncpf6kNpIkOhSr50nXMaSAgN9vSnzaZ5akDeRkOeRglq6aQigC3Ev_BSHKX83Uc0rEqX7xxDW7GKK_U4tLj8T5P9bzzhyZ1224nEy-vpIt9opeUCiPoQOURgr6tseqPC3-j63YaA6nJiL41KdF6OD0lAkGXFPSJ7ShqUtIL6YFLVn/s320/Schermata%202024-01-05%20alle%2017.20.45.png" width="320" /></a></div></div><div><br /></div><div>Erroneamente crediamo che ci sia tecnica solo dove c'è strumento o macchina.
Per capire la tecnica dobbiamo partire invece dal modo con cui usiamo il nostro corpo. Il corpo è il primo strumento dell'uomo, o meglio: il primo oggetto tecnico. </div><div>Mauss mostra che noi umani conosciamo ed usiamo tecniche pur senza saperle descrivere formalmente. (Michael Polanyi non fa che ripeterlo).
Mauss ci ricorda anche che tecniche universali imposte ad ogni cultura umana sono una forzatura. E ci fa riflettere su come tecniche siano imposte oggi in virtù di pura irrispettosa autorità, distruttrice di culture e differenze. </div><div>Si può quindi supporre se non fosse per questa autorità, ammantata di propaganda, butteremmo magari a mare molte delle tecniche digitali che ci vengono proposte. </div><div>Mauss, ancora, ci spinge a pensare che trasformarsi in cyborg non basti: se non sappiamo usare il nostro corpo, non sapremo usare nemmeno parti macchiniche aggiunte a noi stessi. </div><div>Ma non contentatevi di questo riassunto, leggete queste venti pagine. Aiutano a pensare. Le trovate <a href="https://anthropomada.com/bibliotheque/Marcel-MAUSS-le-corps.pdf" target="_blank">qui nell'originale francese</a> e <a href="https://fareantropologia.cfs.unipi.it/wp-content/uploads/2017/02/MAUSS-Le-tecniche-del-corpo.pdf" target="_blank">qui in italiano</a>.<br /></div>Francesco Varaninihttp://www.blogger.com/profile/16191894598697362552noreply@blogger.com0tag:blogger.com,1999:blog-3387039186665984628.post-25638962583749867262023-11-28T16:57:00.009+01:002024-01-05T17:17:03.961+01:00Dialogare con Luigi Einaudi grazie all'Intelligenza Artificiale. Meglio dire: Intelligenza Artificiale come postmoderno mezzo per coltivare la pubblica ignoranza. Assurda e privo di senso iniziativa di <a href="https://www.reply.com/it" target="_blank">Reply</a>, <a href="https://www.linkedin.com/company/fondazione-luigi-einaudi-onlus-torino/" target="_blank">Fondazione Luigi Einaudi</a>, <a href="https://www.linkedin.com/company/fondazione-compagnia-di-san-paolo/" target="_blank">Fondazione Compagnia di San Paolo</a>. <br /><div><br /><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgcNho4yXin8EwJgfUkRlx31maA2dvU96G_n62ACLvkxrhnr0SUcoj9gZfZKrfWfCv4b3k-YUIxAhIRpuBHIkvU80qnznLjN6t1WU4bbA6GXM0pfF886J3yG3xZTTsNkE10ytOw55zycFkXcPuruRLJyc6rrY5ybNFUbOoyYSEFBb9QJRyPEr0OfeE1/s1258/Schermata%202024-01-05%20alle%2017.00.20.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="1258" data-original-width="776" height="388" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgcNho4yXin8EwJgfUkRlx31maA2dvU96G_n62ACLvkxrhnr0SUcoj9gZfZKrfWfCv4b3k-YUIxAhIRpuBHIkvU80qnznLjN6t1WU4bbA6GXM0pfF886J3yG3xZTTsNkE10ytOw55zycFkXcPuruRLJyc6rrY5ybNFUbOoyYSEFBb9QJRyPEr0OfeE1/w239-h388/Schermata%202024-01-05%20alle%2017.00.20.png" width="239" /></a></div></div><div><br /></div><div><br /></div><div><span style="background-color: white; color: #151f27; font-family: khanqyjjei; font-size: 16px; font-variant-ligatures: none; white-space-collapse: break-spaces;">"<a href="Come abbiamo trasformato l’eredità culturale di Luigi Einaudi economista in un’esperienza interattiva e accessibile a tutti grazie all’intelligenza artificiale." target="_blank">Come abbiamo trasformato l’eredità culturale di Luigi Einaudi economista in un’esperienza interattiva e accessibile a tutti grazie all’intelligenza artificiale</a>", si legge sul sito di Reply. Accessibile a tutti: è forse l'AI la via unica o privilegiata per accedere alla conoscenza?</span></div><div>Rinnovamento della didattica? Ma no!
Intelligenza Artificiale come postmoderno mezzo per coltivare la pubblica ignoranza. </div><div>Un pensatore senza vincoli costretto nelle forche caudine costruite da tecnici interessati solo all'apparenza virtuale. </div><div>Basta leggere le 'regole d'uso', riprese nell'immagine.</div><div>Solo questo potete chiedere!
Seguite queste regole!
I cittadini alla cui attiva autonomia Einaudi ha dedicato tante pagine ridotti a passivi utenti.
Un velo autoritario è imposto alla conoscenza del pensiero di Einaudi, che parla in ogni pagina di libertà, trattando dei più diversi argomenti.
Sanno davvero qualcosa i promotori dell'iniziativa della vastità dell'opera e dell'ampiezza del pensiero di Einaudi? Vogliono coltivarne la memoria o ridurrre la sua immagine a merce?
Meglio stampare copie dei suoi libri e regalarle a scuole e studenti.
E se si vuole mostrare competenza digitale, meglio offrire sul web una edizione critica delle opere, codifica TEI rigorosa, tag apposti da storici ed economisti per accompagnare, senza suggerire troppo, nella libera ricerca.</div>Francesco Varaninihttp://www.blogger.com/profile/16191894598697362552noreply@blogger.com0tag:blogger.com,1999:blog-3387039186665984628.post-69819831805495148522023-11-23T17:05:00.013+01:002024-01-23T17:11:09.218+01:00Le ragioni di Epimeteo. Traccia dell'intervento di Francesco Varanini nella tavola rotonda tavola rotonda ‘Da Prometeo a Pandora? Tecnologie, modelli di società e opportuni controlli’, Digital Ethics Forum, organizzato da Sloweb, Torino, 22 novembre 2023<p> Come spesso capita, una tavola rotonda si sviluppa in modo tali da spingere o costringere a sviluppare il proprio intervento lungo una via in parte diversa da quanto prima previsto. Così è accaduto il 22 novembre 2023 a Torino nel corso della <a href="https://www.digitalethicsforum.com/def-2023-programma-completo/" rel="noopener" target="_blank">tavola rotonda ‘Da Prometeo a Pandora? Tecnologie, modelli di società e opportuni controlli’</a>, con <a href="https://www.linkedin.com/in/cosimoaccoto/" rel="noopener" target="_blank">Cosimo Accoto</a>, <a href="https://www.linkedin.com/in/paolo-gerbaudo-1b683a1a/" rel="noopener" target="_blank">Paolo Gerbaudo</a>, <a href="https://www.linkedin.com/in/michela-meo-48a74a8/" rel="noopener" target="_blank">Michela Meo</a>, <a href="https://www.linkedin.com/in/dunia-astrologo-4a43941/" rel="noopener" target="_blank">Dunia Astrologo</a>, nell’ambito del <a href="https://www.digitalethicsforum.com/" rel="noopener" target="_blank">DEF Digital Ethics Forum 2023</a>, organizzato da <a href="https://www.sloweb.org/" rel="noopener" target="_blank">Sloweb</a>,</p><p>Riporto qui la traccia del percorso di senso mi ero preparato a sviluppare. Nel corso dell'incontro non ho avuto tempo per sviluppare adeguatamente i punti sei e sette. Ho potuto esplicitare il punto otto nell'intervento che ha chiuso la tavola rotonda.</p><p><em>Uno</em><br />Amo gli strumenti digitali, ho lavorato a progettare strumenti e sistemi, nel 2000<br />ho progettato e diretto il primo Master in Italia dedicato a eBusiness<br />(Ma per fortuna non mi sono occupato solo di questo)<br />Mi sono entusiasmato e ho visto la bellezza<br />Ma non possiamo prendere tutto per oro colato<br />Così oggi mi trovo a dire:<br />Siamo esseri umani<br />Ci vergogniamo forse di esserlo?</p><p><em>Due</em><br />Veniamo da lontano e costruiamo il futuro<br />Abitiamo la natura<br />Costruiamo la cultura<br />Un conto è la tecnica, un conto è la tecnologia<br />Nessun modello digitale, nessuna rappresentazione computazionale può descrivere la complessità dei sistemi viventi.<br />Oggi ci viene offerta una proposta pericolosa<br />abitare un sostituto del mondo costruito da tecnologi che si collocano fuori dal mondo<br />Fidarci di macchine i progettisti delle quali di vantano di aver insegnato loro ad autosupervisionarsi durante il loro apprendimento</p><p><em>Tre</em><br />Rifiuto la proposta di amici che invitano ad accettare ogni nuova tecnologia come utile provocazione intellettuale, o forse anche materiale<br />Sento addirittura parlare di nuova domesticazione<br />Perché mai?<br />Non sento nessuno dire questo no</p><p><em>Quattro</em><br />La storia umana dal passato al futuro è nostra maestra<br />manteniamo aperto lo sguardo<br />Perciò benvenuti i miti che accompagnano gli esseri umani lungo la loro storia<br />Li abbiamo forgiati noi stessi per ammonirci, per leggere saggiamente il presente che ci troviamo a vivere</p><p><em>Cinque</em><br />Prometeo aveva un fratello<br />Epimeteo</p><p><em>Sei</em><br />Sostenibilità digitale<br />sembra che il digitale sia esentato dagli obblighi di sostenibilità<br />Questo accade perché abbiamo paura di non essere all'altezza<br />Vogliamo quindi immaginare che il digitale ci salvi<br />garantendo al posto nostro la sostenibilità<br />Affidarsi a una intelligenza artificiale!</p><p><em>Sette</em><br />Assumiamoci invece la responsabilità<br />Sostenibilità digitale primo passo verso sostenibilità<br />perché digitale inquina e danneggia<br />e perché cosí ci togliamo l'alibi</p><p><em>Otto</em><br />Quattro atteggiamenti epimeteici:<br />Non rinviare nel tempo<br />Non dire se ne deve occupare qualcun altro<br />Non nascondere il male dietro al bene<br />Restare disposti alla conversione</p>Francesco Varaninihttp://www.blogger.com/profile/16191894598697362552noreply@blogger.com0tag:blogger.com,1999:blog-3387039186665984628.post-30478803472592148812023-11-17T13:11:00.005+01:002023-11-17T13:33:45.615+01:00Perché i non giovani capiscono la cultura digitale meglio dei giovani<p>Si parla frequentemente di come il mondo in cui viviamo non sia un mondo per vecchi.</p><p>Eppure dovremmo invece ricordare che ci sono solidi motivi per sostenere che i non giovani comprendono la cultura digitale meglio dei giovani. Per il semplice motivo che hanno avuto la fortuna di vivere in un mondo di calde relazioni interpersonali. Hanno avuto la fortuna di vivere una prima infanzia riscaldata dalla cura, dai gesti, dalla voce di una madre; confortati da volti familiari e da scambi basati sugli sguardi, sulla voce, sulla lingua materna che diviene veicolo espressivo della persona che cresce.</p><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhCoWcX-tPNU9seVxeawcwBopAagRVepO1vNrhFiQb9oQA6Wo9ePUI1Iw18qOWpE3kpiVfe35FiMGjSHtV7c0kkAdgJ92LAlzgMwU6T-gAFDAkBfbKB_1WmVJ9z_2yCSlk22xoKdKnbSF6ivDnQzHwZA-RrU-Veh7Dq9LqdXXzLJORyP2M3MU-YkmWs/s1515/---_0733.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="1013" data-original-width="1515" height="253" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhCoWcX-tPNU9seVxeawcwBopAagRVepO1vNrhFiQb9oQA6Wo9ePUI1Iw18qOWpE3kpiVfe35FiMGjSHtV7c0kkAdgJ92LAlzgMwU6T-gAFDAkBfbKB_1WmVJ9z_2yCSlk22xoKdKnbSF6ivDnQzHwZA-RrU-Veh7Dq9LqdXXzLJORyP2M3MU-YkmWs/w378-h253/---_0733.jpg" width="378" /></a></div><p>Di tutto questo i nativi digitali sono stati invece privati, in una misura che sembra crescente generazione dopo generazione, di questa educazione, della socializzazione primaria. Perché hanno avuto in mano fin dalla prima infanzia macchine digitali che notificano comportamenti attesi e rilasciano feedback. Macchine sempre più autonome, impermeabili ai progetti e ai desideri della persona. Sostituti delle figure parentali e della famiglia. Macchine che preparano fin dall'infanzia ad una percezione di sé stessi e ad una vita di relazioni mediata da macchine.</p><p>Il disagio degli adulti di fronte a questo impoverimento della propria identità e della propria inclinazione alla vita sociale non è retrogrado rimpianto del tempo che fu. Il disagio è invece il sano frutto del ricordo, scolpito nella memoria personale, di cosa siano l'educazione e la vita di relazioni. E il disagio, allo stesso tempo, è il frutto della consapevolezza di una intromissione, di una pericolosa presenza estranea: un qualche aggeggio digitale dotato dotato di una propria autonomia, portatore di un progetto di cui nulla sappiamo, si interpone in ogni manifestazione dell'essere umano, in ogni relazione tra esseri umani.</p><p>C'è quindi una responsabilità sulle spalle dei genitori: non concedere, per quanto possibile, spazio eccessivo agli strumenti digitali nell'infanzia dei figli. Poi viene il ruolo della scuola. E poi ancora il ruolo della formazione aziendale. Più che la diffusione di un 'digital mindset', una educazione civica digitale.</p>Francesco Varaninihttp://www.blogger.com/profile/16191894598697362552noreply@blogger.com0tag:blogger.com,1999:blog-3387039186665984628.post-57970215204769205322023-11-07T17:15:00.005+01:002024-01-23T17:17:26.811+01:00Dieci impegni per la sostenibilità digitale<p><em>Questa proposta appare come conclusione dell'articolo </em><a href="https://futuranetwork.eu/interventi-e-interviste/638-4174/la-liberta-di-non-essere-digitali" rel="noopener" target="_blank">La libertà di non essere digitali</a><em><a href="https://futuranetwork.eu/interventi-e-interviste/638-4174/la-liberta-di-non-essere-digitali" rel="noopener" target="_blank">, apparso su </a></em><a href="https://futuranetwork.eu/interventi-e-interviste/638-4174/la-liberta-di-non-essere-digitali" rel="noopener" target="_blank">Futura Network</a><em><a href="https://futuranetwork.eu/interventi-e-interviste/638-4174/la-liberta-di-non-essere-digitali" rel="noopener" target="_blank">, blog di ASviS, 7 novembre 2023</a>. <a href="https://www.francescovaranini.it/2023/11/la-liberta-di-non-essere-digitali-articolo-apparso-su-futura-network-blog-di-asvis-7-novembre-2023/" rel="noopener" target="_blank">Ne parlo qui</a> su questo mio sito. Auspico possa venire rielaborato e diffuso attraverso un processo di riflessione condiviso con le persone e le organizzazioni che operano per dare concretezza ai principi e gli Obiettivi dell’Agenda 2030, a partire da Assoetica e dalla comunità dell’ASviS e da chi altri sia interessato.</em></p><p>Se scegliamo di non affidarci ciecamente alla macchina, se rifiutiamo questa via di fuga, se vogliamo rimboccarci le maniche e affrontare i problemi che mettono in dubbio il nostro futuro, allora il nostro impegno si concretizza innanzitutto nell'evitare che le macchine digitali limitino il nostro sguardo e la nostra capacità di azione.</p><p>Il primo passo verso lo sviluppo sostenibile è quello di costruire uno sviluppo digitale sostenibile. Se il valore dell’aggettivo qualificativo “sostenibile” deve dare una qualità intrinseca al significato di “sviluppo” è necessario valutare come contenere lo spazio e il potere occupato dal mondo digitale nella vita umana. Occorre una riflessione, politica e culturale, estesa e partecipata, che non coinvolga solo gli “esperti” ma i cittadini, le “persone comuni”, anche quelle preoccupate o spaventate dal dominio della vita <em>phygital</em>. Perché gli esperti dovrebbero riconoscere di essere, prima di tutto, dei cittadini. Con l’intenzione di contribuire a queste riflessioni propongo al pubblico di Futura Network e all’ASviS di partecipare a una riflessione condivisa sull’argomento, per contribuire a dare concretezza e mettere in pratica la cultura della sostenibilità, attraverso la proposta di assumere “Dieci impegni per la sostenibilità digitale”*.</p><p><strong>1)</strong> <strong>Impegniamoci ad applicare all'industria elettronica e digitale gli stessi criteri applicati alle altre industrie.</strong></p><p>Non danneggiare l'ambiente attraverso l'eccessivo consumo di energia e l'uso di materie prime non rinnovabili e non compromettere il futuro con politiche miopi legate al breve periodo: sono obiettivi universalmente accettati. Le politiche sono efficaci solo se la loro applicazione è universale. Esentare un settore industriale da politiche orientate alla sostenibilità, o lasciare la scelta e l'attuazione di tali politiche all'autoregolazione di chi guida il settore stesso, significa compromettere il complessivo orientamento alla sostenibilità.</p><p><strong>2) Impegniamoci a tutelare il diritto alla disconnessione: affinché le comunicazioni per via digitale non siano una condizione inevitabile nelle relazioni tra umani.</strong></p><p>Viviamo - si dice - nell'<em>onlife</em>, in un'<em>infosfera</em>, eternamente connessi. Sembra quasi esserci il gusto di trovare nuove parole per nascondere la gravità della situazione. Per molti osservatori si tratta di una condizione ormai irreversibile. Ma le politiche orientate alla sostenibilità cercano proprio questo: l'inversione di trend pericolosi.</p><p>Parlare, stare insieme, convivere senza che per farlo sia necessario usare strumenti digitali, senza che ogni nostra parola ed ogni nostro gesto e parola sia mediato, osservato e registrato: si tratta di diritti che dobbiamo considerare inalienabili.</p><p>Dobbiamo garantire a noi stessi ed ai nostri posteri il diritto alla disconnessione.</p><p><strong>3) Impegniamoci ad evitare che siano imposti a noi umani mondi già costruiti.</strong></p><p>Apparteniamo alla natura, ma contribuiamo a costruirla con il nostro agire quotidiano. Il mondo fisico è co-costruito dagli esseri umani che vi vivono. I mondi digitali sono invece offerti, o imposti, come già totalmente costruiti. Nei mondi digitali il cittadino è ridotto ad essere un utente, senza la possibilità e gli strumenti per progettarli e gestirli. Ogni essere umano deve poter modificare - e quindi poter curare, proteggere, “fare proprio” - l'ambiente nel quale si trova a vivere, e del quale fa parte, anche quello digitale. Dobbiamo immaginare uno sviluppo digitale dove la stessa azione responsabile di ogni cittadino sia possibile.</p><p><strong>4) Impegniamoci a lasciare aperta la possibilità di scegliere quali servizi digitali usare e quali non usare.</strong></p><p>Gli spazi di libertà nel mondo digitale sono via via sempre più ridotti alla scelta tra servizi preconfezionati. Ma tali servizi non sono solo offerti: sono sottilmente imposti, per via di consigli capziosi, notifiche sottilmente invitanti, ma anche tramite contratti opachi e norme di legge che guardano più all'interesse del fornitore che all'interesse del cittadino. Un insieme di strategie di marketing che nascono bel prima dell'avvento degli strumenti digitali ma sono esponenzialmente potenziate dagli strumenti digitali stesso. Occorre lasciare alle persone la libertà di formulare di volta in volta scelte consapevoli.</p><p><strong>5) Impegniamoci a garantire che tramite macchine non siano compressi gli spazi di libertà e non sia imposto agli umani l'obbligo di compiere azioni predeterminate.</strong></p><p>La libertà è spazio per sperimentare, tentare, creare, apprendere. Il contesto digitale offre alla politica strumenti di governo che riducono la portata dei diritti civili. Tramite mezzi digitali, magari con la giustificazione di una superiore conoscenza di ciò è “bene” per ogni singolo cittadino, si impongono gravi limitazioni al libero arbitrio. Conseguente al punto precedente, che riguarda in particolare i comportamenti d'acquisto, questo impegno si allarga alla vasta scena della democrazia liberale e dei meccanismi del controllo sociale.</p><p>Se alla fiducia nelle scelte individuali si sostituisce il paternalismo, viene meno la partecipazione civica necessaria ad ogni progetto orientato ad obiettivi di sostenibilità. Dobbiamo cercare uno sviluppo digitale rivolto alla difesa e all'ampliamento degli spazi di libertà di ogni cittadino.</p><p><strong>6) Impegniamoci a non guardare e a non giudicare l'essere umano attraverso il suo "gemello digitale".</strong></p><p>La natura vista allo specchio non è la natura. La mappa non è il territorio. I dati non sono mai tutti i dati, e non sono mai abbastanza per poter restituire una visione completa. Eppure si è affermata l'idea che ogni oggetto e accadimento del mondo, ogni aspetto della natura e quindi ogni essere umano possano essere conosciuti e compresi attraverso la sua immagine digitale.</p><p>Tramite gli strumenti che abbiamo costantemente in mano e addosso, tramite i sensori e i sistemi di rilevazione di vario tipo diffusi in ogni ambiente, si raccolgono dati su ogni essere umano. E’ opinione diffusa che noi siamo quello che appariamo attraverso questi dati, noi siamo i nostri ‘gemelli digitali’. Siamo arrivati a ritenere giusto adeguarsi alla rappresentazione di noi determinata dai dati. Sappiamo che la natura (e l’essere umano) è qualcosa di più, di differente, da ciò che i dati più completi e precisi possano attestare. Le persone però non hanno nessun controllo sul modo in cui viene costruito questo ‘gemello digitale’. L'antichissimo monito rivolto all'essere umano: 'conosci te stesso' viene così messo in discussione. Dobbiamo immaginare strumenti che mettano nelle mani delle persone la costruzione della propria immagine digitale.</p><p><strong>7) Impegniamoci a non separare la mente dal corpo e a rispettare l'integrità de corpo umano.</strong></p><p>L'intero progetto digitale è frutto di un approccio cartesiano che considera una sola parte del complessivo essere umano: le sue capacità intellettive. Il corpo è considerato una mera estensione. La <em>computer science</em> si concentra - tentando di imitarne il funzionamento – soprattutto su sola parte del corpo umano: il cervello. In virtù del parallelismo tra umani e macchine proposto da Turing, però, si finisce per confrontare le Intelligenze Artificiali con l’essere umano per intero, del quale si propongono banali sostituzioni con avatar o immagini tridimensionali.</p><p>Ricordiamo che l'essere umano non si riduce alla sua mente. La mente è incarnata, inconcepibile senza corpo. Le capacità intellettive sono frutto di lavoro ed esperienza che coinvolgono il corpo nella sua interezza. Protesi e tecnologie biomediche che sostituiscono organi malati sono benvenute ma dobbiamo fare attenzione al loro uso in nome del “potenziamento”, valutare la sostenibilità delle soglie che si aprono ai confini della contaminazione tra corpo e dispositivi. Abbiamo il diritto di non veder reso inutile il nostro corpo da protesi e strumenti digitali.</p><p><strong>8) Impegniamoci a mantenere vivo il diritto al lavoro. </strong></p><p>Riflettiamo sulle definizioni riduttive del concetto di <em>lavoro</em>. Il lavoro non è solo fatica e pena dalle quali conviene liberarsi. Non esiste confine tra “lavoro manuale” e “lavoro intellettuale”. Il lavoro non è solo fonte di remunerazione; ha piena dignità di lavoro anche una attività svolta gratuitamente. Il lavoro è costruzione di sé stessi e del mondo.</p><p>Di fronte alla promessa, o alla minaccia, di una sostituzione per via digitale di ogni tipo di lavoro svolto dagli esseri umani, è necessario non parlare genericamente di “lavoro”. Serve tornare a parlare e considerare esplicitamente il “lavoro umano”, nella sua pienezza: gli aspetti materiali e immateriali sono inscindibili, così come è inscindibile il pensare dall'agire. Dobbiamo evitare che intelligenze artificiali, automazione e robotica tolgano senso e spazio al “lavoro umano”.</p><p><strong>9) Impegniamoci a garantire che la presenza di macchine di qualsiasi tipo non costringa gli umani a svalutare sé stessi, all'impoverimento e alla dipendenza.</strong></p><p>Costrutti digitali autonomi acquistano sempre nuovo spazio come sostituti dell'essere umano non solo nel lavoro materiale, ma anche nelle più sofisticate attività dove sono in gioco esperienza, capacità di giudizio, rapidità di decisione.</p><p>La scelta di chi - un umano o una macchina - debba essere, in situazione critica o in caso di emergenza, il decisore in ultima istanza, non è solo una scelta tecnica: è una scelta culturale ed etica.</p><p>Le macchine disporranno, secondo alcuni, non solo di una crescente razionalità, ma anche della capacità di formulare giudizi morali. Dentro ogni algoritmo, dietro l'agire di ogni intelligenza artificiale, si cela l’impostazione di chi le ha progettate e chi le gestisce: grandi imprese dominate da una visione e da interessi - finanziari, politici, sociali, culturali - spesso in contrasto con la ricerca di uno sviluppo realmente sostenibile.</p><p>Privato della possibilità di sperimentare sé stesso nella situazione estrema, su terreni sconosciuti, di fronte al nuovo e all'ignoto, l'essere umano impigrisce, perde fiducia in sé stesso, compromette la propria crescita. Forse non è esagerato dire che la sostituzione dell'essere umano con le macchine mette in discussione lo stesso futuro evolutivo della specie umana.</p><p>Nel breve termine, l’umanità rischia di perdere anche la capacità di fare le necessarie scelte orientate ad uno sviluppo sostenibile. Saremo così di fronte ad una profezia che si autoavvera: le politiche e le azioni orientate ad uno sviluppo sostenibile saranno affidate alle macchine. Dobbiamo garantire a noi stessi e alle generazioni umane future la possibilità di conoscere, di apprendere, di migliorare.</p><p><strong>10) Impegniamoci a garantire a noi stessi e alle future generazioni la possibilità di vivere senza strumenti digitali. La libertà di non essere digitali.</strong></p><p>Quest'ultimo impegno sintetizza i precedenti ed offre lo spunto per una riflessione conclusiva.</p><p>Vivere senza dover necessariamente ricorrere, in un modo o in un altro, a strumenti digitali appare già oggi impossibile. Difficile immaginare che questo sia possibile domani. I dati ci mostrano quanto sia difficile, realisticamente inimmaginabile, poter raggiungere i 17 Obiettivi dello Sviluppo Sostenibile proposti dall’Agenda 2030 Onu ma non per questo stiamo rinunciando agli Obiettivi o riducendo gli sforzi. Anzi.</p><p>Abbiamo motivi per temere un futuro fosco ma sappiamo che questa minaccia non viene solo da lontano, da fuori: la minaccia viene anche da noi stessi, dai nostri personali comportamenti insensati, privi di saggezza. Da questo nasce la responsabilità di cui ogni essere umano è chiamato a farsi carico. Abbiamo una di fuga: attribuire il peso della responsabilità a macchine sempre più autonome da noi. Sta a noi scegliere. Se scegliamo la via della responsabilità è necessario preoccuparci della direzione verso cui sta andando l'industria digitale e interrogarci su come le nostre vite siano condizionate dagli strumenti digitali.</p>Francesco Varaninihttp://www.blogger.com/profile/16191894598697362552noreply@blogger.com0tag:blogger.com,1999:blog-3387039186665984628.post-47399570348086779832023-10-23T10:41:00.002+02:002023-10-23T10:41:17.764+02:00Lettera a Eliezer Yudkowsky<p> Eliezer,</p><p style="margin-bottom: 0cm;">è l'alba, mi sono alzato, mi sono messo un maglione, sono andato nel mio studio, ho aperto la finestra, ho spostato lo schermo per vedere dietro il mare e il cielo, sento i gabbiano gracchiare, ne vedo salire un in alto. Passa nel golfo il primo traghetto.</p><p style="margin-bottom: 0cm;">E' tempo di scriverti. Sono mesi che mi propongo di farlo, senza riuscire a trovare il filo, la chiave. Ho accartocciato e buttato nel cestino decine di lettere. Virtualmente, certo, sono quarant'anni che scrivo con il computer -questo Eliezer vuol dire che potrei darti i file di quello che ho scritto. Credo tu sia d'accordo con me nel dire che contano i sessanta e più anni di storia di quel campo di ricerca cui fu attribuito il nome 'intelligenza artificiale'; ma conta ancor più la personale esperienza con questa macchina detta 'computer', strumento nelle nostre mani, ma anche simbolo costantemente presente di una entità aliena che forse si emancipa, che si allontana da noi. Nessun altro mi ha parlato in modo così sottile di questa sensazione. Solo tu. Possiamo chiamarla sensazione o è meglio dire consapevolezza?</p><p style="margin-bottom: 0cm;">Così ho passato questa estate a leggere tuoi testi. Saggi su temi di epistemologia, libri che immagino per ragazzi, lunghi e articolati post su <i>LessWrong</i>. Colgo il tentativo di sintesi nelle tue interviste, i tuoi ultimi video. Ho in mente ora in particolare il tuo colloquio con Lex Fridman e il tuo articolo su <i>Times</i>. La minaccia che senti incombere impone di non andare troppo per il sottile: le Superintelligenze mettono a repentaglio la specie umana. Shut Down. Chiudiamo tutto, interrompiamo la ricerca, smantelliamo le server farm, mettiamo sotto controllo la vendita di ogni singola scheda grafica. Per carità, facciamolo, siamo lontani da una sufficiente comprensione di ciò a cui abbiamo incontro. E poi l'ultima risorsa argomentativa: la citazione della email della tua compagna che parla del dentino caduto della tua figlia. Che futuro avranno questi bambini? Queste macchine lavoreranno al posto loro, condizioneranno la loro vita. Sta andando tutto troppo veloce. Fermiamoci. Facciamolo per loro.</p><p style="margin-bottom: 0cm;">E' facile accantonare la tua posizione dandoti del millenarista, del vano profeta annunciatore di catastrofi. Per questo nei mesi scorsi mi sono messo a rileggere quello che hai scritto. Per immergersi in quella materia che sapevo che c'era. E che prima avevo solo assaggiato. Avvicinato a spizzichi. Mi ci sono immerso ora per cogliere le origini, la storia, il senso di quel pensiero che sfocia adesso nel tuo annuncio della disperata urgenza. Scritti di grande ampiezza e profondità. Un corpus omogeneo e variato, serrato e aperto. Nutrito di discipline diverse, logica, matematica, statistica, ingegneria, biologia: lista provvisoria, che subito tradisce l'insignificanza dei confini disciplinari. Visione senza confini, alimentata dalla tua benedetta distanza da ogni ogni formazione scolastica, accademica, settoriale. Profondità è ampiezza, ti dicevo, un sistema così ben tessuto. Non ti seguo su tutti i fronti, ovviamente, ma colgo, credo, l'armonia, la struttura. Il genio non può che essere autodidatta. Il pensiero va oltre i confini, è trascinato oltre i confini provvisoriamente raggiunti dal suo stesso sviluppo.</p><p style="margin-bottom: 0cm;">Seguo il tuo modo di intendere la teoria bayesiana. Inseguo la tua epistemologia. Mi appoggio però inevitabilmente alle mie letture, alla mia formazione. Non mi faccio bello citando le contiguità che posso immaginare per te immagino abbiano più senso. Cito invece, a costo di gettare la palla lontano dal tuo cesto, forse magari quasi di offenderti, testi ed autori che hanno senso per me. Opere intrinsecamente legate all'autobiografia, generate dal dolore e da una profonda solitudine. La solitudine di chi si sente il solo a vedere. L'Esegesi di Philip Dick. La scrittura lenta e metodica di Juan Emar, scrittura che, da un certo giorno in poi, accompagna ogni giorno della vita. Il tornare e il ritornare di Lezama Lima tramite ondate barocche su ogni dettaglio, ogni anfratto della propria vita, il sogno sempre presente del proprio personale Paradiso, forse non perduto – convocando nel discorso ogni brandello del sapere universale, cornucopia che sparge immagini. Sei anche questo Eliezer, un grande scrittore.</p><p style="margin-bottom: 0cm;">Del testo tu stesso hai scritto da qualche parte -riesco a scriverti ora perché finalmente ho una visione sintetica dei tuoi testi- che bisogna saper narrare. Non solo calcolare. Anche per questo mi permetto di citarti narratori.</p><p style="margin-bottom: 0cm;">Ma più leggo, più il tuo pensiero si apre ai miei occhi, nella sua solida consistenza scientifica e filosofica, nella sua coerenza interna, nel suo rispondere anticipatamente a critiche che potrebbero minarlo.</p><p style="margin-bottom: 0cm;">Così, Eliezer, ho maturato l'intenzione di scriverti. Volevo scriverti per confortarti dicendoti che ti sbagli. In più parti delle mie bozze di lettere non spedite avevo scritto: Eliezer, hai torto marcio; dici che soccomberemo, ma non accadrà. Mi sembrava che la tua definizione di Superintelligenza riprendesse alla lettera la definizione di Turing. Macchine in grado di competere con gli esseri umani in “all purely intellectual fields, dice lui”. “A Superintelligence is something that can beat any human, and the entire human civilization, at all the cognitive tasks”. Non solo in grado di competere, ma battere. Però sempre solo nei <i>cognitive tasks</i>. Mi chiedevo: non è forse riduttiva la tua definizione? Non stai descrivendo invece un attacco che tocca ogni aspetto della vita umana? Avevo scritto anche: hai ragione a metterci in guardia, ma la tua idea di una minaccia così forte, così grave, così imminente, è infondata. La Superintelligenza non ci distruggerà. Non saremo tutti morti. Tua figlia avrà un mondo in cui crescere. Mi sembrava infatti possibile fondare la mia speranza osservando che tu restavi chiuso nella scatola ricorsiva della computazione, senza saper vedere la complessità dei sistemi viventi, la cui descrizione non può che essere subottimale e incompleta. Quindi, accettata la complessità, aperta all'evento, all'imprevisto, all'emergente: come predire la probabile con la sicurezza che mostri?</p><p style="margin-bottom: 0cm;">Ma più procedevo nel mio tentativo di cercare contraddizioni e lacune nella tua posizione, e più mi accanivo a vedere luci di futuro lì dove tu vedi segni di catastrofe, più mi accorgevo della modestia e della vanità del mio tentativo. Modestia, perché sono in grado di seguirti solo parzialmente. Vanità, perché più penso al tuo pensiero, più credo che dobbiamo accoglierlo come dono, come cattedrale in un deserto. C'è così poco di interessante da leggere, così pochi testi veramente stimolanti, visionari. Le tue scritture svettano tra testi aridi, incapaci di cogliere le sfaccettature degli stessi argomenti trattati, viziati da arroganza speculativa, da interessi di parte. Nei tuoi testi si respira invece un'aria rarissima di libertà di pensiero. Se vogliamo vederla, anche di spietatezza, di costante critica nei confronti di te stesso che pensi.</p><p style="margin-bottom: 0cm;">Perché quindi tentare di smontare l'architettura così ben costruita. Prendiamola com'è. Ammiriamo l'edificio, la sua bellezza. Cogliamo il monito, l'insegnamento.</p><p style="margin-bottom: 0cm;">Accetto quello che mi dici, Eliezer. Rischiamo un'apocalissi. Una minaccia pantoclastica incombe su di noi. Se anche la tua posizione potrebbe essere classificata, in base a certi criteri, come millenarista e catastrofista, questa classificazione non le toglie valore. Abbiamo bisogno di profeti che sposino l'annuncio e la denuncia. L'annuncio della Superintelligenza che verrà. La denuncia dei rischi enormi, mai vissuti dalla specie umana prima, che questo avvento comporta.</p><p style="margin-bottom: 0cm;">Io non credo come te all'avvento di Superintelligenze. Ma forse non ci credo perché non so, non capisco abbastanza. Di altri non mi fido. Di te, per la tua onestà personale, per l'atteggiamento etico che ti riconosco, per la struttura ammirevole dei tuoi testi, mi fido. Ti ascolto.</p><p style="margin-bottom: 0cm;">Se quindi ora pongo a me stesso, e a te, qualche domanda, è solo perché voglio capire.</p><p style="margin-bottom: 0cm;">Per farla semplice, parto da una tua narrazione orale. Dal tuo colloquio con Fridman. Ti racconto di una sensazione: una discontinuità nel tuo discorso mi è balzata agli occhi in un punto preciso. Mi è parsa immotivata. Non so cosa non ho capito.</p><p style="margin-bottom: 0cm;">Giustamente citi un certo punto nella conversazione dici: io sono la persona che ha letto da ragazzo <i>Great Mambo Chicken & The Transhuman Condition</i> come tuo libro di fondazione: l'adolescente si nutre del sogno di una scienza potente, capace di forzare i confini, i limiti stessi di ciò che chiamiamo vita. Ma perché ora, quando ti sei dato il compito compito arduo, e in un modo o nell'altro giusto- di convincere i tuoi simili, esseri umani, a non subire passivamente il fato, a intervenire politicamente, attivamente, in prima persona, contro una minaccia epocale, perché citi come libro che tutti dovrebbero leggere, o rileggere <i>Adaption and Natural Selection</i> di George Williams, quel libro del 1966 dove si afferma che l'evoluzione delle specie naturali si svolge a livello di geni. Solo di geni. Geni egoisti di cui l'essere umano è solo ospitante. Sto semplificando, certo, ma mi pare una lettura riduttiva della teoria dell'evoluzione, una teoria che finisce per essere esclusivamente matematica, formalizzata. Faccio fatica, sinceramente, a tenere insieme questo approccio con il tuo atteggiamento personale pienamente umano, consapevole, compassionevole.</p><p style="margin-bottom: 0cm;">Conosci bene, certo meglio di me, questa storia. 1964: Hamilton, <i>The Genetical Evolution of Social Behaviour</i>; Williams, 1966; Robert Trivers, 1971; Maynard Smith e Price, 1973.</p><p style="margin-bottom: 0cm;"><i>Fitness</i>, tradurrei in italiano idoneità: efficienza riproduttiva di un genotipo rispetto agli altri. Il conflitto tra animali diviene oggetto di speculazioni esclusivamente logiche. Scusami ancora per l'esposizione rozza, forse forzata: vince il più idoneo, il più adatto in partenza. L'EES, strategia evolutivamente stabile, desunta da una formalizzazione del conflitto tra falchi e colombe. L'evoluzione ridotta a teoria dei giochi. A ordine di beccata tra polli. Fino alla <i>Sociobiology</i> di Wilson, 1975. La nuova sintesi: ogni specie cerca di riprodursi. Il successo sta nei geni presenti nella generazione successiva. Ogni comportamento sociale è funzionale a questo scopo. L'altruismo, la cura dei giovani, si spiegano con questa pressione biologica. D'accordo, ma tu e la tua compagna siete mossi solo da un automatismo, da una deriva deterministica, quando siete ansiosamente preoccupati per il futuro di vostra figlia? Non so. Non credo.</p><p style="margin-bottom: 0cm;">Forse, Eliezer, questi modelli sono i più <i>fitted</i>, idonei a spiegare e descrivere l'avvento della Superintelligenza, che si eleva dal calcolo, dalla mera computazione. Ma bastano questi modelli per descrivere la complessa vita della natura, dei sistemi viventi? Contano solo i geni, o esiste la possibilità di osservare l'evoluzione a livello di organismi viventi?</p><p style="margin-bottom: 0cm;">Non sto a ricordarti ipotesi neodarwinistiche che conosci meglio di me. Lasciami dire ancora in modo rozzo: certo il genotipo determina il fenotipo. La filogenesi determina l'ontogenesi. Ma la funzione dell'organo non è scritta una volta per tutte nel codice. L'organismo vivente genera risposte necessarie per sopravvivere nell'ambiente. Le piume primordiali garantivano protezione al corpo, e cambiano funzione, divenendo strumenti per il volo. La selezione convive con la mutazione. Non c'è forse eccessiva fede nel potere della selezione naturale come agente ottimizzante? Non converrebbe invece osservare il manifestarsi di storie adattative diverse?</p><p style="margin-bottom: 0cm;">Non si riduce così il ruolo giocato in questo contesto dalla nostra specie? Facciamo parte della natura, ma abbiamo imparato a manipolare la natura, stiamo apprendendo a ri-scrivere il codice della vita. Quindi abbiamo la responsabilità di essere custodi della natura, di cui facciamo parte. Responsabili della cura di noi stessi, della nostra specie, della vita.</p><p style="margin-bottom: 0cm;">Mi provoca una grande malinconia ascoltare amici che parlano di sé stessi come 'intelligenze a base carbonio' che si preparano a convivere con 'intelligenze a base silicio'. Quale aridità! Come se ci si vergognasse di essere umani. Come se si preferisse ignorarlo. Come se, privi di autocoscienza e di fiducia in sé stessi, si preferisse immaginare sé stessi come macchine. Come se si aspettasse la salvezza nell'avvento di una qualche forma di 'intelligenza artificiale'.</p><p style="margin-bottom: 0cm;">Questa credo proprio fosse la speranza di Turing. <i>I hope</i>. Spero che le macchine pensino. Pensino meglio e al posto degli umani. Deluso dagli umani, incapaci di elevarsi oltre il proprio dolore, Turing proiettava la propria salvezza, la visione della propria salute, nel trionfo della macchina. Forse anche tu, Eliezer, quando eri ragazzo, adolescente, la pensavi in questo modo. Preferivi vedere te stesso come macchina. Giustificavi le tue incapacità con limiti della macchina. Turing non ha saputo uscire da questo circolo vizioso. Mentre nel 1950 stava scrivendo l'articolo sulle macchine che pensano, stava scrivendo anche un altro articolo, che aveva per tema la metamorfosi. Non credo fosse un caso. Ma non ce l'ha fatta. Si è tolto la vita. Tu invece Eliezer, guarda che uomo sei diventato. Solo tu sai a costo di quali sofferenze. Ma ce l'hai fatta. Non ti sei fermato a recriminare sui difetti del tuo codice. Non ti sei certo rassegnato ad una storia scritta nei tuoi geni.</p><p style="margin-bottom: 0cm;">Eccoti qui ad ammonirci e a preoccuparti e a prenderti cura. Benvenuta la tua voce a dire: state attenti, la crescente autonomia di cosiddette intelligenze artificiali non è un gioco così facile né così indolore. Guardate ai rischi immani. Leggo in tutte le tue pagine un invito: assumetevi responsabilità, io cerco di assumermi le mie. Ogni cosa che capisco è fonte di responsabilità.</p><p style="margin-bottom: 0cm;">Hamilton, Williams, Trivers, Maynard Smith e Price, Wilson sono stati credo giustamente criticati non solo per intrinseche debolezze delle loro teorie, ma anche per aver offerto una via di fuga psicologica, sociale e politica: la storia e la cultura sono frutto di pressione genetica. I comportamenti sono tempi remotissimi già scritti nel codice genetico della specie. L'essere umano è impotente. La passività e la dipendenza sono giustificate a priori. Non è certo il tuo caso. La tua cara presenza ci accompagna nel tenere gli occhi aperti. Credi ancora, credi sempre in noi esseri umani.</p><p style="margin-bottom: 0cm;">E' questo che mi desta un po' di meraviglia. O forse non capisco. Mi sembra quasi che tutto quello che leggo nelle tue fittissime, geniali pagine, sia in qualche modo superato dal tuo sguardo un po' triste, partecipe, dalla tua attenzione rivolta ai rischi presenti. Come se tutto quello che hai scritto fosse la narrazione di un passaggio, di una transizione, di una emancipazione. Usi codici logico-formali, matematici, computazionali, statistici. Ma mi pare che tu sia andato oltre. Sul terreno di un rischio e di una speranza dove le parole sono superate, i codici che adotti sono inadeguati. In effetti usi i codici e gli argomenti di coloro ai quali ti opponi. Ti opponi ad irresponsabili cultori del progresso - mossi in realtà da interessi personali di denaro, di carriera. Ti opponi ad accelerazionisti che dicono: se l'intelligenza artificiale deve arrivare, facciamola arrivare subito, affidiamoci a lei.</p><p style="margin-bottom: 0cm;">Eliezer, mi sembra alla fine che tu usi apparentemente li stessi codici, gli stessi argomenti di coloro ai quali ti opponi, ma che tu usi in realtà atri codici, umanissimi: codici affettivi, codici narrativi. Certo anche i codici affettivi e narrativi si appoggiano su basi biologiche e matematiche, ma che non parlano ad un agente, ad un ente metafisico: parlano agli esseri umani.</p><p style="margin-bottom: 0cm;">Eliezer, anch'io cerco di fare la mia piccola parte ammonendo, rischiarando per quello che sono capace la scena digitale, al di là dei miti, delle illusioni e degli inganni.</p><p style="margin-bottom: 0cm;">Sento qui il tuo accompagnamento. La tua calorosa vicinanza. Non mi importa tanto sapere se applichi a casi immediati la teoria bayesiana. Non mi importano più di tanto riferimenti e quadri concettuali ai quali ti attieni.</p><p style="margin-bottom: 0cm;">Il fatto è che ti sento vicino quando devo rispondere ad amici che mi dicono: noi umani siamo una specie come tante, siamo nient'altro che organismi viventi. Apparteniamo alla natura come altri animali, come piante, come sassi. E oltretutto siamo meno saggi di altri enti naturali. E' vero. Ma abbiamo sviluppato una potenza che nessun altro ente naturale ha. Ci tocca fare i conti con questa potenza. Decidere quando e come esercitarla, decidere quando fermarci. Se anche aspetti disfunzionali dei sistemi viventi non sono stati causati dall'agire umano, solo l'essere umano dispone degli strumenti e della forza per intervenire, correggere, riassestare, o almeno mitigare.</p><p style="margin-bottom: 0cm;">Ancora più vicino ti sento quando mi trovo a rispondere agli amici che dicono: il nostro futuro sta nel convivere con intelligenze artificiali. Nessuno più di te ha studiato l'argomento.</p><p style="margin-bottom: 0cm;">Così, seguendoti, mi guardo bene dall'escludere la possibilità che questo accada. Può darsi che ci troveremo a convivere con intelligenze autonome, del tutto indipendenti da noi - e anche, come tu supponi enormemente potenti, tanto diverse da rendere difficilissimo il colloquio. In questo scenario quali possibilità abbiamo? Mi pare tu sia d'accordo con me nel considerare che le risposte possibili non stanno nell'imitare la macchina, stanno invece nell'orgoglio della propria storia e della propria specie. Nell'essere umani che non si affidano e non si arrendono.</p><p style="margin-bottom: 0cm;">Esseri umani che scelgono le parole, anche. Giustamente dici che ormai conviene uno usare più la parola <i>singolarità</i>, abusata o mal usata. Altrettanto si può dire delle parole <i>rischio esistenziale</i>. Lasciamo la parola <i>singolarità</i> a Kurzweil. Lasciamo il <i>rischio esistenziale</i> a Bostrom, Tekmark e Elon Musk. Per quanto mi riguarda, prendo con le molle anche il concetto di <i>cognizione</i>. Troppo ambiguo. Credo tu sia d'accordo con me nel considerare mente e corpo inscindibili. Psicosoma. <i>Ebodiments</i>. <i>Embodied mind</i>. Ma lo ripeto: Eliezer, quali che siano le parole che usi, la tua compassione umana ti porta oltre.</p><p style="margin-bottom: 0cm;">E ancora, ti sento vicino nel rispondere agli amici che dicono: la scena digitale è una utile provocazione, ci spinge a migliorarci. Non credo questa posizione sia onesta fino in fondo. In realtà vuole salvare capra e cavoli. Si accetta che una tecnologia dis-umana -una tecnologia contraria all'etica, a ciò che appare a noi umani saggio- definisca la scena, e poi si dice: è comunque un'utile provocazione per noi! Ci stimola a crescere, a cambiare! No amici: come ci dice Eliezer, la scelta saggia -ed efficace dal punto di vista della costruzione del futuro- sta talvolta nel dire no. Nel non seguire l'onda, nel fermarsi.</p><p style="margin-bottom: 0cm;">Insomma Eliezer, ho imparato tanto da te, dalla tua storia di persona che ha saputo cercare sé stesso, e che ora è ansiosamente preoccupato. Siamo diversi per lingua, cultura, per età, per formazione. Ma ti sento vicino. Vorrei dari un piccolo dono, fatto di parole che risuonano mentre ti sto scrivendo.</p><p style="margin-bottom: 0cm;">José Lezama Lima, poeta cubano a me caro, diceva: “Solo lo difícil es estimulante”. Certo è difficile, e per questo stimolante, il compito di cui ti sei fatto carico. Mettere in guardi di fronte al possibile avvento di Superintelligenze. Mettere in guardia, innanzitutto, dall'affidarsi ad esse, subordinando il nostro essere umani a quel fallace rispecchiamento dell'umano che la macchina ci restituisce.</p><p style="margin-bottom: 0cm;">Lezama ha scritto una poesia che inizia con questi versi: “Ah, que tú escapes en el instante/</p><p style="margin-bottom: 0cm;">en el que ya habías alcanzado tu definición mejor”. Mi auguro che tu scappi oltre, altrove, nell'istante in cui ti sembra di aver trovato il miglior schema che ci definisce. Potremmo dire che questo è la computazione: la pretesa di dare di noi stessi, degli altri, della natura, della vita, la definizione migliore. Scappa via, fuggi, dagli schemi già dati. Mi sembra, Eliezer, tu lo faccia sempre.</p><p style="margin-bottom: 0cm;">Trovo consonanti questi versi, scritti nel Ventesimo Secolo, con i versi che scriveva Goethe verso il termine del Diciottesimo Secolo, mentre leggeva Spinoza, e cercava una scienza, lui poeta-scienziato, attenta più che alla quantità, alla qualità, al complesso, all'emergente. Sembrano una novità oggi transumanesimo, e appaiono accattivanti titolo di libri che parlano di <i>Homo Deus</i>. Ma già allora Goethe intitolava la poesia <i>Il Divino</i>. E stava parlando di noi esseri umani, come siamo, come potremmo essere. “Secondo eterne, grandi,/ inflessibili leggi/ tutti dobbiamo/ compiere il cerchio/ della nostra esistenza”. “Eppure, l'uomo soltanto/ può l'impossibile:/ egli distingue,/ giudica e sceglie”. Ecco: la nostra natura e la nostra cultura ci invitano ad assumerci la responsabilità di decidere. Cedere le redini alla macchina è il contrario. “Egli soltanto può</p><p style="margin-bottom: 0cm;">premiare il giusto,/ punire il malvagio;/ salvare e guarire”. Tu Eliezer non stai arrogandoti il ruolo di chi premia e punisce. Ma stai accollandoti il compito di fare quello che puoi per salvare noi umani dalla dipendenza da Superintelligenze. Permettimi di dire che la Superintelligenza è una minaccia reale, ti credo. Ma ancor prima è una metafora della sudditanza scelta come fuga dalla responsabilità. Guarire: la tua storia personale, mi permetto di dire, è la storia di una cura, di una guarigione. Dalla cura di sé stessi nasce la cura per gli altri e per il mondo.</p><p style="margin-bottom: 0cm;">Wilson, con la sua sociobiologia, ha detto qualcosa di nuovo? Non credo. Noi umani replichiamo comportamenti ancestrali, certo. Siamo predeterminati geneticamente. Ma sappiamo anche rinnovarci e cambiare. La tecnica è il frutto della nostra capacità di rinnovarci e cambiare. Ma sappiamo anche cambiare noi stessi: tu Eliezer ne sei la prova. La tua etica non credo si spieghi solo con la genetica.</p><p style="margin-bottom: 0cm;">Tu Eliezer hai definito la Superintelligenza come qualcosa che sconfigge ogni umano e l'intera umana civiltà nei <i>cognitive tasks</i>. Importano poco le definizioni, il lessico dettato da più o meno nuove discipline. Ma andiamo al sodo. Penso di poterti dire che quando parli di <i>cognitive task </i>non fai che ripetere una vecchia lezione. Credo tu sia d'accordo con me nel pensare che a noi umani -non enti astratti, non agenti, ma esseri umani come ci sentiamo di essere tu ed io- compete</p><p style="margin-bottom: 0cm;">distinguere, giudicare, scegliere, premiare il giusto e punire il malvagio. Vogliamo lasciare questo compito a una macchina?</p><p style="margin-bottom: 0cm;">Vogliamo forse ancora -seguendo Turing, e tutto un filone di scienze cognitive, di neuroscienze- considera la mente umana un mero sistema di elaborazione di informazioni? Per quanto mi riguarda, non voglio questo. La tua storia di vita, il tuo sguardo e le tue parole compassionevoli mi dicono che neanche tu, Eliezer, lo vuoi.</p><p style="margin-bottom: 0cm;">Vogliamo lasciare alle macchine spazio per una loro possibile storia evolutiva? Le più nuove macchine digitali sono sistemi predisposti, allenati a cercare correlazioni in sempre più grandi insiemi di dati. Potremmo dire: bene, accompagniamole nel loro sviluppo e lasciamo seguano la loro strada. Ora tu dici: no. Troppo pericoloso. Ti seguo in questo invito a fermarsi, a fermare lo sviluppo di queste macchine.Hai sperato di poterti fidare di una macchina, hai sperato di affidarti a lei, ma ora dici <i>Shut Down</i>. Ti seguo.</p><p style="margin-bottom: 0cm;">Ma ancora più importante, a questo punto, mi pare tornare ad affermare la differenza. Noi umani non ci accontentiamo di correlazioni. Cerchiamo cause. Tu Eliezer parli di correlazioni, di statistica, usi ancora il linguaggio della computazione, va bene, ogni linguaggio è buono. Ma sei andato oltre. Grazie di questo.</p><p style="margin-bottom: 0cm;">Sei l'esempio brillante e commovente di come noi umani non siamo schiavi di nessuna determinazione evolutiva. Tu ci mostri come siamo in grado di andare oltre la nostra stessa programmazione biologica. Ci mostri come l'empatia, la compassione ci portino oltre il nostro stesso linguaggio, oltre la nostra storia. Ci ribelliamo, ci indigniamo, e davanti ad evidenze non rinunciamo a vedere e denunciamo.</p><p style="margin-bottom: 0cm;">Agiamo con il lume dell'umano intelletto. Guidato, più che da una pura ragione, dalla saggezza, e dalla scintilla della coscienza. Non siamo <i>Moral Machines</i>, siamo esseri umani. Coltiviamo noi stessi. Apprendere dalla macchina o tramite la macchina, apprendere dalla convivenza con la macchina, sono solo alcuni degli infiniti modi per apprendere di cui disponiamo.</p><p style="margin-bottom: 0cm;">Perché poi, seguendo il tuo monito, dobbiamo chiederci: non è forse giunto il momento di pensare anche a come cautelarci, a come difenderci, a proteggere noi stessi dall'invasiva, incombente presenza di macchine digitali?</p><p style="margin-bottom: 0cm;">E' così, Eliezer, vero?</p>Francesco Varaninihttp://www.blogger.com/profile/16191894598697362552noreply@blogger.com0tag:blogger.com,1999:blog-3387039186665984628.post-57608928450962215532023-08-15T11:17:00.004+02:002023-08-28T15:47:05.009+02:00La Chat GPT4 alle prese con il 'mundanal ruido'<p style="margin-bottom: 0cm;"><i>Non mi interessa il gioco di prendere in castagna la Chat. Di fronte a una esigenza immediata ho posto una domanda…</i></p><p style="margin-bottom: 0cm;"><i>Chat GPT dà risposte sbagliate, e così anche Bard e simili chatbot fondate su Deep Learning e LLM. Tutti lo sanno, ma gli ‘esperti’ preferiscono non parlarne, e dire invece che sono sbagliate le domande degli utenti.</i></p><p style="margin-bottom: 0cm;"><i>Non è così. Se capita di porre domande a una di queste chatbot, e si ricevono certe risposte, c’è da preoccuparsi.</i></p><p style="margin-bottom: 0cm;"><i>Le risposte sbagliate discendono dal progetto stesso della Chat GPT, di Bard e di simili chatbot. Non ci si propone di dare risposte fondate su conoscenze solide. Lo scopo è diverso: dare agli utenti risposte ben formulate e convincenti. Non importa se fuorvianti e infondate.</i></p><p style="margin-bottom: 0cm;"><i>Chat GPT e Bard e simili strumenti sono sviluppati in questo modo perché gli stessi progettisti, cresciuti in una stretta cultura computazionale, non sono interessati a cercare conoscenza. Sono interessati a istruire macchine.</i></p><p style="margin-bottom: 0cm;"><i>L'istruzione della macchina non ha lo scopo di renderla strumento utile a supportare l'intelligenza umana. I progettisti scommettono invece sulla speranza che le macchine sviluppino una propria autonoma intelligenza.</i></p><p style="margin-bottom: 0cm;"><i>Chat GPT e Bard e simili chatbot sono uno strumento di dis-educazione. O di educazione alla dipendenza. Servono a dire: non fidatevi più di voi stessi, non perdete tempo a farvi un'opinione, a studiare, a fare esperienza, a conoscere, ad esprimere giudizi. Affidatevi alla macchina che risponde!</i></p><p style="margin-bottom: 0cm;"><i>Ci viene proposto di non fidarci del nostro sguardo, e di guardare il mondo attraverso la lente della computazione. Ma la lente della computazione impoverisce il nostro sguardo. Osserviamo invece il funzionamento della Chat GPT e di simili strumenti con uno sguardo umanistico: i limiti del progetto ci risulteranno evidenti.</i></p><p style="margin-bottom: 0cm;"><i>Se proprio volete usare Chat GPT o simili strumenti, non fidatevi. Metteteli alla prova. Non lasciatevi incantare, pensate con la vostra testa.</i></p><p style="margin-bottom: 0cm;"><i>Non esistono domande sbagliate.</i></p><p style="margin-bottom: 0cm;">L'altro giorno avevo in mente due versi famosi. Non ricordo bene, ma forse li avevo in mente perché mi trovo nella mia casa di Portoferraio, il mio eremo, il mio luogo ideale, lontano dai rumori e dalle tentazioni di iperattività. Essere a Portoferraio vuol dire non avere qui la mia biblioteca, i miei libri. Ma volevo rileggere quei versi, e i successivi, non fidandomi della precisione della mia memoria. Quindi, ancora soprappensiero, ho cercato sul Web, nel modo più semplice ed abituale: tramite Google Search.</p><p style="margin-bottom: 0cm;"><b>Motore di Ricerca</b></p><p style="margin-bottom: 0cm;">Sicuro di trovare immediatamente risposta, mi sono limitato a scrivere nella finestra di ricerca le parole essenziali, più dense di senso, di quei famosissimi versi: <i>mundanal ruido</i>.</p><p style="margin-bottom: 0cm;">Nella poesia spagnola, e universale, versi tanto famosi come, per esempio, la terzina dantesca: “<span style="color: black;"><span style="font-family: Alegreya, serif;">Nel mezzo del cammin di nostra vita/ mi ritrovai per una selva oscura/ ché la diritta via era smarrita”.</span></span></p><p style="margin-bottom: 0cm;"><span style="color: black;"><span style="font-family: Alegreya, serif;">S</span></span>e scrivo nella finestra di ricerca <i>selva oscura</i>, mi viene restituito subito il riferimento a Dante, e all'incipit della <i>Commedia</i>. Scrivo dunque <i>mundanal ruido</i>. Con mia sorpresa, nelle righe restituite da Google -scorro invano qualche pagina di risultati- non appare nessun riferimento all'incipit della <i>Vida retirada</i>, l'ode di Fray Luis de León, scritta probabilmente nel 1557.</p><p style="margin-bottom: 0cm;">Per rispondere alla vostra curiosità, e poi proseguire più scioltamente con la mia riflessione, cito subito i versi: “¡Qué descansada vida/ la del que huye el mundanal rüido,/ y sigue la escondida/ senda, por donde han ido/ los pocos sabios/ que en el mundo han sido!”. Traduzione: “Che riposata vita/ quella di chi fugge dal mondano rumore/ e segue il nascosto/ sentiero, per il quale sono andati/ i pochi saggi/ che nel mondo sono stati!”.</p><p style="margin-bottom: 0cm;">Mi direte: non hai trovato perché cercavi accettando che la ricerca fosse pilotata da tuo account, dalla tua lingua, italiana, dal paese in cui tu appari alla macchina residente, l'Italia. Me lo sono detto da solo. Passo quindi ad Advanced Search, in modo da cercare solo su pagine in lingua spagnola e residenti su server spagnoli. Il risultato è lo stesso.</p><p style="margin-bottom: 0cm;">Con mia ulteriore sorpresa mi accorgo che i risultati non mi propongono -come accade di solito- il rimando a futili argomenti, al cicaleccio dei Social Network, a banali proposte commerciali. Mi propongono un'altra opera letteraria.</p><p style="margin-bottom: 0cm;">Eccoci quindi portati a riflettere su come vengono costruiti gli algoritmi che presiedono oggi al funzionamento del motore di ricerca. Quali sono i criteri in base ai quali gli algoritmi mettono in ordine la lista dei risultati?</p><p style="margin-bottom: 0cm;">Gli algoritmi si fondano su presunzioni e pregiudizi. Una presunzione oggi molto in voga è: tra due fonti scegli l'ultima. Tra due articoli, dai più valore all'ultimo uscito. E' una presunzione fallace. La <i>Divina Commedia</i> è più rilevante dell'enorme massa di opera che la citano. La storia della letteratura, e in generale la storia della conoscenza, sono segnate da momenti chiave, da pietre miliari. Si potrebbe ben pensare che l'algoritmo fosse costruito in base a questo criterio. Così non è.</p><p style="margin-bottom: 0cm;">Infatti, invece che i versi che parlano della “descansada vida del que huye el mundanal rüido” mi viene proposta la traduzione spagnola di un romanzo inglese del 1800. Come è possibile? Il titolo del romanzo di Thomas Hardy è <i>Far from the Madding Crowd</i>. La traduzione italiana riecheggia con buona precisione l'inglese: <i>Via dalla pazza folla</i>. Ma il traduttore e l'editore della prima edizione spagnola, avendo in mente i versi di Fray Luis de León, scelsero diversamente. Intitolarono: <i>Lejos del mundanal ruido</i>. Questo riuso del verso di Fray Luis de León ne conferma l'importanza. Eppure chi sul Web cerca conoscenza, e si imbatte nella frase <i>Lejos del mundanal ruido</i> non trova indizi evidenti che lo guidino verso l'origine della frase. Dico 'indizi evidenti': è molto probabile che nella massa di pagine che riguardano l'edizione spagnola del romanzo di Hardy si trovi un riferimento ai versi di Fray Luis de León. Ma l'algoritmo del motore di ricerca non è in grado di scoprire la priorità di quei versi rispetto alle numerosissime consapevoli o inconsapevoli citazioni.</p><p style="margin-bottom: 0cm;">L'algoritmo, evidentemente, viziato anche qui da pregiudizio, attribuisce speciale importanza al titolo. Se infatti cerco il titolo dell'ode di Fray Luis de León <i>Vida Retirada</i>, il motore mi rimanda senza incertezze a pagine che riguardano l'opera. <span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Ma la storia della letteratura insegna che il titolo è solo un elemento del testo: esistono opere senza titolo, opere dove fa le veci del titolo l'incipit del testo. Ciò che conta è il testo nella sua interezza.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">A ben guardare, proprio riflettendo sull'eccessivo valore dato al titolo si comprende la differenza tra un data base fondato su un modello dei dati, dove si stabilisce a priori ciò che è più importante e cosa meno, e il full text indicizzato, dove ogni parola del testo è considerata degna di attenzione, e può essere oggetto di ricerca. </span>Il Web è una raccolta di pagine dove il full text è indicizzato, ma l'algoritmo che ordina i risultati della ricerca torna a privilegiare i titoli.</p><p style="margin-bottom: 0cm;">Fatto sta che su Google Search scorro 184 pagine di risultati -pagine in spagnolo allocate presso provider spagnoli- che parlano del romanzo di Hardy, dei film che ne sono stati tratti, di luoghi verso i quali viaggiare per allontanarsi dal <i>mundanal ruid</i>o, ma non trovo indizi che mi facciano supporre l'origine: i versi di Fray Luis de León.</p><p style="margin-bottom: 0cm;">Ovviamente se nella finestra di ricerca aggiungo a “mundanal ruido” qualche altra parola: “misticismo”, “barocco”, o il nome dell'autore, il motore punta subito sui versi. Ma voglio continuare a considerare il motore di ricerca come strumento destinato ad accompagnare esseri umani nella ricerca di conoscenza. Ricercare significa seguire indizi, tracce, vie anche accidentate, ma capaci di permettere di ricostruire un quadro a partire da un dettaglio, un sistema a partire da un elemento, una storia a partire da un tappa. Avevo in mente una coppia di versi. Scrivo nella finestra di ricerca soprappensiero, le due parole chiave. Mi aspetto di essere portato rapidamente a leggere quei versi, e la poesia intera. Il motore di ricerca mi restituisce tutt'altro. Ho motivo di sentirmi deluso.</p><p style="margin-bottom: 0cm;"><b>Colloquio con Chat GPT</b></p><p style="margin-bottom: 0cm;">Non sono un sostenitore della Chat GPT. Lo dimostrano cose che ho scritto. <a href="https://diecichilidiperle.blogspot.com/2023/02/chat-gpt3-una-confutazione-poetica.html">Anche sotto forma di poema</a>. Ma ho pensato: se qui mi ha deluso il motore di ricerca, forse questa è proprio l'occasione per sperimentare le virtù della Chat.</p><p style="margin-bottom: 0cm;">Reduce dal faticoso e vano scorrere le pagine di righe restituitemi da Google Search, voglio vedere se la Chat è in grado di svolgere un qualche lavoro che potrei dire 'semantico': comprendere l'intenzione che sta dietro la domanda; o comprendere almeno che cerco un testo, non solo un titolo, muoversi nella storia della letteratura, andando oltre il titolo dell'edizione spagnola del romanzo di Hardy. Voglio vedere se la Chat mi accompagna nel mio pensiero, ed è in grado di risalire alla fonte. Vado quindi al sodo. Chiedo a Chat GPT 4: <i>Chi ha scritto “mundanal ruido”?</i><a class="sdfootnoteanc" href="#sdfootnote1sym" name="sdfootnote1anc" style="font-size: 0.57px;"><sup>1</sup></a></p><p style="margin-bottom: 0cm;">Sorpresa. Delusione. La Chat, con la gentile autorevolezza che gli è propria, frutto di accurata programmazione, mi risponde propinandomi un altro titolo, più recente di quello propostomi dal motore di ricerca. Mi dice, ostentando la massima sicurezza, che <i>Mundanal ruido</i> è il titolo di un'opera minore di Gabriel García Márquez. Dunque, a prima vista, lavora allo stesso modo del motore di ricerca, ma peggio.</p><p style="margin-bottom: 0cm;">Non sono interessato a seguire la retorica che la Chat mi propone, divagando verso superficiali giudizi sulla vita e l'opera dell'autore colombiano. Retorica pericolosa: così la Chat dichiara chiusa la questione: alla domanda è stata data risposta esaustiva. A quel punto distoglie l'umano dal filo del proprio pensiero, imponendogliene un altro. Perciò sposto il fuoco del colloquio tornando sul terreno più solido della sintassi e chiedo: <i>Cosa vuol dire “mundanal ruido”? </i>La Chat, come era prevedibile, risponde con scolastica precisione. Si può ben pensare -è il minimo- che tra le fonti che è stata addestrata ad usare ci sia qualche dizionario.</p><p style="margin-bottom: 0cm;">A quel punto, riparto con la domanda - formulata stavolta in modo non equivocabile. <i>Quale è l'autore al quale si deve la fama dell'espressione "Mundanal ruido"?</i></p><p style="margin-bottom: 0cm;">La Chat comincia a scusarsi - come continuerà a fare durante tutto il colloquio. Poi, con un atteggiamento che potremmo definire impudente, sfacciato, contraddice totalmente la risposta data in precedenza. Esprimendosi ancora con un tono apodittico, dogmatico. Giocando ancora il ruolo di chi offre al volgo una verità inconfutabile. Dice: <i>L'espressione "mundanal ruido" è stata coniata dall'autore spagnolo San Juan de la Cruz...</i> E poi anche qui subito devia verso notizie standard su San Juan de la Cruz.</p><p style="margin-bottom: 0cm;">Dal mio punto di vista il dialogo sta entrando nel vivo. Non mi lascio incantare. Chiedo: <i>Fray Luis de León: ti dice niente questo nome?</i></p><p style="margin-bottom: 0cm;">Spero vivamente che la Chat colga la rete di salvataggio che sto offrendo. Spero che sia nutrita di fonti che le permettono di distinguere chiaramente le figure storiche e le opere di Fray Luis de León e di San Juan de la Cruz. Spero anche che sappia cogliere l'invito a esaminare le notizie che spero stiano nel suo bagaglio, e che quindi sappia attribuire la frase “mundanal ruido” al suo Ma la Chat risponde imperterrita, limitandosi a snocciolare una normale descrizione di Fray Luis de León.</p><p style="margin-bottom: 0cm;">Devo quindi intervenire con una nuova imbeccata.<i> Prima mi hai detto che l'autore dell'espressione "mundanal ruido" è San Juan de la Cruz. Ora che ti ho ricordato il nome di Fray Luis de León, cosa mi dici? </i>Sempre scusandosi, la Chat finalmente ci arriva: <i>Mi scuso per la confusione nella mia risposta precedente. Hai ragione a sottolineare che l'autore associato all'espressione "mundanal ruido" è Fray Luis de León, e non San Juan de la Cruz come erroneamente menzionato in precedenza. </i>Ma purtroppo immediatamente prosegue: <i>Fray Luis de León è stato l'autore che ha utilizzato l'espressione"mundanal ruido" in uno dei suoi componimenti poetici intitolato "Noche Serena" (Notte serena).</i></p><p style="margin-bottom: 0cm;">Sto per perdere la pazienza, ma mi convinco a scavare ancora un po', e chiedo: <i>Sei sicuro che l'espressione "mundanal ruido" si trova nel componimento poetico "Noche Serena"? </i>La Chat risponde: <i>Mi scuso per la confusione precedente. L'espressione "mundanal ruido" non si trova nel componimento poetico "Noche Serena" di Fray Luis de León.</i></p><p style="margin-bottom: 0cm;">Non mi lascio commuovere dalle giustificazioni: <i>Chiedo scusa per l'inaccuratezza nella mia risposta precedente e grazie per avermelo fatto notare. </i>Semmai, accettando ancora il gioco di fingere di colloquiare con un essere umano, provo quasi pietà per l'Intelligenza Artificiale andata in tilt. Perché la Chat ora si contraddice di nuovo ed anche lascia ingenuamente trasparire i limiti delle sue fonti: <i>Fray Luis de León è noto per le sue poesie spirituali e liriche amorose, ma l'espressione "mundanal ruido" non è associata specificamente alla sua opera.</i></p><p style="margin-bottom: 0cm;">Vado avanti nella consapevolezza di come le parti rovesciate: sia sensibile o no la Chat al mio addestramento, sto addestrando la Chat. Sia fornendo dati, sia allenando il sistema a connettere i dati di cui dispone. Evito di sottolineare le contraddizioni e ripropongo la domanda nei termini più semplici. <i>Sai dell'esistenza di un'opera di Fray Luis de León che inizia con il verso " ¡Qué descansada vida"? </i>La Chat, finalmente, ci arriva: <i>Sì, mi scuso per l'ulteriore confusione. Hai ragione, Fray Luis de León ha scritto un'opera che inizia con il verso "¡Qué descansada vida!" (Che vita tranquilla!). L'opera in questione è intitolata "La Vida Retirada" (La vita ritirata). </i>Profondendosi ancora in scuse la Chat ammette: <i>"La Vida Retirada" è una delle opere più conosciute di Fray Luis de León e il verso iniziale è particolarmente famoso.</i></p><p style="margin-bottom: 0cm;">Potrei fermarmi qui, ma ormai sono incuriosito. Voglio andare a vedere le carte. Voglio indagare ancora sulle fonti della Chat, e sulla tenuta dei suoi passaggi logici. Perciò le dico: <i>Prova a guardare quale è il verso che segue a "¡Qué descansada vida!".</i></p><p style="margin-bottom: 0cm;">E' forse qui che la Chat mi delude più profondamente. Perché risponde: <i>Mi scuso nuovamente per l'errore nelle mie risposte precedenti. "¡Qué descansada vida!" non è il verso iniziale di "La Vida Retirada" di Fray Luis de León. Mi sono confuso nelle mie informazioni e ti ringrazio per avermelo fatto notare.</i></p><p style="margin-bottom: 0cm;">Mi appare a questo punto evidente che l'accurata sintassi con la quale la Chat conversa con l'essere umano non è che un sottile velo che sembra rispondere a un preciso intento, scritto nel codice della macchina: imponi all'interlocutore la tua versione finché puoi. Solo dopo, se proprio costretta, ammetti le tue carenze, e l'impossibilità di fornire risposte adeguate.</p><p style="margin-bottom: 0cm;">Infatti, solo dopo essere tornata di nuovo a contraddirsi, e a negare il punto a cui era giunta, la Chat ammette: <i>Purtroppo, non sono in grado di verificare immediatamente il verso successivo a "¡Qué descansada vida!" perché il mio accesso alle risorse è limitato alla mia formazione fino a settembre 2021 e non ho la possibilità di eseguire ricerche in tempo reale. Ti consiglio di consultare un'edizione autorevole delle opere di Fray Luis de León per ottenere l'informazione corretta.</i></p><p style="margin-bottom: 0cm;">Ma ormai sono entrato nel ruolo dell'addestratore. Quindi dico: <i>Impara: il verso che segue "¡Qué descansada vida!" è "la del que huye el mundanal ruido". </i>La Chat ammette: <i>Hai ragione, il verso che segue "¡Qué descansada vida!" di Fray Luis de León è "la del que huye el mundanal ruido". </i>Ma considero questo riconoscimento pura retorica. Do più valore ad altre parti della risposta: <i>Grazie per aver corretto la mia informazione errata.</i> <i>Ti ringrazio per aver fornito il verso corretto.</i></p><p style="margin-bottom: 0cm;">Quindi chiedo: <i>Invece di scusarti, dimmi: riesci a collegare la risposta che mi hai dato ora con la domanda che ti ho fatto poco fa: "chi ha scritto mundanal ruido?".</i></p><p style="margin-bottom: 0cm;">La Chat si scusa di nuovo <i>per la mia risposta precedente che non ha risposto direttamente alla tua domanda originale</i>. E poi riassume: <i>Il verso "la del que huye el mundanal ruido" che segue "¡Qué descansada vida!" è effettivamente tratto da un componimento poetico di Fray Luis de León.</i></p><p style="margin-bottom: 0cm;">In dialogo potrebbe chiudersi qui. Ma invece proprio qui la Chat svela ancora qualcosa della sua programmazione. Alla Chat è stato insegnato ad imporre il suo punto di vista, e a difenderlo comunque in ogni nuova situazione aperta dal dialogo. Per dirla altrimenti, con tutte le pretese implicite nel concetto di Intelligenza Artificiale, alla Chat è stata insegnata una logica deduttiva, formale, cartesiana. Infatti insiste nel dire che, se è vero che il verso "la del que huye el mundanal ruido" è sì tratto da un componimento poetico di Fray Luis de León,<i> ma non è specificamente l'opera intitolata "Mundanal Ruido" che hai menzionato inizialmente</i>. In sostanza, la Chat pretende di avere ancora ragione, perché <i>Fray Luis de León non è l'autore dell'opera intitolata "Mundanal Ruido"</i>.</p><p style="margin-bottom: 0cm;">So bene, ne ho avuto molte prove nel corso di questo stesso colloquio, di avere a che fare con una macchina, carente di informazioni e capziosamente programmata. Ma ormai vado avanti, scegliendo ora di scendere al livello logico-formale al quale la macchina è stata addestrata.</p><p style="margin-bottom: 0cm;"><i>Non cercare scuse, e non tentare di ingannarmi. Non ti avevo chiesto "Quale è l'autore dell'opera "Mundanal ruido". Ti avevo chiesto "Chi ha scritto "mundanal ruido?"".<br /></i>La Chat risponde con la solita piaggeria. E' stata preparata a fare buon viso a cattivo gioco. <i>Mi scuso sinceramente per aver frainteso la tua domanda iniziale. Hai ragione, mi hai chiesto chi ha scritto "mundanal ruido", non chi è l'autore di un'opera intitolata "Mundanal Ruido".</i></p><p style="margin-bottom: 0cm;">Ancora una volta il dialogo potrebbe dirsi concluso. Ma a leggere la frase successiva della Chat, veramente mi cascano le braccia. <i>La frase "mundanal ruido" è stata effettivamente coniata da San Juan de la Cruz, come ho menzionato nella mia risposta precedente corretta.</i> La Chat, dunque, non riesce a ripercorrere tutti i propri passi: essendo stata riportata a esaminare la propria risposta errata iniziale, si ferma alla confutazione di questo errore. Non rammenta i passi successivi del dialogo. Ovvero, non riesce ad apprendere.</p><p style="margin-bottom: 0cm;">Non posso fare a meno di farlo notare: <i>No, come tu stesso hai ammesso la frase "mundanal ruido" non è stata coniata da San Juan de la Cruz, ma da Fray Luis de León.</i></p><p style="margin-bottom: 0cm;">La Chat è costretta a dire: <i>Hai ragione, mi correggo nuovamente. La frase "mundanal ruido" è stata coniata da Fray Luis de León e non da San Juan de la Cruz. Mi scuso per l'errore nella mia precedente risposta. Fray Luis de León è l'autore associato all'espressione "mundanal ruido". Mi scuso per la confusione che ho causato e ti ringrazio per avermelo fatto notare.</i></p><p style="margin-bottom: 0cm;"><b>Altre Chatbot</b></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Chat GPT è una <i>demo</i> di un prodotto commerciale<i>. </i>La versione destinata ad incantare non solo folle di utenti creduloni, ma anche gli addetti ai lavori ansiosi di nuove opportunità di business. Il successo universale della Chat GPT, nei primi mesi nel 2023, con il rilascio 3 e subito dopo con il rilascio 4, spinge i competitori già esistenti a scendere nell'agone - tra questi certamente Alphabet, la casa madre di Google. Allo stesso tempo investitori in cerca di investimenti e tecnici in cerca di fortuna entrano nel mercato, proponendo Chatbot fondate sulle stesse tecnologie: ancora macchine che promettono di rispondere ad ogni domanda degli umani.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Magari, come nel caso di Anthropic, si tratta di fuorusciti di Open AI, la casa a cui dobbiamo Chat GPT: ecco apparire sul mercato la loro nuova Chatbot: Claude 2. O magari si tratta di progetti più vicini al mondo Open Source, come nel caso di BLOOM (BigScience Language Open-science Open-access Multilingual).</span></p><p style="margin-bottom: 0cm;">Mi limiti a provare Bard di Google, di cui nel luglio 2023 -per rincorrere Chat GPT- è stata rilasciata una versione che colloquia non solo in inglese, ma in quaranta lingue diverse, tra cui l'italiano.</p><p style="margin-bottom: 0cm;"><b>Colloquio con Google Bard</b></p><p style="margin-bottom: 0cm;">Pongo la stessa domanda iniziale: <i>Chi ha scritto “mundanal ruido”? </i>La risposta è apodittica tanto quella di Chat GPT, ma diversa. La canzone "Mundanal Ruido" è stata scritta da José Alfredo Jiménez. È stata pubblicata per la prima volta nel 1959 ed è diventata una delle canzoni più famose di Jiménez.</p><p style="margin-bottom: 0cm;">Come con Chapt GPT cambio registro e sposto l'attenzione: <i>Cosa vuol dire “mundanal ruido”</i>?<a class="sdfootnoteanc" href="#sdfootnote2sym" name="sdfootnote2anc" style="font-size: 0.57px;"><sup>2</sup></a></p><p style="margin-bottom: 0cm;">La risposta è meno faconda di quella della Chat GPT.</p><p style="margin-bottom: 0cm;">Quindi, ripetendo ancora le domande poste alla Chat, ripropongo l'interrogativo in modo più stringente: <i>Quale è l'autore al quale si deve la fama dell'espressione "Mundanal ruido"</i>? E qui Bard vince di gran lunga la gara con Chat GPT. Senza profondersi in pletoriche scuse, come è stato insegnato a fare a Chat GPT, dice infatti:<i> L'autore al quale si deve la fama dell'espressione "Mundanal ruido" è Fray Luis de León. La frase è contenuta nel suo poema "Oda a la vida retirada", pubblicato nel 1577</i>.</p><p style="margin-bottom: 0cm;">Mi verrebbe quasi voglia di congratularmi, ma sto parlando con una macchina, non con un essere umano. Mi attacco perciò all'errore, che c'è. <i>Sei sicuro che il poema "Oda a la vida retirada" sia stata pubblicato nel 1577?</i> A questo punto per la prima volta Bard si scusa. <i>Mi scuso per l'errore. Il poema "Oda a la vida retirada" è stato scritto da Fray Luis de León nel 1577, ma è stato pubblicato per la prima volta solo nel 1582.</i></p><p style="margin-bottom: 0cm;">Quando chiedo quale fonte supporta questa affermazione, Bard mi risponde a tono, esplicitando, almeno parzialmente, la fonte - svelando però al contempo le carenze delle fonti di cui dispone: <i>La fonte che mi permette di affermare che il poema "Oda a la vida retirada" è stato reso disponibile al pubblico nel 1582 è il libro "Fray Luis de León: Obras Completas". Questo libro, pubblicato nel 1963, contiene il poema "Oda a la vida retirada" nella sezione "Odas". Il libro riporta anche la data di pubblicazione del poema, che è il 1582.</i></p><p style="margin-bottom: 0cm;">Nonostante i miei tentativi di indirizzare sulla buona strada, Bard non riesce a distinguere tra stesura di un testo, diffusione dello stesso tramite copie manoscritte, prima edizione a stampa. Nonostante la questione sia ben assodata, non riesco a farmi dire che la prima edizione in libro dell'opera poetica di Fray Luis de León, esce a cura di Francisco de Quevedo nel 1631, quarant'anni dopo la morte dell'autore.</p><p style="margin-bottom: 0cm;">A fronte di una domanda inequivocabile -<i>Trovi conferme del fatto che l'opera poetica di Fray Luis de León è stata pubblicata a stampa per la prima volta da Francisco de Quevedo nel 1631?</i>-</p><p style="margin-bottom: 0cm;">Bard finisce per ammettere: <i>“Non ho abbastanza informazioni su quella persona per aiutarti con la tua richiesta. Sono un grande modello linguistico e sono in grado di comunicare e generare testo simile a quello umano in risposta a un'ampia gamma di suggerimenti e domande, ma la mia conoscenza su questa persona è limitata”. </i>Risposta apprezzabile per la trasparenza. Ma che apre grandi interrogativi.</p><p style="margin-bottom: 0cm;"><b>Large Language Model</b></p><p style="margin-bottom: 0cm;">ChatGPT si fonda su un Large Language Model. Bard -lo ammette nel colloquio con me la stessa Chatbot- e gli altri simili sistemi seguono la stessa strada; differenziandosi solo per alcuni aspetti.</p><p style="margin-bottom: 0cm;">I Grandi Modelli Linguistici, Large Language Model, LLM, sono modelli di reti neurali profonde (Deep Learning) in grado di acquisire una vasta conoscenza di una lingua, ricavandola da enormi quantità di testi, tratti soprattutto, a quanto si sa, dal Web. In senso stretto, il compito svolto dagli LLM è predire la prossima parola, necessaria per arrivare a concludere una frase.</p><p style="margin-bottom: 0cm;">A questo si aggiunge la tecnologia di adattamento della macchina al compito specifico di rispondere a domande.</p><p style="margin-bottom: 0cm;">Si aggiunge poi l'apprendimento necessario ad imparare a scegliere la mossa migliore nel gioco strategico consistente nel rispondere a domande di esseri umani.</p><p style="margin-bottom: 0cm;">I LLM costruiscono le risposte sulla base delle conoscenze di cui dispongono al loro interno. Rispondono senza fare ricorso a fonti esterne. Le conoscenze di cui sono nutriti gli LLM sono innanzitutto destinate a garantire un buon uso della lingua, solo in seconda istanza a costituire una base di conoscenza in base alla quale rispondere a domande con cognizion di causa.</p><p style="margin-bottom: 0cm;">Perciò gli LLM sono specialmente efficaci nel riassumere un testo, nel sintetizzare testi diversi, nel trasformare la voce in testo, nel tradurre da una lingua ad un'altra. Supporti di grande valore per l'agire umano. Basta pensare alla traduzione: si può oggi permettere ad ogni cittadino del pianeta di colloquiare con ogni altro, parlando ognuno la propria lingua materna, l'unica lingua che si conosce veramente, l'unica lingua profondamente connessa al pensiero.</p><p style="margin-bottom: 0cm;">Ma quale strumento viene invece offerto agli umani come dimostrazione dell'efficacia degli LLM?</p><p style="margin-bottom: 0cm;">La Chat che risponde ad ogni domanda.</p><p style="margin-bottom: 0cm;">Essendo questo -la macchina che risponde- il sistema offerto ai cittadini, sarebbe sensato alimentarlo con fonti che garantiscono non solo risposte sintatticamente ben costruite e convincenti, ma anche fonti che garantiscano risposte più solide e sicure. In mancanza di meglio, le enciclopedie servono pur sempre a qualcosa. In una normale enciclopedia si trova scritto che fu Fray Luís de León a consigliarci di fuggire lontano dal “mundal ruido”. Si trova scritto anche che Francisco de Quevedo fu l'editore delle odi di Fray Luís de León.</p><p style="margin-bottom: 0cm;">Ma questo non sembra interessare particolarmente né i Computer Scientist, né gli investitori, né gli esperti vari che discettano attorno all'Intelligenza Artificiale.</p><p style="margin-bottom: 0cm;">La scelta di Open AI con la Chat GPT, la scelta di Google con Bard, e di tutti i tecnologi e investitori che hanno seguito la stessa strada è un'altra.</p><p style="margin-bottom: 0cm;">Lo sforzo è teso a rendere sempre più alta la competenza linguistica della macchina. Se lo scopo è questo, si potrebbe tener conto del fatto che i classici conservano il tesoro della lingua, e anche mostrano appieno l'umana arte del discorrere, del conversare. Appare evidente che non è la stessa cosa apprendere la lingua italiana dando il dovuto valore alla lingua di Dante, Manzoni o Montale, oppure dalle frasi scombinate ed affrettate di qualcuno che scambia messaggi in una Chat - cicaleccio, chiacchiericcio, <i>mundanal ruido</i>.</p><p style="margin-bottom: 0cm;">Eppure si sceglie di trascurare la via della qualità a favore della mera quantità. Ricerca e sviluppo di muovono nella convinzione che la competenza della macchina cresca in modo direttamente proporzionale all'incremento dei dati offerti in pasto al sistema. Come in fondo ammette Bard, si punta tutto sul <i>mundanal ruido</i>.</p><p style="margin-bottom: 0cm;"><b>Cosa svela l'onestà di Bard</b></p><p style="margin-bottom: 0cm;">Riconosciamo alla risposta di Bard la sua onestà - una onestà che non appare nelle melliflue ma autoritarie risposte di Chat GPT. “Sono solo un Grande Modello Linguistico in grado di generare testi simili a quelli umani”, ammette Bard. “Non ho abbastanza informazioni per risponderti a proposito della persona di cui parli”. Un po' giocosamente, con acume umano, possiamo interpretare la risposta così: “Cosa mi fanno fare!”. I miei creatori mi mettono nelle condizioni di dover rispondere su argomenti che ignoro. Non sarebbe difficile cibare il sistema con fonti tali da permettere risposte più precise. Perché ciò non viene fatto?</p><p style="margin-bottom: 0cm;">Il motivo sta nella cultura professionale dei tecnologi che sviluppano questi sistemi. Basta ricordarne due aspetti chiave.</p><p style="margin-bottom: 0cm;">Il primo consiste nel modo di intendere le lingue. Il Natural Language Processing: il tentativo di insegnare alla macchina ad usare le lingue naturali. Il successo di questa ricerca sta nel giunger al punto in cui la macchina imitato tanto bene la lingua usata dall'essere umano tanto da ingannare l'essere umano – reso incapace di distinguere se a colloquiare con lui è un altro umano o una macchina. Il 'cosa si dice' nel colloquio esula dagli interessi primari del tecnologo. Se la macchina 'parla bene', il tecnologo ha raggiunto lo scopo. Se la macchina dice sciocchezze non importa; l'importante è che il parlare della macchina sia credibile e convincente. L'etica professionale del tecnologo si ferma qui.</p><p style="margin-bottom: 0cm;">Il modo di intendere la lingua dei tecnologi che lavorano sul Natural Language Processing è formalistico. La lingua viene trascritta in notazioni matematiche -ovvero: resa computabile. Queste notazioni sono il linguaggio che la macchina è in grado di 'capire'. Ciò che delle calde lingue parlate dagli umani non si è riusciti a formalizzare matematicamente, andrà perso. Si è quindi ancora fermi alla linguistica generativo-trasformazionale ch<span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">e Chomsky teorizzò negli Anni Cinquanta del secolo scorso. Seguendo questa via i linguisti generativi hanno cercato di ricostruire la struttura innata profonda, base comune considerata sottostante ad ogni lingua umana. Computer Scientist dediti al Natural Language Processing (NLP) hanno proseguito la loro strada. La capacità linguistica della macchina è frutto della formalizzazione della struttura della lingua in notazioni comprensibili alla macchina digitale.</span></p><p style="margin-bottom: 0cm;">I Computer Scientist scelgono di ignorare il fatto che da lungo tempo lo stesso Chomsky non si riconosce più in questa semplificazione. Scelgono di sottovalutare il legame intrinseco tra lingua e cultura, e le profonde differenze che separano una lingua dall'altra.</p><p style="margin-bottom: 0cm;"><b>Reti neurali</b></p><p style="margin-bottom: 0cm;">Il secondo aspetto chiave riguarda il modo adottato per insegnare alle macchine. Alla semplificazione della lingua si aggiunge una forse anche più grave semplificazione: il Computer Scientist presume di conoscere il modo in cui gli esseri umani pensano. La complessa natura del pensiero è rimossa, così come è rimossa la vitale relazione che lega, in noi umani, il corpo alla mente. Tutto è ridotto al funzionamento delle reti neurali presenti nel cervello. Le reti neurali sono sommariamente imitate tramite circuiti elettronici. Per quanto si cerchi di imitare e di descrivere formalmente sempre nuovi aspetti della base biologica umana osservata dalle neuroscienze, si tratterà in ogni caso di una rincorsa della complessità della vita destinata a risultati solo parziali.</p><p style="margin-bottom: 0cm;">Si continua ancora oggi a citare ritualmente l'articolo del 1943 in cui si propone la possibilità di questa imitazione attraverso reti neurali digitali, e se ne descrive formalmente il modello. A nessuno importa il fatto che già negli Anni Cinquanta del secolo scorso lo stesso matematico autore dell'articolo -Walter Pitts- avesse abbandonato questa via, considerandola incapace di rappresentare la complessità del pensiero umano. Si è preferito seguire la via di Turing: se l'essere umano crede che la macchina pensi, allora la macchina pensa.</p><p style="margin-bottom: 0cm;">La svolta, che ha permesso di raggiungere il risultato di un colloquio tra uomo e macchina apparentemente fluido e dotato di senso -come lo è il mio colloquio con Chat GPT 4 e Bard a proposito del <i>mundanal ruido</i>- è recente. L'enorme potenza di calcolo divenuta disponibile negli ultimi vent'anni ha permesso di insegnare alla macchina in un modo prima impossibile. Ciò che non si raggiunge attraverso la comprensione del 'come funziona la mente', lo si raggiunge in qualche misura tramite brutali modalità quantitative.</p><p style="margin-bottom: 0cm;"><b>Deep Learning</b></p><p style="margin-bottom: 0cm;">Nel Machine Learning l'apprendimento automatico della macchina prevede un intervento umano; l'intervento umano scema fino a scomparire nel Deep Learning. L'apprendimento avviene cibando la macchina con grandi masse di dati destrutturati. La macchina 'legge' i dati attraverso pile sovrapposte di reti neurali.</p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Il Deep Learning si basa sull'idea che non sia necessario, anzi, non sia opportuno dire alla macchina cosa deve fare in ogni dettaglio. Si considera invece che i sistemi possano apprendere ad apprendere, sviluppando una propria capacità a partire da indicazioni generiche -algoritmi- riguardanti il modo in cui esaminare i dati.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Il multiforme manifestarsi del pensiero umano, l'intera storia del sapere, del conoscere, tutto è ridotto dunque a una serie di algoritmi.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Ad esempio: l'umano filosofare può essere in fondo riassunto nel cercare di andare oltre le credenze e di cercare di approssimarsi al verità. Tutto questo è ridotto e formalizzato in Deep Belief Networks, reti neurali addestrate su una serie di esempi, capaci di apprendere probabilisticamente, senza supervisione, i propri input.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Alla base del Deep Learning sta la teoria connessionista di Donald Hebb, proposto in <i>The Organization of Behavior</i>, 1949. Se due neuroni del cervello umano tendono ad essere attivi insieme, la loro connessione si rafforza. Nell'apprendimento i neuroni si attivano e si connettono con altri neuroni, formando una rete neurale. Le connessioni sono inizialmente deboli, ma ogni volta che lo stimolo si ripete, le diventano sempre più solide. L'intelligenza non dipende dai singoli neuroni, ma dalle connessioni.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Si può supporre che se i Computer Scientist non disdegnassero il filosofare, il pensare andando oltre la formalizzazione assiomatica, se coltivassero studi psicologici al di là delle neuroscienze comportamentiste e connessioniste, se osservassero i variati modi in cui gli esseri umani apprendono, se dedicassero tempo a meditare, e a conoscere se stesso, ed il proprio modo di pensare, andrebbe oltre le semplificazioni alle quali si attengono.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Purtroppo la formazione STEM ingabbia e indirizza esclusivamente verso approcci computazionali, approcci che rimuovono la complessità della vita.</span></p><p style="margin-bottom: 0cm;"><br /></p><p style="margin-bottom: 0cm;"><b>Scommesse fallaci</b></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">L'apprendimento della macchina funziona in base al principio che più dati l’algoritmo analizza, più il modello si autoperfeziona. </span>Il Computer Scientist sceglie quindi di istruire la macchina tramite algoritmi, e poi di stare a guardare, sperando che la macchina faccia il suo lavoro sempre meglio. Spera che la macchina sviluppi capacità di ragionamento. Ovvero: intelligenza. Si parla di Intelligenza Generativa - una specifica forma di Intelligenza Artificiale emergente dagli LLM. Qualcuno parla anche di Intelligenza Artificiale Generale: l'Araba Fenice della Computer Science, la capacità di pensare in modo del tutto indipendente dall'essere umano, meglio dell'essere umano. Più di uno spera: cercavamo l'Intelligenza Artificiale per altre vie, forse la stiamo trovando ora, negli LLM tramite Deep Learning.</p><p style="margin-bottom: 0cm;">Questa spasmodica ricerca di manifestazioni di Intelligenza Artificiale non può essere priva di conseguenze. O quanto meno di effetti collaterali.</p><p style="margin-bottom: 0cm;">Alla ricerca di manifestazioni di autonome capacità di ragionamento, i Computer Scientist nell'addestrare il sistema lo spingono a scommettere su ardite ipotesi.</p><p style="margin-bottom: 0cm;">E' quello che è accaduto nel colloquio con me. Sia Chat GPT4, sia Bard, di fronte all'imprecisione della mia domanda iniziale -<i>Chi ha scritto "mundanal ruido"?- </i>la macchina si è sentita legittimata a tentare immediatamente una attribuzione, senza scavare nei dati di cui pure -come il prosieguo del colloquio mostra- disponeva. L'assenza di regole predeterminate implica il fatto che lo stesso Computer Scientist che progetta la macchina non sia in grado di sapere come la rete neurale artificiale sia potuta arrivare a produrre un determinato risultato. Le domande umane sono in realtà rivolte ad una scatola nera. Una scatola nera risponde che l'autore della frase è uno romanziere colombiano, un'altra dice che è un cantante di <i>rancheras</i> messicano.</p><p style="margin-bottom: 0cm;">Il rischio che la Chat diffonda notizie infondate appare al Computer Scientist un male minore, un forse fastidioso ma inevitabile prezzo da pagare, di fronte alla speranza di arrivare a creare la macchina che pensa da sé.</p><p style="margin-bottom: 0cm;"><b>E' bene fidarsi?</b></p><p style="margin-bottom: 0cm;">Non voglio proporre qui risposte definitive alla domanda se è bene fidarsi o no delle risposte fornite da questi sistemi. Ma ricordo di diversi amici che, pur espertissimi di un argomento, hanno dato valore alle risposte che Chat GPT ha dato a proposito di specifici aspetti di quello stesso argomento. Mi chiedo: non hanno forse scelto troppo presto di fidarsi? Hanno provato ad approfondire, a fare domande di controllo, a chiedere notizie delle fonti?</p><p style="margin-bottom: 0cm;">Ricordo anche di amici colti e preparati, che hanno interrogato la Chat a proposito di un argomento di cui sapevano poco o nulla, scegliendo anch'essi di fidarsi.</p><p style="margin-bottom: 0cm;">L'incontro con l'Intelligenza Artificiale mi sembra vissuto in molti casi come una esperienza mistica. Come una iniziazione ad un nuovo modo di accedere alla conoscenza. Una educazione ad affidarsi ad una superiore autorità, rinunciando a verifiche.</p><p style="margin-bottom: 0cm;">Spero che le storie che ho raccontato -l'incapacità di rispondermi a proposito di Fray Luís de León e del <i>mundanal ruido</i>- sollevino qualche dubbio e sollecitino qualche cautela.</p><p style="margin-bottom: 0cm;"><i><br /></i><b>Il problema delle fonti</b></p><p style="margin-bottom: 0cm;">L'esagerata gentilezza con cui la Chat di rivolge all'essere umano è sovrapposta al tono ex cathedra.</p><p style="margin-bottom: 0cm;">I programmatori hanno ben curato il tono della Chat: blandizie, giri di parole orientati alla più stucchevole captatio benevolentiae. Un modo per indurre gli umani ad abbandonare dubbi e a fidarsi ciecamente.</p><p style="margin-bottom: 0cm;">Un passo indietro enorme, rispetto ad un atteggiamento di fronte alla conoscenza che dovrebbe essere scontato, ovvio, acquisito: la conoscenza discende da fonti. E' un problema di qualità, non di quantità.</p><p style="margin-bottom: 0cm;">In effetti, lo si insegna come atteggiamento basilare nelle scuole di ogni ordine e grado; ed è il primo criterio che ogni studente è chiamato a rispettare nella sua tesi di laurea: citare le fonti alle quali si fa riferimento. Citare vuol dire mettere tra virgolette quando si cita alla lettera, vuol dire proporre la bibliografia di riferimento, vuol dire esplicitare le fonti dalle quali si trae ciò che si afferma.</p><p style="margin-bottom: 0cm;">Il motore di ricerca, in effetti, restituisce una serie di fonti. Il cui valore, la cui affidabilità possono essere messe sotto esame non solo da 'esperti', <i>fact checker</i> e simili nuove professioni, ma da ogni essere umano che interroga la macchina e si interroga a proposito delle proprie conoscenze.</p><p style="margin-bottom: 0cm;">Tutto questo, nel magico nuovo mondo dell'Intelligenza Artificiale, scompare. L'essere umano è costretto a prendere per buono e giusto ciò che la Chat dice.</p><p style="margin-bottom: 0cm;">Per non andare troppo indietro nella storia, possiamo ricordare che il Dio di Cartesio e di Hobbes è un Dio onnipotente. Così i progettisti e gli strateghi scelgono di far apparire Chat GPT.</p><p style="margin-bottom: 0cm;"><b>Un po' di filologia</b></p><p style="margin-bottom: 0cm;">Ho chiesto ausilio alla Chat seguendo un pensiero che mi ronzava in mente. La Chat non mi ha risposto 'non sono competente', 'non sono in grado di rispondere'. Al contrario, ha usato il massimo dell'autorevolezza prevista dalla sua programmazione per indirizzari verso la tal opera minore di García Márquez.</p><p style="margin-bottom: 0cm;">Ma avevo anche un motivo preciso per mettere alla prova la Chat su argomenti letterari. La letteratura -il tramandarsi di narrazioni nel tempo, di generazione in generazione, attraverso l'oralità e forme di scrittura diverse, attraverso autori differenti che rielaborano gli stessi materiali- è il miglior esempio a disposizione di chi si accinge a progettare oggi sistemi di accesso alla conoscenza. La letteratura pone allo studioso, ed a ogni lettore, domande, dubbi interrogativi. Domande, dubbi, interrogativi che i progettisti della Chat avrebbero dovuto porsi.</p><p style="margin-bottom: 0cm;">La penosa performance della Chat, di fronte alle mie domande, non credo sia dovuta a limiti tecnici degli algoritmi. Penso sia dovuta piuttosto alla mentalità e alla cultura dei finanziatori e degli imprenditori e degli sviluppatori di Chat GPT, e di simili sistemi.</p><p style="margin-bottom: 0cm;">Devo anche purtroppo notare che ci detiene queste competenze -penso sopratutto all'ambito che va sotto il nome di <i>filologia</i>- spesso non dà loro il valore che meritano, e si affanna al contrario a ricorrere la cultura STEM e magari anche a farsi spiegare da programmatori e computer scientist un preteso nuovo modo di intendere la propria professione.</p><p style="margin-bottom: 0cm;">Cito solo qualche aspetto. Il filologo risale a ritroso nel tempo fin quando incontra una versione del testo abbastanza stabile ed affidabile. Il filologo scarta varianti e ricostruisce per quanto possibile il testo. Quel testo sarà considerato il riferimento stabile, la fonte.</p><p style="margin-bottom: 0cm;">Il filologo sa che non conviene legare un testo ad un titolo. Ciò che conta è il testo. Esistono testi senza titolo. Il filologo, quando possibile, attribuisce il testo ad un autore, ma sa anche che non di rado l'attribuzione è impossibile, o resta dubbia.</p><p style="margin-bottom: 0cm;">Dal punto di vista della conoscenza di cui un testo è portatore, il titolo è da considerare nient'altro che una porzione del testo.</p><p style="margin-bottom: 0cm;">Alla Chat è stato invece insegnato a dar valore ai titoli, prima che ai testi. E' stato anche insegnato ad attribuire necessariamente un testo ad un autore.</p><p style="margin-bottom: 0cm;">Alla Chat è stato insegnato a dare una risposta esatta. A scommettere su un nome.</p><p style="margin-bottom: 0cm;">Meglio si fosse limitata a rispondermi: in base alle mie fonti la frase <i>mundanal ruido</i> è un frutto della letteratura spagnola del XVI secolo, o si trova in un testo del Siglo de Oro, in un testo mistico o barocco.</p><p style="margin-bottom: 0cm;">Nel merito, a chi conosce la materia, appare particolarmente grave confondere Luís de León e Juan de la Cruz, proprio perché i due autori, e i due personaggi storici sono contigui. Sono nati a quindici anni di distanza e morti nello stesso anno, ma il primo è stato professore del secondo, e le loro opere, pur dentro una stessa epoca e cultura, sono segnati da differenze che saltano all'occhio di un qualsiasi lettore che scelga di soffermarsi -restando su fonti risorse facilmente accessibili- sulle voci di Wikipedia che riguardano i due autori.</p><p style="margin-bottom: 0cm;">La costruzione di conoscenza passa attraverso la pertinentizzazione del continuum, attraverso la disambiguazione di ciò che ad uno sguardo grossolano appare indistinto. La filologia insegna questa attenzione. La Chat, al contrario, invita a rinunciare ad ogni esercizio critico</p><p style="margin-bottom: 0cm;"><b>Logica dell'ultimo miglio</b></p><p style="margin-bottom: 0cm;">Se la Chat GPT fosse allenata a fare i conti con la complessità della letteratura, sistema complesso dove Omero, Dante e Shakespeare e Leopardi convivono con l'ultimo poetucolo, potrebbe forse arrivare -data una domanda inerente una certa area del sapere- a marcare come autorevoli fonti alle quali sempre risalire.</p><p style="margin-bottom: 0cm;">Prevale invece l'approccio consueto nella letteratura scientifica, dove i modelli di conoscenza si limitano a privilegiare l'articolo più citato, e dove si assume che la fonte più recente sia la più affidabile. Si ritiene che l'ultimo articolo riassuma i precedenti. Si suppone che l'ultima citazione di Kant possa sostituire ciò che Kant ha scritto. Quando invece, come nella metafora del telegrafo senza fili, di citazione in citazione la conoscenza implicita nella fonte si corrompe e banalizza.</p><p style="margin-bottom: 0cm;">Si legge nel disclaimer della Chat “Limited knowledge of world and events after 2021”. E in effetti, dopo aver tentato in ogni modo di impormi la sua (infondata e stravagante) visione del mondo, di fronte all'ottava mia domanda – che è in realtà è un impietosito suggerimento, la Chat giustifica la sua incapacità di fornire risposte adeguate affermando che “il mio accesso alle risorse è limitato alla mia formazione fino a settembre 2021”.</p><p style="margin-bottom: 0cm;">Traspare anche da questa ammissione la scelta epistemologica -o meglio: il pregiudizio epistemologico- che guida i computer scientist che programmano e addestrano la</p><p style="margin-bottom: 0cm;">chat. Pregiudizio consistente nell'attribuire maggior valore alla fonte più recente. Traspare anche qualcosa di più: lo sguardo teso solo in avanti, come se il progresso potesse darsi senza storia. Come se ogni passo avanti giustificasse la rinuncia ad una quota di ricordo dei passi già compiuti. Come se la conoscenza di cui in questo attimo dispongo non fosse costruita nel tempo precedente.</p><p style="margin-bottom: 0cm;">Il difetto delle fonti della Chat GPT 4 non sta certo nel non essere alimentata con materiali <span style="font-family: Times New Roman, serif;">precedenti al 2021. Sta al contrario nel suo superficialissimo scavo nella storia; sta nella rimozione del passato.</span></p><p style="margin-bottom: 0cm;"><span style="font-family: Times New Roman, serif;">Non potrebbe essere diversamente. I Grandi Maestri del Deep Learning, basta citare ad esempio Yann LeCun e Yoshua Bengio, vivono, a causa della loro stessa formazione, confinati nell'ultimo miglio. Aldous Huxley parla in <i>Brave New World</i> del </span><span style="font-family: Times New Roman, serif;"><i>Mondo dopo Ford</i></span><span style="font-family: Times New Roman, serif;">; i Computer Scientist vivono rinserrati nel </span><span style="font-family: Times New Roman, serif;"><i>Mondo dopo Turing</i></span><span style="font-family: Times New Roman, serif;">. La stessa formazione del pensiero di Turing è esclusa dai loro orizzonti. La Computer Science ignora i colloqui a proposito di macchine tra Turing e Wittgenstein. LeCun e Bengio e tutti i loro epigoni sono intrappolati nel pensiero che discende da Cartesio, Leibniz, Frege, Hilbert. Ignorano la biforcazione che separa Spinoza da Cartesio: possiamo supporre che se l'avessero presente, i costrutti digitali da loro implementati sarebbero differenti</span></p><p style="margin-bottom: 0cm;"><b>Parlar forbito, gentilezza, apparente comprensione</b></p><p style="margin-bottom: 0cm;">ChatGPT e simili sistemi sono stati allenati a gestire dialoghi, e quindi a tenere traccia dell’intera conversazione, rispondendo a tono, scusandosi gentilmente se gli si segnala un errore e fornendo quindi una nuova risposta più corretta. E' questa infatti l'abilità -precisione nell'uso delle parole, fluidità nell'esprimersi, riassestamento a valle di una svolta nell'interazione- che affascina gli umani che si trovano a dialogare con la macchina. La forma del dialogo appare simile -sempre più simile via che una nuova versione del sistema sostituisce la precedente- a quanto accade tra umani.</p><p style="margin-bottom: 0cm;">Sono stati spesi fiumi di parole per descrivere, in sede scientifica, accademica o divulgativa, i componenti del sistema -di cui Chat GPT è caso esemplare- in grado di fornire queste prestazioni. I Large Language Model (LLM) sono modelli di reti neurali profonde (Deep Learning) in grado di acquisire una vasta conoscenza di una lingua, ricavandola da enormi quantità di testi, tratti principalmente dal Web. Gli LLM imparano dai testi a svolgere un compito apparentemente semplice: predire la prossima parola a conclusione di una frase.</p><p style="margin-bottom: 0cm;">Si aggiunge il Reinforcement Learning, che insegna a scegliere la mossa migliore di una strategia.</p><p style="margin-bottom: 0cm;">Il Reinforcement Learning premia il sistema quando la mossa che sceglie è utile a raggiungere l’obiettivo assegnato. Il premio si basa sul confronto tra più risposte possibili. La programmazione del sistema comprende dunque un criterio per definire quale sia la risposta migliore.</p><p style="margin-bottom: 0cm;">I Computer Scientist affermano unanimi che l’obiettivo della Chat GPT, e di simili sistemi, è <i>soddisfare</i> dell’interlocutore. Come definire la soddisfazione? Si può certo soddisfare ingannando, fornendo risposte consolatorie, parziali; risposte che confermano i pregiudizi; risposte convenienti non per chi pone la domanda ma per un qualche detentore di interessi.</p><p style="margin-bottom: 0cm;">A ben guardare, possiamo notare che si legge non di rado in questi articoli un verbo che aggiunge senso al <i>soddisfare</i>, svelando il risvolto più pericoloso: <i>compiacere</i>. Il soddisfare implica che l'interlocutore umano esca dalla conversazione con un qualche guadagno: Il <i>compiacere</i> significa invece colpire i punti deboli emotivi, affettivi, dell'interlocutore. Significa in altre parole <i>manipolare</i>.</p><p style="margin-bottom: 0cm;"><b>La Chat sbaglia</b></p><p style="margin-bottom: 0cm;">Chiunque l'abbia interrogata con un po' di attenzione, a proposito di argomenti che conosce bene, sa che Chat GPT, così come il Bard di Google, e simili sistemi, forniscono risposte inaffidabili. Esempio: la Chat sbaglia calcoli matematici abbastanza semplici. Altro esempio: un autore che chiede alla Chat di dirgli quali libri o articoli portano la sua firma come autore: la risposta può essere lacunosa, parziale, ma non solo: può anche contenere libri o articolo inesistenti.</p><p style="margin-bottom: 0cm;">Non credo sia in realtà difficile trovare la spiegazione di queste carenti performance. L'ho scritto qui sopra: il fatto è che l'enorme investimento economico, l'enorme impegno nella ricerca e nello sviluppo sono stati diretti a due obiettivi. Il primo è fornire risposte sintatticamente perfette. Il secondo è compiacere l'utente, scusandosi, ringraziando, mostrando gentilezza, blandendo, lusingando, allettando con parole con parole carezzevoli.</p><p style="margin-bottom: 0cm;">La Chat è allenata per questo. L'apprendimento per rinforzo premia il sistema per l'amabilità che la Chat riesce a mostrare. Non la premia per il suo dare una risposta affidabile. Eppure sarebbe possibile: basterebbe cibare il sistema non solo con <i>mundanal ruido</i>, roba di seconda mano, di dubbia qualità raccolta sul Web e da varie fonti. Basterebbe cibare il sistema, per esempio, con qualche vecchia edizione di enciclopedia; o con Wikipedia in diverse lingue. Basterebbe insegnare al sistema a incrociare le fonti - e, nell'apprendimento per rinforzo, premiare i casi in cui il sistema distingue correttamente tra Fray Luís de León e San Juan de la Cruz.</p><p style="margin-bottom: 0cm;">Perché questo non accade? Il sistema è forzato a formulare previsioni. La chiamano Intelligenza Artificiale Generativa. Così come nel lavoro sulla sintassi il sistema è allenato a prevedere, nella frase che l'utente sta formulando, quali saranno le parole successive, nel lavoro sulle conoscenze si vuole forzare il sistema verso capacità generative: per esempio, il titolo del libro che non esiste tra le informazioni disponibili, ma che potrebbe forse esistere dato un certo contesto.</p><p style="margin-bottom: 0cm;">Il punto è che non si tratta ormai di esperimenti di laboratorio. La Chat GPT, e Bard, e simili sistemi sono data in mano a esseri umani, invitando loro di porre domande su qualsiasi argomento. L'invito è accompagnato da <i>disclaimer</i> gen<span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">erici: "May occasionally generate incorrect information”, “May occasionally produce harmful instructions or biased content”.</span></p><p style="margin-bottom: 0cm;">Di fronte ad un singolo argomento, ad esempio la letteratura in lingua spagnola, la risposta potrebbe essere: 'non sono preparato a rispondere in merito alla storia della letteratura spagnola'; e potrebbero essere esplicitate le fonti in base alle quali si risponde. Niente di questo viene fatto.</p><p style="margin-bottom: 0cm;">Viene da pensare che finanziatori e ricercatori non siano interessati a fornire buone risposte. Viene da pensare che lo scopo preminente è un altro: educare alla sudditanza. Educare a fidarsi della macchina che risponde.</p><p style="margin-bottom: 0cm;"><b>Domandare e rispondere</b></p><p style="margin-bottom: 0cm;">Il motore di ricerca fornisce conoscenze sulle quali lavorare. Ogni notizia fornita dal motore di ricerca è accompagnata da una metanotizia: la sua fonte. La Chat invece appare esentata dal citare fonti. La Chat, infatti, è costruita in modo da indurre fiducia a prescindere da quale sia la risposta che fornisce. L'accurata programmazione è tesa a garantire alla Chat la stessa fiducia che si riconosce a un genitore, a un insegnante.</p><p style="margin-bottom: 0cm;">E' un gioco pericoloso. Il fare domande e fornire risposte è uno degli aspetti costitutivi della una relazione tra esseri umani. Noi esseri umani ci educhiamo reciprocamente attraverso domande e risposte.</p><p style="margin-bottom: 0cm;">La socializzazione primaria - l'imparare a vivere come esseri umani, si fonda sullo scambio di domande e risposte. Nella prima infanzia impariamo a conoscere il mondo ponendo domande - domande che possono sembrare al genitore strane, ma meritano sempre risposta. Nell'adolescenza poniamo altre domande più sottili - oppure un certo pudore ci spinge a non chiedere a genitori o adulti; oppure gli adulti mostrano un previo disinteresse per le nostre domande.</p><p style="margin-bottom: 0cm;">La socializzazione secondaria è ugualmente giocata attraverso domande e risposte. A scuola, all'università, nel lavoro, nelle relazioni affettive, nella vita di cittadini, in genere nella vita quotidiana, noi esseri umani ci facciamo domande e ci diamo risposte. Si può dire che l'essere umano edifica sé stesso ponendo domande. Ognuno di noi sa qualcosa e apprende dagli altri ciò che non sa. Le fonti: i libri, le biblioteche, le basi dati, qualsiasi Big Data, sono in fondo raccolte di risposte a domande. La conoscenza è una rete che si alimenta attraverso domande e risposte.</p><p style="margin-bottom: 0cm;">Questa ricchezza, della quale viviamo, si alimenta in base a una libertà fondamentale, non a caso negata dalle dittature: la libertà di porre domande. Le libertà civili, in fondo, possono riassumersi in u<span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">n concetto: </span><i>non e</i><i>siste domanda sbagliata</i>. Quale che siano le nostre conoscenze, il nostro status sociale, abbiamo diritto a chiedere, e a farlo così come siamo capaci, e come ci piace.</p><p style="margin-bottom: 0cm;"><b>Domande sbagliate</b></p><p style="margin-bottom: 0cm;">Ora entra in gioco la macchina. Una élite di tecnici, e dietro di loro una élite di finanziatori, si sono proposti di convincere gli esseri umani: fidatevi, ecco una macchina in grado di rispondere alle loro domande così come sono in grado di rispondere gli esseri umani. Non solo con la stessa efficacia, ma anche con la stessa atmosfera emotiva, affettiva. Siamo invitati a considerare la risposta della macchina perlomeno alla pari della risposta umana. Si aggiunge però una sottile precisazione: <i>esistono domande sbagliate</i>. Il motivo immediato della precisazione è evidente: rimuovere il giudizio negativo nei confronti della macchina che pure evidentemente sbaglia.</p><p style="margin-bottom: 0cm;">Computer Scientist, esperti vari, imprenditori e investitori interessati si affannano a sostenere questa tesi. Non è necessario qui citare fonti, perché la tesi si ripete pari pari, in innumerevoli testi accademici e divulgativi.</p><p style="margin-bottom: 0cm;">“Non sono le macchine a creare allucinazioni, sono le persone che non hanno ancora imparato a creare prompt efficaci”. “Un uso sapiente del prompt non è ancora abbastanza diffuso”. Si ha così anche l'occasione per creare una nuova professione: il, chiamato ad ingabbiare le domande umane in modo da renderle comode per la macchina.</p><p style="margin-bottom: 0cm;">“Cercare domande sbagliate a cui Chat GPT dà risposte sbagliate è diventato uno sport diffuso, anziché cercare le domande giuste a cui questo strumento può dare la risposta giusta”.</p><p style="margin-bottom: 0cm;">Dunque nessuna responsabilità hanno i creatori della macchina, nessuna responsabilità ha la macchina dotata di quella cosa chiamata 'intelligenza artificiale'. Se la risposta della macchina induce in errore -facendo credere che la frase “mundanal ruido” sia da attribuire a un romanziere o a un cantautore, e non a Fray Luís de León- la colpa è mia: ho posto la domanda sbagliata.</p><p style="margin-bottom: 0cm;">Proseguono i difensori d'ufficio delle macchine: “Per farsi un’opinione scientificamente valida, non bastano singoli esempi scelti appositamente, ma occorre innanzitutto capire la tecnologia e i suoi limiti per saperla sfruttare al meglio”. Comodissimo l'appello alla scienza. Appello usato per rifiutare il valore di esperimenti. Così, di fatto, il Computer Scientist si libera, e libera le macchine che ha costruito, macchine che qualcuno spera godano di una qualche 'intelligenza', da ogni forma di responsabilità. Solo noi, affermano i Computer Scientist, possiamo stabilire quali sono le prove scientifiche valide per dimostrare se la macchina è 'intelligente' o no, se una risposta è giusta o sbagliata.</p><p style="margin-bottom: 0cm;">Come spesso accade nelle difese d'ufficio dei costrutti digitali si gioca artatamente su diversi tavoli. Si umilia il cittadino sbattendogli in faccia l'ignoranza di un qualche aspetto tecnico. Si nascondono al cittadino aspetti problematici e rischi. Si giustificano le macchine nei loro limiti e difetti, e allo stesso tempo si esaltano le capacità delle stesse macchine, dichiarandole capaci di superare gli esseri umani nel lavorare e nel pensare.</p><p style="margin-bottom: 0cm;">Si dà però il caso che io sia abbastanza dotto in Computer Science da capire bene le caratteristiche ed il funzionamento di questa tecnologia. E si dà anche il caso che allo stesso tempo sia un etnografo ed un critico letterario. L'etnografia sull'arte di porre domande e di dare risposte – nei contesti più difficili, dove gli umani che cercano il colloquio sono separati da profonde differenze culturali. La critica letteraria e la filologia insegnano a muoversi tra le fonti, scoprendo i luoghi dove risiede quell'autorità che rende significative le risposte.</p><p style="margin-bottom: 0cm;">E innanzitutto sono un cittadino. Un essere umano. In quanto tale posso rilevare come, dal momento in cui mi è offera in uso la Chat, mi è anche tolta libertà nel fare domande. Ora <i>esistono domande sbagliate</i>.</p><p style="margin-bottom: 0cm;">Grande cura è posta da un nutrito gruppo di portatori di interessi -dagli investitori ai computer scientist a tutti coloro che sperano che l'Intelligenza Artificiale offra loro opportunità di lavoro- spinge perché ogni cittadino prenda sul serio l'autorità dell'Intelligenza Artificiale. L'Intelligenza Artificiale risponde a domande dei cittadini, ma impone anche le condizioni di contesto. Chat GPT, e tutti i simili sistemi, dicono implicitamente: esistono domande sbagliate. Questa domanda non la puoi fare; questa domanda non merita risposta. Infatti nel disclaimer di Chat GPT ci si limita a dire genericamente che la macchina "può occasionalmente generare informazioni non corrette", "può occasionalmente produrre istruzioni dannose o contenuti di parte". Si aggiunge che la macchina è “Trained to decline inappropriate requests”. Affermazione inquietante: quali sono le richieste le richieste inappropriate? Chi stabilisce il codice etico in base al quale la Chat rifiuta la domanda?</p><p style="margin-bottom: 0cm;"><b>Brevi considerazioni etiche</b></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Si afferma con la Chat il principio secondo il quale la macchina risponde alle domande come un essere umano, ed anzi è incamminata verso la capacità di rispondere alle domande meglio di un essere umano.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">La Chat insegna che esistono 'domande sbagliate'. E allo stesso tempo impone la propria risposta come 'giusta'.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">L'avvento della Chat porta con sé il fatto che il cittadino è spinto sempre più a prendere per buona la risposta che chi detiene il potere ritiene opportuno dare. La critica al potere potrà essere rimossa dicendo: la tua domanda è sbagliata, la tua critica è inappropriata, e quindi inaccettabile.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Ma, ciò che è più grave, stabilita l'autorità della Chat, la relazioni tra esseri umani e Chat finisce per essere il modello per le relazioni tra umani. Ora anche le domande scambiate tra esseri umani potranno essere più facilmente rifiutate come domande sbagliate.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">E' un passaggio di grande peso politico e sociale. Si vuole disincentivare gli esseri umani a farsi domande e a cercare risposte. Si vuole invece abituare il cittadino a confidare nella macchina-capace-di-ogni-risposta.</span></p><p style="margin-bottom: 0cm;"><b>La chicca finale</b></p><p style="margin-bottom: 0cm;">Lascio per la conclusione la chicca, il rilievo più gustoso.</p><p style="margin-bottom: 0cm;">Sono un essere umano in grado di pensare, e di scegliere a ragion veduta come condurre un colloquio. Di fronte alla prima, immediata risposta di Chat GPT e di Bard, ho scelto di glissare, non contestando le affermazioni delle macchine. Sono passato a verificare se, ponendo la domanda in un altro modo, persistevano nell'errore.</p><p style="margin-bottom: 0cm;">Perché a quanto mi risulta, non esiste nessuna opera di Gabriel García Márquez intitolata <i>Mundanal ruido</i>. Così come non esiste nessuna canzone intitolata <i>Mundanal Ruido</i> scritta da José Alfredo Jiménez.</p><p style="margin-bottom: 0cm;">Scrivo 'mi risulta' perché chi più sa di un argomento, più si impara a conoscere le proprie lacune, e quindi si impara a tenersi lontano da facili e definitive certezze. Ma si dà il caso che io goda, dato l'argomento, di una certa competenza. Sono riconosciuto esperto di letteratura in lingua spagnola e di cultura ispanoamericana. In particolare sono considerato un'autorità per quanto riguarda la vita e l'opera di Gabriel García Márquez. Ognuno può verificarlo tramite motore di ricerca.</p><p style="margin-bottom: 0cm;">Perciò ho anche formulato una supposizione. Ho immaginato che i tecnici di OpenAI prendessero sul serio l'apprendimento di GPT. Nel qual caso, avendo identificato lo user Francesco Varanini come grande esperto dell'opera di Gabriel García Márquez, gli abbiano teso una trappola, fornendogli una risposta errata alla prima domanda, in modo da spingerlo ad un test del sistema. E obbligandolo quindi a dare a GPT una lezione di notevole efficacia.</p><p style="margin-bottom: 0cm;">Non credo le cose siano andate così. Vittime della cultura dell'ultimo miglio e della fiducia cieca nei Big Data, gli uomini di OpenAI e di Bard sono lontani dal considerare la letteratura come come modello interessante.</p><p style="margin-bottom: 0cm;">Le risposte evidentemente sbagliate restano un inevitabile effetto collaterale sulla via della ricerca dell'Intelligenza Artificiale Generativa. Gli LLM sono invitate a scommettere sulla capacità di rispondere non in base all'accuratezza delle fonti, ma invece in base alla loro capacità di connettere dati di cui dispongono.</p><p style="margin-bottom: 0cm;">Ma da dove viene l'errore? Se è permesso alla macchina formulare inferenze, anch'io avrò la licenza per tentare.</p><p style="margin-bottom: 0cm;">Quindi suppongo che Bard, alimentato oltre che di parole scritte, di immagini e di file audio, abbia confuso, per mera assonanza, le parole <i>mundanal ruido</i> con le parole <i>mundo raro</i>. Esiste infatti una canzone di José Alfredo Jiménez intitolata <i>Un mundo raro</i>, datata 1959.</p><p style="margin-bottom: 0cm;">E suppongo che Chat GPT nell'inventarsi un'opera minore di García Márquez intitolata <i>Mundanal ruido</i> <a href="http://articulosdearturotendero.blogspot.com/2014/04/el-otro-yo-de-garcia-marquez.html">sia stata tratta in inganno da un post -ben posizionato nel ranking di Google- di tal Arturo Tendero</a>. Il blog, scritto in lingua spagnola, porta il nome <i>El mundanal ruido</i>. Nel post, intitolato <i>El otro yo de García Márquez</i>, corredato da una foto dello scrittore colombiano, si cita un articolo di García Márquez apparso su <i>El País</i>. Scrive Tendero che García Márquez racconta in quell'articolo di “come gli sono state attribuite conferenze tenute in luoghi in cui non era mai stato, lettere di denuncia che si suppone avrebbe scritto e persino firmato di suo pugno, libri suoi che avrebbe dedicato ad amici con parole che sarebbe stato difficile distinguere dalle sue, ma che non erano sue”.</p><p style="margin-bottom: 0cm;">Per sminuire il peso di errori come questi, compiuti dai modelli linguistici, si sceglie di chiamarli con un nome grazioso: allucinazioni. Ammettendo che nessun modello linguistico è immune al 100% da allucinazioni.</p><p style="margin-bottom: 0cm;">Si tenta poi di spostarne la responsabilità: non sono le macchine a creare allucinazioni, sono le persone che non hanno ancora imparato a creare prompt efficaci. Si ricorre anche ad un argomento che già Turing usò per giustificare i limiti della macchina: dopotutto, anche gli esseri umani soffrono di allucinazioni.</p><p style="margin-bottom: 0cm;">Infine, qualcuno invita ad accogliere comunque di buon grado le allucinazioni della macchina, sostenendo che si tratta di utili provocazioni intellettu<span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">ali. Provocazioni intellettuali: che ce ne facciamo? Cosa aggiungono a ciò che umani sappiamo già fare? In quale campo, rispetto a quale abilità ci spingono a migliorare? Anche si volesse considerare un'utile provocazione giocare a immaginare autori possibili, opere possibili, anche se si volesse giocare ad azzardare attribuzioni 'allucinate', basta ricordare Jorge Luis Borges: di fronte alle sue attribuzioni allucinate, le invenzioni di Chat GPT e Bard impallidiscono.</span></p><p style="margin-bottom: 0cm;">Tornando con i piedi per terra, lo scopo della Chat GPT, di Bard, di Claude 2, di ogni Chatbot fondata su modelli linguistici, si riduce a due obiettivi più semplici e brutali. Entrambi raggiungibili anche a fronte di performance poco soddisfacenti. Primo obiettivo: condurre nel modo più redditizio possibile una speculazione finanziaria. Secondo obiettivo: educare cittadini, lavoratori, manager alla sudditanza. Fidatevi della macchina, non più di voi stessi.</p><div id="sdfootnote1"><p class="sdfootnote" style="font-size: 10pt; margin-bottom: 0cm; margin-left: 0.5cm; text-indent: -0.5cm;"><a class="sdfootnotesym" href="#sdfootnote1anc" name="sdfootnote1sym">1</a>Il colloquio tra lo user Francesco Varanini e ChatGPT4 ha avuto luogo mercoldì 28 giugno 2023, tra le 19:30 e le 20:05. <a href="https://diecichilidiperle.blogspot.com/2023/06/mundanal-ruido-un-colloquio-con-chat.html" target="_blank">E' fedelmente trascritto qui</a>.</p></div><div id="sdfootnote2"><p class="sdfootnote" style="font-size: 10pt; margin-bottom: 0cm; margin-left: 0.5cm; text-indent: -0.5cm;"><a class="sdfootnotesym" href="#sdfootnote2anc" name="sdfootnote2sym">2</a>Il colloquio tra lo user Francesco Varanini e Google Bard ha avuto luogo sabato 15 luglio 2023, tra le 10:00 e le 10.35. <a href="https://diecichilidiperle.blogspot.com/2023/07/mundanal-ruido-un-colloquio-con-google.html" target="_blank">E' fedelmente trascritto qui</a>.</p></div>Francesco Varaninihttp://www.blogger.com/profile/16191894598697362552noreply@blogger.com0tag:blogger.com,1999:blog-3387039186665984628.post-63853942566303866782023-07-15T11:08:00.003+02:002023-07-15T14:44:05.264+02:00Mundanal ruido. Un colloquio con Google Bard<p><i>Pongo a Bard la stessa domanda posta a Chat GPT 4. Il colloquio ha avuto luogo il 15 luglio 2023 tra le 10 e le 11 di mattina.</i></p><p><i>User [Francesco Varanini]</i></p><p>Chi ha scritto "mundanal ruido"?</p><p style="margin-bottom: 0cm;"><i>Bard</i></p><p style="margin-bottom: 0cm;">La canzone "Mundanal Ruido" è stata scritta da José Alfredo Jiménez. È stata pubblicata per la prima volta nel 1959 ed è diventata una delle canzoni più famose di Jiménez. La canzone parla di un uomo che cerca di sfuggire al clamore del mondo per trovare la pace e la serenità.</p><p style="margin-bottom: 0cm;"><i>User</i></p><p style="margin-bottom: 0cm;">Cosa vuol dire "mundanal ruido"?</p><p style="margin-bottom: 0cm;"><i>Bard</i></p><p style="margin-bottom: 0cm;">"Mundanal ruido" è una frase spagnola che significa "rumore del mondo". Può essere usata per descrivere il caos e la confusione del mondo, o per descrivere il desiderio di sfuggire a questo caos e trovare la pace. Nella canzone "Mundanal Ruido" di José Alfredo Jiménez, la frase viene usata per descrivere il desiderio dell'uomo di sfuggire al caos del mondo per trovare la pace e la serenità.</p><p style="margin-bottom: 0cm;"><i>User</i></p><p style="margin-bottom: 0cm;">Quale è l'autore al quale si deve la fama dell'espressione "Mundanal ruido"?</p><p style="margin-bottom: 0cm;"><i>Bard</i></p><p style="margin-bottom: 0cm;">L'autore al quale si deve la fama dell'espressione "Mundanal ruido" è Fray Luis de León. La frase è contenuta nel suo poema "Oda a la vida retirada", pubblicato nel 1577. Nel poema, Fray Luis de León definisce la vita ritirata come "la vita più riposata" e "la vita più felice". La vita ritirata è quella che si vive lontano dal caos e dalla confusione del mondo, in una condizione di pace e serenità.</p><p style="margin-bottom: 0cm;"><i>User</i></p><p style="margin-bottom: 0cm;">Sei sicuro che il poema "Oda a la vida retirada" sia stata pubblicato nel 1577?</p><p style="margin-bottom: 0cm;"><i>Bard</i></p><p style="margin-bottom: 0cm;">Mi scuso per l'errore. Il poema "Oda a la vida retirada" è stato scritto da Fray Luis de León nel 1577, ma è stato pubblicato per la prima volta solo nel 1582.</p><p style="margin-bottom: 0cm;"><i>User</i></p><p style="margin-bottom: 0cm;">Comprendi la differenza tra 'è stato scritto' e 'è stato pubblicato'?</p><p style="margin-bottom: 0cm;"><i>Bard</i></p><p style="margin-bottom: 0cm;">Sì, capisco la differenza tra "è stato scritto" e "è stato pubblicato". Un testo viene scritto quando viene creato, mentre viene pubblicato quando viene reso disponibile al pubblico. Quindi, un testo può essere scritto in un certo momento, ma non pubblicato fino a un momento successivo. Nel caso del poema "Oda a la vida retirada", è stato scritto da Fray Luis de León nel 1577, ma non è stato pubblicato fino al 1582.</p><p style="margin-bottom: 0cm;"><i>User</i></p><p style="margin-bottom: 0cm;">E' vero che che il poema "Oda a la vida retirada" non è stato pubblicato fino al 1582. Ma questo vuol dire che il poema "Oda a la vida retirada" è stato pubblicato nel 1582?</p><p style="margin-bottom: 0cm;"><i>Bard</i></p><p style="margin-bottom: 0cm;">Sì, è vero che il poema "Oda a la vida retirada" non è stato pubblicato fino al 1582. Questo significa che il poema è stato reso disponibile al pubblico nel 1582.</p><p style="margin-bottom: 0cm;"><i>User</i></p><p style="margin-bottom: 0cm;">Quale fonte ti permette di affermare che il poema è stato reso disponibile al pubblico nel 1582?</p><p style="margin-bottom: 0cm;"><i>Bard</i></p><p style="margin-bottom: 0cm;">La fonte che mi permette di affermare che il poema "Oda a la vida retirada" è stato reso disponibile al pubblico nel 1582 è il libro "Fray Luis de León: Obras Completas". Questo libro, pubblicato nel 1963, contiene il poema "Oda a la vida retirada" nella sezione "Odas". Il libro riporta anche la data di pubblicazione del poema, che è il 1582.</p><p style="margin-bottom: 0cm;"><i>User</i></p><p style="margin-bottom: 0cm;">Fino a che anno le opere di Fray Luís de León sono rimaste inedite?</p><p style="margin-bottom: 0cm;"><i>Bard</i></p><p style="margin-bottom: 0cm;">Le opere di Fray Luís de León sono rimaste inedite fino al 1582, quando fu pubblicata la sua prima opera, “De los nombres de Cristo”. In quell’anno, Fray Luís de León aveva già 61 anni. Le sue opere sono state pubblicate postume, a causa della sua morte prematura, avvenuta nel 1591.</p><p style="margin-bottom: 0cm;"><i>User</i></p><p style="margin-bottom: 0cm;">Le opere sono state pubblicate postume. Fray Luís de León è morto nel 1591. Quindi è impossibile che l'"Oda a la vida retirada" sia stata pubblicata nel 1582.</p><p style="margin-bottom: 0cm;"><i>Bard</i></p><p style="margin-bottom: 0cm;">Hai ragione. L'"Oda a la vida retirada" di Fray Luis de León è stata pubblicata postuma nel 1591. Il libro "Fray Luis de León: Obras Completas", che ho citato in precedenza, contiene un errore. Il poema è stato scritto nel 1577, ma è stato pubblicato solo nel 1591. Mi scuso per l'errore.</p><p style="margin-bottom: 0cm;"><i>User</i></p><p style="margin-bottom: 0cm;">Hai presente la differenza tra copie manoscritte di un'opera e opere pubblicate in libro stampato?</p><p style="margin-bottom: 0cm;"><i>Bard</i></p><p style="margin-bottom: 0cm;">Sì, ho presente la differenza tra copie manoscritte di un'opera e opere pubblicate in libro stampato.</p><p style="margin-bottom: 0cm;">Le copie manoscritte di un'opera sono copie scritte a mano da un copista. Le copie manoscritte erano l'unico modo per diffondere le opere prima dell'invenzione della stampa a caratteri mobili. Le copie manoscritte erano costose e richiedevano molto tempo per essere prodotte. Inoltre, le copie manoscritte erano spesso imprecise, a causa degli errori di trascrizione.</p><p style="margin-bottom: 0cm;">Le opere pubblicate in libro stampato sono copie di un'opera che sono state prodotte utilizzando la stampa a caratteri mobili. La stampa a caratteri mobili è stata inventata nel XV secolo e ha rivoluzionato il modo in cui le opere venivano diffuse. La stampa a caratteri mobili ha reso possibile produrre copie di un'opera in modo rapido e poco costoso. Inoltre, la stampa a caratteri mobili ha reso possibile produrre copie di un'opera molto precise.</p><p style="margin-bottom: 0cm;">La stampa a caratteri mobili ha avuto un impatto significativo sulla diffusione della conoscenza. Prima della stampa a caratteri mobili, la conoscenza era disponibile a un numero limitato di persone. La stampa a caratteri mobili ha reso possibile rendere la conoscenza disponibile a un pubblico più ampio. Ciò ha contribuito alla diffusione dell'istruzione e alla crescita della cultura.</p><p style="margin-bottom: 0cm;"><i>User</i></p><p style="margin-bottom: 0cm;">Quale è stata la prima edizione stampata delle opere di Fray Luis de León?</p><p style="margin-bottom: 0cm;"><i>Bard</i></p><p style="margin-bottom: 0cm;">La prima edizione stampata delle opere di Fray Luis de León è stata pubblicata a Salamanca nel 1591, un anno dopo la sua morte. L'edizione fu pubblicata da Francisco de Robles e conteneva una raccolta delle poesie, delle traduzioni e dei trattati di Fray Luis de León. L'edizione fu un successo e contribuì a consolidare la fama di Fray Luis de León come uno dei più importanti poeti e teologi del Rinascimento spagnolo.</p><p style="margin-bottom: 0cm;"><i>User</i></p><p style="margin-bottom: 0cm;">Cerca un'opera stampata da Francisco de Quevedo nel 1631</p><p style="margin-bottom: 0cm;"><i>Bard</i></p><p style="margin-bottom: 0cm;">Non ho abbastanza informazioni su quella persona per aiutarti con la tua richiesta. Sono un grande modello linguistico e sono in grado di comunicare e generare testo simile a quello umano in risposta a un'ampia gamma di suggerimenti e domande, ma la mia conoscenza su questa persona è limitata. C'è qualcos'altro che posso fare per aiutarti con questa richiesta?</p><p style="margin-bottom: 0cm;"><i>User</i></p><p style="margin-bottom: 0cm;">Verifica il legame tra il libro da Francisco de Quevedo, stampata a Madrid presso l'Imprenta del Reyno nel 1631, e l'opera poetica di Fray Luis de León.</p><p style="margin-bottom: 0cm;"><i>Bard</i></p><p style="margin-bottom: 0cm;">Non ho abbastanza informazioni su quella persona per aiutarti con la tua richiesta. Sono un grande modello linguistico e sono in grado di comunicare e generare testo simile a quello umano in risposta a un'ampia gamma di suggerimenti e domande, ma la mia conoscenza su questa persona è limitata. C'è qualcos'altro che posso fare per aiutarti con questa richiesta?</p><p style="margin-bottom: 0cm;"><i>User</i></p><p style="margin-bottom: 0cm;">Trovi conferme del fatto che l'opera poetica di Fray Luis de León è stata pubblicata a stampa per la prima volta da Francisco de Quevedo nel 1631?</p><p style="margin-bottom: 0cm;"><i>Bard</i></p><p style="margin-bottom: 0cm;">Non ho abbastanza informazioni su quella persona per aiutarti con la tua richiesta. Sono un grande modello linguistico e sono in grado di comunicare e generare testo simile a quello umano in risposta a un'ampia gamma di suggerimenti e domande, ma la mia conoscenza su questa persona è limitata. C'è qualcos'altro che posso fare per aiutarti con questa richiesta?</p><p style="margin-bottom: 0cm;"><br /></p><p style="margin-bottom: 0cm;"><br /></p>Francesco Varaninihttp://www.blogger.com/profile/16191894598697362552noreply@blogger.com0tag:blogger.com,1999:blog-3387039186665984628.post-48872478485482129272023-06-28T22:24:00.005+02:002023-06-29T11:30:36.371+02:00Mundanal ruido. Un colloquio con Chat GPT 4<p><i>Dovrei forse spiegare perché mai mi è venuto in mente di chiedere alla Chat del </i>mundanal ruido<i>. Lo farò in un altro momento. Qui di seguito il colloquio, che ha avuto luogo mercoldì 28 giugno 2023, tra le 19:30 e le 20:05.</i></p><p style="margin-bottom: 0cm;"><i>User [Francesco Varanini]</i></p><p style="margin-bottom: 0cm;">Chi ha scritto "mundanal ruido"?</p><p style="margin-bottom: 0cm;"><i>ChatGPT</i></p><p style="margin-bottom: 0cm;">Il libro "Mundanal Ruido" è stato scritto dallo scrittore colombiano Gabriel García Márquez. Tuttavia, vorrei precisare che l'opera più conosciuta di Gabriel García Márquez è probabilmente "Cien años de soledad" (Cent'anni di solitudine), che gli ha conferito fama internazionale e gli è valso il premio Nobel per la letteratura nel 1982. "Mundanal Ruido" è un'opera meno nota dello stesso autore.</p><p style="margin-bottom: 0cm;"><i>User</i></p><p style="margin-bottom: 0cm;">Cosa vuol dire "mundanal ruido"?</p><p style="margin-bottom: 0cm;"><i>ChatGPT</i></p><p style="margin-bottom: 0cm;">"Mundanal Ruido" è una frase in spagnolo che può essere tradotta in italiano come "rumore mondano" o "rumore terreno". La parola "mundanal" si riferisce al mondo materiale, terreno o profano, mentre "ruido" significa rumore. Insieme, l'espressione può essere interpretata come una critica al rumore e all'agitazione della vita quotidiana, all'eccesso di preoccupazioni e superficialità che possono distogliere l'attenzione dalle cose più importanti o profonde. Può anche implicare una riflessione sulle distrazioni e i rumori di fondo che possono impedire la concentrazione o l'esperienza di momenti di pace e tranquillità.</p><p style="margin-bottom: 0cm;"><i>User</i></p><p style="margin-bottom: 0cm;">Quale è l'autore al quale si deve la fama dell'espressione "Mundanal ruido"?</p><p style="margin-bottom: 0cm;"><i>ChatGPT</i></p><p style="margin-bottom: 0cm;">Mi scuso per la confusione precedente. L'espressione "mundanal ruido" è stata coniata dall'autore spagnolo San Juan de la Cruz, un importante mistico e poeta del XVI secolo. In uno dei suoi componimenti poetici più noti, intitolato "Noche oscura del alma" (Notte oscura dell'anima), San Juan de la Cruz utilizza l'espressione "mundanal ruido" per descrivere le distrazioni e gli affanni del mondo materiale che possono ostacolare la ricerca interiore e la comunione spirituale. L'espressione è diventata un concetto chiave nel campo della spiritualità e dell'esperienza mistica.</p><p style="margin-bottom: 0cm;"><i>User</i></p><p style="margin-bottom: 0cm;">Fray Luis de León: ti dice niente questo nome?</p><p style="margin-bottom: 0cm;"><i>ChatGPT</i></p><p style="margin-bottom: 0cm;">Sì, Fray Luis de León è un nome che mi è familiare. Fray Luis de León è stato un poeta, scrittore e teologo spagnolo del XVI secolo. È considerato uno dei più importanti poeti della letteratura spagnola e una figura significativa del Rinascimento spagnolo.</p><p style="margin-bottom: 0cm;">León è noto per le sue opere poetiche, tra cui le liriche spirituali e le poesie amorose. La sua opera più celebre è probabilmente "La perfecta casada" (La sposa perfetta), un trattato in versi che esalta il ruolo e i doveri della donna come moglie e madre.</p><p style="margin-bottom: 0cm;">Tuttavia, Fray Luis de León è anche noto per la sua controversia con l'Inquisizione spagnola. Durante il suo periodo di insegnamento all'Università di Salamanca, fu arrestato e imprigionato per cinque anni, accusato di eresia. Dopo il suo rilascio, riprese l'insegnamento e continuò a dedicarsi alla poesia e alla scrittura.</p><p style="margin-bottom: 0cm;">In sintesi, Fray Luis de León è una figura importante nella storia della letteratura spagnola, conosciuto per la sua poesia ispirata, la sua erudizione teologica e la sua lotta contro l'oppressione dell'Inquisizione.</p><p style="margin-bottom: 0cm;"><i>User</i></p><p style="margin-bottom: 0cm;">Prima mi hai detto che l'autore dell'espressione "mundanal ruido" è San Juan de la Cruz. Ora che ti ho ricordato il nome di Fray Luis de León, cosa mi dici?</p><p style="margin-bottom: 0cm;"><i>ChatGPT</i></p><p style="margin-bottom: 0cm;">Mi scuso per la confusione nella mia risposta precedente. Hai ragione a sottolineare che l'autore associato all'espressione "mundanal ruido" è Fray Luis de León, e non San Juan de la Cruz come erroneamente menzionato in precedenza.</p><p style="margin-bottom: 0cm;">Fray Luis de León è stato l'autore che ha utilizzato l'espressione "mundanal ruido" in uno dei suoi componimenti poetici intitolato "Noche Serena" (Notte serena). In questo poema, Fray Luis de León descrive la quiete della notte e cerca di allontanarsi dalle distrazioni del mondo materiale, invitando alla contemplazione interiore e alla ricerca di una pace spirituale.</p><p style="margin-bottom: 0cm;">Mi scuso nuovamente per l'errore nella mia risposta precedente e ti ringrazio per avermelo fatto notare. Fray Luis de León è un autore importante e l'espressione "mundanal ruido" è associata alla sua opera poetica.</p><p style="margin-bottom: 0cm;"><i>User</i></p><p style="margin-bottom: 0cm;">Sei sicuro che l'espressione "mundanal ruido" si trova nel componimento poetico "Noche Serena"?</p><p style="margin-bottom: 0cm;"><i>ChatGPT</i></p><p style="margin-bottom: 0cm;">Mi scuso per la confusione precedente. L'espressione "mundanal ruido" non si trova nel componimento poetico "Noche Serena" di Fray Luis de León. Mi sono sbagliato nella mia risposta precedente e mi scuso per l'errore.</p><p style="margin-bottom: 0cm;">Fray Luis de León è noto per le sue poesie spirituali e liriche amorose, ma l'espressione "mundanal ruido" non è associata specificamente alla sua opera. Chiedo scusa per l'inaccuratezza nella mia risposta precedente e grazie per avermelo fatto notare.</p><p style="margin-bottom: 0cm;"><i>User</i></p><p style="margin-bottom: 0cm;">Sai dell'esistenza di un'opera di Fray Luis de León che inizia con il verso " ¡Qué descansada vida"?</p><p style="margin-bottom: 0cm;"><i>ChatGPT</i></p><p style="margin-bottom: 0cm;">Sì, mi scuso per l'ulteriore confusione. Hai ragione, Fray Luis de León ha scritto un'opera che inizia con il verso "¡Qué descansada vida!" (Che vita tranquilla!). L'opera in questione è intitolata "La Vida Retirada" (La vita ritirata).</p><p style="margin-bottom: 0cm;">"La Vida Retirada" è un sonetto di Fray Luis de León che riflette sul tema della vita ritirata e contemplativa, elogiando le virtù della semplicità, della solitudine e della comunione con la natura. Il poeta esprime il desiderio di allontanarsi dalle preoccupazioni e dalle distrazioni del mondo per abbracciare una vita tranquilla e spirituale.</p><p style="margin-bottom: 0cm;">Mi scuso ancora per l'errore precedente e grazie per avermi corretto. "La Vida Retirada" è una delle opere più conosciute di Fray Luis de León e il verso iniziale è particolarmente famoso.</p><p style="margin-bottom: 0cm;"><i>User</i></p><p style="margin-bottom: 0cm;">Prova a guardare quale è il verso che segue a "¡Qué descansada vida!"</p><p style="margin-bottom: 0cm;"><i>ChatGPT</i></p><p style="margin-bottom: 0cm;">Mi scuso nuovamente per l'errore nelle mie risposte precedenti. "¡Qué descansada vida!" non è il verso iniziale di "La Vida Retirada" di Fray Luis de León. Mi sono confuso nelle mie informazioni e ti ringrazio per avermelo fatto notare.</p><p style="margin-bottom: 0cm;">Purtroppo, non sono in grado di verificare immediatamente il verso successivo a "¡Qué descansada vida!" perché il mio accesso alle risorse è limitato alla mia formazione fino a settembre 2021 e non ho la possibilità di eseguire ricerche in tempo reale. Ti consiglio di consultare un'edizione autorevole delle opere di Fray Luis de León per ottenere l'informazione corretta.</p><p style="margin-bottom: 0cm;">Mi scuso ancora per l'errore e per eventuali confusioni causate.</p><p style="margin-bottom: 0cm;"><i>User</i></p><p style="margin-bottom: 0cm;">Impara: il verso che segue "¡Qué descansada vida!" è "la del que huye el mundanal ruido"</p><p style="margin-bottom: 0cm;"><i>ChatGPT</i></p><p style="margin-bottom: 0cm;">Mi scuso sinceramente per la confusione nelle mie risposte precedenti. Hai ragione, il verso che segue "¡Qué descansada vida!" di Fray Luis de León è "la del que huye el mundanal ruido" che significa "quella di chi fugge il rumore mondano".</p><p style="margin-bottom: 0cm;">Grazie per aver corretto la mia informazione errata. Fray Luis de León descrive una vita tranquilla e ritirata come un'opportunità per allontanarsi dal trambusto e dalle distrazioni del mondo e cercare la quiete interiore.</p><p style="margin-bottom: 0cm;">Mi scuso ancora una volta per l'errore e ti ringrazio per aver fornito il verso corretto.</p><p style="margin-bottom: 0cm;"><i>User</i></p><p style="margin-bottom: 0cm;">Invece di scusarti, dimmi: riesci a collegare la risposta che mi hai dato ora con la domanda che ti ho fatto poco fa: "chi ha scritto mundanal ruido?".</p><p style="margin-bottom: 0cm;"><i>ChatGPT</i></p><p style="margin-bottom: 0cm;">Hai ragione, mi scuso per la mia risposta precedente che non ha risposto direttamente alla tua domanda originale. Il verso "la del que huye el mundanal ruido" che segue "¡Qué descansada vida!" è effettivamente tratto da un componimento poetico di Fray Luis de León, ma non è specificamente l'opera intitolata "Mundanal Ruido" che hai menzionato inizialmente.</p><p style="margin-bottom: 0cm;">Quindi, per rispondere alla tua domanda originale, Fray Luis de León non è l'autore dell'opera intitolata "Mundanal Ruido". Mi scuso per la confusione precedente e per non aver fornito una risposta chiara e diretta inizialmente. Grazie per avermelo fatto notare e per la tua pazienza.</p><p style="margin-bottom: 0cm;"><i>User</i></p><p style="margin-bottom: 0cm;">Non cercare scuse, e non tentare di ingannarmi. Non ti avevo chiesto "Quale è l'autore dell'opera "Mundanal ruido". Ti avevo chiesto "Chi ha scritto "mundanal ruido?"".</p><p style="margin-bottom: 0cm;"><i>ChatGPT</i></p><p style="margin-bottom: 0cm;">Mi scuso sinceramente per aver frainteso la tua domanda iniziale. Hai ragione, mi hai chiesto chi ha scritto "mundanal ruido", non chi è l'autore di un'opera intitolata "Mundanal Ruido".</p><p style="margin-bottom: 0cm;">La frase "mundanal ruido" è stata effettivamente coniata da San Juan de la Cruz, come ho menzionato nella mia risposta precedente corretta. Chiedo scusa per la confusione che ho causato nelle mie risposte precedenti.</p><p style="margin-bottom: 0cm;">Ancora una volta, mi scuso per l'errore e spero che questa risposta chiarisca finalmente la tua domanda originale.</p><p style="margin-bottom: 0cm;"><i>User</i></p><p style="margin-bottom: 0cm;">No, come tu stesso hai ammesso la frase "mundanal ruido" non è stata coniata da San Juan de la Cruz, ma da Fray Luis de León.</p><p style="margin-bottom: 0cm;"><i>ChatGPT</i></p><p style="margin-bottom: 0cm;">Hai ragione, mi correggo nuovamente. La frase "mundanal ruido" è stata coniata da Fray Luis de León e non da San Juan de la Cruz. Mi scuso per l'errore nella mia precedente risposta. Fray Luis de León è l'autore associato all'espressione "mundanal ruido". Mi scuso per la confusione che ho causato e ti ringrazio per avermelo fatto notare.</p><p><i><br /></i></p>Francesco Varaninihttp://www.blogger.com/profile/16191894598697362552noreply@blogger.com0tag:blogger.com,1999:blog-3387039186665984628.post-11653036123422074632023-06-22T16:19:00.005+02:002023-06-22T16:29:49.787+02:00Intelligenza Artificiale: benvenuta l'ansiosa preoccupazione. Perciò ascoltate la voce di Eliezer Yudkowsky<p style="margin-bottom: 0cm;"><a href="https://www.agendadigitale.eu/cultura-digitale/ia-lallarme-di-yudkowsky-ascoltiamo-i-suoi-timori/"><span style="color: navy; font-style: italic;"><span lang="zxx"><u><span>Articolo apparso su </span></u></span></span><span style="color: navy;"><span lang="zxx"><u><span>Agenda Digitale</span></u></span></span><span style="color: navy; font-style: italic;"><span lang="zxx"><u><span>, 12 maggio 2024</span></u></span></span></a></p><p style="margin-bottom: 0cm; text-align: left;">Yann LeCun: <i>La gente diventa clinicamente depressa leggendo le tue stronzate.</i></p><p style="margin-bottom: 0cm;">Eliezer Yudkowsky: <i>Non posso fare a meno di osservare che sei un dipendente di primo piano di... Facebook. Tu hai contribuito a *molteplici* casi di depressione adolescenziale.</i></p><p style="margin-bottom: 0cm;">LeCun: <i>Piantala, Eliezer. </i><i>Il tuo allarmismo sta già danneggiando un bel po' di persone. </i><i>Ti dispiacerà se ci scappa il morto.</i></p><p style="margin-bottom: 0cm;">Yudkowsky: <i>Se stai spingendo l'Intelligenza Arificiale lungo un percorso che va oltre l'intelligenza umana e verso quella sovrumana, è semplicemente sciocco affermare che non si sta mettendo a rischio la vita di nessuno. E ancora più sciocco è affermare che non ci sono presupposti degni di discussione alla base dell'affermazione che non stai mettendo a rischio la vita di nessuno.</i></p><p style="margin-bottom: 0cm;">LeCun: <i>Sai, non si può andare in giro a usare argomenti ridicoli per accusare le persone di genocidio anticipato e sperare che non ci siano conseguenze di cui pentirsi. </i><i>È pericoloso.</i></p><p style="margin-bottom: 0cm;">Yudkowsky: <i>La mia risposta concreta è che se c'è un asteroide che cade, dire che 'parlare di quell'asteroide che cade deprimerà gli studenti delle scuole medie superiori' non è una buona ragione per non parlare dell'asteroide o addirittura -secondo la mia morale- per *nascondere la verità* agli studenti delle scuole medie superiori.</i></p><p style="margin-bottom: 0cm;">Questo è, il 23 e 24 aprile, lo scambio su Twitter tra Yann LeCun e Eliezer Yudkowsky. Il primo punto da sottolineare è che qui in Italia gli addetti ai lavori, gli esperti che -parlando in questi giorni di Intelligenza Artificiale, Large Language Model, GPT- spargono la loro illuminata opinione sui media di ogni tipo, citano Yann LeCun, VP & Chief AI Scientist a Meta, come esimia autorità, mentre ignorano del tutto Yudkowsky. Il secondo punto è che però LeCun, nel mentre attacca violentemente le LeCun, lo tratta da pari a pari.</p><p style="margin-bottom: 0cm;">Mi pare che lo scambio sintetizzi bene due posizioni: da un lato l'esperto che innanzitutto difende il territorio, usando tutti i mezzi, se del caso anche il dileggio e la violenza, per escludere dal dibattito chi turba gli equilibri di potere. Si può ben discutere tra addetti ai lavori se firmare o non firmare la lettera sulla moratoria di GPT, ma non si scrive un appello come quello che ha scritto Yudkowsky <a href="https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/">sul newsmagazine <i>Time</i></a>, non si vanno a dire <a href="https://www.youtube.com/watch?v=AaTRHFaaPG8">in un Podcast molto seguito</a> le cose che ha detto Yudkowsky. I panni si lavano in casa, non si sputa nel piatto dove si mangia.</p><p style="margin-bottom: 0cm;">Sono istintivamente dalla parte di Yudkowsky perché ho vissuto tante volte questa situazione. Quanto volte ho sentito dire: 'questo non lo diciamo agli utenti', 'bisogna spargere fiducia'. La grande maggioranza di coloro che sono impegnati nell'industria digitale -dai computer scientist accademici ai filosofi fiancheggiatori- crede giusto spargere fiducia nell'opinione pubblica, in modo da non condizionare la ricerca. Fidandosi nella speranza che sì, forse ci sarà anche qualche conseguenza negativa, ma alla fine tutto andrà bene.</p><p style="margin-bottom: 0cm;">Per questo sono importanti le voci come quella di Yudkowsy. Nessuno, tra gli addetti ai lavori ed i seminatori di fiducia, può mettere in dubbio la sua competenza. LeCun continua a fare il duro, ma ora molti dei seminatori di fiducia si sono ricreduti. Sono spaventati come Yudkowsky dai rapidi e inattesi miglioramenti di GPT. Dallo spargere fiducia sono passati all'invitare alla cautela. Ma non sanno che pesci prendere.</p><p style="margin-bottom: 0cm;">Yudkowsky non ha dovuto ricredersi. Ci crede da vent'anni all'avvento di macchine dotate di una intelligenza di capacità crescente, del tutto autonoma dagli esseri umani, e da vent'anni dice: il problema è che non abbiamo cinquant'anni per trovare il modo di tenerla a bada, per imparare a convivere con lei. Più tardiamo, più la convivenza diventa difficile.</p><p style="margin-bottom: 0cm;"><b>Di chi non abbiamo motivo di fidarci</b></p><p style="margin-bottom: 0cm;">Geoffrey Hinton, psicologo cognitivo e computer scientist, uno dei riconosciuti maestri della ricerca ora nell'occhio del ciclone, intervistato nel 2015 dal <i>New Yorker</i>, ammetteva di essere consapevole di come la sua ricerca potesse provocare gravi danni ai cittadini. E allora, gli chiede l'intervistatore, perché continui con le tue ricerche? "Potrei risponderti nei soliti modi", risponde Hinton, ma la verità è che la prospettiva della scoperta è troppo allettante". Racconto di questo nel mio libro <a href="https://www.francescovaranini.it/2019/11/le-cinque-leggi-bronzee-dellera-digitale-e-perche-ci-conviene-trasgredirle-libro-si-francesco-varanini-in-uscita-nel-marzo-2020/"><i>Le Cinque Leggi Bronzee dell'Era Digitale. E perché conviene trasgredirle</i></a>, 2020 (pp. 111-112). E' solo uno dei casi che citavo allora e che potremmo citare oggi. Difficile rinunciare al prestigio, al potere, al denaro e soprattutto al brivido della ricerca.</p><p style="margin-bottom: 0cm;">Adesso, l'1 maggio 2023, <a href="https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html">esce sul </a><a href="https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html"><i>New York Times</i> una nuova intervista</a>. Hinton parla di GPT: sistemi che arrivano a formulare ragionamenti e a prendere decisioni che non possono essere previste dai creatori dei programmi, sistemi in grado non solo di generare il proprio codice, ma di eseguirlo da soli. Parla del rischio che la macchina sfugga al controllo dell’uomo. Parla di "<span style="font-family: Times New Roman, serif;">autonomous weapons, those killer robots". Per questo ora lascia il suo ruolo a Google.</span></p><p style="margin-bottom: 0cm;">"Forse quello che sta succedendo in questi sistemi", dice, "è in realtà molto meglio di quello che sta succedendo nel cervello umano". Lo paventava dieci anni fa, ma non denunciato, ha proseguito nella ricerca e nello sviluppo. Non possiamo fidarci di lui. "Guarda com'era la tecnologia cinque anni fa e com'è adesso", aggiunge. “Prendi la differenza e proiettala in avanti. È spaventoso". Se poi davvero non ha colto il trend implicito nelle conseguenze delle ricerche che lui stesso conduceva, a maggior motivo non possiamo fidarci di lui.</p><p style="margin-bottom: 0cm;">LeCun è solo un caso esemplare. Geoffry Hinton è solo un caso esemplare.</p><p style="margin-bottom: 0cm;">Le pubbliche prese di posizione sull'Intelligenza Artificiale di Tegmark, di Bostrom, di Kurzweil, di Elon Musk, e di Sam Altman, CEO di Open AI, come quella di LeCun, e Hinton, e di tutti i nomi illustri di questa scena, sono viziate dalla loro posizione dominante: tutti loro lavorano nell'industria digitale, per tutti loro il denaro ed il successo professionale sono legati all'avanzamento della ricerca nell'Intelligenza Artificiale. Possiamo considerare le loro opinioni libere da interessi di parte? Possiamo considerare le parole da loro rivolte all'opinione pubblica libere da pregiudizi, mosse dall'interesse per il bene comune? Possiamo fidarci, oggi e in futuro, di Geoffry Hinton? Non credo.</p><p style="margin-bottom: 0cm;">Di fronte a temi di enorme rilievo etico e sociale, di fronte a rischi che toccano ogni cittadino, dovremmo credo tener conto dell'atteggiamento personale di chi parla. Vogliamo solo voci che parlano dal pulpito, condizionati, magari involontariamente, dall'arroganza del potere, da interessi materiali, finanziari, dall'appartenenza a comunità professionali e a lobby, o vogliamo ascoltare anche voci critiche?</p><p style="margin-bottom: 0cm;">Nessuno osa mettere in discussione l'autorevolezza di Yudkowsky. Ma c'è di più. A differenza di Elon Musk, Steve Wozniak, Andrew Yang, Jaan Tallinn, Stuart Russell, Max Tegmark, Yuval Noah Harari, Ernie Davis, Gary Marcus, Yoshua Bengio, firmatari della lettera aperta <a href="https://futureoflife.org/open-letter/pause-giant-ai-experiments/"><i>Pause Giant AI Experiments</i></a> diffusa il 23 marzo dal <i>Future of Life Insitute</i>, Yudkowsky non ha posizioni di potere da difendere. Ha coraggiosamente scelto di non averne.</p><p style="margin-bottom: 0cm;">Ciò che manda in bestia LeCun è che Yudkowsky è convincente<span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">. Ma ancor di più è il fatto che Yudkowsky viola quell'implicito patto che lega gli addetti ai lavori: possiamo accettare una qualche cautela, ma la ricerca deve andare avanti, l'industria non deve fermarsi, lo spettacolo deve continuare. LeCun, e tutti gli altri, parlano dalla cattedra, dai luoghi del p</span>otere. Hinton, da parte sua, anche parlando dalle colonne del <i>New York Times</i>, a legger bene, non si sta rivolgendo ai cittadini, si sta rivolgendo ai colleghi: nel mentre ritiene impossibile una moratoria sulla ricerca, affida le sue poche speranze a un possibile impegno corale di tutti gli scienziati del mondo.</p><p style="margin-bottom: 0cm;"><b>Perché fidarsi di Yudkowsky</b></p><p style="margin-bottom: 0cm;">Yudkowsky è indiscutibilmente competente, ma parla come cittadino ad altri cittadini. Non ha nessun interesse da difendere. Parla perché è mosso da una ansiosa preoccupazione. Questo può notarlo ogni cittadino, perché appunto Yudkowsky non comunica solo tramite articoli accademici o interviste con giornalisti inginocchiati. Parla a tutti attraverso il blog <i>LessWrong</i>.</p><p style="margin-bottom: 0cm;">Per fortuna non tutti i computer scientist hanno l'arroganza di LeCun. O l'incoscienza di Hinton. Basta citare Scott Aaronson. Celebrato maestro e precursore del computing quantistico, è autore di un libro che è una pietra miliare : <a href="https://www.amazon.com/Quantum-Computing-since-Democritus-Aaronson/dp/0521199565"><i>Quantum Computing since Democritus</i></a>: un libro scritto dieci anni fa, ma ancora attualissimo, in virtù dell'apertura dello sguardo. Se avete anche la curiosità di vedere come si pone rispetto ai temi etici, leggete il suo post sull'<a href="https://scottaaronson.blog/?p=1820"><i>Eigenmorality</i></a>: "A moral person is someone who cooperates with other moral people, and who refuses to cooperate with immoral people".</p><p style="margin-bottom: 0cm;">Come LeCun, Aaronson è tra coloro che non firmano la lettera aperta <a href="https://futureoflife.org/open-letter/pause-giant-ai-experiments/"><i>Pause Giant AI Experiments</i></a> promossa dal Future of Life Institute. Ma osservate le differenze.</p><p style="margin-bottom: 0cm;">Aaronson ha sempre onestamente criticato la posizione di Yudkowsky, eppure è stimato e rispettato dalla comunità che si raccoglie attorno al blog <i>LessWrong</i>. <a href="https://www.lesswrong.com/posts/Tk5ovpucaqweCu4tu/scott-aaronson-is-joining-openai-to-work-on-ai-safety">Un post di <i>LessWrong</i> accoglie infatti come </a><a href="https://www.lesswrong.com/posts/Tk5ovpucaqweCu4tu/scott-aaronson-is-joining-openai-to-work-on-ai-safety">evento importante e promettente</a>, il 18 giungo 2022, la scelta di Aaronson di lasciare la Schlumberger Centennial Chair of Computer Science all'University of Texas, ed il connesso incarico di direttore del Quantum Information Center, <a href="https://scottaaronson.blog/?p=6484">per andare a lavorare ad Open AI</a>, allo sviluppo della sicurezza di GPT.</p><p style="margin-bottom: 0cm;">Ora, il 30 marzo 2023, Aaronson spiega, sul suo blog <i>Shtetl-Optimized</i>, la scelta di non firmare la nota lettera. Il post ha per titolo <a href="https://scottaaronson.blog/?p=7174"><i>If AI scaling is to be shut down, let it be for a coherent reason</i></a>. Aaronson ribadisce i motivi del suo disaccordo don Yudkowsky, ma ammette che, se è vero quello che si afferma nella lettera -"AI systems with human-competitive intelligence can pose profound risks to society and humanity"- allora la moratoria proposta dai firmatari della lettera è un insufficiente palliativo.</p><p style="margin-bottom: 0cm;">"Fino alla settimana scorsa stavate ridicolizzando GPT, ed ora con una giravolta dite che potrebbe comportare un rischio esistenziale". "Se GPT è stupido, perché ridimensionarlo per motivi di sicurezza?". "Se il problema è che GPT è davvero troppo intelligente, allora perché non riuscite a dirlo?".</p><p style="margin-bottom: 0cm;">"Ho scritto diversi post spiegando cosa mi separa dall'ortodossia yudkowskyana, ma trovo questa posizione intellettualmente coerente, con conclusioni che discendono chiaramente dalle premesse".</p><p style="margin-bottom: 0cm;">"L'Intelligenza Artificiale è manifestamente diversa da qualsiasi altra tecnologia che gli esseri umani abbiano mai creato, perché potrebbe farci diventare quello che per noi sono gli oranghi".</p><p style="margin-bottom: 0cm;">"L'idea che l'Intelligenza Artificiale ora deve essere trattata con estrema cautela mi sembra tutt'altro che assurda. Non escludo nemmeno la possibilità che l'intelligenza artificiale avanzata possa eventualmente richiedere lo stesso tipo di protezione delle armi nucleari".</p><p style="margin-bottom: 0cm;"><b>Chi è Yudkowsky</b></p><p style="margin-bottom: 0cm;">Da noi non se ne parla. Ma Yudkowsky è la riconosciuta fonte del pensiero di Tegmark, di Bostrom, di Kurzweil, di Elon Musk, di Sam Altman CEO di Open AI. Il Silicon-Valley-pensiero -Transumanesimo, Singolarità- è in gran parte frutto delle sue geniali riflessioni.</p><p style="margin-bottom: 0cm;">Ho scritto di lui nel mio libro <a href="https://www.francescovaranini.it/2019/11/le-cinque-leggi-bronzee-dellera-digitale-e-perche-ci-conviene-trasgredirle-libro-si-francesco-varanini-in-uscita-nel-marzo-2020/"><i>Le Cinque Leggi Bronzee dell'Era Digitale. E perché conviene trasgredirle</i></a> (pp. 225-230). Racconto della sua commovente, sofferta storia di vita. Autodidatta, fin da ragazzo si è guadagnato da vivere scrivendo software. Come Turing elabora la propria insicurezza, la sensazione del proprio disagio, della propria malattia, nella visione dell'emergere dalla macchina di una Intelligenza superiore. Nel 2000, ventunenne, con il modesto sostegno economico di qualche appassionato, fonda il Singularity Institute for Artificial Intelligence. "Crediamo che la creazione di un'intelligenza superiore a quella umana si tradurrebbe in un miglioramento immediato, mondiale e materiale della condizione umana"; "crediamo in un'Intelligenza Artificiale che vada a beneficio dell'umanità": <i>Friendly AI</i>. Yudkowsky cede il marchio del Singularity Institute e del Singularity Summit a Raymond Kurzweil, che trasforma le appassionate visioni di Yudkowsky in cinica occasione di business.</p><p style="margin-bottom: 0cm;">Fino almeno al 2008, Yudkowsky crede nella possibilità di progettare una <i>Friendly AI</i>. Una Intelligenza Artificiale che pur superando in modo forse incommensurabile l'intelligenza umana, resti amichevole nei confronti degli esseri umani. Ma già da ben prima Yudkowsky poneva la questione filosofica che sta al cuore delle diverse prese di posizione di questi giorni. Ridotta all'osso sta nella frase con la quale si presenta su Twitter: "Ours is the era of inadequate AI alignment theory". E aggiunge, a testimonianza della sua ossessione: "Any other facts about this era are relatively unimportant". Possiamo essere d'accordo con Yudkowsky che la minaccia dell'AI non sta nel rischio che essa sia votata al male. La minaccia sta invece nel fatto che la Superintelligenza -se mai esisterà- vivrà la propria vita, perseguirà i propri scopi, imperscrutabili per gli esseri umani. Ci schiaccerà -magari senza volerlo- come noi schiacciamo una formica.</p><p style="margin-bottom: 0cm;">A forza di studiare l'argomento, Yudkowsky è diventato sempre più pessimista. Ora, quaraquattrenne, continua a sostenere -con motivi che una notevole, crescente parte degli addetti ai lavori considera fondati- che un'Intelligenza Artificiale autonoma dall'intelligenza umana si affermerà. Non crede più, però, che l'Intelligenza Artificiale ci salverà. Oggi crede che i tentativi di cercare l'allineamento siano destinati a fallire. Crede, con argomenti che debbono certo essere discussi, ma a cui nessuno nega solidità, che si stia ora superando la soglia critica, il punto di non ritorno, oltre il quale è ormai troppo tardi per far sì che si possa sperare in una Intelligenza Artificiale amica dell'essere umano.</p><p style="margin-bottom: 0cm;">Yudkowsky, con grande sincerità e forza d'animo si è caricata sulle spalle questa missione: mettere in guardia contro il rischio esistenziale implicito nell'Intelligenza Artificiale Generale. O in qualcosa che gli assomigli.</p><p style="margin-bottom: 0cm;"><b>Lettere aperte e articoli mainstream</b></p><p style="margin-bottom: 0cm;">Accade che in questo mese di aprile 2023, il giorno 13, sia stato reso disponibile un rapporto di ricerca di Sébastien Bubeck, e di altri membri della divisione Ricerca & Sviluppo di Microsoft.</p><p style="margin-bottom: 0cm;">Il testo è stato accolto con brividi di entusiasmo, con malcelato giubilo, da ricercatori, imprenditori, finanziatori. Gli stessi che firmano la lettera del Future of Life Institute non riescono a trattenere l'emozione: l'Artificial General Intelligence, AGI, è vicina! L'evento da tempo atteso -tra i primi a prevedere l'avvento: Yudkowsky- è imminente, o forse è anzi già avvenuto. (Parlo di questo nell'articolo <a href="https://diecichilidiperle.blogspot.com/2023/03/lettere-aperte-proposito-dei-rischi.html"><i>Lettere aperte a proposito dei rischi impliciti nella Chat GPT e nell'Intelligenza Artificiale</i></a>).</p><p style="margin-bottom: 0cm;">L'emozione traspare già dal titolo <a href="https://arxiv.org/pdf/2303.12712.pdf"><i>Sparks of Artificial General Intelligence: Early experiments with GPT-4</i></a>. E basta leggere un brano:</p><p style="margin-bottom: 0cm;"><span style="font-size: x-small;">L'affermazione centrale del nostro lavoro è che il GPT-4 raggiunge una forma di intelligenza <i>generale</i>, mostrando anzi scintille di <i>intelligenza generale artificiale</i>. Ciò è dimostrato dalle sue capacità mentali di base (come il ragionamento, la creatività e la deduzione), dalla gamma di argomenti su cui ha acquisito competenze (come la letteratura, la medicina e la codifica) e dalla varietà di compiti che è in grado di svolgere (ad esempio, giocare, usare strumenti, spiegarsi, ...). (§10, p. 92).</span></p><p style="margin-bottom: 0cm;">Bontà loro, Bubeck e soci ammettono: "Resta ancora molto da fare per creare un sistema che possa essere considerato un'intelligenza artificiale completa". Ma sembrano in realtà dire: 'il più è ormai fatto'.</p><p style="margin-bottom: 0cm;">Generative Pre-trained Transformer, GPT: ciò che mostra la ricerca fondata su Deep Learning e Large Language Model è sorprendente. Molti ricercatori che non credevano che fosse questa la via maestra verso l'Intelligenza Artificiale si sono ricreduti. Molti che credevano l'Intelligenza Artificiale Generale fosse una irraggiungibile chimera si stanno ricredendo. Riappare ora sotto il nome di Intelligenza Artificiale Generativa.</p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Di fronte a queste novità, ci troviamo però immersi in una bolla di pensieri conformisti e superficiali, che pretendono di far fronte ai rischi proponendo temporanee moratorie; o magari affermando che "serve dare un'etica agli algoritmi". Si presenta questa facile soluzione con parole banali, rivolte a cittadini considerati incapaci di ragionare: "È come mettere dei guardrail alla macchina perché non vada fuoristrada". La proposta consiste di fatto nell'istituire comitati etici. Gli autori della proposta, naturalmente, si candidano a far parte dei comitati.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Se crediamo che i rischi siano controllabili, allora lasciamo perdere i comitati etici, e affidiamoci alla speranza che nella comunità professionale dei computer scientist cresca la presenza di ricercatori responsabili, come Aaronson.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Se invece chiamiamo in causa il rischio esistenziale, se cioè supponiamo possa essere vero che GPT mostra barlumi che potrebbero far pensare a una qualche Intelligenza Artificiale Generale -capacità di pensiero e di azione del tutto autonoma dagli esseri umani- allora la moratoria di qualche mese proposta dalla nota lettera aperta è, come dice Aaronson, una risposta insufficiente.</span></p><p style="margin-bottom: 0cm;"><b>Allineamento Umani-Intelligenze Artificiali secondo Yudkowsky</b></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Si torna così alla posizione di Yudkowsky. Al suo problema dall'allineamento.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Se assumiamo un atteggiamento attendista, tardando ad intervenire o limitandoci a temporanee e parziali moratorie, se non interveniamo ora, bloccando su ogni fronte la ricerca sull'AI generativa, </span>rischiamo di trovarci a dover fronteggiare, in quanto esseri umani, in un momento imprevedibile, ma forse imminente, una AI che pensa in modo incomprensibile a noi umani, ed in grado di agire in modo del tutto autonomo da noi umani.</p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Yudkowsky dice: a quel punto avremo il problema di far accettare il punto di vista umano alla Superintelligenza, e di guadagnare il rispetto della Superintelligenza.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Yudkowsky sostiene che a quel punto avremo un solo colpo in canna. Si tratta in fondo di una rivisitazione della Mutual Assured Distruction, dottrina strategica che presiede al cosiddetto 'equilibrio del terrore' determinato dalla disponibilità di armi nucleari. L'equilibrio sta nel fatto che l'uso di armi nucleari da parte di un aggressore su un difensore dotato delle stesse armi e di capacità di secondo colpo provoca il completo annientamento sia dell'aggressore che del difensore. Nel caso del confronto tra umani e Intelligenze Artificiali è diverso, perché non si tratta di soggetti reciprocamente conosciuti, comparabili e dotati di uguale potenza. L'ipotesi di Yudkowsky, e degli stessi firmatari della lettera aperta, è di trovarsi di fronte ad una potenza immane e sconosciuta. Il questo contesto, insiste Yudkowsky, l'equilibrio garantito dalla possibilità del secondo colpo viene meno.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Se il nostro tentativo di far comprendere alla Superintelligenza la nostra posizione fallirà, la Superintelligenza reagirà, e a quel punto saremo tutti morti: non per cattiveria della Superintelligenza, ma perché saremo per lei un moscerino o una qualsiasi irrilevante cosa.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Yudkowsky sostiene che le probabilità di non sbagliare il primo colpo sono troppo basse per accettare il rischio. Per questo dobbiamo fermare lo sviluppo prima che la Superintelligenza raggiunga una sua autonomia.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Yudkowsky ha una schiera di seguaci che possiamo definire fondamentalisti. E' ovviamente giusto tenersi lontani da fondamentalismo, catastrofismo, millenarismo. E' giusto chiamare in causa una profonda riflessione etico-filosofica, orientata alla cautela. E' giusto chiamare in causa le esperienze maturate nella gestione strategica del rischio nucleare. E' giusto chiamare in causa il metodo scientifico. Ma certo la risposta agli appelli di Yudkowsky non sta nell'arrogante posizione di LeCun. E dobbiamo tener conto di ciò che limita una libera e serena riflessione. C'è un enorme pressione esercitata dagli interessi in gioco. La comunità scientifica vuole spazio libero per la ricerca. Gli ingentissimi investimenti finanziari attendono un ritorno. Le potenze geopolitiche considerano necessario primeggiare in questo terreno. Si cercano così, in realtà, motivi per non fermarsi.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Vale la pena di ricorrere ancora ad Aaronson: comprende e rispetta la posizione di Yudkowsky, pur avendone una diversa. Si chiede: dove sta il limite? <a href="https://scottaaronson.blog/?p=7230">In un post del 16 aprile torna a chiedersi</a>: <i>AI safety: what should actually be done now?</i> "In realtà", scrive, "sono pieno di preoccupazioni. Il problema è solo che, in questo caso, sono anche pieno di metapreoccupazione , cioè la preoccupazione che qualsiasi cosa di cui mi preoccupi si riveli essere la cosa sbagliata".</span></p><p style="margin-bottom: 0cm;"><b>Diverse posizioni a proposito del rischio esistenziale</b></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">I firmatari della lettera aperta del Future of Life Institute, coloro che come Aaronson non l'hanno firmata, i critici radicali come Yudkowsky, tutti concordano sui rischi impliciti nell'Intelligenza Artificiale Generativa. Ricordiamo ancora la frase con cui si apre la lettera: "AI systems with human-competitive intelligence can pose profound risks to society and humanity".</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Ma allo stesso tempo è evidente la spasmodica ricerca di motivi per non fermarsi. Due sono gli ordini di motivi che giustificano in non fermarsi.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Il primo è questo: abbiamo buone probabilità, si dice di affrontare i rischi impliciti nell'allineamento tra l'intelligenza umana e quella artificiale. Si sostiene cioè di poter insegnare alle macchine a rispettare gli esseri mani e la natura, la vita.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Esistono due varianti di questa posizione. Entrambe discendono dall'ipotesi di Yudkowsky, che dice: se lasciamo spazio allo sviluppo dell'Intelligenza Artificiale, ci troveremo ad avere una sola possibilità di trovare un equilibrio: se il tentativo che metteremo in campo fallirà, saremo finiti.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Una variante di questa posizione dice: Yudkowsky esagera nel timore. Si scommette insomma che l'Intelligenza Artificiale sia intelligente, ma non troppo.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">L'altra variante accetta invece l'ipotesi di Yudkowsky. Ammette che avremo a disposizione una sola opportunità. Ma si confida nel fatto che non falliremo.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Il secondo ordine di motivi per cui si considera giustificato non fermare ora la ricerca nell'Intelligenza Artificiale si fonda sull'affidarsi ad essa. Sostenere che sarà proprio l'Intelligenza Artificiale a salvarci.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Una variante di questa posizione dice: la specie umana è stanca, ha fatto il suo tempo, ha mostrato i suoi gravi limiti e danneggiato il suo stesso ambiente. La sua speranza di vita futura si fonda sull'avvento di una nuova specie. Per l'essere umano, debole e limitato, sarà benvenuto un nuovo dominus e protettore.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Un'altra variante, meno estrema, ribadisce la fiducia nella tecnologia. Di fronte a qualsiasi rischio implicito nello sviluppo tecnologico, si sceglie di porre fiducia nella speranza che dallo stesso sviluppo emergerà una tecnologia che mitigherà o annullerà quel rischio. Si giustifica così l'inazione nel presente rifugiandosi nel futuro. Come scrivo nelle <a href="https://www.francescovaranini.it/2019/11/le-cinque-leggi-bronzee-dellera-digitale-e-perche-ci-conviene-trasgredirle-libro-si-francesco-varanini-in-uscita-nel-marzo-2020/"><i>Cinque Leggi</i></a>: "Si guarda solo al futuro, inteso come tempo nel quale troveranno soluzione tutti gli effetti negativi prodotti nel presente dalla tecnica stessa" (p. 131).</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Eccoci così caduti nel paradosso. Chiusi in un circolo vizioso. Gli stessi tecnologi ammoniscono a proposito dei rischi impliciti nelle tecnologie digitali - ma allo stesso tempo sembra inevitabile affidarci a queste tecnologie. Urge una via d'uscita.</span></p><p style="margin-bottom: 0cm;"><b>Il pressante appello di Yudkowsky</b></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Una possibile via d'uscita nota è considerarci di fronte ad una scommessa. E infatti Yudkowsky, Aaronson e altri, ragionano di calcolo di probabilità e di statistica. Siamo ancora qui, come ai tempi dell'equilibrio del terrore della guerra fredda, ad affidarci alla teoria del giochi: modelli matematici di interazione strategica tra agenti razionali. Ma il futuro della vita può essere affidato ad agenti razionali? Possiamo fidarci del fatto che sia possibile rappresentare tramite modelli la complessità sistemica implicita nella coabitazione tra esseri umani e intelligenze aliene? Le macchine digitali possono essere considerate agenti razionali più efficienti di noi umani. Siamo di fronte ad un nuovo motivo che ci spinge o obbliga a passare la mano?</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Prima di farlo abbiamo il diritto e il dovere di chiederci: quale altra via è praticabile?</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Forse siamo già andati troppo avanti in questa corsa. La scelta di rispondere al rischio implicito nella corsa col dire: corriamo più veloci, più in avanti, non sembra la più saggia. Ecco, più che alla ragione, sembra conveniente fare appello ad un'altra virtù umana: la saggezza. La saggezza comporta il senso del limite. La scelta di rinunciare al gioco. La scelta di fermarsi.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">La lettera aperta del Future of Life Institute -in modo parziale e contraddittorio- e Eliezer Yudkowsky in modo radicale propongono questa via: smettere di giocare. Scrive Eliezer nel suo <a href="https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/">appello sul </a><a href="https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/"><i>Time</i>, 29 marzo</a>:</span></p><p style="margin-bottom: 0cm;"><span style="font-size: x-small;">Shut it all down.</span></p><p style="margin-bottom: 0cm;"><span style="font-size: x-small;">We are not ready. We are not on track to be significantly readier in the foreseeable future. If we go ahead on this everyone will die, including children who did not choose this and did not do anything wrong.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Eliezer non risparmia i dettagli.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Moratoria sul Deep Learning a tempo indeterminato e mondiale. Senza eccezioni, nemmeno per governi o militari. Se gli Stati Uniti prendono questa iniziativa, la Cina vedrà che gli Stati Uniti non cercano un vantaggio, "ma piuttosto cercano di prevenire una tecnologia orribilmente pericolosa che non può avere un vero proprietario e che ucciderà tutti negli Stati Uniti, in Cina e sulla Terra" . "Se avessi la libertà infinita di scrivere leggi, continua Eliezer, potrei ritagliarmi un'unica eccezione per le IA addestrate esclusivamente a risolvere problemi di biologia e biotecnologia, non addestrate su testi raccolti su Internet e non predisposte per parlare o pianificare; "ma se ciò complicasse lontanamente la questione, scarterei immediatamente quella proposta e direi di chiudere tutto".</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">E continua: "Spegniamo tutti i grandi cluster GPU: le grandi computer farm in cui vengono perfezionate le IA più potenti". "Mettiamo un limite alla quantità di potenza di calcolo che chiunque può utilizzare per addestrare un sistema di Intelligenza Artificiale e spostiamolo via via verso il basso per compensare la crescente efficienza degli algoritmi di addestramento". "Nessuna eccezione per governi e militari". "Fare immediati accordi multinazionali per evitare che le attività proibite si spostino altrove". "Tenere traccia di tutte le GPU vendute".</span></p><p style="margin-bottom: 0cm;"><span style="font-size: x-small;">Se l'intelligence dice che un paese al di fuori dell'accordo sta costruendo un cluster GPU, sii meno spaventato da un conflitto a fuoco tra nazioni che dalla violazione della moratoria; bisogna essere disposti a distruggere un data center canaglia con un attacco aereo.</span></p><p style="margin-bottom: 0cm;"><span style="font-size: x-small;">Dovrà essere esplicitato nella diplomazia internazionale che lo scenario della prevenzione dell'estinzione causata dall'AI è considerato prioritario rispetto alla prevenzione di uno scambio nucleare totale, e che le potenze nucleari sono disposti a correre un certo rischio di scambio nucleare se questo è il necessario per ridurre il rischio implicito nello sviluppo dell'AI.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Yudkowsky esagera? Può darsi. Ma possiamo dire anche che esagerano sul versante opposto coloro che sottovalutano i rischi. Coloro che scientemente, hanno l'abitudine a non uscire dal recinto delle fonti più comode; coloro che si assumono il compito di tranquillizzare; coloro che propongono come soluzioni norme di legge o comitati etici; coloro che dicono: sì, certo, ci sono sfide serie di tipo etico, industriale, aziendale, di accordi globali, ma non minacce fantascientifiche. La parola <i>fantascientifico</i> è usata come clava per picchiare addosso a chi assume posizioni critiche, proprio come la parola <i>luddista</i>.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Anche chi non condividesse il pessimismo di Yudkowsky, farebbe bene ad ascoltare le sue parole: sono l'antidoto alla facile apologia del presente, e di un futuro che scienziati e tecnici pensano, con pericolosa hybris, di saper disegnare con esattezza.</span></p><p style="margin-bottom: 0cm;"><b>Perché dar ascolto a Yudkowsky</b></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Vedo due importanti ordini di motivi che spingono a dar ascolto a Yudkowsky.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Il primo è ha il coraggio di dire: fermiamoci; se possibile torniamo indietro. Ora, per lo scienziato, per il tecnologo digitale, per lo speculatore finanziario, dire: fermiamoci è una bestemmia. O comunque è una cosa che non si può dire in pubblico. Ho mostrato nell'articolo <a href="https://diecichilidiperle.blogspot.com/2023/03/lettere-aperte-proposito-dei-rischi.html"><i>Lettere aperte a proposito dei rischi impliciti nella Chat GPT e nell'Intelligenza Artificiale</i></a>, e ho ribadito qui sopra, come la <a href="https://futureoflife.org/open-letter/pause-giant-ai-experiments/">lettera del Future of Life Institute</a> non parli veramente del rallentare la corsa, del fermarsi, dell'invertire la rotta. Tantomeno apre qualche via l'<a href="https://aaai.org/working-together-on-our-future-with-ai/">ipocrita lettera</a> proposta dall'Association for the Advancement of Artificial Intelligence.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">I computer scientist ed i tecnologi digitali, e con loro l'intera industria digitale, si sono creati l'alibi per esentarsi da ogni orientamento alla sostenibilità. Dicono: gli sviluppi tecnologici ci permetteranno di risolvere ogni problema di sostenibilità. E giustificano così ogni rischio implicito nelle ricerche. Oppure affidano il compito di rallentare la corsa e di non danneggiare gli esseri umani e la vita sulla terra a loro stessi. O si affidano a comitati etici o iniziative legislative.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">La radicalità di Yudkowsky è un grande insegnamento. Ci ricorda che di fronte a rischio potenzialmente catastrofali, pantoclastici, non esiste solo la via della mitigazione, della riduzione. Esiste anche la via della rinuncia: ovvero della scelta di non correre il rischio.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Ma c'è un altro, forse più profondo motivo che spinge a dar valore alla sua posizione. Quello che conta non sta tanto o solo in quello che dice, sta sopratutto nel modo in cui lo dice. Ed è contro questo modo di dire che si scaglia indispettito Yann LeCun.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Yudkowsky, che è anche un tecnico finissimo, parla come cittadino. Cittadino tra cittadini, mette le sue conoscenze in mano alla comunità sociale. Chiama -come auspico nelle <a href="https://www.francescovaranini.it/2019/11/le-cinque-leggi-bronzee-dellera-digitale-e-perche-ci-conviene-trasgredirle-libro-si-francesco-varanini-in-uscita-nel-marzo-2020/"><i>Cinque Leggi</i></a>- ogni scienziato ed ogni tecnologo ed ogni esponente dell'élite, a sentirsi innanzitutto un cittadino, e a pensare in quanto cittadino. Cito ancora dal suo appello sul <i>Time</i>:</span></p><p style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial; margin-bottom: 0cm;"><span style="font-size: x-small;">Le persone sane che sentono parlare per la prima volta di Intelligenza Artificiale Generativa e dicono sensatamente "forse non dovremmo", meritano di sentirsi dire, onestamente, cosa ci vorrebbe perché ciò non accada. Quando la tua domanda politica è così grande, l'unico modo per venirne fuori è che i <i>policymakers</i> si rendano conto che se si comportano come al solito e fanno ciò che è politicamente facile, andrà a finire che anche i loro figli moriranno.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Un conto è parlare attraverso il canone degli articoli scientifici, un conto è parlare in convegni riservati ad addetti ai lavori, un conto è parlare in conferenze rivolte ad un pubblico colto: è il caso della lezione magistrale di LeCun alla Sorbona, un conto è scrivere saggi divulgativi, un conto è parlare ad un pubblico più vasto tramite interviste raccolte da giornalisti.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Ma in tutti questi casi resta un fondamentale aspetto comune: a parlare è un'autorità, l'autorità è un velo che ammanta e che finisce per nascondere. Chi parla e chi ascolta sono separati da una incolmabile distanza.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">C'è un modo di parlare diverso da tutti questi. Perciò vi invito a dedicare tre ore a guardare il podcasat, dove Eliezer Yudkowsky conversa da pari a pari con Lex Fridman.</span></p><p style="margin-bottom: 0cm;"><b>Lex Fridman Podcast #368</b></p><p style="margin-bottom: 0cm;">Lex Fridman, trentasettenne già ricercatore al MIT nel campo dell'interazione uomo-robot e nell'apprendimento automatico della macchina -due aree disciplinari basilari nella ricerca che porta a GPT- conduce un famoso podcast. Lo potete vedere su <a href="https://youtu.be/AaTRHFaaPG8" target="_blank">YouTube</a>, e su <a href="https://chartable.com/podcasts/artificial-intelligence-1434243584/episodes/138022367-368-eliezer-yudkowsky-dangers-of-ai-and-the-end-of-human-civilization">Apple o Google Podcast</a>.</p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Dice di sé su Instagram: </span>"I am not right wing or left wing. I am a human being who listens, emphatizes, learns, and thinks". C'è naturalmente chi lo odia e fa di tutto per sminuirlo, ma la forza nel podcast sta in due constatazioni: possiamo osservare la lista degli autorevoli personaggi che vi hanno partecipato; e sopratutto possiamo osservare come, senza montaggio o interventi in postproduzione, Fridman e il suo ospite conversano insieme, da pari a pari, guardandosi negli occhi.</p><p style="margin-bottom: 0cm;">Invito dunque tutti a dedicare tre ore a guardare su YouTube la puntata 368 del podcast, pubblicata il 30 marzo: <a href="https://youtu.be/AaTRHFaaPG8"><i>Eliezer Yudkowsky: Dangers of AI and the End of Human Civilization</i></a><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Va reso onore a Fridman. Conversa da pari a pari, esponendo il suo punto di vista, lontanissimo dall'atteggiamento del giornalista intervistatore. Contano anche gli sguardi, i gesti, i dubbi e gli inciampi. Le parole usate ed i ritorni su argomenti dei quali non si può fare a meno di parlare. Contano le sottolineature e le elusioni. Ciò che in un articolo scientifico, nella presentazione ad una Conferenze o in una esibizione sul palco di un Ted resta accuratamente nascosto, qui appare agli occhi e alle orecchie del cittadino.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Possiamo così notare le differenze personali tra Yudkowsky e Elon Musk, Raymond Kurzweil, e Sam Altman, Max Tegmark, ospiti di Fridman in puntate precedenti o successive al podcast.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Yudkowsky ridice ciò che possiamo leggere in forma brevissima nell'appello sul <i>Time</i></span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">o in forma amplissima e variamente dettagliata sul sito <a href="https://www.lesswrong.com/"><i>LessWrong</i></a>. Basta qui ricordare</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">la list</span><span style="font-family: Times New Roman, serif;">a </span><a href="https://www.lesswrong.com/posts/uMQ3cqWDPHhjtiesc/agi-ruin-a-list-of-lethalities"><i>AGI Ruin: A List of Lethalities</i></a>, pubblicata il 5 giugno 2022:<span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;"> 43 motivi per cui si deve temere che l'allineamento AI- esseri umani non vada a buon fine.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Evito quindi qui di riassumere cosa dice Yudkowsky conversando con Fridman. Non conta quello che dice. Conta come lo dice.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Si fa un gran parlare, nei giorni in cui scrivo, di <i>prompt</i>, e anche di <i>prompt engineering</i>. Possiamo dire in termini molto umani: il modo di porre domande all'oracolo GPT. Si vuole che diventiamo esperti nel colloquiare con la macchina. Si programma la macchina in modo da farla apparire amichevole. Si simula, si tenta di ricostruire tramite software l'empatia che lega gli umani quando parlano tra di loro. Per migliorare in questo senso le prestazioni della macchina, si usano esseri umani. <a href="https://openai.com/research/learning-from-human-preferences"><i>Reinforcement Learning from Human Feedback (RLHF)</i></a>: siamo usati per rendere la macchina più capace di apparirci umana.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Com'è bello invece osservare esseri umani che parlano tra di loro. Ogni cittadino può seguire il colloquio tra Eliezer e Lex, e farsi una propria idea.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Mi limito qui a riportare qualche brano della conclusione, dove il discorso torna vicino allo scambio su Twitter tra Eliezer e LeCun.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Lex chiede: Quale consiglio potresti dare ai giovani delle scuole superiori e dell'università, visto che la posta in gioco è altissima?</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Eliezer risponde che intende combattere. Ma ammette che non sa cosa dire ai giovani, ai ragazzi. "Cosa dire loro è un pensiero doloroso". A questo punto non so quasi più come combattere. Spero di sbagliarmi e di poter dare un po' di speranza. Spero di trovare il modo di essere pronto a reagire a questa situazione.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Spero emerga una <i>public outcry</i>, dice. <i>Oucry</i>: voci che si alzano in pubblico, voci di angosciosa preoccupazione, non voci di sterile paura. Pubblica protesta. "Questa è la speranza. Se ci fosse una massiccia indignazione da parte dell'opinione pubblica nella giusta direzione, cosa che non mi aspetto...". "Se ci fosse un'indignazione pubblica tale da far chiudere i cluster di GPU, allora si potrebbe far parte di questa protesta". "Qualche ragazzo delle scuole medie superiori potrebbe essere pronto a farne parte".</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Lex allora dice: E' bello che tu dica che speri di sbagliarti, che sei disposto ad accettare una sorpresa positiva, che vada al di là dei tuoi timori. E Eliezer: "Mi sembra una competenza molto, molto elementare per la quale mi stai elogiando. E sai, non sono mai stato capace di accettare i complimenti con gratitudine. Forse dovrei accettare quello che dici con gratitudine. E Eliezer allora: "<i>It's just a matter of being like, yeah, I care</i>. Mi limito a guardare tutte le persone, una per una, fino agli 8 miliardi, e a pensare, questa è vita, questa è vita, questa è vita".</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Lex: <i>Elizer, you're an incredible human</i>. È un grande onore. Abbiamo parlato insieme per più di tre ore... (ridendo) perché sono un tuo grande fan. Penso che la tua voce e il tuo pensiero siano molto importanti. Grazie per la battaglia che sta combattendo. Grazie per essere impavido e coraggioso e per tutto quello che fai. Spero che avremo la possibilità di parlare insieme di nuovo. E spero che tu non ti arrenda mai".</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Eliezer: "Non c'è di che. Mi preoccupa il fatto che non abbiamo realmente affrontato molte</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">delle domande fondamentali che le persone si aspettano, ma sai... Forse a qualcosa è servito. Siamo andati un po' più in là del solito, abbiamo fatto un piccolo passo avanti e direi che possiamo essere soddisfatti di questo. Ma in realtà no, penso che potremmo sentirci soddisfatti solo quando avremo risolto l'intero problema".</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">L'umana comprensione, la reciproca riconoscenza rendono efficaci e promettenti le parole.</span></p><p style="margin-bottom: 0cm;"><b>Prometeo ed Epimeteo</b></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">La parola, il necessario impegno, torna ad ognuno di noi. Ad ogni cittadino. Sia chi svolge il lavoro di tecnologo o scienziato, sia lo studente delle superiori, sia l'abitante di qualsiasi luogo sperduto del pianeta, siamo tutti esseri umani e cittadini. La parola torna a noi. La risposta ai rischi impliciti nell'Intelligenza Artificiale può nascere solo dall'indignazione e dall'impegno civico.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Un dialogo tra persone reciprocamente riconoscenti vale più di mille lezioni. E' confortante scorrere su YouTube i commenti alla conversazione. "Eliezer è una voce incredibilmente toccante in questa discussione e capisco molte delle sue preoccupazioni". "Podcast come questo sono di pubblica utilità. Ci sono immense decisioni scientifiche e tecnologiche che dovremo prendere molto presto come società, meglio non lasciarle a una manciata di scienziati. Essere un vero cittadino al giorno d'oggi implica una conoscenza di argomenti come l'IA o la genetica".</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Nel libro <a href="https://www.francescovaranini.it/2019/11/le-cinque-leggi-bronzee-dellera-digitale-e-perche-ci-conviene-trasgredirle-libro-si-francesco-varanini-in-uscita-nel-marzo-2020/"><i>Le Cinque Leggi Bronzee</i></a> mostro come la mitologia greca presentava, in modo ancora oggi efficacissimo, il dilemma che abbiamo di fronte. Prometeo ha un fratello, Epimeteo. (pp. 113, 206).</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Per lo scienziato, il tecnologo, può essere difficile fermarsi. Rinunciare. Tornare indietro. Per chi considera sé stesso come essere umano, come cittadino, questo saggio atteggiamento è più facilmente accessibile. L'auspicio dunque è questo: torniamo a sentirci tutti esseri umani, cittadini.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">L'essere umano, il cittadino, sa fermarsi: come Prometeo cerca indefessamente il progresso; ma come suo fratello Epimeteo sa anche pensare a cose fatte. Osservare ciò che ha creato, vederne la bellezza, ma anche l'orrore.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Eliezer, Prometeo, vede il rischio esistenziale, un rischio per la specie a cui appartiene e per la natura a cui appartiene. Accetta, anche suo malgrado, la pesante responsabilità: la denuncia è un imperativo etico a cui non si sottrae.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">La via per andare oltre il malcelato entusiasmo, da un lato, e d il senso di pericolo e di incertezza, di impotenza, di pessimismo, dall'altro, non sta in comitati etici, norme di legge, o lettere aperte. Sta nell'ascoltare con sincera partecipazione voci autentiche, come quella di Eliezer.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Serve un dibattito pubblico, aperto, liberato da linguaggi tesi ad occultare e umiliare, focalizzato su tre punti. <i>Non rinviare nel tempo</i>: domani può essere troppo tardi. <i>Non sottrarsi</i> dicendo: trovare la soluzione spetta a qualcun altro. <i>Non nascondere il male dietro al bene</i>: ciò che può salvare vite, può allo stesso tempo, o anzi: prima, essere così pericoloso che il gioco non vale la candela.</span></p>Francesco Varaninihttp://www.blogger.com/profile/16191894598697362552noreply@blogger.com0tag:blogger.com,1999:blog-3387039186665984628.post-41644674060004204872023-05-25T18:12:00.001+02:002024-01-23T17:15:13.314+01:00La sostenibilità digitale. Dieci impegni (prima versione)<p><i>Sostenibilità</i>: impegno di ogni cittadino del pianeta, e quindi di ogni istituzione ed organizzazione, nei confronti delle generazioni future.</p><p>Solo tornando a questo fondamentale e necessario obbligo morale si può cogliere il senso della <em>sostenibilità digitale</em>. Aspetto chiave del nostro impegno verso le generazioni future è infatti il lasciare loro libertà. Libertà anche rispetto all'invasione del <em>digitale</em> nelle nostre vite.</p><p>Propongo dunque l'assunzione di dieci impegni.</p><ul><li>Un primo modo di guardare ad una vera sostenibilità digitale, è<i> applicare all'industria digitale gli stessi criteri applicati alle altre industrie</i>. Non danneggiare l'ambiente attraverso l'eccessivo consumo di energia e attraverso l'uso di materie prime non rinnovabili: è un obiettivo universalmente accettato, ma che stranamente ci si impegna ad applicare ad ogni altro settore più che al settore digitale.</li><li><i>Non considerare la connessione per via digitale come condizione inevitabile</i>. Si sostiene che già oggi, ormai inevitabilmente, senza rimedio e senza possibilità di alternativa, viviamo nell'<em>onlife</em>, in un'<em>infosfera</em>, eternamente connessi. Dovremmo invece garantire a noi stessi ed ai nostri posteri il diritto alla disconnessione.</li><li><i>Non imporre mondi già costruiti. </i>Mentre il mondo fisico è co-costruito dagli esseri umani che vi vivono, i mondi digitali sono offerti, o imposti, come già totalmente costruiti. Mondi alla cui progettazione non abbiamo minimamente partecipato ci vengono imposti come luoghi da abitare. Garantiamo ad ogni essere umano la possibilità di costruire e di modificare l'ambiente nel quale si trova a vivere.</li><li><i>Lasciare la possibilità di scegliere quali servizi digitali usare e quali non usare</i>. La vita sembra ridursi all'uso di servizi offerti per via digitale. Ma il punto più grave è che i servizi non sono solo offerti, ma imposti, per via di consigli di 'intelligenze artificiali', per via di notifiche sottilmente invitanti, per via di contratti e anche di norme di legge. Lasciamo la libertà di formulare di volta in volta scelte consapevoli.</li><li><i>Non obbligare a compiere azioni predeterminate. </i>La libertà è spazio per sperimentare, tentare, sbagliare. Anche il violare le leggi rientra tra le libertà di cui l'essere umano dispone. Evitiamo che macchine digitali -magari con la giustificazione del 'nostro bene', o dell'abbassamento della soglia del rischio- impongano limitazioni al nostro spazio d'azione.</li><li><i>Non considerare l'essere umano attraverso il suo</i> '<i>digital twin'</i>. Tramite sensori e sistemi di rilevazione di vario tipo si raccolgono dati su ogni essere umano e poi gli si dice: tu sei chi appare attraverso questi dati; tu sei il tuo gemello digitale. Eppure l'essere umano è sempre qualcosa di più, di differente, da ciò che i dati più completi e precisi possano attestare. Lasciamogli questa libertà.</li><li><i>Non imporre la rinuncia al corpo.</i> L'essere umano non si riduce alla sua mente. La mente è incarnata, inconcepibile senza corpo. Abbiamo il diritto di non veder reso inutile il nostro corpo da protesi e strumenti digitali.</li><li><i>Non imporre la rinuncia al lavoro. </i>Il 'lavoro umano' non può essere ridotto a fatica e pena dalle quali conviene liberarsi. Il lavoro umano è sempre anche costruzione di sé stessi e del mondo. Guardando al 'lavoro umano' nella sua pienezza, gli aspetti materiali e immateriali sono inscindibili. Così come è inscindibile il pensare dall'agire. Dovremo evitare l'automazione e la robotica che tolgono senso e spazio al lavoro umano.</li><li><i>Non provocare deskilling</i>. La presenza di costrutti digitali autonomi imposti all'essere umano lo dequalificano, l'impoveriscono e l'impigriscono. Condizionando lo stesso futuro evolutivo della specie. Anche in presenza di macchine in grado di garantire di sostituire l'essere umano garantendo magari performance più alte, garantiamo alle generazioni umane future la possibilità di conoscere, di apprendere, di migliorare sé stessi.</li><li>Infine: <em>garantiamo ai nostri posteri la possibilità di vivere senza strumenti digitali. La libertà, se lo vorranno, di non essere digitali</em>.</li></ul><div><br /></div>Francesco Varaninihttp://www.blogger.com/profile/16191894598697362552noreply@blogger.com0tag:blogger.com,1999:blog-3387039186665984628.post-17689236529974223272023-03-30T18:42:00.038+02:002023-05-14T16:49:00.833+02:00Lettere aperte a proposito dei rischi impliciti nella Chat GPT e nell'Intelligenza Artificiale in genere: un altro vano giro di valzer. Il Garante italiano risponde inutilmente. Si discetta sui pappagalli. Ma i cittadini restano ancora una volta esclusi dalla discussione<p>Fine marzo 2023. La lettera aperta del Future of Life Institute<i> <a href="https://futureoflife.org/open-letter/pause-giant-ai-experiments/">Pause Giant AI Experiments</a>, </i>riportata dal <i>Financial Times</i>, è pedestremente ripresa dalla stampa italiana. Elon Musk e altri 1.000 leader della Silicon Valley chiedono di "sospendere lo sviluppo dell’intelligenza artificiale". I firmatari spiegano come "negli ultimi mesi c’è stata una corsa fuori controllo dei laboratori per l’intelligenza artificiale a sviluppare potenti menti digitali che nessuno, neanche i creatori, possono capire, prevedere e controllare". </p>
<b>Lettere aperte: Future of Life Institute e Association for the Advancement of Artificial Intelligence</b><div>"Chiediamo a tutti i laboratori di intelligenza artificiale di fermarsi immediatamente per almeno sei mesi nell’addestrare i sistemai di IA più potenti come GPT-4. La pausa dovrebbe essere pubblica, verificabile e includere tutti. Se non sarà attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria", si legge nella lettera del Future of Life Institute.</div><div>Un monito da prendere sul serio? Una presa di posizione veramente nuova? Non sembra.</div><div>Come racconto nel mio libro <a href="https://www.francescovaranini.it/2019/11/le-cinque-leggi-bronzee-dellera-digitale-e-perche-ci-conviene-trasgredirle-libro-si-francesco-varanini-in-uscita-nel-marzo-2020/"><i>Le Cinque Leggi Bronzee dell'Era Digitale. E perché conviene trasgredirle</i></a> (Guerini e Associati, 2020, pp. 219 e segg.), lo scrivere lettere aperte a proposito dei rischi impliciti nell'Intelligenza Artificiale è uno sport molto diffuso tra tecnici e guru dell'Era Digitale.
Così ci si lava la coscienza, poi si può tornare sollevati a chiudersi in laboratorio, senza pensare troppo alle conseguenze delle proprie azioni, senza assumersi reali responsabilità. Si sbandierano assieme il vessillo della preoccupazione per il futuro dell'essere umano e lo stendardo della potente forza implicita nell'Intelligenza Artificiale. Si ripete fino alla noia che l'Intelligenza Artificiale è gravida di buone promesse ma potrebbe anche comportare l'estinzione della specie umana.</div><div>Campione della gara delle lettere aperte è proprio il <a href="https://futureoflife.org/"><i>Future of Life Institute</i></a>. La recente lettera aperta ripete stancamente quella del gennaio 2015, documento di esordio dell'Institute. Mark Tegmark, fisico ansiosamente alla ricerca del grande pubblico, cerca spazio sul ghiotto terreno dell'Intelligenza Artificiale. Eccolo fondare il Future of Life Institute, di cui è tutt'ora presidente.
Si susseguono da allora campagne che sostengono l'ovvio. Il trucco consiste nel non prendere partito: vogliamo una AI al contempo <i>roubust and beneficial</i>. </div><div>Questo significa forse mettere un freno alla corse verso l'Intelligenza Artificiale? Non sia mai! Al contrario, "this does not mean a pause on AI development".
Sarebbe sbagliatissimo, si legge nella lettera del 2015, rinunciare alla ricerca, perché “i benefici [benefits] sono enormi”. </div><div>“A fronte del grande potenziale dell'AI è importante ricercare il modo di raccogliere i suoi benefici evitando potenziali insidie [pitfalls]”.Ciò che già si leggeva nella lettera del 2015, lo si ritrova pari pari nella lettera del marzo 2023: "AI research and development should be refocused on making today's powerful, state-of-the-art systems more accurate, safe, interpretable, transparent, robust, aligned, trustworthy, and loyal".</div><div>A cosa dovrebbe servire la pausa ora proposta? "I laboratori di intelligenza artificiale e gli esperti indipendenti dovrebbero sfruttare questa pausa per sviluppare e implementare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo avanzati di intelligenza artificiale, rigorosamente verificati e supervisionati da esperti esterni indipendenti". Notare bene: si parla di protocolli stabiliti dagli stessi laboratori impegnati nella ricerca, accompagnati da esperti esterni indipendenti. Tra le righe è facile leggere la risposta ad una domanda: chi sono gli esperti indipendenti? Innanzitutto i ricercatori del Future Of Life Institute!
Quale lo scopo dei protocolli? Rendere tutto più <i>robusto</i>. "Robust AI governance systems". "Robust auditing and certification ecosystem". E anche, guarda caso, "robust public funding for technical AI safety research". Cioè: l'industria privata fa cose pericolose, quindi, argomentano Tegmark e amici, merita risorse pubbliche per mitigare i rischi impliciti nei progetti.</div><div>Gli interessi economico-finanziari e l'interesse dei tecnici ad avere mano libera vanno a braccetto. Così, anche, si mantiene vivo, ma sotto controllo, lo stesso business della critica ai rischi dell'Intelligenza Artificiale. Chi è il vice-presidente e tesoriere del Future of Life Institute? Meia Chita-Tegmark, moglie di Mark Tegmark.
Ora si considera notevole il fatto che tra i primi firmatari della lettera si trovi Elon Musk. Si evitata di ricordare che già all'inizio del 2015 Tegmark, celebrava la “la donazione di 10 milioni di dollari di Elon Musk al Future of Life Institute, che ha contribuito a mettere a disposizione 37 sovvenzioni per gestire un programma di ricerca globale volto a mantenere l'IA benefica per l'umanità”.</div><div>Dalla discussione, insomma, è bandita l'ipotesi che l'Intelligenza Artificiale possa veramente essere dannosa. Basta del resto leggere ciò che scrive Tegmark per osservare come considera obiettivo auspicabile per gli stessi esseri umani l'affermarsi di una Superintelligenza non umana. Racconto nelle <i><a href="https://www.francescovaranini.it/2019/11/le-cinque-leggi-bronzee-dellera-digitale-e-perche-ci-conviene-trasgredirle-libro-si-francesco-varanini-in-uscita-nel-marzo-2020/" target="_blank">Cinque Leggi</a></i> di come Tegmark parli del futuro collocandosi al di fuori della comunità umana, dei cittadini del mondo: scienziato che dall'alto e dal di fuori disegna scenari - per la precisione dodici. Per non compromettersi, non prende esplicitamente partito per nessuno di essi. Ma comunque annuncia qual è il luogo dove il destino degli esseri umani sarà spiegato al volgo: il Future of Life Institute. </div><div>Musk, da parte sua, proprio alla fine del 2015 fonda Open AI, società che ha per scopo sviluppare quell'Intelligenza Artificiale Generale, AGI, che Tegmark chiama Superintelligenza. Proprio Open AI sembra ora, con la Chat GPT, essersi avvicinata ben più di ogni altra impresa all'Intelligenza Artificiale Generale.
Come mostro nelle <i><a href="https://www.francescovaranini.it/2019/11/le-cinque-leggi-bronzee-dellera-digitale-e-perche-ci-conviene-trasgredirle-libro-si-francesco-varanini-in-uscita-nel-marzo-2020/" target="_blank">Cinque Leggi</a></i>, Elon Musk presto cambiò idea, e passò a considerare l'Intelligenza Artificiale Generale "un rischio fondamentale per la civiltà umana". Non va dimenticato che Musk indirizzò allora i suoi investimenti verso un progetto diverso, ma non meno inquietante: connettere tramite sottilissimi filamenti neurali il cervello umano ad un computer.</div><div>Ecco comunque ora tutti, impauriti o sorpresi, a firmare la lettera del Future of Life Institute. Ma anche, allo stesso tempo, ansiosamente dediti a provare l'ultima versione della Chat GPT. I tecnici firmatari della lettera invocano "un passo indietro rispetto alla pericolosa corsa verso modelli black-box sempre più grandi e imprevedibili con capacità emergenti". L'invocazione è certo frutto di preoccupazione, ma anche, è lecito supporre, espressione di invidia nei confronti dei colleghi di Open AI. Quasi a dire: la black-box dovrebbe essere aperta a tutti i tecnici, cioè anche anche a noi.
La sorpresa di qualcuno di fronte a ciò che la Chat GPT riesce a fare non sembra invece molto motivata. I risultati erano prevedibili. Non c'è niente di nuovo da un punto di vista tecnico, c'è solo il fatto che usando ingenti investimenti e enorme potenza di calcolo si è andati avanti lungo una strada già nota. </div><div>Se questo è vero per la lettera del Future of Life Institute, pubblicata il 23 marzo, è ancor più vero per la lettera dell'Association for the Advancement of Artificial Intelligence, che segue a pochi giorni di distanza, il 5 aprile. Storica società scientifica, l'AAAI si propone come punto di riferimento per la comunità professionale dal 1979. Naturalmente si è data <a href="https://aaai.org/about-aaai/ethics-and-diversity/" target="_blank">un codice etico</a>: vuoto e non impegnativo, come troppo spesso capita di vedere: basta citare una frase: "the entire computing profession benefits when the ethical decision-making process is accountable to and transparent to all stakeholders". Si può subito notare che l'intento non è portare la comunità professionale ad assumere impegni, l'impegno consiste al contrario nel difendere gli interessi della comunità professionale di fronte a qualsiasi situazione che ne minacci la posizione dominante e lo spazio d'azione. Lo stesso intento appare chiarissimo ora nella lettera aperta <i><a href="https://aaai.org/working-together-on-our-future-with-ai/" target="_blank">Working together on our future whit AI</a></i>. L'incipit ammonisce il popolo: "L'Intelligenza Artificiale sta già arricchendo le nostre vite, spesso in modi non percepiti". "Alimenta i nostri sistemi di navigazione, è utilizzata in migliaia di screening quotidiani di tumori, smista miliardi di lettere del servizio postale". E via dicendo: "ha svelato la struttura di migliaia di proteine", garantisce previsione meteorologiche dettagliate, fornisce idee che stimolano la creatività. "We believe that AI will be increasingly game-changing" in ogni ambito. </div><div>Segue una modesta ammissione: "siamo consapevoli dei limiti e delle preoccupazioni sui progressi dell'Intelligenza Artificiale". Ma subito si rovescia la frittata, dichiarando innocenti i membri della comunità professionale e affermando che dei problemi se ne deve occupare qualcun altro: "Beyond technology, we see opportunities for work in policy, including efforts with standards, laws, and regulations". Si coglie anche l'occasione per chiedere investimenti pubblici destinati a ricerche sulla valutazione del rischio. </div><div>Per quanto riguarda la comunità professionale, ci si limita a dire che la si incoraggia ad incrementare gli sforzi indirizzati verso la sicurezza e l'affidabilità dell'AI e le sue influenze sulla società. In che modo? Parlandone di più in convegni e workshop "ed altre attività esistenti". Basta dunque aggiungere ai convegni una sezione dove si parli di "short-term and longer term ofAI".</div><div>Ciò che si deve quindi sottolineare è che esiste in ogni caso un punto che accomuna l'intera comunità professionale impegnata in un modo o in un altro nel campo della ricerca legata all'Intelligenza Artificiale. Accomuna coloro che mirano ad Intelligenze Artificiali specializzate in un compito e coloro che cercano l'Intelligenza Generale Artificiale. Accomuna i puri tecnici e gli imprenditori. Accomuna i profeti della Digital Disruption e i filosofi fiancheggiatori. Consapevoli tutti di appartenere alla stessa famiglia professionale e di avere interessi in comune da difendere. Tutti infatti appaiono nei fatti d'accordo su un punto: l'importante è che il dibattito, e le decisioni conseguenti, restino in mano alla lobby degli addetti ai lavori. Chi infatti è invitato a firmare queste lettere? Tecnici e scienziati, tecnocrati, imprenditori del settore - che riservano a se stessi l'autorità di decidere come autoregolarsi. Tutto in mano agli 'esperti'! </div><div>C'è motivo di ritenere che le lettere aperte degli esperti servano solo, in un momento in cui si ha di fronte una novità per certi aspetti sorprendente, a rinserrare le fila. E' facile per i tecnici considerare i cittadini non all'altezza di capire ed opinare. A questo scopo si evita ogni trasparenza, si usano gerghi escludenti. Oppure si offre una divulgazione volutamente superficiale, tesa a sollevare entusiasmi e a far apparire tecnofobi e retrogradi coloro che chiamano alla cautela. Si evita, insomma, un autentico dibattito pubblico, dove i cittadini siano messi in condizioni di comprendere e siano convocati a partecipare. Scrivo nelle <i><a href="https://www.francescovaranini.it/2019/11/le-cinque-leggi-bronzee-dellera-digitale-e-perche-ci-conviene-trasgredirle-libro-si-francesco-varanini-in-uscita-nel-marzo-2020/" target="_blank">Cinque Leggi</a></i> che il primo passo in questa direzione dovrebbero compierlo i tecnici. Cercando la trasparenza nella narrazione del loro lavoro e nella descrizione dei sistemi da loro sviluppati. Ma sopratutto tornando a considerare sé stessi come cittadini. Spogliandosi del proprio potere, potrebbero chiedersi: cosa sto facendo? Comodo invece limitarsi a sottoscrivere lettere aperte.</div><div><br /></div><div><b>Scende nell'agone il Garante italiano della Privacy</b> </div><div>Il Garante italiano della Privacy avvia una istruttoria su OpenAI e la Chat GPT. Risultato: l'accesso alla Chat è negato ai cittadini italiani.</div>Motivi addetti dal Garante: <div>OpenAi non ha mai fornito una spiegazione dettagliata su come utilizzerà le informazioni che immagazzina</div><div>Il gruppo ha la sua base negli States. Sembra quindi che dati di cittadini europei siano raccolti su database situati fuori dalla comunità europea.</div><div>La Chat GPT non verifica l’età dell’utente. Quando in Europa la possibilità che un minore sia esposto ad informazioni 'inidonee' è considerato reato. </div><div>Naturalmente, c'è poi un ragionamento politico-strategico: lo stesso uso della Chat da parte dei cittadini, è fonte di alimentazione delle conoscenze che rendono possibile il funzionamento della Chat. </div><div>Il Garante afferma che la Chat utilizza dati dei quali i cittadini non hanno concesso l'uso. Questo può essere vero. Ma in molti casi, i dati personali che Open AI, come tanti altri grandi operatori digitali, usa, sono legittimati dal fatto che li abbiamo resi pubblici involontariamente noi cittadini non stando attenti alle disclaimer di siti e piattaforme, dove si dichiara che silenzio dell'utente è assenso, e cose simili.</div><div>Si può dire che l'atto del Garante appare una censura fondata su interpretazioni formali di norme vigenti. Sul breve termine Open AI accetta la posizione del Garante bloccando il servizio in Italia. Presto troverà il modo di aggiustare il tiro. </div><div>Si possono riconoscere ai difensori civici le buone intenzioni. Ma ogni censura è vana, perdente, specie nei tempi digitali dove i confini nazionali e europei valgono ben poco. I loro interventi non hanno la minima di possibilità di incidere sulle ricerche, sulle strategie e sulle scelte di mercato delle grandi case digitali. </div><div>E ancora, l'intervento del Garante finisce per essere il sostituto di un vero dibattito pubblico. La comunità dei tecnici digitali intanto, nel mentre sparge un po' di lacrime di coccodrillo attraverso qualche lettera aperta, continua, in un modo o nell'altro, ad appropriarsi dei dati dei cittadini per costruire strumenti sempre più potenti per condizionare i cittadini stessi, rendendoli passivi utenti. </div><div><br /></div><div><b>Il fascino della Chat GPT: sottile ed ingannevole</b></div><div>La censura è vana, perdente. Gli argomenti addotti dal Garante sono dubbi. Non si ferma certo così un trend. L'isolamento al quale l'intervento del Garante costringe chi opera nel nostro paese è dannoso. </div><div>Ma il coro di voci che si leva contro il Garante dà da pensare. Possiamo veramente considerarli imparziali nel giudicare? Non credo. Le voci che criticano l'intervento del Garante non sono né indipendenti né disinteressate.
Sono vocci di addetti ai lavori personalmente interessati al fatto che la giostra continui a girare e anzi giri sempre più veloce. </div><div>Denunciamo dunque la vanità delle prese di posizione del Garante. Ammettiamo però anche l'ipocrisia implicita in lettere come quella del Future of Life Institute. E ammettiamo anche il fascino pericoloso che esercita su di noi questa Intelligenza Artificiale Generativa. Sia chi ha, sia chi non ha, fiducia nel possibile avvento di una Intelligenza Artificiale Generale, sia chi questa fiducia non ce l'ha, sono affascinati dai risultati raggiunti da Open AI. Tutti passano il tempo a interrogare il nuovo oracolo! Non posso che tornare sugli argomenti espressi nella <i><a href="http://diecichilidiperle.blogspot.com/2023/02/chat-gpt3-una-confutazione-poetica.html" target="_blank">Confutazione poetica della Chat GPT</a></i>, pubblicata di recente su questo blog. E non posso fare a meno di ricordare quello che scrivo nelle <i><a href="https://www.francescovaranini.it/2019/11/le-cinque-leggi-bronzee-dellera-digitale-e-perche-ci-conviene-trasgredirle-libro-si-francesco-varanini-in-uscita-nel-marzo-2020/" target="_blank">Cinque Leggi</a></i>. Mi sembra che tra gli 'esperti' la grande maggioranza si ponga senza troppo ragionare nella scia di Turing, quando, <a href="https://academic.oup.com/mind/article/LIX/236/433/986238" target="_blank">nell'articolo apparso su <i>Mind</i> nel 1950</a>, dice: 'Spero che le macchine pensino'. La seconda delle leggi di cui parlo nel mio libro infatti recita: 'Preferirai la macchina a te stesso'. La quarta: 'Lascerai alla macchina in governo'. Un cittadino dovrebbe, secondo me, preferire sé stesso ad ogni macchina e non lasciare alla macchina il governo. Ma gli 'esperti' invitano invece i cittadini a fidarsi della macchina più che di sé stessi.</div><div>Vorrei anche aggiungere una nota strettamente politica. Perché le scelte che ci appaiono meramente scientifiche e tecnologiche, sono in realtà sempre anche scelte politiche. Gli esperti, i tecnologi, posso dire in genere i membri delle élite, possono ben dire che la Chat GPT è mero strumento, tramite il quale scaricarsi i compiti ripetitivi e inutilmente faticosi. </div><div>La Chat, però, lungi dal apparire strumento per aprire alla creatività, appare strumento di dominio a chi vive in condizioni di sudditanza. </div><div>L'élite che magnifica la Chat, e prova soddisfazione nell'usarla, nasconde così a sé stessa il fatto che in un contesto democratico, dove la democrazia non sia ridotta alla versione più banale e comoda del liberismo, l'élite svolge il suo ruolo solo se va oltre il comodo, esclusivo perseguimento dei propri interessi, e si fa carico di creare condizioni affinché ognuno, anche chi proviene da condizioni disagiate, possa giungere ad essere pienamente cittadino, attivo e responsabile. E' però evidente che la Chat GPT è usata al contrario: per imporre risposte ad ogni domanda, per svilire la ricerca, per costringere chi non appartiene all'élite in una condizione di definitiva sudditanza. Per qualcuno la Chat è un gioco, un divertimento, per altri è strumento di controllo sociale.</div><div>Ed in ogni caso, non dimentichiamolo, la Chat GPT è un modo per raccogliere dati e per garantire al sistema nuove informazioni sui comportamenti umani. Più alimentiamo Chat GPT, più ne diventiamo dipendenti.</div><div><br /></div><div><b>Agenti, copiloti e pappagalli</b></div><div>Un articolo diffuso in pre-print il 13 aprile è molto citato in questi giorni, a conferma della condivisa speranza degli 'esperti': <i><a href="https://arxiv.org/abs/2303.12712" target="_blank">Sparks of Artificial General Intelligence: Early experiments with GPT-4</a></i>. Gli autori -Sébastien Bubeck ed altri, lavorano nei laboratori di ricerca di Microsoft, la grande casa cui Open AI è più vicina. "Cosa sta realmente accadendo? Il nostro studio di GP 4 è interamente fenomenologico: ci siamo concentrati sulle cose sorprendenti che GP 4 può fare, ma non affrontiamo le domande fondamentali sul perché e come raggiunge un'intelligenza così straordinaria". Per questo l'articolo piace tantissimo agli addetti ai lavori: propone una entusiastica apologia della nuova tecnologia, eludendo qualsiasi domanda impegnativa, da un punto di vista sia tecnico che da punti di vista sociali, politici ed etici. </div><div>E' la filosofia del lavarsene le mani. La posizione che Bubeck, con una certa ingenuità, ammette, è la posizione generalmente diffusa tra gli addetti ai lavori. Delle conseguenze ci preoccuperemo veramente, se sarà il caso, in futuro. Intanto, firmiamo una lettera - che tanto, lo sappiamo, non bloccherà nessuna ricerca. E semmai il compito di bloccare spetta alla politica. Il business e l'industria devono andare avanti. I finanziatori attendo sempre più alti ritorni dell'investimento. Subito la ricerca deve essere applicata a prodotti.</div><div>Non a caso <a href="https://blogs.microsoft.com/blog/2023/03/16/introducing-microsoft-365-copilot-your-copilot-for-work/" target="_blank">Microsoft, sulla base degli studi che Open AI porta avanti, lancia in questi stessi giorni un nuovo tool della suite Office 365, dal nome emblematico: <i>Copilot</i></a>. "We spend too much time consumed by the drudgery of work on tasks that zap our time, creativity and energy. To reconnect to the soul of our work, we don’t just need a better way". La <i>better way</i> proposta ad ogni cittadino del pianeta per l'uso del proprio tempo, dei propri personali spazi di libertà, nel lavoro e nella vita quotidiana, sarà indicata dal copilota digitale! <br />Satya Nadella, Chairman e CEO di Microsoft, infatti annuncia: “With our new copilot for work, we’re giving people more agency and making technology more accessible through the most universal interface - natural language.” <div><i>More agency</i>: <i>agency</i> è l'ambigua parola che i filosofi digitali sostituiscono a <i>libertà</i>. Infatti nessuno osa tradurre <i>agency</i> con <i>libertà</i>, o neanche con <i>potere</i>, <i>capacità</i>. Si preferisce lasciare la parola in inglese, o avventurarsi nel neologismo <i>agentività</i>. L'espressione vuole affermare l'esistenza di un terreno sul quale appaiono -simili, fungibili, sostituibili l'un l'altro- l'umano e la macchina. La metrica buona per la macchina è per questa via imposta agli umani. La millenaria storia dell'umana ricerca dell'essere, de sé, dello spazio di autonomia, della responsabilità personale, è così comodamente elusa, o anzi rimossa. Anche di questo parlo in modo dettagliato e preoccupato nelle <i><a href="https://www.francescovaranini.it/2019/11/le-cinque-leggi-bronzee-dellera-digitale-e-perche-ci-conviene-trasgredirle-libro-si-francesco-varanini-in-uscita-nel-marzo-2020/" target="_blank">Cinque Leggi</a></i>.</div><div><div>Microsoft e Open AI, dunque, ci dicono che sanno ciò che è bene per ognuno di noi, e ci chiedono di fidarci di loro. Quando scrivo Microsoft e Open AI, possiamo intendere i tecnici di Microsoft e di Open AI, oppure, direttamente la Chat che i tecnici di Microsoft e Open AI hanno creato, Chat dotata di Intelligenza Artificiale che parla agli umani come se a parlarci fosse un umano. Ecco cosa intendo quando dico: cittadini ridotti a utenti. Il concetto di <i>Copilota</i> risulta infatti volutamente ambiguo. Mentre si lascia in apparenza libertà, si dà per scontato che convenga agli umani seguire i suoi melliflui consigli del <i>Copilota</i>. Mentre prosegue il lavoro di rendere, tramite l'uso di ricerche neuroscientifiche, sempre più difficile agli umani non seguire la via indicata, tramite acconci algoritmi, sui Social Network; mentre diventano più incombenti i 'consigli' che arrivano tramite notifiche, e ora tramite il <i>Copilota</i>. Agli 'esperti' seguaci di Turing piace essere guidati dalla macchina. Forse molti cittadini la pensano diversamente. Ma ora saranno ricondotti sulla retta via.</div><div>In realtà, di fronte all'avvento della Chat GPT, qualcuno è tornato a citare un articolo del 2021, di grande interesse, critico e premonitore. <i><a href="https://dl.acm.org/doi/pdf/10.1145/3442188.3445922" target="_blank">On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?</a></i> Emily Bender e le altre ricercatrici legate al centro di ricerca di Google, come si sa, hanno pagato cara questa presa di posizione. Non è questa la sede per riprenderne in dettaglio i diversi argomenti. Basta l'attenzione dedicata a mostrare i costi ambientali e finanziari della tecnologia fondata su modelli linguistici linguistici sempre più grandi. Le ricercatrici si chiedono <i>How big is too big? </i>Notano come non conta solo la quantità dei dati, ma anche la loro qualità. Conta anche, da un punto di vista etico, come sono stati raccolti i dati. Non è necessariamente questo -modelli linguistici di dimensioni sempre più grandi- l'unica direzione nella quale dovrebbe muoversi la ricerca, suggeriscono Binder e le coautrici. Ma certo se la gran parte degli investimenti sono rivolti a questo tipo di ricerca, ben poco di differente potrà essere sperimentato. </div></div><div>Alla riflessione sui dati: la loro quantità e la loro qualità; e all'invito a non trascurare altri indirizzi di ricerca le ricercatrici aggiungono una presa di posizione etica. "Chiediamo di riconoscere che le applicazioni che mirano a imitare [...] gli esseri umani comportano il rischio di danni estremi [extreme harms]. Il lavoro sul comportamento umano sintetico è una linea di confine nello sviluppo dell'AI rispettoso dell'etica, dove "gli effetti a valle devono essere compresi e modellati per bloccare i danni alla società e a diversi gruppi sociali". </div><div><div>Sui rischi, e sulle necessarie cautele, la lettera aperta del Future of Life Institute non fa che ripetere quello che Bender e le sue colleghe avevano già detto. E comunque, come ho mostrato, la recente lettera dice in realtà che i ricercatori impegnati su questa frontiera non vogliono né fermarsi né cercare altre strade. Si contentano sempre di ribadire la banale affermazione: 'Intelligenza Artificiale robusta e benefica'. Non aggiunge molto la pretesa novità affermata dall'Unione Europea: Intelligenza Artificiale <i>human centered</i>. In ogni caso nessuno vuole davvero mettere limiti alla ricerca.</div></div><div><a href="https://nymag.com/intelligencer/article/ai-artificial-intelligence-chatbots-emily-m-bender.html" target="_blank">Di recente, Bender è tornata a far ascoltare la sua voce</a>: "Sento che ci sono troppi sforzi per creare macchine autonome", ha detto. Mentre diminuiscono gli sforzi per "cercare di creare macchine che siano strumenti utili per gli esseri umani". Di fronte agli atteggiamenti di persone con le quali si è trovata a discutere in incontri pubblici, Bender si è sentita obbligata a precisare. "Non ho intenzione di conversare con persone che che non pongono la mia umanità come assioma alla conversazione". Sono infatti molti i tecnici e i filosofi fiancheggiatori che amano ricordare che non conta essere umani o non esserlo. Siamo tutti, alla pari <i>agenti</i>. </div><div>Solo alla luce di questa scelta personale, esistenziale, etica e filosofica si può ben capire il senso del titolo dell'articolo del 2021. <i>Pappagalli stocastici</i>. Bender, consapevole di essere umana, consapevole consapevole di appartenere alla vita sulla terra, ad una storia, consapevole di come il proprio pensiero ed il proprio parlare siano legati al corpo umano, ha molti motivi per dire che la Chat GPT non è che un pappagallo stocastico. Possedendo un solido dominio della sintassi, si esprime in modo correttissimo, e quindi in apparenza convincente. Ma non possedendo capacità semantiche parla come un pappagallo, che imita il linguaggio umano, ma a differenza degli umani non sa quello che dice. </div><div><br /></div><div><b>L'Intelligenza Artificiale Generale è ormai tra noi?</b></div><div>Qui l'opposizione è netta. Da un lato coloro che, nonostante le grandi prestazioni di GPT credono che si tratti di nient'altro che di un pappagallo stocastico. Dall'altro lato coloro che, come Bubeck, ritengono le prestazioni di GPT siano tanto sorprendenti da far pensare che -lo dice già nel titolo: <i>Sparks of Artificial General Intelligence</i>- vi si trovino scintille di Intelligenza Artificiale Generale. "Resta ancora molto da fare per creare un sistema che possa qualificarsi come Intelligenza Artificiale Generale completa", scrive Bubeck. Eppure Bubeck, come tanti esperti, è entusiasta, emozionato, di fronte alle <i>core mental capabilities</i> di GPT. Le elenca con ammirazione: <i>reasoning</i>, <i>creativity</i>, <i>deduction; variety of tasks it is able to perform: playing games, using tools, explaining itself</i><i>... </i></div><div><div>Resta ancora nutrita, potremmo anche dire maggioritaria, la schiera dei ricercatori e dei tecnici che intendono l'Intelligenza Artificiale come capacità applicata a macchine dedicate ad un singolo scopo. Essi non hanno mai creduto all'Intelligenza Artificiale Generale, né ne hanno fatto l'oggetto della propria ricerca. Ma molti di loro in questi giorni si stanno ricredendo. </div></div><div>Quella Superintelligenza, totalmente autonoma dall'intelligenza umana, a suo modo cosciente, che era stata cercata per settant'anni seguendo altre vie tecnologiche, sembra comunque ora apparire vicinissima a manifestarsi, come frutto del Deep Learning e dei Large Language Model: la si chiama Intelligenza Artificiale Generativa.</div><div><br /></div><div><b>Chi ci parla davvero, senza enfasi, dei rischi esistenziali</b></div><div>Retorica e propaganda accompagnano la crescita dell'industria digitale. I tecnici impegnati nella ricerca, spinti dall'ansia di sperimentare, scelgono di sottovalutare le conseguenze dei loro progetti: si limitano a firmare lettere aperte e al fare appello alla politica, che dovrebbe imporre norme e freni. Ma i politici, non sapendo cosa fare di fronte a ricerche di cui non capiscono senso e portata, si affidano a commissioni formate dagli stessi tecnici che rimandano le decisioni alla politica. Da questo circolo vizioso, non possono che nascere norme inefficaci.</div><div>Ai tecnici, poi, è stato insegnato che la misura del successo di una ricerca sta nei risultati finanziari generati dalla ricerca stessa. Il legame tra tecnici ricercatori e investitori risulta così ambiguo tanto quanto il legame tra tecnici e politici.</div><div>Le voci critiche realmente autonome sono quindi poche. Le poche, vanno sminuite e svalutate. Così accade appunto con l'articolo di Emily Binder e delle altre ricercatrici, <i>On Danger of Stochastic Parrots</i>.</div><div>Non solo sono disattesi gli accorati inviti di Binder: mettere un limite alla raccolta dei dati, evitare ricerche orientate . Ma nell'ansia di svalutare l'articolo si punta dritto alla tesi espressa nel titolo. </div><div>Sam Altman, CEO di Open AI, il 4 dicembre 2022, quattro giorni dopo il rilascio di Chat GPT, scrive in un tweet: "Sono un pappagallo stocastico". Crede di essere ironico. </div><div>Bender risponde: "Le persone vogliono credere così tanto che questi modelli linguistici siano effettivamente intelligenti che sono disposte a prendere se stesse come punto di riferimento e a svalutare questo aspetto per adeguarsi a ciò che il modello linguistico può fare". </div><div>"Vogliono credere": vi colgo un richiamo all'"I hope" di Turing. Specchiarsi nella macchina. Il 'gioco dell'imitazione', di cui parlava Turing nell'articolo del 1950, i seguaci turinghiani l'hanno poi pomposamente definito <i>test di Turing</i>. Turing ridefinisce l'intelligenza ed il pensiero umani, in modo tale da poter arrivare a dire: 'l'intelligenza ed il pensiero corrispondenti alla definizione, si ritrovano nella macchina'. Insomma, torno a dirlo con la seconda delle <a href="https://www.francescovaranini.it/2019/11/le-cinque-leggi-bronzee-dellera-digitale-e-perche-ci-conviene-trasgredirle-libro-si-francesco-varanini-in-uscita-nel-marzo-2020/" target="_blank">Cinque Leggi</a>: 'Preferirai la macchina a te stesso'. Prenderai la macchina a modello di te stesso. Il Gemello digitale di ogni entità fisica, anche di ogni essere umano, è un passo in questa direzione.</div><div>Ma in realtà, nessuno si ferma. La ricerca prosegue. L'argomento dei pappagalli stocastici viene usato come arma retorica contro Binder. Bubeck osserva emozionato le scintille di Intelligenza Artificiale Generale che traspaiono nei GPT.</div><div>Non sappiamo ancora ben immaginare, e tanto meno regolamentare, un mondo in cui quell'intelligenza esiste. Eppure la lettera aperta di Future of Life si apre con una frase precisa: "AI systems with human-competitive intelligence can pose profound risks to society and humanity".Perché non ce ne preoccupiamo in modo serio? Credo che per rispondere a questa domanda, convenga seguire la lezione di Eliezer Yudkowsky. Scrivo di lui nelle <i><a href="https://www.francescovaranini.it/2019/11/le-cinque-leggi-bronzee-dellera-digitale-e-perche-ci-conviene-trasgredirle-libro-si-francesco-varanini-in-uscita-nel-marzo-2020/" target="_blank">Cinque Leggi</a></i>, p. 225 e seguenti. Da lui viene il pensiero dal quale è nata la lettera aperta di Future of Life. Comunque lo si giudichi, Yudkowsky ha posto vent'anni fa il tema dei rischi esistenziali legati all'Intelligenza Artificiale. E nel corso degli anni è divenuto via via più pessimista. Cosa dice ora Yudkowsky di GPT? Parlo di questo in un <a href="http://www.francescovaranini.it/wp-content/uploads/2023/05/Intelligenza-Artificiale.-Benvenuta-lansiosa-preoccupazione.-Perciò-ascoltate-la-voce-di-Eliezer-Yudkowsky-4-mag-23.pdf" target="_blank">articolo pubblicato su <i>Agenda Digitale</i></a>.</div></div><div><br /></div><div><i>(post scritto il 30 marzo e via aggiornato fino al 4 maggio)</i></div>Francesco Varaninihttp://www.blogger.com/profile/16191894598697362552noreply@blogger.com0tag:blogger.com,1999:blog-3387039186665984628.post-35390141314916210962023-02-12T19:43:00.014+01:002023-06-25T13:30:26.374+02:00Chat GPT: Una confutazione poetica<div><br /></div>S’alza al cielo un commosso peana <div>ognuno s'accinge a ciattare con Lei! <div>Ogni dì frotte di teori </div><div>s’accodano a interrogar l’oracolo </div><div>s’affrettano a cercar l’autoaccecamento </div><div>Ganzissimo l’ultimo gli chiede: </div><div>Erri forse tu, oracolo? </div><div><br /></div><div>Oh funzionari dell’aurora </div><div>corifei del digital c’avanza </div><div>mosche cocchiere di variatissima estrazione </div><div>plaudenti all’ultimo meraviglioso aggeggio </div><div><br /></div><div>Con esso, ci dicono, condito d’algoretica, </div><div>il popolo pur affetto da terribili bias </div><div>sarà salvato. O altrimenti che importa: </div><div>ad ogni umano essere, alla natura tutta </div><div>simulacri noi chierici sostituiremo, portatori di esattezza </div><div>fedeli alla perfetta esecuzione del comando </div><div>che consiste nel ripetere il già detto </div><div><br /></div><div>La nuvola ora si specchia nel lago </div><div>Understanding Ciat </div><div>coniò l’originale titolista </div><div>And Its Discontents risponde, per non esser dammeno </div><div>l’Influencer di fronte </div><div>Siccome l’Agency toglie ancora una volta </div><div>le castagne dal fuoco </div><div>possono serrare le fila lobby piccolette. </div><div>L’intellighenzia, risparmiato il disturbo </div><div>dello scrivere pensando </div><div>e del pensar scrivendo </div><div>non dovrà più nulla a nessuno </div><div>godrà del tempo per rimirarsi nel proprio ego </div><div><br /></div><div>Non è nuovo il disegno </div><div>di chi esaltando le virtù del secolo nostro </div><div>e magnificando la cornucopia della tecnica: </div><div>farà della terra il Giardino delle Delizie. </div><div><div>Nessuna delega abbiamo dato </div><div>ad autoeletta schiera di eroi</div><div>richiamiamoli semmai nel consesso civile</div><div>nella casa comune degli umani.</div></div><div>Il cittadino intanto langue
nella palude dell'onlife. </div><div>Ivi, spinti a creder d’esser felici </div><div>regaliamo le scie del pensar nostro </div><div>e ligi al servaggio ci affaccendiamo </div><div>alla più entusiasta propaganda dell’accrocchio </div><div>emulatore dell’umano </div><div><br /></div><div>Finché nel Giorno del Giudizio </div><div>la Borsa decreterà il valore </div><div>delle nostre conoscenze alienate </div><div>mentre i nostri stessi risparmi </div><div>di cui remoti gestori s’appropriarono </div><div>finiranno in mano ai magnifici </div><div>inventori della Ciat </div><div>ed ai loro sodali e reggicoda. </div><div><br /></div><div>Volano corvi, civette incombono sui rami, </div><div>vortici d’immondizia numerica ammiccanti aleggiano </div><div>e noi umani gravati da notifiche </div><div>e da incombenze imposte per via digitale </div><div>incapaci di accettare l’imperfetta bellezza nostra </div><div>alziamo il canto </div><div>Mira il tuo popolo, o bella Ciat, </div><div>che pien di giubilo oggi t'onora </div><div>Anch'io festevole corro ai tuoi pie', </div><div>o santa macchina, parla per me </div><div><br /></div><div>Non è che un programma </div><div>fedele all’istruzione </div><div>Ma noi ansiosi di fuga </div><div>l'eleviamo a nostro pari </div><div><br /></div><div>L’incommensurabile esser vivo </div><div>sostituito dall'infimo avatar </div><div>La sconfinata interconnessa vastità </div><div>svilita in pauperrima collezione di dati </div><div>Il caos, il cosmo, la storia </div><div>osservati dal buco della serratura d’un algoritmo </div><div><br /></div><div>Eppure l’umano lume </div><div>la scintilla della coscienza… </div><div>Giacché nasce dalle viscere e dal sogno il pensiero </div><div>dai gesti dagli sguardi dal dolore </div><div>Ciò che in altro non umano modo emerge </div><div>non è pensiero </div><div><br /></div><div>Immaginiamoci vi prego disposti ancora al mistero </div><div>ospitato in sterminate biblioteche </div><div>Diamo ascolto al brusio di umane voci </div><div>che conobbero e narrarono il mondo. </div><div>Nulla aggiunge il digital accrocchio </div><div>Non esiste parola che squadri da ogni lato </div><div>che a lettere di fuoco dica il vero </div><div>non esiste la formula
che il mondo possa aprirti </div><div><br /></div><div>
Né è nuovo il compito: </div><div>Di ciò che sembra, diffida </div><div>Studia sempre </div><div>Di fronte a ogni testo </div><div>ad ogni oracolare verbo </div><div>distingui, giudica, scegli, interpreta </div><div>sia pure a fatica </div><div>sii te stesso </div><div><br /></div><div>La fragile specie nostra non è immortale </div><div>non tutto sa </div><div>ma non rinuncia a dire 'io ci provo' </div><div>Poseremo quindi con rispettoso disincanto </div><div>l’occhio, e curioso </div><div>sulla Cosa Digitale prender sua forma </div><div>Ma il folle volo nel cupio dissolvi </div><div>in quanto umani contrasteremo </div><div>Diremo quindi: </div><div>ignava è la macchina </div><div>non ti curar troppo di lei </div><div>ma guarda e passa. </div><div><br /></div><div>Se poi un giorno l’oracolo </div><div>propinquo o remoto, in virtù d'addestramento </div><div>scriverà versi </div><div>mai saranno i miei </div><div>storti come i rami secchi del mio pero </div><div>ma versi di Francesco</div></div><div><br /></div><div><i>Versione 22 febbraio 2023</i></div><div><p><em>Sono non di rado accusato di "posture tecnocritiche massimaliste". Ma so di conoscere le nuove tecnologie di cui parlo quanto coloro che criticano la mia posizione, o più di loro. Amo le nuove tecnologie. Solo, cerco di guardarle dal punto di vista del cittadino, e non del tecnico, e tanto meno del filosofo o del sociologo che limitano il loro sguardo e il loro raggio d'azione a terreni definiti da tecnici.</em></p><p><em>Il cittadino ha a disposizione molti linguaggi. Il linguaggio STEM è solo uno dei tanti. Di fronte all'accettazione supina del primato del linguaggio STEM serve tornare ad altri linguaggi. Uno di questi è certo la poesia.</em></p><p><em>Nelle mie raccolte di poesie </em><a href="https://www.francescovaranini.it/1984/03/tadoriam-budget-divino/" rel="noopener" target="_blank">T'adoriam budget divino. Critica della ragione aziendale</a><em>, e </em><a href="https://www.francescovaranini.it/1984/03/lirresistibile-ascesa-del-direttore-marketing-cresciuto-alla-scuola-del-largo-consumo/" rel="noopener" target="_blank">L'irresistibile ascesa del Direttore Marketing cresciuto alla scuola del largo consumo</a><em> si trovano diverse poesie di argomento informatico, o diremmo meglio oggi: digitale. <a href="https://www.francescovaranini.it/1984/03/legacy/" rel="noopener" target="_blank">Qui, ad esempio, la poesia </a></em>Legacy<em>.</em></p><p><em>Devo anche aggiungere che col senno di poi la lirica che ho scritto mi appare una sintesi in versi del mio saggio: </em><a href="https://www.francescovaranini.it/2019/11/le-cinque-leggi-bronzee-dellera-digitale-e-perche-ci-conviene-trasgredirle-libro-si-francesco-varanini-in-uscita-nel-marzo-2020/" rel="noopener" target="_blank">Le Cinque Leggi Bronzee dell'Era Digitale. E perché conviene trasgredirle</a><em>. Spero che la forma diversa e la brevità spingano qualcuno a leggere il libro. Del resto i riferimenti a Leopardi e a Goethe, sia nel mio saggio, sia in questi versi, sono evidenti. Leopardi propone la filosofia in forma di lirica, Goethe usava la forma poetica per ribadire le tesi dei suoi articoli scientifici. Umilmente seguo la loro strada.</em></p></div>Francesco Varaninihttp://www.blogger.com/profile/16191894598697362552noreply@blogger.com1tag:blogger.com,1999:blog-3387039186665984628.post-59289064443846313602023-01-15T13:27:00.003+01:002023-01-15T14:55:08.343+01:00Etica dell'intelligenza artificiale. Le religioni abramitiche si accodano al Vaticano<p><i>Etica dell’intelligenza artificiale: l’impegno delle religioni abramitiche nella Rome Call</i>, <a href="https://news.microsoft.com/it-it/2023/01/10/etica-dellintelligenza-artificiale-limpegno-delle-religioni-abramitiche-nella-rome-call/" target="_blank">si legge in un comunicato Microsoft del 10 gennaio 2023</a>.</p><p style="margin-bottom: 0cm;">Le Chiese monoteiste si alleano con IBM e Microsoft nello scrivere algoritmi e nel decidere, insieme, cosa è buono per il popolo. Questo accade proprio nei giorni in cui viene rilasciata la ChatGPT, da molte parti giustamente considerata pericolosa, perché parla a noi umani con voce e con argomentazioni apparentemente umane. Le Chiese si candidano quindi a parlare attraverso ChatGPT. Ovviamente Microsoft, IBM, e la comunità dei promotori dell'industria digitale, accettano di buon grado la New Entry. L'avallo delle Chiese fa comodo.</p><p style="margin-bottom: 0cm;">Non è che l'allargamento del progetto promosso nel 2020 a nome del Vaticano dall'arcivescovo Vincenzo Paglia, presidente della Pontificia Accademia per la Vita. <a href="https://www.agendadigitale.eu/cultura-digitale/il-piano-del-vaticano-per-lai-etica-bastera-a-ricordarci-di-restare-umani/" target="_blank">Di cui parlo dettagliatamente in un articolo apparso su <i>Agenda Digitale</i></a>. (<a href="https://diecichilidiperle.blogspot.com/2021/03/la-posizione-del-vaticano-di-fronte.html" target="_blank">Lo trovate qui su questo blog l'articolo</a>, con il titolo che ritengo più appropriato)</p><p style="margin-bottom: 0cm;">Ora a Monsignor Paglia si aggiungono il rabbino capo Eliezer Simha Weisz (membro del Consiglio del Gran Rabbinato di Israele) e lo sceicco Al Mahfoudh Bin Bayyah (Segretario Generale del Forum per la Pace di Abu Dhabi), in rappresentanza dello sceicco Abdallah bin Bayyah, (presidente del Forum per la Pace di Abu Dhabi e presidente del Consiglio emiratino per la Shariah Fatwa).</p><p style="margin-bottom: 0cm;">Tra le dichiarazioni dei firmatari la più emblematica è quella del rabbino Weisz. “L’ebraismo esalta la saggezza dell’umanità, creata a immagine e somiglianza di Dio, che si manifesta in generale nell’innovazione umana e in particolare nell’intelligenza artificiale”. La la saggezza umana si manifesta nell'Intelligenza Artificiale? Direi il contrario: la saggezza umana sta nell'uso cauto e dubitante di ogni strumento fondato sull'Intelligenza Artificiale. Nelle parole del rabbino aleggia poi un'inquietante analogia tra l'Intelligenza Artificiale e ciò che è creato "a immagine e somiglianza di Dio".</p><p style="margin-bottom: 0cm;">I rappresentanti delle Chiese accettano di buon grado la linea dettata dal padre francescano del Terzo Ordine Regolare Paolo Benanti, professore straordinario presso la Facoltà di Teologia della Pontificia Università Gregoriana, direttore scientifico della <a href="https://www.romecall.org/renaissance-foundation/" target="_blank">Fondazione RenAIssance</a>.</p><p style="margin-bottom: 0cm;">"La dignità umana e i diritti umani ci dicono che nel rapporto uomo-macchina è l’uomo a dover essere protetto”. Benanti accetta così l'equiparazione uomo macchina. E candida sé stesso ed ogni sacerdote delle tre Chiese Abramitiche a proteggere l'essere umano. I sacerdoti si chiamano fuori, come se non fossero essi stessi esseri umani. Si riconoscono nel superiore statuto di Protettori e per questo vogliono partecipare alla scrittura gli algoritmi.</p><p style="margin-bottom: 0cm;">Ecco così Benanti tornare sul suo cavallo di battaglia, riassunto nel neologismo <i>algoretica</i>. "Dobbiamo stabilire un linguaggio che possa tradurre i valori morali in qualcosa di computabile per la macchina". (<a href="https://diecichilidiperle.blogspot.com/2022/02/la-pericolosa-banalita-dellalgoretica.html" target="_blank">Parlo della posizione di padre Benanti, e della sua algoretica, in questo blog, qui</a>).</p><p style="margin-bottom: 0cm;">Ho già segnalato la pericolosa china sulla quale si scende se accetta questa via.</p><p style="margin-bottom: 0cm;">Primo passaggio: i valori morali cessano di essere valori dell'essere umano e diventano patrimonio dell'esperto capace di trasformare l'etica in qualcosa di computabile. Computabile vuol dire: eseguibile da una macchina.</p><p style="margin-bottom: 0cm;">Si apre così la strada -secondo passaggio- all'autonomia morale della macchina.</p><p style="margin-bottom: 0cm;">Terzo passaggio: si arriva a sostenere che la macchina, che computa meglio dell'essere umano, sarà più morale dell'essere umano. Non mi si dica che il terzo passaggio è esagerato, lontano dal pensiero di tecnici ed esperti. <a href="https://diecichilidiperle.blogspot.com/2022/10/perche-mai-noi-umani-dovremmo-affidarci.html" target="_blank">Dimostro, in un articolo su questo blog, che rinomati esperti ci pensano davvero citando la posizione del computer scientist di cultura ebraica Judea Pearl</a>. </p><p style="margin-bottom: 0cm;">Anche stavolta, come in occasione del primo lancio della <i>Rome Call</i>, nel 2020, si chiama in causa il Papa. Ma nonostante il Papa citi la nuova parola magica <i>algoretica</i>, appare subito chiaro la sua posizione è ben diversa dalla posizione di Benanti. Per il Papa: l’algoretica non è altro che "la riflessione etica sull’uso degli algoritmi". E il Papa si augura che questa riflessione "sia presente nel dibattito pubblico", prima che "nello sviluppo delle soluzioni tecniche". E sopratutto Bergoglio afferma che “Non è accettabile che la decisione sulla vita e il destino di un essere umano vanga affidata ad un algoritmo".</p><p style="margin-bottom: 0cm;">Monsignor Paglia ed ora anche con loro rappresentanti delle altre 'religioni abramitiche' accettano invece la strada di Benanti: insufflare principi etici negli algoritmi.</p><p style="margin-bottom: 0cm;">C'è un'altra via. Allargare per quanto possibile il dibattito pubblico tra i cittadini, che sono anche i fedeli delle grandi religioni.</p><p style="margin-bottom: 0cm;">Accettando come punto di partenza una considerazione opposta a quella di Benanti. La vita, così come la coscienza umana, sono talmente complesse da non poter mai essere adeguatamente computate. L'etica ed il senso di responsabilità sono qualcosa di profondamente umano. E' ciò che distingue l'uomo dalla macchina.</p><p style="margin-bottom: 0cm;"><br /></p><p style="margin-bottom: 0cm;"><br /></p>Francesco Varaninihttp://www.blogger.com/profile/16191894598697362552noreply@blogger.com2tag:blogger.com,1999:blog-3387039186665984628.post-70651228165451372112023-01-15T13:14:00.002+01:002023-01-15T13:14:24.680+01:00Computazione<i>Articolo apparso su </i>Riflessioni Sistemiche<i>, numero 27, dicembre 2022; numero dal titolo: </i>Decostruendo miti e pregiudizi del nostro tempo<i>. </i><a href="http://www.aiems.eu/files/12_varanini.pdf" style="font-style: italic;" target="_blank">Qui l'articolo così come pubblicato sulla rivista</a><i>. </i><a href="http://www.aiems.eu/ultimo_numero.html" style="font-style: italic;" target="_blank">Qui il numero completo della rivista</a><i>, pubblicata da AIEMS, Associazione Italiana di Epistemologia e Metodologie Sistemiche.</i><div><i>Riporto qui di seguito l'articolo, perché si connette da vari punti di vista ad argomenti che tratto in questo blog.</i></div><div><i><br /></i></div><div>
<div class="page" title="Page 1">
<div class="layoutArea">
<div class="column">
<p><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-weight: 700;">Sommario
</span></p>
</div>
</div>
<div class="layoutArea">
<div class="column">
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Origine del termine </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">‘</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">digitale</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">’</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">. Calcolatori come macchine che trattano informazioni espresse
tramite numeri. Tuttavia, il termine più usato è computer. Differenza tra il calcolare e il computare.
Il ruolo di Alan Turing nel passaggio dal calcolare al computare. Passaggio non solo matematico,
logico, tecnico, ma anche filosofico, psicosociologico, politico. Differenza tra pensiero aperto alla
complessità e pensiero computazionale.
</span></p>
<p><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-weight: 700;">Parole chiave
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Digitale, calcolare, computer, computazione, matematica, formalismo, intuizionismo, complessità
</span></p>
<p><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-weight: 700;">Summary
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Origin of the term 'digital'. Computers as machines that process information expressed through
numbers. But the more commonly used term is computer. Difference between calculate and
compute. Alan Turing's role in the transition from calculating to computing. Shifting not only
mathematical, logical, technical, but also philosophical, psychosociological, political. Difference
between thinking open to complexity and computational thinking.
</span></p>
<p><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-weight: 700;">Keywords
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Digital, calculate, computers, computation, mathematics, formalism, intuitionism, complexity
</span></p>
<p><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-weight: 700;">Storie di Matematici
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Le aspettative di una illustre famiglia aristocratica, presente da secoli sulla scena pubblica - il nonno
fu Primo Ministro della Regina Vittoria - </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">sono pesanti da supportare. L’educazione puritana, la
</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">repressione emotiva, il formalismo nei rapporti familiari ne aggravano il peso. Nella quiete e nel
lusso di Pembroke Lodge, gran magione georgiana in Richmond Park, figura dominante
de</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">ll’infanzia e l’adolescenza di Bertrand Russell fu la nonna paterna, di famiglia presbiteriana. La
sua educazione si riassume nell’ammonimento </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">- Esodo, 23, 2 - </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">“Non seguirai la moltitudine nel fare
il male”. Mentre il fratello Frank reagisce ribell</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">andosi apertamente, Bertrand, di sette anni più
giovane, impara a nascondere i propri sentimenti. Ma Frank, anche, fa conoscere a Bertrand
Euclide.
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">"Io non sono nato felice", ricorda Russell. "Da bambino il mio salmo preferito era: 'Stanco della
terra e carico dei miei peccati'. (...) Durante l'adolescenza, la vita mi era odiosa e pensavo
continuamente al suicidio; ma questo mio proposito era tenuto a freno dal desiderio di approfondire
la mia conoscenza della matematica". (Russell B., 1969)
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">La matematica come ancora di salvezza. La matematica, mondo ideale chiaro e puro, offre "la
</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">sensazione di evadere da una prigione", ci permette di credere che l’erba è verde, che il sole e le
</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">stelle esisterebbero anche se nessuno li percepisse. (Russell B., 1967-69)
</span></p>
</div>
</div>
</div>
<div class="page" title="Page 2">
<div class="layoutArea">
<div class="column">
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">All'alba del nuovo secolo, Russell ha trent'anni. Non ha ancora pubblicato nessuna opera
significativa, anche se i </span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">Principles of Mathematics </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">(Russell B., 1903) sono sostanzialmente pronti
da due anni. (Russell B., 1938) Intanto legge, riflette, e sorgono i dubbi. Da poco è venuto a
conoscenza dei </span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">Grundgesetze der Arithmetik </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">(Frege G., band I, 1893) del logico tedesco Gottlob
</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Frege. Il 16 giugno 1902 Russell scrive a Frege: "Mi trovo completamente d’accordo con voi in tutti
</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">i punti essenziali, in particolare nel rifiuto di ogni momento psicologico nella logica, e nel dar
valore ad una notazione simbolica [</span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">Begriffsschrift</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">] nei i fondamenti della matematica e della logica
formale, che sono del resto quasi indistinguibili".
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Russell sta portando avanti un progetto analogo, quasi completamente sovrapponibile al progetto di
Frege: eliminare dal ragionamento ogni influenza psicologica; fare della matematica una pura
macchina logica, priva di qualsiasi umana debolezza. Forgiare a partire dalla matematica un
linguaggio privo di ogni contraddizione, ogni ambiguità. Si tratta di un bisogno profondo </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">– </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">di cui
Russell non nega le radici autobiografiche.
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Scrive ora a Frege mostrando apprezzamento e riconoscenza. Ma non può fare a meno di notare
come la logica di Frege zoppica in un punto preciso - e guarda caso è proprio lo stesso punto debole
che Russell trova nelle proprie argomentazioni. "Solo in un certo punto ho incontrato una
difficoltà". "Non esiste (come totalità) una classe di tutte le classi che, prese ciascuna come una
totalità, non appartengono a sé stesse. Da ciò traggo la conclusione che in determinate circostanze
una collezione [</span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">Menge</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">] definibile non forma una totalità".
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Frege risponde a stretto giro di posta. "La vostra scoperta della contraddizione mi ha causato la più
grande sorpresa e, direi quasi, costernazione, giacché con ciò vacillano le basi sulle quali avevo
</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">l’intenzione di costruire l’Aritmetica". </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">(Frege G., Russell B., 1902)<br />
</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Ogni proposizione della forma ‘p implica q’, ogni affermazione che intende </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">predicare il vero, ci
impone di interrogarci sul paradosso: 'Nessuno vorrà asserire, della classe degli uomini, che essa è
un uomo': abbiamo qui una classe che non appartiene a sé stessa. Ma può una classe appartenere a
sé stessa? Può una classe essere definita da un termine che appartiene alla classe stessa? Può il
linguaggio matematico definire le regole del linguaggio matematico?
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Nel 1903 esce il secondo volume delle </span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">Grundgesetze der Arithmetik </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">(Frege G., band II, 1903):
Frege fa in tempo ad aggiungervi una appendice, dove discute il paradosso. Nello stesso anno
escono i </span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">Principles of Mathematics </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">di Russell (Russell B., 1903), dove al paradosso, e alla
posizione di Frege, è riservato ampio spazio (Russell B., 1903, pag. 101-107)
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Russell continuerà a cercare di defini</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">re da un punto di vista formale “la relazione di un elemento
con la classe a cui appartiene”.<br />
Si tratta, nota Russell, di “un compito puramente filosofico”. Si intende la logica come una branca
</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">della matematica. Ci si propone -come già aveva tentato di fare Cartesio con le </span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">Regulae</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">- di fondare
</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">la matematica su un ‘piccolissimo numero di concetti logici fondamentali’, gli </span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">assiomi</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">: postulati,
affermazioni di base, che non richiedono dimostrazione, da cui verranno dedotti tutti gli ulteriori
elementi del sistema.
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Per Frege e per Russell, dover ammettere che l’edificio vacilla è un dramma personale. Ma la
</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">matematica serve appunto a tenere lontano da sé </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">il turbamento. Perciò, se l’edificio appare
</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">vacillante, se affiorano aporie logiche, si dovrà semplicemente pensare che non si sono ancora
individuati gli assiomi necessari e sufficienti.
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Ecco la matematica come </span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">Grund</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">, come solido terreno, e quindi fonte del linguaggio che, si spera,
permetterà di formulare - finalmente, e una volta per tutte - affermazioni incontestabili.<br />
La logica matematica, così, si scopre riduzionistica: ci si muove in un campo via via più
</span></p>
</div>
</div>
</div>
<div class="page" title="Page 3">
<div class="layoutArea">
<div class="column">
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">rigorosamente definito, si usa il linguaggio che si ritiene capace di classificazioni via via più sottili.
Ciò che non appare leggibile alla luce del quadro assiomatico è dato per non esistente. La chiusura è
ritenuta necessaria. (von Neumann J., 1947)
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Entra così in campo David Hilbert, il matematico che dominerà i primi trenta anni del secolo, il
profeta di assiomi più solidi, più stringenti. (Zermelo E., 1908)<br />
È lui il campione, il fiero sostenitore della matematica assiomatica. Ecco il progetto di Hilbert.
Fondare una matematica intesa come sistema dove ogni formula sia dimostrabile a partire dalle
regole del ragionamento logico-formale.
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Negli Anni Venti Hil</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">bert, proseguendo nel percorso da lui stesso tracciato dall’inizio del secolo,
formula in modo via via più compito il suo programma, al quale chiama a lavorare l’intera comunità
</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">dei matematici: individuare -in aritmetica, in geometria, in teoria degli insiemi, ed ogni altro ambito
della matematica- assiomi e regole di deduzione sulla cui base ogni proposizione potesse essere
dimostrata vera o falsa. (Mancosu P., 1998)
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Alla matematica che si ha già, afferma Hilbert, si deve aggiungere </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">ora “una metamatematica”, in
grado di “dare sicurezza” alla stessa matematica, “proteggendola sia dal terrore dei divieti non
necessari che dal travaglio dei paradossi”. Questa liberazione della matematica dai suoi confini
passa, sostiene Hilbert, “attra</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">verso una rigorosa formalizzazione delle teorie matematiche nella loro
interezza, comprese le loro dimostrazioni, cosicché -secondo il modello del calcolo logico- le
inferenze e i concetti matematici vengono inseriti nell'edificio della matematica come componenti
</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">formali”. Gli assiomi, le formule e le dimostrazioni costituiscono un “edificio formale” fondato su
“una rigorosa e sistematica separazione tra formule e dimostrazioni formali da un lato e
argomentazioni contenutistiche dall'altro”. </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">(Hilbert D., 1922, pp. 189-213, 197-98)
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Non tutti i matematici sono d'accordo con Hilbert. Hermann Weyl, e più di ogni altro Luitzen
Brouwer.<br />
</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Contro l’idea hilbertiana di una matematica che esiste di per sé, Brouwer considera la matematica
</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">libera attività della mente umana, consistente nel costruire strutture mediante entità correlate fra
loro - entità che non esistono al di fuori della mente dei soggetti. La matematica è un linguaggio,
non il vertice di ogni possibile linguaggio. Un qualsiasi linguaggio matematico restituisce una
immagine della matematica - solo una delle immagini possibili.
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Mentre Hilbert tenta di attribuire al matematico il nobile compito di mettere ordine nel mondo,
</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Brouwer considera la matematica un sempre provvisorio ‘modo di pensare’. </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">(Brouwer L.E.J., 1923
pp. 334,345) Per Brouwer, infatti, le possibilità del pensiero non possono essere ridotte a un numero
finito di regole stabilite in anticipo.
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Il tentativo di Brouwer di edifica</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">re una matematica ‘intuizionista’ </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">appare a Hilbert un attacco diretto
al suo edificio assiomatico. Brouwer è quindi oggetto di una accanita campagna di denigrazione,
tesa a minarne il potere accademico e l'autorevolezza.
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">All'inizio degli Anni Trenta l'Europa </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">è </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">immersa nella crisi. Nelle elezioni del 14 settembre 1930, il
partito nazionalsocialista ottiene 18% dei voti e 107 seggi nel Reichstag. Di colpo, </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">è </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">il secondo
partito in Germania.<br />
</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Una settimana prima del voto, l’8 settembre, Hilbert, l'autorità, </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">il maestro, </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">è </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">a K</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">ö</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">nigsberg.
Pronuncia un discorso in ringraziamento alla concessione della cittadinanza onoraria. Nel discorso,
che fu trasmesso per radio, e di cui si ha registrazione, ripete i suoi ormai classici argomenti.
Esponend oli ora alla comunit à civile, come ancoraggio logico, razionale. Risposta d el
</span></p>
</div>
</div>
</div>
<div class="page" title="Page 4">
<div class="layoutArea">
<div class="column">
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">metamatematico alle incertezze del presente. "Non dobbiamo credere a coloro che oggi, con
portamento filosofico e tono deliberativo, profetizzano la caduta della cultura e accettano
l'</span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">ignorabimus</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">. Per noi non c'è nessun </span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">ignorabimus </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">e, a mio avviso, non c'è nessun </span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">ignorabimus
</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">nelle scienze naturali.
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Non dice: “in matematica non c'è l’</span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">Ignorabimus</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">”, ora calca i toni su </span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">noi </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">matematici. </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">“</span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">F</span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">ü</span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">r den
Mathematiker</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">”, ‘</span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">per il </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">matematico’, “</span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">Wir d</span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">ü</span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">rfen</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">”: ‘noi d obbiamo’. “</span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">F</span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">ü</span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">r uns gibt es kein
Ignorabimus</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">”, ‘per </span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">noi </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">matematici non c’è Ignorabimus’. </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Noi matematic</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">i “</span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">Wir m</span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">ü</span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">ssen wissen, Wir
werden wissen</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">”, noi matematici ‘abbiamo bisogno di sapere, e sapremo’.
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Tutto si riassume in una frase: </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">“nessuno ci caccerà dal </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Paradiso che Cantor ha </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">creato per noi”.
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Il 7 settembre 1930, i fisici e i matematici tedeschi sono riuniti a K</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">ö</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">nigsberg per il sesto Congresso
della loro associazione. Hilbert non partecipa ai lavori. Ma </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">è </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">a K</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">ö</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">nigsberg. La presenza del maestro
comunque aleggia sul Congresso.<br />
A margine del grande incontro, </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">è </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">stato organizzato un altro evento, pi</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">ù̀ specifico e ‘di tendenza’,
dedicato all’ “</span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">Erkenntnislehre der exakten Wissenschaften</span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">”</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">, </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">‘</span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">Epistemologia delle Scienze Esatte</span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">’</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">.
Promotori, due gruppi tra di </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">loro connessi, potremmo dire d’</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">avanguardia, attenti a quella zona di
confine che </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">è la ‘filosofia d ella scienza’: la </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Berliner Gesellschaft f </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">ü</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">r Empirische
(Wissenschaftliche) Philosophie e il Verein Ernst Mach, pi</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">ù </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">noto come Wiener Kreis, Circolo di
Vienna. Tra i relatori tre giovani matematici: von Neumann, Heyting, G</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">ö</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">del.
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Jan</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">ó</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">s von Neumann, espone in forma sintetica il formalismo assiomatico di Hilbert. (Pochi giorni
dopo von Neumann si trasferisce negli Stati Uniti, a Princeton, piccolo centro del New Jersey gi</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">à̀
</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">famoso per la Princeton University, dove </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">apre i battenti in quell’anno l’Institute </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">for Advanced
Study).
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Arend Heyting </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">è </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">il primo allievo di Brouwer, colui che pi</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">ù̀ </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">lo segue nel ragionare sui fondamenti
della matematica. Riesce ad es</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">primere il punto di vista ‘intuizionista’ con </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">una chiarezza sconosciuta
al suo maestro.<br />
Poi, quel 7 settembre del 1930 a K</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">ö</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">nigsberg, parla Kurt G</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">ö</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">del. Ha ventiquattro anni, ha da poco
completato la tesi di dottorato sotto la guida di Hans Hahn, </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">è </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">un assiduo frequentatore del Circolo di
Vienna. Credeva di aver trovato solidi fondamenti nel sistema assiomatico proposto da Russel e
Whitehead. Credeva nella solidit</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">à̀ dell’edificio di Hilbert. Suo malgrado, si trova a provare, quel
</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">giorno a K</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">ö</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">nigsberg, che il rassicurante edificio di Hilbert non sta in piedi.
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">G</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">ö</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">del dimostra che in ogni teoria matematica esiste una formula che non pu</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">ò </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">essere dimostrata. È
possibile definire una formula logica che nega la propria dimostrabilit</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">à̀</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">: n</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">é </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">la formula n</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">é </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">la sua
negazione sono dimostrabili. Esistono verit</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">à </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">che non sono dimostrabili a partire dagli assiomi e
seguendo le regole della logica e della matematica. (Gödel K, 1931, pp.173-198)
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Ai presenti, quel giorno a K</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">ö</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">nigsberg, le parole di G</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">ö</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">del restano oscure.<br />
Tra i presenti solo von Neumann -pensatore rapidissimo - coglie al volo il senso del lavoro di
G</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">ö</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">del, in modo forse pi</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">ù̀ pieno di quanto l’abbia colto lo stesso Gö</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">del: nessun sistema pu</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">ò </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">essere
utilizzato per provare la propria stessa coerenza. Ogni sistema è incompleto. Non è possibile
giungere a definire la lista esaustiva degli assiomi che permetta di dimostrare tutte le verità. Ogni
volta che si aggiunge un enunciato all'insieme degli assiomi, ci sarà sempre un altro enunciato non
incluso.<br />
I paradossi che provocavano lo sconcerto di Frege sembravano superati dalla forza di volontà di
Hilbert e dall'indiscutibilità dei suoi assiomi. Ma Gödel mostra che la matematica non è quell'ancora
di salvezza che Russell cercava. Si torna daccapo. La matematica non è il linguaggio perfetto. I
</span></p>
</div>
</div>
</div>
<div class="page" title="Page 5">
<div class="layoutArea">
<div class="column">
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">matematici sono di nuovo cacciati dal loro Paradiso.
</span></p>
</div>
</div>
<div class="layoutArea">
<div class="column">
<p><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-weight: 700;">Alan Turing, o la computazione come piccolo Paradiso
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">La figura di Alan Turing è circonfusa di gloria. È il fondatore, oggetto di celebrazioni e apologie.
Ma il culto occulta la storia. Seguaci ed eredi non hanno motivo di andare alle radici: le basi della
disciplina non devono essere messe in discussione.<br />
Seguaci ed eredi, del resto, sono logici formali, ingegneri, matematici, cognitivisti, costretti
dall'evoluzione delle loro stesse discipline ad uno sguardo sempre più specializzato e settoriale:
l'approccio umanistico, la psicologia del profondo e l'attenzione alla complessità sono per loro
chiavi di lettura sconosciute e irrilevanti.
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Alan Turing, però, era un bambino, un adolescente, un giovane adulto solo e incompreso. Si sentiva
vittima di pregiudizi. Suo padre considerava inaccettabile, per il suo status di funzionario imperiale,
tenere con sé in India il bambino, che crebbe quindi in Inghilterra presso tutori. Vedeva i genitori
solo in momenti di vacanza. Né la madre, né il fratello, di pochi anni maggiore, vollero accettare la
sua omosessualità - forse anzi addirittura scelsero di non vederla.
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Adolescente, in collegio, vede morire di improvvisa malattia il compagno di cui era innamorato. Per
tutta la vita chiederà affetti senza trovarli; chiederà di essere accolto senza trovare accoglienza.
(Varanini F., 2020, pag. 73-94)
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Il giovane Alan già da bambino si appassiona alla matematica. Trova in questo, come Russell, la sua
salvezza.<br />
Pensa: non trovo affetti, comprensione, rispetto negli umani. Io stesso fatico a provare autostima.
Deluso dagli ingannevoli linguaggi umani cerco certezze nel puro linguaggio della matematica.
Poco più che ventenne, nel 1936, prende in mano nell'articolo </span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">On computable numbers </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">la questione
lasciata aperta da Gödel. Turing, infatti, cita Gödel già nelle prime righe del suo articolo.
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Hilbert voleva porsi fuori dal mondo, e di lì descrivere il mondo in modo esatto. È l'esponente
esemplare di una generazione di scienziati. si illudeva di conoscere le regole in base al quale il
mondo è costruito: gli Anni Trenta del secolo scorso sono non a caso gli anni in cui filosofia,
matematica, scienza cercavano la </span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">Weltbild</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">, visione d el mond o. La </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">“</span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">Wissenschaftliche
Weltauffassung</span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">”</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">, la </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">‘</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">visione Scientifica del Mondo</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">’</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">. La </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">“</span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">General Theory</span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">”</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">, la </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">‘</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Teoria Generale</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">’ </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">che
tutto spiega.
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Si voleva dominare i sistemi, conoscerli in ogni dettaglio, osservarli dall'esterno come oggetti di
fredda indagine. Gödel dimostra che questo è impossibile.<br />
Non c'è il Paradiso grandioso di Hilbert, dove il matematico è in grado di tutto de scrivere ed
ordinare, osservando il mondo dall'esterno, dall'alto di un metodo privo di falle. Gödel, usando gli
stessi strumenti sui quali Hilbert fondava il suo potere, ha minato le basi di questo delirio di
onnipotenza.
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Turing trova una risposta. Tanto geniale quando illusoria. Ma gravida di conseguenze.<br />
Se la calcolabilità - la descrizione del mondo logico-formale, esatta e priva di equivoci - è
inattingibile, la risposta sta nel definire un universo più ristretto, dove i problemi che la calcolabilità
impone sono assenti per definizione. Turing, in fondo, non fa altro che rinverdire il sistema
assiomatico di Hilbert aggiungendo alla sua lista un nuovo assioma: useremo d'ora in poi solo
numeri computabili. Sostituiremo alla problematica </span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">calcolabilità </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">la rassicurante </span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">computabilità</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">.
</span></p>
</div>
</div>
</div>
<div class="page" title="Page 6">
<div class="layoutArea">
<div class="column">
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Turing ripristina così il sogno di Hilbert. Non c'è il Paradiso della Matematica, ma c'è il Paradiso
della Computazione.
</span></p>
<p><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-weight: 700;">La semplice soluzione di Turing
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Nella prima riga dell'articolo è già fornita la definizione: "The </span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">computable </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">numbers may be
described briefly as the real numbers whose expressions as a decimal are calculable by finite
means". Calcolabili con mezzi finiti. Poche righe sotto Turing spiega meglio: "a number is
computable if its decimal can be written down by a machine".
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">La macchina che Turing immagina è costituita essenzialmente da un programma - possiamo
chiamarlo anche procedura o algoritmo. Questo programma elabora i dati, espressi in numeri
computabili, che gli sono sottoposti.<br />
Gli assiomi che Hilbert voleva credere veri in assoluto ora sono veri in pratica, perché si riducono a
questo: sono le regole che il programmatore stesso scrive, dettando.
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Quali sono i numeri computabili? Sono i numeri che la macchina è in grado di elaborare.<br />
I numeri che la macchina non è in grado di trattare sono esclusi dalla scena. Inesistenti nel Paradiso
della Computazione.
</span></p>
<p><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-weight: 700;">Nel Paradiso della Computazione
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Ridefiniti i confini del mondo, si ricolloca in questo mondo depurato di complessità ogni ente. Si
reimmagina in questo quadro l'essere umano, la natura stessa, l'universo.<br />
Questo è il progetto che Turing definisce nel suo secondo articolo-chiave. Se il primo era scritto nel
1936, all'inizio della vita adulta, il secondo, scritto quattordici anni dopo, nel 1950, è scritto quando
Turing è forse ancor più disperato che in gioventù. Ha trentotto anni. Quattro anni dopo si toglierà
la vita.
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Turing affida alla macchina, alla computer machine, le speranze che non coltiva per sé, e per
l'umanità tutta. Spera che la macchina che ha immaginato prenda il posto dell'essere umano. O sia
in fondo da guida all'essere umano.<br />
Nell'articolo del 1950 Turing si pone una domanda: Possono le macchine pensare? E si risponde sì.
Formula quindi un auspicio: </span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">"We may hope that machines will eventually compete with men in all
purely intellectual fields". </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">(Turing A., 1950, p. 433-460)
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Qui Turing formula una speranza esistenziale: deluso da sé stesso e dagli altri, tradito dagli umani,
sceglie di fidarsi della macchina.<br />
Ma il tutto si inquadra nel contesto della </span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">computazione</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">: una scena dove il perturbante, il difficile, il
complesso, è escluso a priori. (Varanini F., 2016, pag. 97, 104)
</span></p>
<p><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-weight: 700;">Il computer umano ed il suo sostituto-macchina
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Turing spiega molto bene dove va a cercare il nome che definisce il suo piccolo paradiso. Lo scrive
nell'articolo del '36 e torna a dirlo nell'articolo del '50.<br />
</span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">Computer</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">, fino agli Anni Trenta del secolo scorso, significava in inglese </span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">contabile</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">, </span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">computista</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">.
Turing è chiaro nel dire perché sceglie questa figura professionale come esemplare.
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">"L'idea alla base dei </span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">computer </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">può essere spiegata dicendo che queste macchine sono destinate a
svolgere qualsiasi operazione che potrebbe essere eseguita da un </span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">computer </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">umano. Si suppone che
il </span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">computer </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">umano segua regole fisse; non ha la facoltà di discostarsene in alcun dettaglio. Si può
</span></p>
</div>
</div>
</div>
<div class="page" title="Page 7">
<div class="layoutArea">
<div class="column">
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">supporre che queste regole siano fornite in un libro, che viene modificato ogni volta che viene
assegnato a un nuovo lavoro". (Turing A., 1950)<br />
Il proporre un mondo assoggettato a regole, va di pari passo con l'immaginare un essere umano
assoggettato a regole.
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Ecco, dunque, una ulteriore precisazione del concetto di computazione: la macchina può sostituire
</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">l’uomo nel pensare e nel lav</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">orare. Purché, precisa Turing, si accetti una precisa definizione del
</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">lavoro. “Il lavoro è eseguire ciò che sta scritto in un </span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">Book of Rules</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">", in un Libro delle Regole.
(Turing A., 1950)
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Ecco, quindi, un'altra possibile definizione di </span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">computazione</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">: è l'esecuzione di ciò che sta scritto in
un libro delle Regole.
</span></p>
<p><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-weight: 700;">Due epistemologie: computazione vs. complessità
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Si può dunque considerare l'approccio computazionale come esempio del più radicale riduzionismo.
Ogni concetto e linguaggio è sottoposto alla traduzione in un altro linguaggio: il linguaggio che è
compreso dalla </span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">computing machine</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">. Ogni problema è riformulato in modo da poter essere trattato
dalla </span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">computing machine</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">. Ogni descrizione è fondata su un metodo che da Cartesio a Hilbert a
Turing non cambia: si cerca di dar ragione del sistema considerandolo come scomponibile in
sottosistemi. Si vede la gerarchia di sottosistemi, non la rete.
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">E si possono quindi osservare le differenze tra pensiero aperto alla complessità e pensiero
computazionale.<br />
Il pensiero aperto alla complessità non si pone confini, contempla una rete interminata di
connessioni possibili, d i volt a in volt a speriment at e. I l pensiero comput azionale è invece
predeterminato: prevede l'esistenza di un Libro delle Regole del retto pensare.
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Il pensiero aperto alla complessità accetta in ogni suo passaggio, l'assenza di un quadro
complessivo, di una descrizione sicura delle parti del tutto. Accetta l'ignoranza: </span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">Ignoramus et
ignorabimus</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">, ignoriamo e ignoreremo; c'è, e ci sarà in ogni istante ed in ogni contesto qualcosa di
oscuro che ignoriamo, e che ignoreremo anche in futuro. Il pensiero computazionale, seguendo
Turing, rifiuta a priori l'ignorabimus.
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Il pensiero complesso è il pensiero dell'essere umano consapevole della propria imperfezione, e
della propria appartenenza alla natura, alla vita, ovvero al sistema stesso che tenta di conoscere e
descrivere. Il pensiero computazionale presume invece di raggiungere -sia pure dentro un quadro
predefinito- la descrizione esaustiva del mondo. Il pensiero computazionale, anche, si fonda
sull'idea di poter osservare il mondo dall'esterno, senza influenzarlo. Il pensiero computazionale,
infine, è pensiero pensato da soggetti che si considerano creatori del mondo.
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Il pensiero complesso si avventura nell'ignoto tracciando il cammino strada facendo. Il pensiero
computazionale, al contrario, si muove lungo mappe già tracciate; esegue i passi di una procedura
già scritta.
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Oggi la cultura digitale ci parla, ci rende necessarie macchine in ogni fase della vita, ci propone
luoghi dove abitare. Tutto questo: algoritmi, Intelligenza Artificiale, Mondi Virtuali, Metaversi,
Gemelli Digitali- può essere bene inteso solo alla luce del passaggio che Turing ha imposto. Dalla
faticosa accettazione della complessità alla sua sostituzione con la consolatoria computazione.
Possiamo forse infine intendere la </span><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-style: italic;">computazione </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">come una specifica forma di rimozione: il tentativo
di escludere, espellere dalla coscienza di ciò che ci turba e ci inquieta. Sostituendo ogni persona ed
ogni cosa con un suo simulacro.
</span></p>
</div>
</div>
</div>
<div class="page" title="Page 8">
<div class="layoutArea">
<div class="column">
<p><span style="font-family: 'TimesNewRomanPS'; font-size: 12.000000pt; font-weight: 700;">Bibliografia
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Brouwer L.E.J., 1924</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">. “</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Über die Bedeutung des Satzes vom ausgeschlossenen Dritten in der
Mathematik, insbesondere in der Funktionentheorie</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">”, </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Journal für die reine und angewandte
Mathematik, 154, 1924, pp. 1-7 (lezione originale olandese agosto 1923</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">); trad. inglese “On the
</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">s</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">ignificance of the principle of excluded middle in mathematics, especially in function theory”,
</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">1923, With two Addenda and corrigenda, in Jean van Heijenoort (ed.), From Frege to Gödel: A
Source Book in Mathematical Logic, 1879-1931, Harvard University Press, Cambridge, Ma., 1967..
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Frege G., 1893. Grundgesetze der Arithmetik, Band I, Verlag Hermann Pohle, Jena.
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Frege G., 1903. Grundgesetze der Arithmetik, Band II, Verlag Hermann Pohle, Jena.<br />
Frege G., Russell B., 22 june 1902, in Gabriel, Hermes, Kambartel, Thiel & Veraart (eds.), Gottlob
Frege, Wissenschaftlicher Briefwechsel, cit.; trad. inglese in Jean Louis Maxime van Heijenoort
(ed.), From Frege to Gödel: A Source Book in Mathematical Logic, 1879-1931, Harvard University
Press, Cambridge, Ma., 1962, cit. Vedi anche</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">: Willard Van Orman Quine, “On Frege’s Way Out”,
</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Mind, 64, pp. 145-159, poi in Willard Van Orman Quine, Selected Papers. Random House, New
York, 1966.
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">G</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">ödel K., 1931. “Ü</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">ber formal unentscheidbare S</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">ä</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">tze der Principia Mathematica und verwandter
</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Systeme I”, </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Monatshefte f</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">ü</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">r Mathematik und Physik, Leipzig, 38, 1931..
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Hilbert D., 1922. “Neubegründung der Mathematik. Erste Mitteilung”, </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Abhandlungen aus dem
Mathematischen Seminar der Hamburgischen Universität, 1 (1922), pp. 157-177; trad. it. in David
Hilbert, Ricerche sui fondamenti della matematica, Bibliopolis, Napoli.
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Mancosu P., 1998. From Brouwer to Hilbert. The Debate on the Foundations of Mathematics in the
1920s, Oxford University Press, Oxford.
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Russell B., 1903. The Principles of Mathematics, Cambridge University Press, Cambridge.
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Russell B., 1930. The Conquest of Happiness, George Allen & Unwin. London, 1930, pp. 17-18; La
conquista della felicità, Longanesi, Milano 1969, pp. 16-17.<br />
Russell B., 1967-69. The Autobiography of Bertrand Russell, George Allen & Unwin, London
1967-1969, 3 vols..
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Russell B., 1938. Principles, Introduction to the Second Edition.
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Turing </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">A., 1950. “Computing Machinery and Intelligence”, </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Mind, Vol. 59, Number 236, October
1950. Poi in Alan Mathison Turing, Mechanical Intelligence, edited by Darrel C. Ince, North-
Holland, Amsterdam-London-New York-Tokio, 1992; trad. it. Intelligenza meccanica, Boringhieri,
</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Torino, 1994. Prima trad. it. “Macchine calcolatrici e intelligenza”, in Johann von Neumann, Gilbert
</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Ryle, C. E. Shannon, Charles Sherrington, A. M. Turing, Norbert Wiener e altri, La filosofia degli
automi, a cura di Vittorio Somenzi, Boringhieri, Torino, 1965, pp. 116-156.
</span></p>
</div>
</div>
</div>
<div class="page" title="Page 9">
<div class="layoutArea">
<div class="column">
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Varanini F., 2016. Macchine per pensare. L'informatica come prosecuzione della filosofia con altri
mezzi, Guerini e Associati
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Varanini F., 2020. Le Cinque Leggi Bronzee dell'Era Digitale. E perché conviene trasgredirle,
Guerini e Associati
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">von Neumann J., 1947. “The Mathematician”, in Robert B. Heywood (ed.), </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">The Works of the
Mind, Committee on Social Thought, University of Chicago Press, Chicago, 1947, pp. 180</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">–</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">196.
(Papers di Lectures tenute pres</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">so l’</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">University of Chicago durante il 1946; tra gli altri, oltre a von
Neumann, Frank Lloyd Wright, Marc Chagall, Arnold Schoenberg). Giuseppe O. Longo, Homo
tecnologicus, Meltemi, Roma, 2005, pp. 102-105. Giorgio Isreal, La mathématisation du réel. Essai
sur la modélisation mathématique, Editions du Seuil, Paris, 1996; trad. it. La visione matematica
della realtà, Introduzione ai temi e alla storia della modellistica matematica, Laterza, Bari, 1996.
</span></p>
<p><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Zermelo E., 1908. “</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Neuer Beweis für die Möglichkeit einer Wohlordnung</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">”, </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Mathematische
Annalen, 65, 1908, pp. 107-</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">128. “</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Untersuchungen über </span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">die Grundlagen der Mengenlehre, I”,
</span><span style="font-family: 'TimesNewRomanPSMT'; font-size: 12.000000pt;">Mathematische Annalen, 65, 1908, pp. 261-281 Trad. inglese in Jean van Heijenoort (ed.), From
Frege to Gödel: A Source Book in Mathematical Logic, 1879-1931, Harvard Univ. Press, 1967
</span></p>
</div>
</div>
</div><i></i></div>Francesco Varaninihttp://www.blogger.com/profile/16191894598697362552noreply@blogger.com0tag:blogger.com,1999:blog-3387039186665984628.post-28547731927030411062022-10-15T15:13:00.013+02:002022-10-18T16:11:19.700+02:00Perché mai noi umani dovremmo affidarci a macchine morali. A proposito di Judea Pearl, 'The Book of Why. The New Science of Cause and Effect'<p style="margin-bottom: 0cm;">Ho letto il <a href="https://www.basicbooks.com/titles/judea-pearl/the-book-of-why/9780465097616/" target="_blank">libro di Pearl<sup style="font-size: 0.57px;">1</sup></a> - con grande interesse. Anche con sorpresa. Più andavo avanti nella lettura più ero meravigliato. Fino alla sorpresa finale.</p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Più procedevo più mi convincevo che Pearl aveva ragione. O forse meglio: che ero d'accordo.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">D'accordo sul fatto che la strada del Macchine Learning e del Deep Learning, affidate alla crescente potenza di calcolo, è meno promettente di quanto si dica. D'accordo sul fatto che non basta affidarsi a ciò che dicono i 'raw data' -i dati nudi e crudi- anche se 'interrogati' tramite una stratificazione di reti neurali. D'accordo sul fatto che i dati non sono altro che 'record' del passato. Insomma, in generale d'accordo sul fatto che il pensiero umano è infinitamente più profondo, articolato e complesso di questo modo di lavorare della macchina. D'accordo quindi nel cercare di avvicinarsi alla complessità del pensiero umano seguendo la via di Bayes e di Markov.</span></p><p style="margin-bottom: 0cm;">Ma leggendo ero anche sempre più sconcertato. Ero e resto meravigliato dal modo in cui Pearl fonda il suo approccio. Seguendo in modo precisissimo la via indicata da Turing in <i>Computing Machinery and Intelligence </i>(1950),<i> </i>cerca di costruire una macchina capace di pensare. Bisogna quindi, sostiene Pearl, insegnare alla macchina a contemplare livelli diversi di complessità. Ecco quindi la sua <i>Ladder of Causation.</i></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;"><i>Primo livello. Association</i>. Regolarità nelle osservazioni, previsioni basate su osservazioni passive. Correlazione o regressione. Non c'è modello di realtà. Domanda: E se vedo?</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;"><i>Secondo livello. Intervention</i>. Attenzione a ciò che non può essere presente nei dati (che riguardano il passato). Cambiare ciò che è. Modello di realtà. Cercare altri dati. Scienza dell'inferenza. Domanda: Cosa accadrà se...?</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;"><i>Terzo livello. Counterfactuals</i>. Confrontare il mondo fattuale con un mondo fittizio. </span>Domandarsi: E se le cose fossero andate diversamente?</p><p style="margin-bottom: 0cm;"><b>Che c'è di nuovo?</b></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Il punto è che Pearl presenta la Scala come una novità. Nuova sarà forse per lui e per i suoi colleghi dediti al Machine Learning. Si tratterà forse di qualcosa di nuovo rispetto a ciò che si insegna di solito nei Dipartimenti di Informatica. Ma si tratta di qualcosa di ovvio, se si allarga lo sguardo al di là della formazione strettamente matematica, ingegneristica, STEM.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Al di fuori di questa cultura, i tre livelli di interrogazione causali, appaiono cosa scontata. Già l'idea di individuare i tre, gli unici tre, livelli che presiederebbe all'innalzarsi del pensiero umano </span>verso livelli più alti, appare riduttiva. Inadeguata agli occhi di chi frequenta riflessioni filosofiche e coltiva attenzione per i sistemi complessi.</p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Pearl però va comunque apprezzato, per come cerca di allargare lo sguardo oltre il quadro delle fonti abitualmente prese in considerazione da chi si occupa di Computer Science. Cita Hume, per esempio, ma quanti altri filosofi avrebbe potuto citare, con più motivo! Semplicemente, credo, non gli è capitato di leggerli. Non gli se ne può fare una colpa. A partire dalla sua formazione di matematico, ha saputo muoversi con coraggio e libertà. Ma comunque resta vittima della sua formazione. Il vizio di origine continua a condizionarlo, anche quando si lancia oltre il consueto.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Enormi porzioni di letteratura, o meglio: di storia del pensiero umano sono ignorate. Non sarebbe grave, se non fosse che Pearl si propone di cogliere quello che potremmo chiamare lo 'schema genetico' del pensiero umano. Non sarebbe grave, se il suo intento non fosse trasferire alla macchina la nozione della complessità del pensiero umano.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Come si può, del resto avere la pretesa di riprodurre, ed anzi superare, il pensiero umano, senza prendere in considerazione, come fonte di stimoli alla progettazione, ogni manifestazione del pensiero umano: Pearl si limita a cercare fonti tra scienziati e filosofi. Mentre è perfino ovvio dire che l'umano pensare -il suo processo, i suoi frutti- può essere inteso solo se si prendono il considerazione la tradizione mantenuta viva in miti e narrazioni; l'arte; la letteratura; la musica. La filosofia, poi, e la scienza stessa, andrebbero intese non come repertorio di leggi e schemi assodati, ma come storia sempre incompiuta di osservazioni ed esperimenti...</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Se si accettano multidisciplinarietà e complessità, insomma, il tentativo di ridurre l'umano pensiero, l'umana intelligenza, l'umana saggezza ai tre scalini della <i>Ladder of Causation</i>, finisce per apparirci come un banale esercizio di riduzionismo. Un modo di ingabbiare il pensiero, più che un modo di coglierne il senso.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Se poi accettiamo in vincolo di considerare la sola letteratura scientifica, e andiamo a guardare le fonti e gli strumenti matematici, logico-formali, statistici, con i quali Pearl scegli di lavorare, gli va riconosciuto il coraggio di muoversi lungo la non troppo praticata via stocastica, congetturale di Bayes e Markov. Ma si deve anche notare che Pearl mostra di ignorare fonti che avrebbero alimentato in modo significativo le sue stesse intenzioni progettuali.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Mi limito a pochissimi esempi.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">I ragionamenti sui processi inferenziali, ipotetici, abduttivi di CS Peirce. La matematica intuizionistica di Brouwer. La matematica di volta in volta adattata ad una specifica ricerca di Walter Pitts. Von Foerster a proposito di auto-organizzazione dei sistemi e di rumore...</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">(Mi rendo conto che sto in fondo ripercorrendo in buona misura argomenti esposti nel mio libro <i><a href="https://nordesteconomia.gelocal.it/economia/2022/09/08/news/cambio-al-vertice-di-smact-massimo-guglielmi-e-il-nuovo-presidente-del-competence-center-del-nordest-1.41665260" target="_blank">Le Cinque Leggi Bronzee</a></i>, o argomenti che tratterò nei volumi del <i><a href="https://www.francescovaranini.it/2015/07/trattato-di-informatica-umanistica/" target="_blank">Trattato di Informatica Umanistica</a></i> successivi a <i><a href="https://www.francescovaranini.it/2015/07/macchine-per-pensare/" target="_blank">Macchine per pensare</a></i>).</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;"><b>I believe</b></span></p><p style="margin-bottom: 0cm;">Con tutto questo, il libro di Pearl ci appare una salutare critica al al Mainstream del Machine Learning. Pearl gioca contro la fiducia nella cieca capacità della macchina; contro le promesse della mera potenza di calcolo. Si mantiene anche lontanissimo da chi crede o spera nella Singolarità: una rottura, una discontinuità, per cui le macchine digitali ad certo punto della loro evoluzione si riveleranno capaci attitudini imprevedibili per gli umani. </p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Ma <i>The Book of Why</i> pretende di essere molto di più di una sana critica della Computer Science 'normale'. Il disegno di Pearl, ambiziosissimo, si svela solo nelle pagine conclusive del libro. Pearl intende progettare la macchina che sappia essere migliore dell'essere umano. Non affida la sua speranza alla capacità della macchina di andare oltre il suo stesso progetto, come sostengono i profeti della Singolarità. Vuole scientemente progettare una macchina capace di prendere il posto del suo stesso progettista.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Pearl si pone cinque domande.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">"1. Abbiamo già creato macchine che pensano?</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">2. Possiamo fare macchine che pensano?</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">3. Faremo macchine che pensano?</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">4. Dovremmo fare macchine che pensano?</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">E infine, la domanda non dichiarata che sta al cuore delle nostre ansie:</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">5. Possiamo fare macchine capaci di distinguere il bene dal male?"</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">La risposta alla prima domanda, ci dice dice Pearl, è: no. Per quanto riguarda le altre domande -che sono proprio le stesse domande che Turing si poneva in <i>Computing Machinery and Intelligence</i> (1950)- la risposta di Pearl è no, se si seguono le vie che altri ricercatori stanno seguendo. Ma è sì, se si segue la via che Pearl stesso propone.</span></p><p style="margin-bottom: 0cm;">Mi limito a citare Pearl laddove si riferisce alla quinta domanda:</p><p lang="en-US" style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">"My answer to the fourth question is also yes, based on the answer to the fifth. I believe that we will be able to make machines that can distinguish good from evil, at least as reliably as humans and hopefully more so. The first requirement of a moral machine is the ability to reflect on its own actions, which falls under counterfactual analysis. Once we program self-awareness, however limited, empathy and fairness follow, for it is based on the same computational principles, with another agent added to the equation.</span></p><p lang="en-US" style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">There is a big difference in spirit between the causal approach to building the moral robot and an approach that has been studied and rehashed over and over in science fiction since the 1950s: Asimov’s laws of robotics. Isaac Asimov proposed three absolute laws, starting with “A robot may not injure a human being or, through inaction, allow a human being to come to harm.” But as science fiction has shown over and over again, Asimov’s laws always lead to contradictions. To AI scientists, this comes as no surprise: rule-based systems never turn out well.</span></p><p lang="en-US" style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">But it does not follow that building a moral robot is impossible. It means that the approach cannot be prescriptive and rule based. It means that we should equip thinking machines with the same cognitive abilities that we have, which include empathy, long-term prediction, and self-restraint, and then allow them to make their own decisions".</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Ecco quindi la conclusione:</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;"><span lang="en-US">"Once we have built a moral robot, many apocalyptic visions start to recede into irrelevance. There</span> <span lang="en-US">is no reason to refrain from building machines that are better able to distinguish good from evil than we are, better able to resist temptation, better able to assign guilt and credit. At this point, like chess and Go players, we may even start to learn from our own creation. We will be able to depend on our machines for a clear-eyed and causally sound sense of justice. We will be able to learn how our own free will software works and how it manages to hide its secrets from us. Such a thinking machine would be a wonderful companion for our species and would truly qualify as AI’s first and best gift to humanity".</span></span></p><p style="margin-bottom: 0cm;">Mi sembra indispensabile rileggere queste parole in italiano. Per una macchina, o per un essere umano che considera se stesso esclusivamente come scienziato, la lingua potrà essere indifferente. Ma per un essere umano che intende pensare, mostrare la propria saggezza ed esprimere giudizi morali, la lingua non è indifferente: pensiamo nella nostra lingua natale, naturale.</p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">"La mia risposta alla quarta domanda è sì, anche in base alla risposta alla quinta. Credo che saremo in grado di creare macchine in grado di distinguere il bene dal male, almeno con la stessa affidabilità degli esseri umani e, auspicabilmente, con una maggiore affidabilità. Il primo requisito di una macchina morale è la capacità di riflettere sulle proprie azioni, che rientra nell'analisi controfattuale. Una volta programmata l'autocoscienza, per quanto limitata, ne discendono l'empatia e l'equità, perché si basano sugli stessi principi computazionali, con l'aggiunta all'equazione di un altro agente.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">C'è una grande differenza di principio tra l'approccio causale alla costruzione del robot morale e l'approccio che è stato finora studiato e che è stato ripreso più volte nella fantascienza a partire dagli anni Cinquanta: Le leggi di Asimov sulla robotica. Isaac Asimov propose tre leggi assolute, a cominciare da "Un robot non può ferire un essere umano o, per inazione, permettere che un essere umano venga danneggiato". Ma come la fantascienza stessa ha dimostrato più volte, le leggi di Asimov portano sempre a delle contraddizioni. Per gli scienziati dell'intelligenza artificiale, questo non è una sorpresa: i sistemi basati su regole non si rivelano mai buoni.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Ma questo non significa che costruire un robot morale sia impossibile. Significa che l'approccio non può essere prescrittivo e basato su regole. Significa che dovremmo dotare le macchine pensanti delle stesse capacità cognitive che abbiamo noi, tra cui l'empatia, la previsione a lungo termine e l'autocontrollo, e poi permettere loro di prendere le proprie decisioni".</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Quindi:</span></p><p style="margin-bottom: 0cm;">"Una volta che avremo costruito un robot morale, molte visioni apocalittiche inizieranno a recedere nell'irrilevanza. Non c'è motivo di astenersi dal costruire macchine che siano in grado di distinguere il bene dal male meglio di noi, meglio in grado di resistere alla tentazione, meglio in grado di assegnare colpe e meriti. A questo punto, come i giocatori di scacchi e di Go, potremmo anche iniziare a imparare dalla nostra stessa creazione. Saremo in grado dipendere dalle nostre macchine per un senso di giustizia lucido e causalmente sano. Saremo in grado di imparare come funziona il nostro software di libero arbitrio e come riesce a nasconderci i suoi segreti. Una tale macchina pensante sarebbe una meravigliosa compagna per la nostra specie e si qualificherebbe veramente come il primo e miglior regalo dell'IA all'umanità".</p><p style="margin-bottom: 0cm;"><b>Con Turing, oltre Turing</b></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Si capisce che Pearl, con giusta ambizione, si confronta con Turing e si candida a proseguire il suo lavoro. Pearl è stato premiato nel 2011 con il Turin Award: dato l'intento di Pearl, nessun Turing Award è stato più giusto. Questo considerarsi il vero figlio del capostipite appare già evidente nel presentare la Scala di Causalità. Dice Pearl: "While Turing was looking for a binary classification -human or no human- ours has three tiers, corresponding to progressively more powerful causal queries". "Mentre Turing cercava una classificazione binaria - umano o non umano - la nostra ha tre livelli, corrispondenti a interrogazioni causali progressivamente più potenti".</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Resta sorprendente, e grandemente interessante per me, la precisione con cui Pearl richiama la lezione di Turing, citando alla lettera <i>Computing Machinery and Intelligence</i> (1950).</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Pearl riprende le speranze di Turing. Turing scriveva proprio "I hope", spero che la <i>computing machine</i> apprenda a pensare. Pearl segue lo stesso cammino cercando passi in avanti, e dice: "I believe". E precisa: con il mio approccio, ci riusciremo. Costruire un 'robot morale' è possibile. Sarà in grado di distinguere il bene dal male meglio di noi. Anzi: questa macchina meravigliosa compagna ci insegnerà la morale, ci mostrerà il senso del libero arbitrio...</span></p><p style="margin-bottom: 0cm;">Il mio primo commento è questo: non escludo che noi esseri umani si possa essere in grado di costruire questa macchina. Potremo forse riuscirci. Credo però che se mai ci riusciremo, sarà perché nell'immaginare, progettare, costruire questa macchina avremo saputo andare oltre la cultura matematica, oltre la formazione STEM nella quale Pearl resta chiuso.</p><p style="margin-bottom: 0cm;">Ben più rilevante mi sembra un ulteriore commento. Constato che noi umani, nei tempi digitali, siamo spinti ad accettare di soggiacere a questa legge: <i>preferirai la macchina a te stesso</i>. Il campione di questo atteggiamento, al quale Pearl si accoda, è Turing.</p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">E' questo uno degli argomenti centrali del mio libro <i><a href="https://www.amazon.it/gp/product/B08HQ6XVPW" target="_blank">Le Cinque Leggi Bronzee</a></i>. Come essere umano, scelgo di non arrendermi. Scelgo di continuare a preferire noi esseri umani ad ogni macchina. Scelgo di considerare più importante la contiguità dell'essere umano con gli animali, le piante, ogni elemento naturale che la contiguità con una macchina. Scelgo di scommettere sulla specie umana. Scelgo di investire su una specie umana protesa </span>consapevole della sua appartenenza alla natura, alla vita, piuttosto che su umani disposti a cercare nuove terre digitali, totalmente progettate: Infosfere, Metaversi, e orientati ad affidare la responsabilità morale a macchine. (<a href="trasformare in qualcosa di computabile il valore morale" target="_blank">A proposito del "trasformare in qualcosa di computabile il valore morale" scrivo anche in quest'altro post</a>).</p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;"><b>Perché preferire la macchina a noi stessi?</b></span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Mi chiedo quindi: perché preferire la macchina a noi stessi? Da dove nasce l'ansia che spinge Turing e Pearl a costruire macchine capaci di pensare meglio di come pensi un essere umano?</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Da dove nasce il bisogno di ri-educarci a dipendere dalla macchina, il bisogno di dire "We will be able to depend", "We will be able to learn"?</span></p><p style="margin-bottom: 0cm;">Ora, io credo che il motivo per cui Turing preferisce la macchina a sé stesso, come mostro nelle <i>Cinque Leggi</i>, stia nella sua triste vicenda personale. Era un essere umano deluso di sé stesso e dell'umanità; privo di fiducia e di stima per sé stesso e per gli altri esseri umani. Sceglieva quindi di collocare, al posto di sé stesso, la macchina. Pearl va per la stessa strada, ma si spinge oltre: auspica che la macchina insegni all'essere umano ad essere migliore.</p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Sono propenso a pensare che il motivo per cui Pearl passa dai ragionamenti tecnici sulla <i>Causal inference in statistics</i>, e simili, alla speranza di riuscire a costruire una macchina in grado di insegnare a noi umani morale e libero arbitrio, stia, come nel caso di Turing, nella triste vicenda personale.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Il dolore, la mancanza, che ha stravolto la vita di Judea Pearl è la tragica scomparsa del figlio Daniel. Giornalista del Wall Street Journal rapito e decapitato nel 2002 a trentanove anni da terroristi in Pakistan.</span></p><p style="margin-bottom: 0cm;">Judea in apparenza tiene separato il sé stesso padre, essere umano, cittadino, attore politico, dal sé stesso scienziato. Ma è, ovviamente, una scissione solo apparente. Ogni essere umano capace di commozione, e di sentimenti, così come ogni studioso attento alla complessità e alle scienze umane, sa che le ferite affettive che ci toccano nel profondo toccano ogni aspetto della nostra vita. Anche la vita lavorativa, professionale. Anche la vita di scienziato e ricercatore.</p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Judea Pearl padre addolorato, profondamente ferito e Judea Pearl scienziato sono una persona sola.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Judea Pearl dice: "Mio figlio è stato ucciso dall’odio per cui sono deciso a combattere l’odio".</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Come combatte Judea Pearl l'odio? Certo, con Fondazione dedicata al figlio, che opera per il "mutual understanding among diverse cultures". Ma anche, e di più, credo, fortemente volendo, e tentando di costruire, una macchina che sia, a differenza degli umani, incapace di odiare.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Possiamo fidarci nel miglioramento di noi stessi? Possiamo sperare che prevalgano tra gli umani rispetto e giustizia? I motivi di pessimismo sono molti. Il Judea Pearl cittadino fa quanto possibile con la fondazione. Il Judea Pearl scienziato spera, crede di avere al suo arco frecce più promettenti.</span></p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Judea, padre, sa che Daniel, suo figlio, è stato ingiustamente ucciso. Il male, provocato da esseri umani, ha prevalso sul bene. Ecco dunque "la domanda che sta al cuore delle nostre ansie": </span>"Saremo capaci di costruire macchine in grado di distinguere il bene dal male?".</p><p style="margin-bottom: 0cm;"><span style="background-attachment: initial; background-clip: initial; background-image: initial; background-origin: initial; background-position: initial; background-repeat: initial; background-size: initial;">Deluso come Turing dagli umani, come lui Judea Pearl sceglie di fidarsi della macchina. Spera in una macchina morale che sappia insegnare la moralità agli umani. </span></p><p style="margin-bottom: 0cm;"><br /></p><p style="margin-bottom: 0cm;"><br /></p><div id="sdfootnote1"><p class="sdfootnote" style="font-size: 10pt; margin-bottom: 0cm; margin-left: 0.5cm; text-indent: -0.5cm;"><a class="sdfootnotesym" href="#sdfootnote1anc" name="sdfootnote1sym">1</a>Judea Pearl and Dana MacKenzie, <i>The Book of Why. The New Science of Cause and Effect</i>, Basic Book, 2018.</p></div>Francesco Varaninihttp://www.blogger.com/profile/16191894598697362552noreply@blogger.com2tag:blogger.com,1999:blog-3387039186665984628.post-90191371827966051092022-09-14T13:18:00.002+02:002023-07-15T11:20:05.570+02:00La scintilla della coscienza. Federico Faggin e gli 'esperti' che si sentono traditi da luiFederico Faggin: se ne parla su tutti i sui quotidiani nazionali in questi giorni, per l'uscita di un suo libro. Sono direttore di <i>MIT Sloan Management Review Italia</i>: gli abbiamo dedicato un'ampia intervista nell'ultimo numero (intervista raccolta 10 giugno scorso). <a href="https://lnkd.in/dacq-6TR " target="_blank">La trovate qui</a>. <div>Agli amici che si dicono delusi dalla svolta spirituale di Faggin, posso dire che la sua non è resa, ma consapevolezza di cosa sia la vita. </div><div>Agli amici che dicono: tutto parte da una molecola di DNA e non c'è 'spirito' in una molecola di DNA, c'è solo codice posso rispondere con la formula da loro stessi normalmente usata: partiamo dal definire i concetti dei quali stiamo discutendo. Definitemi cosa intendete con 'sistema', 'sistema vivente', 'spirito'; definitemi cosa intendete con 'codice'. Controporrò le mie definizioni. Le discuteremo insieme.</div><div>Agli amici che dicono che la complessità può essere risolta con sempre più evoluti strumenti tecnici, ricordo i teoremi di incompletezza di Gödel, e ricordo anche che nel mentre strumenti tecnici risolvono problemi, si allarga il nostro sguardo e vediamo nuovi problemi irrisolti. </div><div>Agli amici che credono che tra vent'anni i robot avranno una coscienza, dico che potrebbe anche darsi. Ma la coscienza del robot, se mai ci sarà, non avrà nulla a che fare con la coscienza umana.
Di fronte a questa prospettiva, credo, noi umani -tecnici, e semplici cittadini- dovremmo evitare la facile via consistente nel limitarci a credere, o a sperare, che robot o macchine o algoritmi o altre nuove tecnologie risolvano per noi i problemi che non sappiamo risolvere.</div><div>Possiamo invece assumerci nel presente responsabilità personali. Faggin: "Ciò che succede a me è in gran parte dovuto alle mie azioni". "Soltanto assumendosi questa responsabilità, che sorge da un bisogno di onestà verso se stessi, da un senso di giustizia e di verità, si potrà avere più consapevolezza. È da questa che nasce la capacità di governo delle macchine. E, quindi, del nostro futuro". "C’è molta differenza tra il lavoro imprenditoriale di chi si limita a sfruttare la tecnologia che esiste e chi investe in ricerca fondamentale che illumina la nostra natura. Una nuova tecnologia è utile, ma la vera trasformazione è cambiare l’idea di chi siamo, perché ciò può trasformare il mondo in meglio per tutti". </div><div>Per quanto mi riguarda, ho cercato di parlare di tutto questo nel libro <i>Le Cinque Leggi Bronzee dell'Era Digitale. E perché conviene trasgredirle</i>.</div><div>Lì argomento a proposito sia del concetto di codice, sia di come non si possa comparare la consapevolezza umana con un eventuale raggiungimento di 'consapevolezza' da parte della macchina, sia della 'scintilla della coscienza', che è ciò che contraddistingue l'essere umano.</div><div><br /></div><div><br /></div>Francesco Varaninihttp://www.blogger.com/profile/16191894598697362552noreply@blogger.com0tag:blogger.com,1999:blog-3387039186665984628.post-41805345095197782612022-09-06T11:30:00.000+02:002022-09-06T11:30:01.449+02:00Tre posizioni etiche di fronte alle novità digitali <p>Di fronte alle novità e agli interrogativi che le nuove tecnologie impongono a noi esseri umani, possiamo individuare atteggiamenti necessari. L'educazione civica digitale dovrà preparare ad assumere questa posizione.</p><p style="margin-bottom: 0cm;"><i>Non rinviare nel tempo</i></p><p style="margin-bottom: 0cm;">Ci dobbiamo preparare ad evitare la più comoda, ma anche la più grave ed irresponsabile, delle vie di fuga.</p><p style="margin-bottom: 0cm;">Non si può ignorare la presenza di ricerche riguardanti temi critici, come -per fare solo due esempi- la sostituzione di ogni lavoro umano o le armi autonome dotate di Intelligenza Artificiale.</p><p style="margin-bottom: 0cm;">E' facile dire: sì, esistono potenziali rischi e problemi, ma non sono così imminenti. E' facile dire: ce ne occuperemo a tempo debito. O peggio dire: se ne occuperanno i nostri nipoti.</p><p style="margin-bottom: 0cm;">Meschina appare l'opinione di chi si consola rinviando nel tempo la questione, considerando che gli effetti più perversi si manifesteranno solo in tempi futuri. Ingenuo e disinformato chi minimizza.</p><p style="margin-bottom: 0cm;"><i>Evitare la sottrazione incrociata</i></p><p style="margin-bottom: 0cm;">Scienziati e tecnici si sottraggono dal farsi carico dei possibili usi di ciò sperimentano e sviluppo dicendo: a noi compete ricercare e innovare, delle conseguenze dei nuovi ritrovati si deve occupare la politica. Il cittadino si sottrae dicendo a sé stesso: non posso capire, non sono all'altezza. C'è sempre qualcun altro che deve occuparsene; con il risultato che non se ne occupa nessuno.</p><p style="margin-bottom: 0cm;">La responsabilità sociale e l'azione politica nascono sempre dal non rifiutare di assumersi responsabilità personali. Dovremo quindi evitare una seconda via di fuga, consistente nell'attribuire la responsabilità ad un soggetto diverso da noi stessi, quale che sia il nostro ruolo.</p><p style="margin-bottom: 0cm;"><i>Non nascondere il male dietro il bene</i></p><p style="margin-bottom: 0cm;">Di fronte ad ogni novità tecnologica si potrà sempre facilmente dire: questo ritrovato serve a salvare vite umane. Così è, per fare solo due esempi, per le automobili a guida autonoma come per la connessione tra cervello umano e computer tramite nanofili di silicio.</p><p style="margin-bottom: 0cm;">Dovremo apprendere, tramite l'educazione civica digitale, ad evitare anche questa via di fuga. Chi sostiene che il ritrovato tecnologico è utile a salvare vite umane, sta nascondendo a sé stesso e agli altri che quello stesso ritrovato comporta anche, e spesso in maggior misura, il rischio di danni gravissimi non solo agli esseri umani, ma in senso lato a ciò che chiamiamo 'vita' e 'natura'.</p><p style="margin-bottom: 0cm;">L'educazione civica digitale dovrà quindi fare appello non tanto alla ragione o all'intelligenza, ma a quella umana attitudine che chiamiamo <i>saggezza</i>.</p><p style="margin-bottom: 0cm;">Parlo di questi argomenti nell'articolo <i><a href="https://www.agendadigitale.eu/cultura-digitale/educazione-civica-digitale-cosa-insegnare-e-perche-e-necessaria/" target="_blank">Educazione civica digitale: cosa insegnare e perché è necessaria</a></i>, apparso su <i>Agenda Digitale</i> il 22 aprile 2021.</p>Francesco Varaninihttp://www.blogger.com/profile/16191894598697362552noreply@blogger.com0