Se alla cibernetica poteva essere imputata la presunzione filosofica -comprendere e formalizzare le regole che presiedono alla vita-, alla computer science può essere imputato il comodo riduzionismo. Nel solco di Cartesio e di Leibniz -ma in assenza della finezza che caratterizzava il pensiero di Cartesio e di Leibniz- la computer science su una spettacolare serie di riduzioni.
Scrive
Alan Turing nel 1950: “L’idea
che sta alla base dei calcolatori digitali può essere spiegata
dicendo che queste macchine sono costruite per compiere qualsiasi
operazione che possa essere compiuta da un calcolatore umano. Si
suppone che il calcolatore umano segua regole fisse; egli non ha
l’autorità di deviare da esse in alcun dettaglio. Possiamo
supporre che queste regole siano fornite da un libro, che viene
modificato ogni volta che egli viene adibito a un nuovo lavoro”.1
Insomma: si
assume che dell’agire e del pensare umano si debba prendere in
considerazione solo una specifica attività: il calcolare.
Si assume che del calcolare si debba prendere in considerazione solo una
parte, il computare.
Si assume che l’essere umano ridotto a ‘computatore’ sia
costretto ad operare seguendo regole fisse, scritte in un Libro delle
Regole, senza poter deviare da esse in alcun dettaglio.
C'è dunque, nel
progetto di Turing, e quindi in tutta la computer science, un vizio
originario: si propone sostituire l'uomo con la macchina. Con una
macchina, però, di cui sono descritti i precisi limiti. Siccome la
macchina può funzionare solo eseguendo un 'libro delle regole', un
programma, si finisce così per assumere che anche il lavoro umano
dovrà essere inteso come mera esecuzione di un programma. E' esclusa
la creatività, la libertà, l'innovazione.
Cinque anni dopo la
pubblicazione dell'articolo di Turing, appare il termine Intelligenza
Artificiale. “Il tentativo è quello di procedere sulla base
della congettura che ogni aspetto dell'apprendimento o qualsiasi
altro aspetto dell’intelligenza può in linea di principio essere
descritto in modo tanto preciso da poter essere simulato da una
macchina”.2
Come apprende
l'essere umano? In mille modi che qui possiamo ricordare per minimi
accenni: apprende dalla propria storia, facendo esperienza,
scambiando conoscenze con altri esseri umani, sperimentando,
lanciandosi nell'ignoto... L'affermazione di principio su cui si basa
l'Intelligenza Artificiale porta quindi a dire si tratta di insegnare
ai computer ad imitare l'apprendimento umano. Non a caso oggi,
sessant'anni dopo l'annuncio dell'Intelligenza Artificiale, con
motivo si sostiene che più che di Intelligenza Artificiale sarebbe
corretto parlare di Machine Learning, capacità delle macchine di
apprendere.
Ma come si svolge
il Machine Learning? L'originaria contraddizione del computing è
ancora attuale. Si vuole imitare tramite computer il comportamento
umano, ma si deve fare i conti con i limiti del computer, con ciò
che la macchina è in grado di fare. Così la vasta e sfumata
capacità di apprendere è ridotta dai computer scientist a tre sole
modalità: apprendimento sorvegliato, apprendimento non sorvegliato,
apprendimento rinforzato.
Ogni macchina
digitale ha precisi limiti. Non ci sarebbe problema, per noi umani,
se non fosse che siamo bombardati da una martellante propaganda:
confida nell'intelligenza della macchina, fidati della macchina più
di te stesso.
1 Alan
Turing, “Computing Machinery and Intelligence”, Mind,
Vol. 59, Number 236, October 1950, pp. 433-460. Poi in Alan Mathison
Turing, Mechanical
Intelligence,
edited by Darrel C. Ince, North-Holland, Amsterdam-London-New
York-Tokio, 1992; trad. it. Intelligenza
meccanica,
Boringhieri, Torino, 1994. Prima trad. it. “Macchine calcolatrici
e intelligenza”, in Johann von Neumann, Gilbert Ryle, C. E.
Shannon, Charles Sherrington, A. M. Turing, Norbert Wiener e altri,
La filosofia degli
automi, a cura di
Vittorio Somenzi, Boringhieri, Torino, 1965, pp. 116-156.
2 John
McCarthy, Marvin L. Minsky, Nathaniel Rochester, Claude E. Shannon,
Proposal for
the Dartmouth Summer Reaserch Project on Artificial Intelligence,
August 31, 1955; vedi in: AI
Magazine 27, 4,
2006, pp. 12-14.
Nessun commento:
Posta un commento