Nel 1833, in piena epoca positivista, le tavole matematiche deputate al calcolo complesso costituivano l’unico metodo, peraltro incredibilmente prono all’errore umano, per assicurare il corretto funzionamento dell’industria e dell’infrastruttura inglese, che vedeva all’epoca la sua esplosione. In quell’anno, il matematico Charles Babbage incontra a una festa Ada Byron, unica figlia legittima del poeta Lord Byron, che diventerà per matrimonio contessa di Lovelace. Ada, seppur giovanissima, è istruita in matematica e ha ottime capacità logiche, e soprattutto ha una mente curiosa; Babbage sta perfezionando il progetto di una nuova macchina, dopo il fallimento di un primo progetto preparatorio, the Analytical Engine. L’incontro tra i due, e i successivi studi e progetti di entrambi sul motore analitico getteranno le basi per le moderne scienze su computer e intelligenze artificiali. L’apporto di Ada Lovelace, in particolare, consiste nell’aver intravisto le potenzialità della macchina di Babbage: seppure si trattasse di un “mostro” in metallo e ottone dal peso previsto di quattro tonnellate, un ammasso di ingranaggi e ruote dentate in numero, ironicamente, quasi incalcolabile – come se fosse uscito dalle pagine di un racconto di fantascienza steampunk – Lovelace comprende presto che la sua architettura potesse sia automatizzare il calcolo delle tavole matematiche, espungendo così la possibilità dell’errore – anatema di ogni matematico – sia devolversi interamente a compiti nuovi e inaspettati. L’intuizione di Ada Lovelace consiste nella creazione di “schede punzonate”, antenate dell’algoritmo, da inserire nella macchina per programmare il suo comportamento e ampliare così enormemente, e potenzialmente all’infinito, il raggio di applicazione del motore analitico concepito da Babbage. Lovelace prevede che tale macchina, rimasta solo allo stato progettuale nei disegni di Babbage, e oggi osservabile solo grazie a riproduzioni su piccola scala, può essere programmata per passare dal calcolo a «comporre elaborati e scientifici brani musicali di qualsiasi grado di complessità e lunghezza», aprendo «un’epoca gloriosa nella storia delle scienze» (p. 12). Ada Lovelace riconosce dunque le potenzialità di una macchina funzionalmente progettata per essere dedicata al calcolo algebrico, rendendola programmabile: le funzionalità logico-simboliche dell’apparato permettono di espandere il suo dominio grazie alla programmazione, in modo da poter rappresentare anche tutti gli oggetti dell’universo e giungere a ricombinazioni e applicazioni inedite. Gli elementi basilari della programmazione odierna vengono descritti e pioneristicamente individuati da Ada Lovelace: i programmi immagazzinati, la gerarchia di sottoprogrammi, il reindirizzamento, la microprogrammazione, il looping e perfino i bugs. Per quanto i suoi metodi non siano mai stati effettivamente implementati, e per quanto non ci sia verifica sperimentale di come integrare la creazione musicale o il ragionamento scientifico sul motore analitico di Babbage, Ada Lovelace viene spesso individuata come la prima programmatrice della storia. L’intelligenza artificiale aveva una prima architettura, e disponeva anche di un progetto di funzionalità possibili, ma era ancora lontana dal diventare una realtà.
Ci vorrà più di un intero secolo, e tutta l’esperienza crittografica di un altro geniale matematico inglese, Alan Turing, per arrivare a una concettualizzazione pienamente “moderna” delle macchine calcolanti, i cosiddetti computer, e delle loro possibilità in merito a intelligenza, pensiero e comportamenti intelligenti. La prima macchina immaginata da Turing nel 1936, la macchina di Turing universale, è un sistema simbolico immaginario in cui ogni tipo di computazione può, almeno in linea di principio, essere operata attraverso un motore matematico in grado di ridurre e ricombinare simboli binari, rappresentati da 0 e 1, vero e falso, on e off. Turing spenderà quasi due decenni a riflettere su come questa nozione astratta avrebbe potuto tradursi in una macchina fisica – il primo computer moderno, completato a Manchester nel 1948, non sarebbe infatti stato costruito senza l’aiuto progettuale di Turing – ma appare già evidente che l’impostazione del matematico, riguardo a cosa potesse essere l’intelligenza artificiale e l’automazione del pensiero, e quale ordine di problemi essi potessero sollevare, fosse pioneristica sin dall’inizio: gli scopi dell’IA di Turing erano già pienamente “moderni”. Il celebre test di Turing, infatti, rappresenta un vero e proprio manifesto fondativo degli albori dell’era dell’IA, e ancora oggi non perde di validità: ogni intelligenza artificiale che si proponga come tale vi sarà sottoposta, senza successo nella maggior parte dei casi. Pubblicato in un articolo nel 1950 sulla rivista filosofica Mind, il test propone che un dato operatore umano sia assolutamente in grado di riconoscere, almeno il 30% delle volte, se l’agente con cui sta interagendo sia un altro umano, o un computer; nel caso in cui non sia possibile distinguere l’umano dall’artificiale, il test è superato dal computer, e in tal caso, suggerisce Turing, non ci sarebbe ragione di negare che una macchina matematica possa pensare. E è proprio questo il punto. Turing identifica tutta una serie di questioni fondamentali riguardanti l’intelligenza e il funzionamento della mente (come il gioco, le percezioni, l’apprendimento o il linguaggio): è necessario scomporre i “processi computazionali” che avvengono all’interno del cervello, e che gli permettono effettivamente di pensare, se si vuole, in qualche modo, replicare l’attività pensante in macchine (eventualmente) intelligenti.
Da un punto di vista pragmatico, seppure il test di Turing possa suscitare un forte interesse filosofico, esso è di scarsa utilità alle intelligenze artificiali esistenti: la maggior parte di esse mira a svolgere compiti utili, esibire comportamenti che chiameremmo intelligenti, ma non aspira a imitare l’intelligenza umana. Eppure, i rapidi sviluppi in tale campo scientifico mettono in campo l’esigenza di riconsiderare le intelligenze artificiali a partire dalle prime, geniali formulazioni, dal momento che hanno guidato la loro venuta all’essere. A differenza di Turing, ci troviamo già a coesistere con le IA in molteplici ambiti della vita quotidiana; le riflessioni del matematico inglese resistono però al trascorrere del tempo proprio perché hanno il grande merito di approcciare, per la prima volta, la questione dell’intelligenza a partire dal supporto biologico che ne permette l’esistenza, cioè la mente.
Margaret A. Boden in questo saggio raccoglie una varietà di questioni, temi e problemi, recenti e passati, sul macrotema dell’intelligenza artificiale; il testo rappresenta un’agile ma comprensiva introduzione alla questione, che viene osservata da molteplici punti di vista nei suoi caratteri fondamentali. Esperta di scienze cognitive, l’autrice procede a definire l’IA nella storia della scienza e del pensiero, cercando di presentare i vari tipi di intelligenza artificiale, la loro implementazione, i loro scopi e le loro promesse, accompagnando il lettore nelle molteplici declinazioni, tecnologiche ma anche filosofiche, delle intelligenze artificiali.
La portata metodologica dell’IA recente è vastissima, e se è vero che l’applicazione di sistemi artificiali costruiti a arte è potenzialmente infinita, e, oggi, persino di grande successo nello svolgimento di compiti intelligenti in determinati settori specialistici, è anche vero che agli albori il termine intelligenza artificiale veniva concepito dai suoi pionieri come il raggiungimento di macchine dotate di un’intelligenza generale: una macchina virtuale può svolgere, anche benissimo, uno specifico compito grazie a una programmazione di finalità specifica, ma quello che Boden definisce il Santo Graal dell’intelligenza artificiale (p. 25) è il raggiungimento di una AGI – Artificial General Intelligence – e cioè una macchina virtuale dotata di ragionamento e cognizione generali, i cui campi di applicabilità sarebbero immensi, e non più unicamente specifici. Possiamo, in altre parole, programmare una macchina virtuale in grado di giocare a scacchi, e anche di battere il campione mondiale in carica la maggior parte delle volte – come nel caso del match tra il supercomputer Deep Blue e il campione di scacchi Kasparov nel 1996-97; ma questa macchina sarà in grado di svolgere solo e unicamente quel compito. Seppur immaginata sin dagli anni ’70, l’AGI rappresenta una sfida per il XXI secolo, e è ancora tale proprio perché non basterebbe l’incremento esponenziale delle capacità di calcolo dei computer, a lasciare, banalmente, “emergere” un’intelligenza artificiale di tipo generale; si tratta di un problema complesso che coinvolge il concetto stesso di intelligenza, e chiama in causa tutta una serie di astrazioni preliminari (come l’implemento della logica, l’euristica, la pianificazione, la semplificazione matematica, e la rappresentazione della conoscenza). In sostanza, per quanto il campo dell’IA abbia fatto passi da gigante dal secondo dopoguerra alla contemporaneità, l’intelligenza artificiale generale, il sogno di Turing, resta ancora un progetto incompiuto, per la difficoltà di replicare una reale intelligenza in grado, ad esempio, di comprendere e utilizzare in modo proprio il linguaggio, di ricevere percezioni di tipo fenomenico e non solo funzionale, di mostrare reale creatività sulla base dei dati noti, di includere nelle sue capacità l’influsso neurologico delle emozioni, di mostrare capacità di deliberazione e auto-riflessione, e così via. Si comprende dunque che in prima battuta si possa, in tal senso, impiegare nello studio dell’IA un approccio di tipo cognitivista, in grado di isolare e eventualmente riprodurre i meccanismi fondamentali in grado di permettere il pensiero, conscio o subconscio – compito non semplice già all’interno delle sole discipline neuroscientifiche.
Il vero problema filosofico posto dall’IA, e in particolare dall’ipotesi del raggiungimento di una IA dall’intelligenza generale, è il problema mente-corpo: nella sua declinazione specifica, quella relativa a forme di intelligenza non biologiche ma artificiali, il dibattito si concentra anche sulla possibilità che una visione “eccessivamente” cognitivista (che considera cioè il contenuto della scatola cranica e le sue funzioni come proprietà necessarie ma sufficienti per l’emergenza del pensiero) sia eccessivamente sbilanciata, e che non permetta, in ultima analisi, di generare intelligenze artificiali generali. Tutto sommato, il pensiero, nelle forme di vita umane, emerge dall’interazione, inscindibile e dinamica, tra il corpo – sempre situato nel qui e nell’ora, e esposto a stimoli e percezioni ininterrotti – e la mente. In mancanza di esperienze “incarnate” non potrebbe esserci reale cognizione, e nessuna AGI instanziata solo “su schermo”, e dunque completamente “scorporata” potrebbe mostrare reale intelligenza senza i caratteri generali propri del vivente: auto-organizzazione, autonomia, emergenza, sviluppo, adattamento, evoluzione e metabolismo. Se è vero che alcune di queste caratteristiche possono essere simulate “in astratto”, senza “carne”, e cioè rappresentate attraverso l’elaborazione di informazioni, altre, come ad esempio il metabolismo, sono proprietà strettamente e irriducibilmente fisiche. L’A-life, la vita artificiale che instanzia l’IA in robot fisici, è sicuramente più vicina a questo approccio fenomenologico, secondo il quale la vita (e specificamente la vita corporea) è necessaria per la mente, e dunque per il pensiero; per quanto le IA possano mostrare comportamenti intelligenti e performance impensabili ai tempi di Turing, la reale intelligenza rimarrebbe ancora fuori portata proprio per via di quest’enfasi così marcata sulla cognizione.
In ultima analisi, Boden sostiene che la frattura tra l’approccio cognitivista e quello fenomenologico sia insanabile, e ciò sarebbe in parte dovuto all’impossibilità di definire univocamente la natura della mente e dell’intelligenza, e di trovare eventualmente un consenso nella formulazione (o ri-formulazione) di questi concetti. In fondo, una riflessione sull’IA, sin dalle sue prime e ipotetiche concezioni, fino alla sua recente realizzazione nell’alveo delle tecnoscienze post-digitali, chiama in causa una riconsiderazione più attenta dei concetti fondamentali di vita, corpo, mente, autocoscienza, cognizione e emergenza del pensiero; la sfida concettuale posta dall’intelligenza artificiale rappresenta un’arena filosofica ancora aperta, dunque, e le sue possibili risoluzioni sono ancora in via di definizione.
Stefano Palumbo
S&F_n. 27_2022