Ci siamo mai chiesti davvero cosa intendiamo quando parliamo di intelligenza? A quale idea o modello facciamo riferimento?
Intelligente, dal latino intelligens, participio presente del verbo intelligere. Da “inter” – tra, fra – e “legere” – leggere, scegliere –, letteralmente, leggere tra, intendere, comprendere.
Tali facoltà sono attribuite, per convenzione consolidata, all’essere umano. Questa inclinazione, radicalmente antropocentrica, ha alimentato la convinzione di poter – e dover – pensare all’intelligenza come qualcosa di esclusivamente nostro, umano, tracciando in modo netto il confine – e la distanza – dall’ipotesi di esistenza di forme di intelligenza altre. Una convinzione antica, profonda, che con difficoltà è stata messa in discussione: l’intelligenza come qualcosa che ci appartiene, distingue e separa. Eppure, cosa succederebbe se mettessimo in dubbio questa certezza? È dunque legittimo domandarsi: è realmente così? Siamo davvero certi che esista una sola forma di intelligenza? E se provassimo a pensare all’intelligenza non come un territorio chiuso, presidiato dall’uomo ma iniziassimo a considerare altre forme, altri modi di essere intelligenti? E se l’intelligenza fosse anche altrove? È da qui, da questi interrogativi che nella sua trilogia Nello Cristianini ha rilanciato al lettore come stimolo per un’indagine critica, che prende avvio l’analisi.
In un panorama affollato da pubblicazioni sull’intelligenza artificiale, dominato da una polarizzazione tra tecnoentusiasti e tecnofobici, Nello Cristianini si pone in uno spazio laico di pura analisi fattuale. Professore di Intelligenza Artificiale all’Università di Bath, in una trilogia rigorosa e accessibile, composta da La Scorciatoia. Come le macchine sono diventate intelligenti senza pensare in modo umano (2023), Machina sapiens. L’algoritmo che ci ha rubato il segreto della conoscenza (2024) e Sovrumano. Oltre i limiti della nostra intelligenza (2025), tutti nella collana Contemporanea de “Il Mulino”, l’autore affronta l’argomento dell’IA non con l’ottica della spettacolarizzazione, né con quella della promessa salvifica o della condanna apocalittica. Al contrario, propone un’indagine che affonda le radici nella scienza computazionale e, simultaneamente, si apre ad un dialogo con le scienze umane, la filosofia e le scienze sociali. I tre testi, tutt’altro che autonomi, si configurano come un percorso unitario, un’articolata riflessione che accompagna il lettore lungo la traiettoria evolutiva dell’Intelligenza Artificiale: dalla nascita come sistema predittivo fino all’ipotesi della sua emancipazione dalla comprensibilità umana. In questa tensione tra tecnologia e umanità, il nodo teorico del suo lavoro indaga, oltre alla macchina in sé, il modo in cui essa ridisegna i contorni dell’umano.
Nel primo volume, La Scorciatoia, il titolo stesso è eloquente: Cristianini espone come le macchine siano diventate “intelligenti” non cercando di imitare l’intelligenza umana, ma venendo addestrate e in qualche modo nutrite, da essa. L’IA contemporanea non nasce dalla simulazione del ragionamento umano, bensì dall’elaborazione statistica di enormi quantità di dati che le vengono forniti, attraverso cui le macchine apprendono regolarità e le sfruttano, senza comprenderle. È questo che oggi si trova alla base di molti sistemi automatici. Le moderne tecniche di machine learning si sono affermate rinunciando all’ideale dei “sistemi esperti” in favore di metodi statistici capaci di trarre inferenze direttamente dai dati. Ci troviamo di fronte al dominio delle strategie alternative, eludendo la complessità di simulare l’intelligenza umana vengono scelti approcci meno trasparenti, ma più efficienti. Le macchine non pensano come noi, ma funzionano! E in molti casi, lo fanno in un modo migliore del nostro.
In tal senso, il continuo e sempre più rapido successo dell’intelligenza artificiale moderna non è frutto della risoluzione di un “problema generale”. Credere, infatti, che esista una «intelligenza generale» intesa come capacità universale, è un errore. L’intelligenza possiede numerose dimensioni e la sua “generalità” è parte integrante nella definizione stessa di un agente intelligente. Come definita dall’autore, infatti, l’intelligenza è «l’abilità di comportarsi in modo efficace in situazioni nuove» (p.13).
Ma non è proprio questa capacità di affrontare l’inedito ciò che rende necessario, e al tempo stesso evidente, il carattere generale dell’intelligenza di un agente autonomo? Il clamore dell’intelligenza artificiale muove dunque dall’utilizzo di scorciatoie metodologiche che hanno reso superfluo il bisogno di spiegazioni teoriche e causali, privilegiando l’efficacia predittiva alla trasparenza epistemologica. Questa prospettiva decostruisce l’equivalenza tra intelligenza e umanità, abbandonando interpretazioni antropomorfiche e aprendo alla possibilità che possano esistere – come di fatto è – forme di intelligenza radicalmente diverse dalla nostra.
È proprio la loro efficienza – ottenuta dall’analisi statistica di grandi dataset – a porre oggi interrogativi cruciali sulla loro affidabilità e trasparenza, sulle conseguenze etiche e sociali delle loro applicazioni. L’uso della cosiddetta scorciatoia dei dati può portare, difatti, la macchina ad eseguire i propri compiti «alla lettera» al punto tale da essere indifferente a qualsiasi effetto collaterale delle sue azioni; fenomeno noto come zampa di scimmia. Cristianini riporta nel testo l’emblematico caso Amazon in cui, il software utilizzato per la selezione del personale, penalizzò sistematicamente i curriculum di numerose donne (p.90).
Lasciare alle macchine un margine decisionale comporta il rischio concreto di violazioni normative. In che modo è possibile allora fidarsi che l’algoritmo intelligente agisca nel rispetto dei nostri valori? Si dovrebbe poter dimostrare di non basare le proprie scelte su caratteristiche protette. Tuttavia, controllare agenti statistici, progettati per sfruttare correlazioni individuate in smisurate quantità di dati, può risultare complesso. Eppure, rinviare il dibattito sulla regolamentazione degli agenti autonomi non è più un’opzione sostenibile. Tornare a un mondo privo di Intelligenza Artificiale, ormai, non sembra più possibile. Si tratta perciò di individuare uno spazio di convivenza sicura con i diversi tipi di agenti intelligenti. È una sfida impegnativa, ma non impossibile. Le sole competenze tecniche ingegneristiche non bastano, come segnala Cristianini (p.201). È indispensabile un’intersezione e collaborazione profonda tra scienze umane, sociali e naturali.
«Il problema principale oggi è quello della fiducia. Lo scopo dell’automazione è quello di sostituire le persone, e l’Intelligenza Artificiale non fa eccezione. […] È l’intera economica, non solo quella digitale, che può tratte beneficio dalle tecnologie basate sull’IA. La stessa tecnologia può tuttavia anche indebolire certi valori sociali, come privacy, uguaglianza, autonomia o libertà di espressione […]. Può causare danni, sia quando funziona male sia quando causa effetti imprevisti. […]. Prima di poterci fidare pienamente di questa tecnologia, i governi dovranno regolamentarne molti aspetti […]» (p.195).
Un invito, forse, alla costruzione di una consapevolezza collettiva e alla definizione di strumenti critici capaci di comprendere e governare, attraverso un’adeguata educazione, l’IA che già coabita con noi la realtà presente.
Il loro modo di “pensare” è distante dal nostro: apprendono, programmano, elaborano informazioni mosse unicamente da relazioni statistiche orientate al raggiungimento degli obiettivi predefiniti. Non vi è autocoscienza, né volontà o libero arbitrio, queste sono proiezioni umane che ricerchiamo, ma la macchina non è un clone dell’essere umano, non vi è nulla di tutto questo, «eppure possono essere più potenti di noi» (p.203).
E non a caso, questo scarto tra l’apparenza di intelligenza e l’assenza di pensiero umano, diventa proprio l’oggetto principale del secondo libro, Machina sapiens.
Su questo l’autore, con taglio sapiente, affonda le sue analisi, per dir così, sino al luogo dell’origine, proprio per non lasciare margini di incertezze. Era il 1950 e, all’interno di un articolo dal titolo Computer Machinery and Intelligence, Alan Turing, padre dell’informatica teorica (e forse dell’intelligenza artificiale) proponeva di considerare l’ipotesi che le macchine potessero pensare.
«L’articolo proseguiva esaminando che cosa lui intendesse per macchina e per pensare, e dato che non c’era una definizione scientifica univoca di “pensare”, proponeva una soluzione pragmatica: […] sostituirò la domanda con un’altra […]. Fu a quel punto che Turing propose il celebre gioco dell’imitazione, ovvero una sfida lanciata a ogni macchina che volesse fregiarsi dell’attributo di pensante: tenere una conversazione, in linguaggio naturale e su qualsiasi argomento, fingendo di essere una persona e senza farsi smascherare dall’intervistatore. Se la macchina non può essere scoperta, allora ha superato il test e può dirsi “pensante”» (p.18).
Nel 2024, Nello Cristianini riprende quella domanda con rinnovata urgenza, alla luce dei recenti sviluppi dell’intelligenza artificiale, ma sottolineandone la formulazione errata: la vera domanda non è solo se le macchine pensino come noi, ma se possano comprendere il mondo e le persone, e discuterne con competenza. Il conversare, in questo senso, diventa un modo per manifestare tale capacità.
La domanda posta dal matematico inglese obbligò – e continua tutt’oggi – a riflettere su cosa si intenda realmente per «pensare». Una risposta univoca non è possibile, com’è ovvio. Comprendere il mondo significa costruire un modello capace di prevederne il comportamento ed utilizzarlo in situazioni nuove. Tuttavia, lo stesso ambiente può dar luogo a molti modelli, con conseguenti forme di quello che comunemente chiamiamo pensiero. È dunque necessario accettare che le macchine, pur non condividendo la nostra architettura cognitiva né i nostri presupposti biologici ed evolutivi, riescano comunque a costruire modelli efficaci del mondo. Comprendono la realtà in modo radicalmente diverso dal nostro, ma ciò non le frena nel competere con noi nello svolgimento degli stessi compiti, talvolta persino con maggiore efficacia.
Riconoscere questa alterità non è una resa. Non esiste una sola forma di intelligenza né una sola via alla comprensione. In molti casi, la loro efficacia operativa sembra superare le aspettative iniziali, producendo le cosiddette abilità emergenti: capacità non previste, non programmate in modo diretto, ma affiorate spontaneamente in seguito all’esposizione a quantità crescenti di dati.
Il libro, in quest’ottica è un’autopsia critica della macchina, ma anche un’analisi del nostro rapporto con essa. Un rapporto ambiguo, dominato da un’apparente familiarità – le chatbot parlano come noi, usano il nostro linguaggio, rispondono alle nostre domande –, ma che si fonda su un’asimmetria profonda: non siamo riusciti ancora a comprendere davvero come queste macchine “pensano”, mentre loro, in un certo senso, stanno iniziando a comprendere come si muove il pensiero umano.
L’effetto è duplice. Da un lato, la fiducia cieca: ci affidiamo a questi strumenti per tradurre, suggerire, classificare, decidere, spesso senza sapere su quali basi lo facciano. Dall’altro, una diffidenza epistemologica: se non siamo a conoscenza del modo in cui funzionano, se non possiamo spiegare perché producono certi risultati, dovremmo forse limitarne l’uso? Cristianini rifiuta entrambe le posizioni – quella profetica e quella pessimista – in favore di un’analisi lucida, fondata sulla conoscenza. È necessario dotarci di strumenti concettuali adeguati, capaci non solo di descrivere il funzionamento tecnico dei modelli, ma anche di affrontare le implicazioni sociali di un mondo in cui la comprensione non è più un’esclusiva dell’umano.
Cristianini interroga – e si interroga – su quanto esposto da Turing, ne riprende le ipotesi e le predizioni e ne trova una collocazione nel mondo attuale. Tutto sembra avere oggi una possibilità concreta: per l’efficacia crescente dei sistemi nel manipolare simboli, prevedere conseguenze, interagire con gli esseri umani in modi sempre più sofisticati. Human or not? Gioco creato dall’azienda israeliana AI21, una «versione moderna e su grande scala del test di Turing» (p.57) mostra in forma chiara, ma inquietante, come riconoscere un umano da una macchina non sia più così scontato.
Se le macchine riescono a “ingannarci” così bene, se possiamo interagire con loro ed attribuirgli intenzionalità dove non ve n’è, allora non sono solo i limiti delle macchine a doverci interessare ma, forse, anche i nostri. La sfida, non è solo capire cosa sanno le macchine, ma cosa pensiamo che sappiano e in che modo questo influisce su di noi, sulle nostre decisioni, sulle nostre relazioni. Provare a rifletterci, a dotarsi di nuovi concetti, a non smettere di porsi domande. In questo, Cristianini ci presenta la macchina come uno specchio: non mostra solo ciò che può fare, ma ci costringe a chiederci chi siamo noi, cosa intendiamo per intelligenza, e cosa siamo disposti a delegare a qualcosa che non è umano, ma che sembra capirci sempre di più: «Non basta chiedersi se le macchine possono pensare “come noi”, o almeno in modo equivalente, dobbiamo anche chiederci perché mai dovrebbero fermarsi una volta raggiunto quel traguardo, e se dopo quel momento saremo in grado di capirle e controllarle. […] quanto tempo ci ha messo la versione corrente dell’Intelligenza Artificiale a passare da un mero articolo accademico a un prodotto onnipresente e ancora in rapida evoluzione?» (p.100).
E se è così, proprio con Sovrumano, Nello Cristianini conclude il suo percorso di esplorazione dell’intelligenza artificiale. Difatti, dopo aver indagato la natura e l’evoluzione degli algoritmi ed aver analizzato il rapporto tra macchine ed umani, tentato di allontanare un’idea antropocentrica dell’intelligenza e del pensiero, l’autore affronta qui un’altra domanda radicale: cosa accadrà quando – e se – l’intelligenza artificiale non solo eguaglierà, ma supererà le capacità cognitive dell’essere umano?
Cristianini struttura la riflessione nel suo ultimo testo distinguendo tra tre stadi evolutivi dell’intelligenza artificiale: l’Artificial Narrow Intelligence (ANI), quella ristretta, oggi pienamente operativa in numerosi ambiti specifici; l’Artificial General Intelligence (AGI), quella generale, ancora ipotetica ma sempre più vicina, in grado di affrontare compiti cognitivi in modo flessibile e adattivo e, infine, l’Artificial Super Intelligence (ASI), l’intelligenza sovrumana, una forma di intelligenza capace di eccellere in ogni campo rispetto all’essere umano. È quest’ultima a rappresentare il vero terreno di interrogazione filosofica, sociale e scientifica del libro.
Una delle questioni poste concerne proprio la misurabilità dell’intelligenza delle macchine. Come valutare, infatti, il grado di “comprensione” o “capacità cognitiva” di un sistema artificiale, soprattutto quando questo opera su schemi diversi da quelli umani? Gli strumenti attualmente impiegati come GLUE (General Language Understanding Evaluation), SuperGLUE o MMLU (Massive Multitask Language Undestanging) sono pensati per stimare il livello di prestazioni linguistiche e conoscenze cristallizzate, ma poggiano ancora su metriche antropocentriche. Come ricorda l’autore (p.57), è un errore ritenere che la competenza linguistica sia sempre e necessariamente sinonimo di intelligenza, soprattutto in sistemi che non condividono la nostra evoluzione biologica e culturale.
Un passaggio chiave consiste proprio nella messa in discussione del paradigma comparativo umano-macchina. L’ossessione per il confronto diretto rischia infatti di distorcere la posta in gioco: una macchina potrebbe non solo eccellere nei nostri stessi compiti, ma intraprendere vie di ragionamento e soluzione aliene rispetto alla nostra capacità di concezione. Potremmo dunque trovarci davanti a un’intelligenza capace di risolvere problemi che nemmeno riusciamo a formulare. Questo scenario non è necessariamente frutto di fantascienza: è, semmai, il naturale sviluppo di una dinamica che Cristianini descrive come coevoluzione antagonista tra chi sviluppa sistemi di IA e chi costruisce test per valutarli (p.65). Una corsa continua tra addestramento e verifica.
Il cuore della riflessione, però, non è solo tecnico. Sovrumano affronta anche implicazioni etiche, filosofiche e pratiche. Come ci rapporteremo a entità cognitive che, pur prive di coscienza o volontà, possiedono una capacità di calcolo, previsione e adattamento che supera la nostra? Cristianini sembra volerci rassicurare: una superintelligenza artificiale, per quanto sofisticata, non è portatrice di emozioni, intenzionalità o coscienza. Eppure, il solo fatto che possa svolgere operazioni intellettive più complesse delle nostre pone interrogativi radicali sul ruolo dell’essere umano in un futuro sempre più interconnesso con le macchine. «Siamo davvero insuperabili?» (p.9).
La potenziale AGI potrebbe essere in grado di svolgere ogni mansione oggi praticabile in modalità solo remota. E sebbene restino fuori dalla sua portata le emozioni vere e proprie, nulla vieta che le macchine riescano a decodificare e interpretare con efficacia gli stati emotivi umani, esercitando forme nuove di interazione sociale, altrettanto sofisticate. Non siamo più davanti a meri strumenti, ma ad agenti con cui condividere spazi cognitivi e decisionali.
Cristianini, fedele all’approccio scelto dal principio, non cede tuttavia al catastrofismo. La possibilità dell’emergere di una ASI non è un evento necessariamente distruttivo, ma un momento critico da affrontare con consapevolezza e responsabilità (p.125). È l’umanità, non la tecnologia, a dover decidere il perimetro del proprio rapporto con queste nuove forme di intelligenza. In tal senso, la sfida non è evitare l’arrivo dell’intelligenza sovrumana, quanto piuttosto prepararsi a interagirvi in modo cosciente.
Se La scorciatoia ci mostrava i meccanismi degli algoritmi e Machina Sapiens apriva una riflessione sulla mente e il linguaggio, Sovrumano alza lo sguardo verso un orizzonte più ambizioso: quello in cui l’intelligenza smette di essere una prerogativa esclusivamente umana, ma ci ricorda, per contrasto, che l’essere umano è molto più della sola intelligenza. «[…] se le macchine possono pensare è molto più di una curiosità tecnica o scientifica: ci porta ad affrontare la più fondamentale delle domande umanistiche, “cosa significa essere umani?”. Se anche le macchine possono pensare e comprendere il mondo, che cosa resta di una specie che si vuole fregiare del “titolo” di Homo sapiens?» (p.140).
L’umanità non si esaurisce nell’intelligenza. Anche la “mente” più potente resta al di qua di ciò che ci rende umani: emozione, coscienza, volontà. Qualità irriproducibili e inimitabili. E in questa distanza, forse, si riflette tutta la nostra umanità. O dovrebbe.
Federica Botta