S&F_scienzaefilosofia.it

Paul Dumouchel – Luisa Damiano – Vivere con i robot. Saggio sull’empatia artificiale [tr. it. a cura di Luisa Damiano, Raffaello Cortina Editore, Milano 2019]

Il saggio di Paul Dumouchel e Luisa Damiano si conclude con un’esortazione etica che intende non solo riassumere il senso complessivo del percorso sviluppato all’interno del testo, ma anche definire i contorni di un intervento futuro possibile: «diversamente dalle linee della riflessione etica che ripropongono gli scenari distopici della fantascienza, l’etica sintetica intende promuovere la possibilità che l’introduzione dei robot sociali nel tessuto delle nostre relazioni, invece di costituire l’inizio della fine, strutturi significative opportunità di migliorare la gestione e la comprensione morale della nostra vita sociale» (p. 198). Vivere con i robot potrebbe dunque mettere profondamente in crisi le prospettive etiche attuali, in quanto si tratta – senza tecnofobia né tecnofilia acritiche – di affrontare una delle sfide possibili del futuro, l’integrazione in quelle che sono definite ecologie sociali della dimensione robotica.

Ma che cos’è un robot? L’esigenza da cui muove il saggio è innanzitutto quella di definire i contorni di ciò che siamo soliti chiamare “robot”: la questione non è di poco conto, innanzitutto perché si tende a utilizzare il termine in maniera equivoca (come si sottolinea un po’ ironicamente, ci troviamo dinanzi, ad esempio, a “robot” da cucina); in secondo luogo perché, nell’immaginario occidentale, il “robot” si è costituito intorno a due elementi fondamentali, uno di carattere tecnico e ingegneristico – un meccanismo autonomo capace di modificare il proprio comportamento a partire da cambiamenti nell’ambiente, e uno di carattere sociale – un meccanismo autonomo capace di svolgere funzioni e lavori umani, quella “cosa” che lavora al posto nostro. Questi due elementi tendono a ingenerare confusione nella definizione, oltre a rispecchiare un preciso mondo delle idee o, per meglio dire, un immaginario che vede in questo particolare oggetto tecnico un qualcosa che o raggiungerà un livello di autonomia morale proprio dell’umano e allora (più o meno giustamente, ma questo è secondario) si ribellerà, oppure, mantenuto in uno stato di subalternità, continuerà a essere nostro schiavo.

Dopo un attraversamento delle differenze tra questo immaginario occidentale – fondamentalmente tecnofobico – e quello giapponese, in cui i robot vengono invece immaginati come una fondamentale occasione per l’umano di crescita morale e psicologica, la riflessione muove verso il concetto e la pratica della robotica sociale, da intendersi come quella tecnica volta alla costruzione di agenti artificiali, con un buon grado di autonomia, da utilizzarsi per l’assistenza a persone che presentano bisogni speciali. Questo primo passaggio è decisivo in quanto le relazioni che i differenti mondi culturali intrattengono con le possibilità della robotica sono rivelatrici delle relazioni che gli agenti umani intrattengono tra di loro: «gli agenti artificiali che abbiamo creato incorporano, riflettono e, allo stesso tempo, trasformano i rapporti di forza e di potere, ma anche di aiuto e solidarietà, che esistono tra di noi» (p. 19). La robotica sociale, semplificando al massimo, lavora dal punto di vista allo stesso tempo ingegneristico ed etico in vista della costituzione di specifici agenti sociali artificiali che siano in grado di integrarsi all’interno del tessuto delle relazioni umane.

In questo senso, il saggio non analizza soltanto la questione della robotica in sé, ma lavora intorno a una serie di problematizzazioni decisive per delimitare i contorni dell’etica e della socialità umana: la robotica sociale potrebbe divenire – e sta già divenendo – uno degli strumenti per comprendere più a fondo chi siamo e come interagiamo tra di noi, qual è il ruolo dell’emozione nell’interazione sociale umana, cosa possa intendersi per dimensione sociale della mente umana. Lavorare alla costruzione di un robot sociale significa lavorare su visioni specifiche dell’umano e una delle suggestioni filosofiche più pregnanti che gli autori evocano è il nodo della pluralità, come inteso da Hannah Arendt: se è vero che la potenza della realtà umana è quella connessa alla sua pluralità, al fatto fondamentale che il mondo è attraversato da donne e uomini e culture differenti e non da un Uomo assoluto, allora l’integrazione di un nuovo agente sociale non può che arricchire questa potenza.

Ma quali sono le caratteristiche che dovrebbero essere incorporate in questo agente artificiale, il robot sociale? È chiaro che, nei limiti di una recensione, non è possibile esaurire la ricchezza di un testo complesso e molto articolato, ma possiamo innanzitutto affermare che gli autori tendono a chiamare “sostituti” quei particolari agenti sociali artificiali in grado di implementare quattro caratteristiche fondamentali: innanzitutto, quella che viene definita coordinazione indefinita, cioè la capacità di interrompere lo svolgimento di un compito in vista di una differente coordinazione con gli altri attori sociali in situazione – si tratta della creazione di un robot che «non serve a niente di particolare e può fare qualsiasi cosa» (p. 43), cosa che, se si vuole, è una delle caratteristiche fondamentali (nel bene e nel male) dell’umano; in secondo luogo, quella che viene chiamata presenza sociale, cioè l’essere presenti nel senso della capacità di rivolgere la propria attenzione agli altri nella misura in cui gli altri sono divenuti oggetto del proprio interesse – si tratterebbe della caratteristica fondamentalmente realista del robot sociale, nella misura in cui è un agente artificiale fisico ed esistente nel mondo a tre dimensioni, ben differente da tutte le forme di interazione virtuale; in terzo luogo, quella che viene definita autorità, cioè la capacità del robot sociale di affermarsi nella realtà e di suscitare una forma di rispetto, almeno in maniera parziale, da parte degli altri agenti con i quali entra in relazione; infine, il nodo più complesso, quello dell’autonomia, vera e propria summa delle tre precedenti caratteristiche, cioè il fatto che il robot sociale deve poter agire “di testa propria” mutando in maniera plastica (“ma entro certi limiti”, come sottolineano spesso gli autori) le regole che identificano il suo ruolo nelle interazioni sociali. Ed è proprio l’autonomia dell’agente artificiale a essere al centro di alcune riflessioni di carattere etico-politico che si trovano nell’ultima parte del saggio: «le ragioni per cui non ci sono ancora robot capaci di vera autonomia morale non risiedono esclusivamente in problemi di ordine tecnico […] è che non vogliamo costruire questo tipo di agente robotico» (p. 185). La riflessione etica sugli agenti robotici non è volta alla costruzione di un attore capace di comprendere la differenza tra bene e male o di incorporare una capacità di azione che possa condurlo a compiere vere scelte (nel bene o nel male, scelte umane), ma si sofferma soltanto su un punto in particolare, l’incorporazione mediante algoritmi di un determinato sistema morale per cui «quando il criterio dell’aderire alle regole è soddisfatto, l’agente artificiale agisce eticamente quali che siano le conseguenze reali delle sue azioni» (p. 183). È chiaro che non si possa mai parlare di morale o di etica, se all’interno della decisione dell’agire non è presente un’anticipazione dell’esito possibile dell’azione, e, in questo senso, il dibattito è particolarmente attivo soprattutto per quanto concerne una delle applicazioni “predilette” della robotica, la costruzione di robot militari, veri e propri supersoldati obbedienti e “razionali”. E così il discorso sull’autonomia morale – al di là della realizzabilità tecnica, che sfuma in secondo piano – si complica enormemente. Da un lato si discute la posizione di Krishnan, il quale sottolinea la pericolosità della delega di alcune determinanti decisioni umane, come quella sulla legittimità di un attacco, sulla scelta del bersaglio o sulla sacrificabilità delle vite dei nemici, a un sistema artificiale: la questione è che la capacità di calcolo di un tale sistema è maggiore e più rapida rispetto a quella umana, per cui quando un robot di questo tipo suggerisce una determinata operazione, la responsabilità dell’agente umano di seguirla oppure no risulta essere molto limitata. Insomma, la questione è che l’utilizzazione di questi sistemi artificiali (che, per le loro caratteristiche, evidentemente non possono essere definiti “robot sociali”) potrebbe condurre a una de-responsabilizzazione dell’agente umano in una delle attività più complesse dal punto di vista morale, uccidere un nemico – una persona – in guerra. Dall’altro si propone la risposta a queste preoccupazioni da parte di Arkin, il quale ritiene che gli agenti artificiali autonomi siano assolutamente auspicabili in quanto possono essere decisamente superiori dal punto di vista morale rispetto all’agente umano, in quanto non soggetti a odio, paura, vendetta, rabbia o ad altre dinamiche, come la ricerca della gloria e degli onori; in più, si tratterebbe di agenti sempre etici, che non possono non comportarsi se non seguendo le regole che sono state incorporate in essi (sempre ammettendo che il seguire determinate regole di ingaggio in guerra – qualunque esse siano – rappresenti davvero una dimensione “morale”, e pur dovendo ammettere che agenti artificiali di questo tipo possono essere sempre manipolati in vista dell’esecuzione di un compito non previsto né da regole di ingaggio né dalle convenzioni internazionali). La questione politica è di non poco conto: «il dilemma morale posto dal revocare a certi agenti umani la capacità di decidere quando e chi bisogna uccidere è inseparabile dalla ricerca e dall’intensificazione di un’operazione politica […] riservare a pochi individui la facoltà di prendere decisioni, assicurandosi che i relativi provvedimenti vengano applicati rigorosamente» (p. 179).

Se dunque le caratteristiche della robotica sociale si scontrano evidentemente con gli interessi della robotica militare, è opportuno ritornare a questo complesso campo di osservazione e studio per analizzarne ulteriori aspetti. La robotica sociale permette di definire ciò che viene chiamato eterogeneità del cognitivo mediante lo studio dell’etologia artificiale: muovendo da una critica alle “critiche classiche” rivolte a Descartes e alla sua concezione dell’animale-macchina, i due studiosi sottolineano come il filosofo francese abbia sì negato l’anima agli animali non umani, ma non la cognizione – il senso di questa discussione è che esistono diverse tipologie di sistemi cognitivi (una pluralità allargata) e che essi emergono a partire da differenti apparati e ambienti, per cui a essere fondamentale è dunque il carattere radicalmente incorporato non solo delle menti umane, ma anche di quelle animali e, se ci si riuscirà, artificiali; le abilità cognitive di un agente non sono determinate soltanto dal corpo, ma dall’interazione con l’ambiente; non esiste dunque alcuna omogeneità cognitiva tra i differenti attori, ma occorre lavorare invece sulla definizione di questa eterogeneità, che non può che essere arricchimento e pluralità positiva. Ma non è soltanto questione di cognitivo, o, perlomeno, occorre sbarazzarsi dell’idea che il cognitivo rappresenti una piano separato da quello affettivo e sociale: gli affetti hanno ovviamente un ruolo fondamentale nella socialità, ma rappresentano anche dei momenti decisivi per la definizione di particolari strategie cognitive di tipo adattivo. Ed è proprio sugli affetti che viene sviluppata una riflessione particolarmente importante: i due approcci fondamentali della robotica sociale insistono su due visioni differenti dell’affettività, una connessa alla dimensione privata, individuale, “interna”, e un’altra connessa alla dimensione pubblica, sociale, “esterna” delle emozioni, che possono riassumersi nell’opposizione tra «emozioni umane genuine ed emozioni robotiche simulate» (p. 26). Secondo gli autori, il problema sarebbe mal posto – il problema che, per l’agente umano, l’espressione emotiva del robot potrebbe avere un sapore di “simulazione”: il fatto è che le emozioni umane non sono connesse soltanto a uno stato interiore che manifesterebbero in maniera più o meno veritiera, ma, mediante la teoria definita della coordinazione affettiva, è possibile affermare come esse siano “opere comuni”, nel senso che determinano specifici processi interattivi capaci di determinare differenti inclinazioni all’azione in una relazione sociale. Le emozioni sono sociali, più che individuali, costruiscono un mondo esteriore, piuttosto che raccontare un mondo interiore – in questo senso, un robot sociale deve essere capace di questa tipologia di produzione di emotività, come un qualcosa che può orientare l’azione degli agenti: «si tratta di fornire a questi agenti robotici i mezzi per strutturare, insieme agli agenti umani, dinamiche ricorsive di coordinazione: processi che, influenzando le emozioni degli interlocutori umani, ne coordinino le disposizioni all’azione con quelle dei robot» (p. 138).

Gli elementi fondamentali, dunque, di questa riflessione sulla robotica sociale si articolano intorno alle questioni sollevate dalla filosofia della mente – con una critica alle teorie della mente estesa che, nei limiti di una recensione, non possiamo affrontare – ma anche intorno a questioni profondamente etiche e politiche. I robot sociali dovrebbero essere in grado di sostituire gli umani soprattutto nelle attività di cura, nel senso affettivo ed emotivo, e lo studio su di essi potrebbe anche portare a nuove considerazioni sull’umano, la sua etica e la sua socialità: questo il progetto complessivo, di cui questo saggio ha il sapore di un’introduzione.

Una domanda che, però, resta ineludibile riguarda proprio l’utilizzazione di robot in attività di assistenza e cura: se è vero che questi studi possono aprire a nuove riflessioni sull’umano, sulla sua autonomia morale e responsabilità, sulla sua dimensione sociale ed etica, è anche vero che la robotica sociale potrebbe lasciare intendere che le società moderne e “civilizzate” abbiano un’enorme “difficoltà” (ed è un eufemismo!) nel costruire sistemi sociali solidali e di supporto per le marginalità, per coloro che soffrono di malattie invalidanti in senso ampio o anche soltanto di chi si trova a vivere in una condizione di profonda solitudine. Il pericolo è che la robotica sociale possa de-responsabilizzare l’umano anche in queste tipologie di attività solidali, delegandole ad agenti artificiali, così come la robotica militare può de-responsabilizzare l’agente umano nell’attività di uccidere, delegandola a robot “etici”, e che la costruzione di robot sociali manifesti ancora una volta una lettura dell’Altro – tipica della tradizione occidentale, capitalista e imperialista, anche se in questo caso si tratta di un altro “artificiale” – come mera funzione del Medesimo, come mero sfruttamento di una nuova risorsa, come mera funzione economica (in vista del profitto) e bellica (in vista del dominio).

 

Delio Salottolo

S&F_n. 22_2019

Print Friendly, PDF & Email