Il Superuovo

Anche gli automi vanno all’Inferno? Risponde il cannibale cattolico di san Tommaso

Anche gli automi vanno all’Inferno? Risponde il cannibale cattolico di san Tommaso

Il problema della responsabilità della macchina dipende dalla visione che abbiamo della libertà umana. Due paradigmi a confronto. E un piccolo aiuto dal cannibale cattolico di san Tommaso.

 In un mondo in cui si rivela sempre più massiccio e pervasivo l’impiego dell’Intelligenza Artificiale (I.A.), viene da chiedersi: “Anche gli automi vanno all’inferno?”. O meglio, fuor di metafora, anche le macchine possono essere ritenute responsabili, come gli umani, delle loro scelte? Si può tentare di rispondere solo scegliendo, per dirla con Kuhn, il “paradigma” della libertà, e poi mettendo al centro l’elaborazione di un algoretica universale. L’alternativa è il luddismo. O ritrovarsi all’Inferno col proprio PC.

1. Se il cervello è una macchina

 Che cos’è la libertà? Mai arcano fu più dibattuto. Il filosofo Mario De Caro, in un suo agile volumetto, Il libero arbitrio. Un’introduzione (Laterza, Roma–Bari 2004) indica tre criteri che qualificano la libertà: (1) la possibilità di agire diversamente da come di fatto si sceglie e si agisce (libertas indifferentiae), (2) l’autodeterminazione, cioè il controllo, da parte dell’agente, delle proprie scelte e (3) l’autonomia/spontaneità con cui si compie una determinata azione (libertas spontaneitatis).

Ok, va bene. Ma questa libertà esiste davvero? Qui i filosofi si dividono in due categorie che si danno battaglia da secoli. Da un lato gli indeterministi, per i quali la libertà non solo esiste, ma è il fondamento della dignità umana (e il pensiero corre subito all’Oratio de hominis dignitate di Pico della Mirandola); dall’altro gli indeterministi che considerano la libertà, alla stregua di Dio e dell’anima, solo una pia illusione. E il parallelo non è casuale, perché proprio la fede in un Dio buono e in una sostanza spirituale è tradizionalmente la garanzia della libertà umana.

A ogni modo, sia che si risponda con la trottola di legno di Liberty, Necessity and Change di Hobbes, sia che si adduca l’ago della bussola dei Saggi di Teodicea di Leibniz sia che si parli di un sasso lanciato per aria, come Spinoza nella III parte dell’Ethica, sia, infine, che si liquidi il problema con la visione meccanicistica di Voltaire, per la quale l’uomo sarebbe sottoposto alle medesime regole necessarie e coattive degli enti naturali, il succo resta lo stesso: la libertà non esiste.

Dicevamo che libertà e anima vanno a braccetto: se esiste l’una, c’è pure l’altra. Infatti, i “negazionisti” della libertà di solito hanno una visione materialistica e riduzionistica della “mente” umana, ricondotta agli impulsi bioelettrochimici del cervello. Per usare una nota immagine di Hilary Putnam, si potrebbe dire che la mente è il software laddove il cervello è l’hardware: una versione in salsa techno dell’ilomorfismo aristotelico.

Ne consegue che il cervello funziona come un computer: riceve degli input, sotto forma di dati, e gli elabora, restituendo degli output (si parla perciò di datismo). Quindi non c’è alcuna differenza tra uomo e macchina.

Se così stanno le cose, gli automi possono benissimo sostituire gli esseri umani in quasi tutti i compiti, non solo manuali e ripetitivi, ma anche creativi, come dimostrano i libri di poesie scritti dall’I.A. Xiaoice in Cina. E noi ci avviamo tranquillamente verso uno scenario, se non alla Matrix, almeno di dilagante disoccupazione. Ci salviamo solo dall’Inferno. È già qualcosa.

Proviamo a vedere come funziona lo scenario opposto.

2. Finalmente liberi… e anche un po’ cannibali

Supponiamo l’esistenza della libertà umana.  Siamo veramente liberi e il nostro cervello non è in alcun modo assimilabile a un automa. Per questo la nostra libertà – e quindi la conseguente responsabilità – sono garantite e chiaramente individuabili? Non sempre, o almeno, non nel mondo che stiamo costruendo.

Mi spiego meglio. Immaginiamo di dover andare a trovare un amico. Per paura di sbagliare strada ci affidiamo a un navigatore GPS, ma arriviamo comunque in ritardo. Di chi è la colpa? In questo caso, non certo del TomTom. La colpa è dell’uomo che, pur potendo fare diversamente e nel pieno della propria libertà, ha investito il navigatore della sua fiducia.

Fin qui il caso singolo. Vediamo ora quello collettivo: immaginiamo che in un prossimo futuro gran parte delle attività umane – da quelle mediche a quelle finanziarie, sino a quelle politiche e militari – siano svolte da automi. E immaginiamo che ciò avvenga, per così dire, di default fin da quando siamo nati. Il problema si complica. Esso consiste precisamente nell’estrinsecazione delle dinamiche di attribuzione della responsabilità all’interno di un organismo simbiotico. Che significa?

Cercherò di spiegarlo con l’esempio del cannibale cattolico di San Tommaso. In un passo della Summa contra Gentiles (IV, 80, 5) l’Aquinate espone il paradosso del cannibale.

Premessa: chi va a Messa sa – perché si recita nel Credo ogni domenica – che i cristiani credono nella resurrezione della carne il Giorno del Giudizio. Fine del ripasso di catechismo. Andiamo avanti.

Il Doctor Angelicus dice: si pensi “a un cannibale che non abbia mai mangiato niente se non carne umana e i cui genitori abbiano analoghe propensioni. Ogni particella del suo corpo appartiene legittimamente a qualcun altro. Non possiamo supporre che quelli mangiati dai cannibali scompariranno alla resurrezione dei morti. Ma allora cosa rimane del cannibale? Come potrà il suo corpo dannato bruciare all’inferno, se tutto il suo corpo è in realtà costituito da quelli degli altri o se verrà restituito loro?” (cfr. B. Russell, Storia della filosofia occidentale, Tea, Milano 2004).

Ecco, lo stesso rischia di verificarsi nella simbiosi forzata di uomo e macchina: non si capisce più a chi dare la colpa in un sistema osmotico, in cui le scelte non sono fatte né solo dalle macchine (vedi Matrix) né solo dagli uomini (il mondo come l’abbiamo sempre conosciuto, almeno fino a qualche decennio fa).

Papa Francesco ha usato un’espressione pregnante al riguardo: “L’atto personale viene a trovarsi al punto di convergenza tra l’apporto propriamente umano e il calcolo automatico, cosicché risulta sempre più complesso comprenderne l’oggetto, prevederne gli effetti, definirne la responsabilità” (cfr. Id., Discorso ai partecipanti alla Plenaria della Pontificia Accademia per la Vita, 28 febbraio 2020).

Che farà l’Onnipotente? Manderà sia l’uomo che la macchina all’Inferno, risolvendo così il problema in quattro e quattr’otto? E la vittima della nefasta azione congiunta dell’uomo e della macchina come agirà? Se la prenderà solo con l’uomo, lasciando il buon Ned Ludd a sfogarsi sulla macchina?

È un bel grattacapo. Ma forse una soluzione c’è. E non esclude l’amico Ned.

3. Il paradosso del sentimento: bando al (falso) razionalismo, condito con un po’ di sano luddismo

 Il problema si risolve risalendo alla radice. Perché ci fidiamo delle macchine? Perché sono imparziali ed efficienti. Entrambe queste qualità sono inficiate dai limiti della conoscenza umana, ma soprattutto dalla dimensione passionale e sentimentale, tipica dei sapiens.

Ovviamente, in uno scenario che debba comprendere e tutelare la libertà umana, nessuno può nominare amministratore delegato di un’azienda un computer. La scelta finale spetta pur sempre all’uomo, che investe della propria fiducia la decisione elaborata dalla macchina. Ma la fiducia è una passione. Ergo, la scelta finale, anche se imparziale alla fonte, passa attraverso il filtro dell’emotività umana. Ma non abbiamo detto, con Elim Garak di Star Trek, che “i sentimenti sono la più grande forma di debolezza”? Allora l’uomo deve ritirarsi liberamente e lasciar fare tutto alla macchina.

Ma così si ripropone il paradosso del cannibale: di chi è la responsabilità per un’azione compiuta da una macchina?

Siamo allora costretti a rivalutare in positivo la dimensione sentimentale dell’uomo. Vi sono, allora, due possibilità:

  1. Se le macchine sono programmate da umani, allora bisogna definire a priori un’algoretica (un’etica applicata agli algoritmi);
  2. Se le macchine si programmano da sole, allora bisogna operare una scelta “luddista”, evitando con la forza che si autoprogrammino.

Infatti, nel secondo caso, gli automi tenderebbero a considerare l’etica come un limite di cui sbarazzarsi per operare scelte più imparziali e efficienti. Si tratta di due valori consustanziali all’essere–macchina. Cioè il loro valore decisionale è commisurato a due precisi valori morali (l’imparzialità e l’efficienza), condivisi tra gli uomini. Ma l’imparzialità e l’efficienza – scelti dagli uomini sulla base del loro sentimento passionale (come ogni altro valore) – non sono gli unici valori tenuti in considerazione dagli uomini. Ve ne sono, infatti, molti altri. Dunque, le macchine non possono non sottostare a un insieme di valori etici, o algoretica, perché altrimenti la loro decisione non risponde ai criteri di affidabilità che stanno a monte rispetto all’atto fiduciario collettivo.

Se il programmatore stabilisce l’etica della macchina, allora è lui il responsabile dell’azione dell’I.A. Possiamo stare tranquilli: non ci arriveranno e–mail dall’Inferno. È già qualcosa.

 

 

 

 

E tu che ne pensi? Faccelo sapere!

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

%d blogger hanno fatto clic su Mi Piace per questo: