Intelligenze artificiali, decisioni ed etica: un percorso con Human in the loop di Paolo Benanti

Intelligenze artificiali, decisioni ed etica: un percorso con Human in the loop di Paolo Benanti

di Gianluca Cannillo

Parlare di intelligenze artificiali è ormai una scottante questione di attualità: è l’argomento di discussione che genera contrasti, opposizioni e che, accanto ad altre istanze risveglia l’assopito spazio dell’etica delle decisioni umane. Da che parte stare? Gli scenari molteplici che si vengono a creare risultano essere – coerentemente con le altre grandi rivoluzioni che hanno scandito le vite nelle epoche passate – principalmente di due tipi: c’è chi legge nelle innovazioni apportate dalle intelligenze artificiali dei chiari segni della distruzione del tutto, dell’inevitabile passaggio del lavoro dalle mani dell’uomo alle mani della macchina e c’è chi, a questo scenario, contrappone l’ipotesi, seppur remota, di una fresca, equa e giusta rivoluzione sui piani socio-politici, in termini di riscatto, di cessazione delle operazioni di manodopera ingiusta e così via. La questione è tuttavia complessa e in quanto tale non può essere letta come una chiara dicotomia: nel mezzo c’è la vita umana come responsabilità individuale e collettiva. Parlare di intelligenza artificiale e di decisioni umane vuol dire quasi la stessa cosa e lo spiega molto bene Paolo Benanti nel suo Human in the loop. Decisioni umane e intelligenze artificiali (Mondadori, 2022). La questione cruciale affrontata nel saggio da Benanti – ingegnere e francescano del Terzo Ordine Regolare che si occupa di etica delle tecnologie, da poco nominato nuovo Presidente della Commissione AI per l’informazione – parte da un fondamentale presupposto: se è vero che l’intelligenza artificiale lavora in autonomia, bypassando le azioni manuali dell’uomo, è altrettanto vero che gli input, le nozioni di partenza, le decisioni che la macchina inizia ad apprendere autonomamente sono responsabilità tutte umane. Benanti parte da un fondamentale presupposto: l’intelligenza artificiale in quanto processo culturale è diventato un superstrato che oltrepassa la nostra pelle, come i nostri indumenti, come i nostri dispositivi elettronici; la nota fondamentale è cercare di avere consapevolezza di questo nuovo strato che si sovrappone alla nostra natura: ciò che conta è tenere sempre l’uomo all’interno dei processi decisionali che sottostanno alle macchine, ovvero produrre degli schemi di pensiero tutti umani, capaci di fare dell’intelligenza artificiale un aiuto, uno sviluppo tecnologico dolce, in grado di sostenere le fatiche, le brutture, le difficoltà, lasciando sempre l’uomo libero di poter riconoscere l’ecosistema che lo circonda come naturale, logico, sano. Il percorso che Benanti espone prende spunto dai presupposti storici che hanno fatto sì che le macchine fossero in grado di muoversi autonomamente; dal topolino Teseo, alle macchine di Turing, dai meccanismi in grado di rendere un supermercato totalmente gestito da sistemi di IA, alle possibilità di interventi chirurgici svolti da remoto. L’evoluzione di tali sistemi è straordinaria, tanto da giungere a generare in noi il timore di essere esclusi dai processi decisionali; tuttavia, ciò che Benanti chiarisce è la necessità di riportare gli uomini al centro della vicenda: il ruolo effettivamente di natura decisionale non può prescindere dall’etica umana che sta alla base della generazione di macchine autonome. Tutto ciò che risulta complesso, dilemmatico e drammatico è naturalmente correlato a processi decisionali ed etici del tutto umani. Benanti porta avanti una tesi condivisibile: se è vero che occorre insegnare alle macchine la possibilità di pensare autonomamente, è anche vero che occorre insegnare loro a pensare eticamente. Si aprono allora le porte ad una nuova disciplina, l’algoretica, termine che fonde il concetto di algoritmo (alla base del funzionamento delle intelligenze artificiali) e quello di etica. Benanti porta a sostegno alcuni esempi per semplificare la questione. Si supponga la costruzione di una macchina in grado di impostare in totale autonomia il viaggio di un mezzo di trasporto, una metropolitana, e la si rapporti al celebre paradosso del tram formulato dalla filosofa Philippa Foot: un autista di un tram conduce un veicolo capace solo di cambiare rotaia, senza modo di frenare; sul binario si trovano cinque uomini legati e incapaci di divincolarsi, nonostante il tram sia diretto verso di loro. Esiste, tuttavia, un secondo binario, sul quale è vincolato un singolo individuo, anch’esso impossibilitato a muoversi. Si supponga la presenza di una persona accanto al deviatoio, in grado di poter decidere le sorti dei poveri sventurati: quale sarebbe la scelta corretta da compiere? Sarebbe più giusto lasciare che il tram proceda nella direzione già segnata, dunque uccidere 5 individui, o sarebbe eticamente più sostenibile deviare la direzione del tram, sacrificando la vita di un solo individuo? Il test chiaramente mette in discussione l’intimo di ciascun partecipante: al 90% dei partecipanti viene naturale pensare che sia corretto sacrificare la vita di un solo individuo salvandone 5. Il test viene successivamente articolato ulteriormente con gli studi portati avanti da Joshua Greene e collaboratori: sarebbe eticamente più sostenibile salvaguardare le vita di tutti gli individui posti sui binari gettando da un ponte un uomo grasso, capace, con la sua massa, di frenare l’andatura del tram, ma restando comunque vittima di un omicidio? In questo caso la scelta di spingere un uomo giù da un ponte risulta essere meno popolare rispetto all’azionare lo scambio dei binari. Quello che Benanti evidenzia con questi dilemmi è il superamento dell’ottica del bene-male, quasi in senso Machiavellico, riportando invece l’attenzione sulla tempistica: alla macchina, che sta segnando autonomamente la rotta la risposta deve arrivare immediatamente. Allora la problematica è esplicita: se noi, umani, esseri sensienti e dotati di atteggiamenti quali la pietà, la carità, la benevolenza, siamo in difficoltà anche nel raffrontare l’importanza di una vita rispetto a quella di più individui, come possiamo insegnare a una macchina a ragionare in totale autonomia rispetto a queste istanze in tempi brevissimi?Benanti è del resto preoccupato che questi spazi di velocità delle scelte possano totalmente scavalcare sistemi di controllo che invece sono biologicamente propri delle decisioni umane. Riprendendo gli studi dello psicologo Kahneman (D. Kahneman, Pensieri lenti e veloci, Mondadori, Milano, 2012) – sostenitore della teoria per cui la nostra capacità cognitiva si basi su due sistemi complementari, S1, il modo veloce, involontario e inconscio che applichiamo alle situazioni di tutti i giorni ed S2, quello più lento, chiamato in causa per ragionare – Benanti ci dimostra come sia fondamentale temere ed evitare che le macchine e le intelligenze artificiali inseriscano un ulteriore strato, S0. Tale ipotetico sistema causerebbe un’ulteriore accelerazione delle procedure meccaniche di costruzione del pensiero critico, in quanto, anticipando S1, renderebbe ancora più immediata una risposta che in realtà andrebbe sempre e umanisticamente approfondita.  In conclusione, ciò che Benanti vuole dimostrare e teorizzare è una nuova governance dell’algoretica, una disciplina che sia in grado di trasmettere ai sistemi meccanici di intelligenze artificiali gli sguardi più complessi sulla realtà e sulle problematiche. Quello che a noi umani resta è costituirci come entità pensanti, critiche già dalla progettazione di tali sistemi: avere nelle aziende, negli spazi lavorativi l’accortezza di saper scegliere eticamente dove e come inserire un collaboratore artificiale. Tutto ciò che pragmaticamente potrebbe costituire un’occasione di eguaglianza, pace e giustizia in senso lato deve necessariamente essere la prima fase della nostra umana algoretica: ciò che da questi principi prescinde, ciò che nega diritti civili e sociali non dovrebbe nemmeno lontanamente gettare ponti sulle intelligenze artificiali.

Commenti

Post popolari in questo blog

La letteratura che resiste

ControVerso... Chi siamo?

L'immaginazione: un percorso tra Tolkien e Calvino