L’intelligenza artificiale, uno strumento potente da usare con attenzione

È il 2019, alcuni ricercatori della University of California pubblicano su Science un articolo sconcertante: un algoritmo usato da tutti i principali ospedali d’America per decidere se prendere o meno in carico i pazienti malati di diabete, sulla base della loro condizione e della loro copertura assicurativa, è razzista. A parità di condizioni, infatti, un paziente bianco viene giudicato idoneo a proseguire le cure molto più spesso di un paziente nero. La mortalità tra afroamericani malati di diabete, secondo lo studio, è più alta del 50% rispetto alle altre etnie.
UnitedHealth, la compagnia produttrice del software, dice di non saperne nulla: il modello matematico usato per decidere si basa unicamente sull’esito casi clinici passati, analizzati a posteriori, nessuno ha mai detto alla macchina di agire secondo ideali discriminatori di alcun tipo. Eppure il dato di fatto rimane: sembra quasi che l’intelligenza artificiale abbia sviluppato una volontà propria, che si sia in qualche modo convinta che un bianco abbia più diritto di curarsi rispetto a un nero. In una società in cui algoritmi simili vengono usati anche per decidere chi abbia diritto a un prestito e potrebbero presto essere impiegati addirittura nelle macchine a guida autonoma, dove dovrebbero decidere, in caso di incidente, chi “sacrificare”, se potessero davvero ignorare le istruzioni etiche date dagli sviluppatori e agire di testa propria sarebbe catastrofico. Solo un’analisi attenta dell’algoritmo ha svelato l’arcano, ma per capire cos’è andato storto dobbiamo prima comprendere il metodo che la UnitedHealth ha impegnato per formare il modello matematico del suo software: il Machine Learning.
Si tratta di un sistema che prevede di dare ad un sistema “vuoto” moltissimi dati etichettati da esseri umani, così che la macchina impari ad associare gli elementi comuni tra diverse rappresentazioni della stessa cosa. Facciamo un esempio: se volgiamo che un’IA riconosca un cane, per esempio, dovremo fornirle migliaia di foto di cani. La macchina imparerà quali sono gli elementi comuni a tutti i cani e saprà riconoscerli quando le daremo una foto nuova. Ciò che è importante tenere a mente è che la macchina non sa nulla di cosa sia una cane, né di cosa la parola “cane” significhi davvero, si tratta di fatto, di un’illusione. Le intelligenze artificiali riconoscono e scrivono testi coerenti, producono immagini e riconoscono contesti e situazioni, dandoci l’impressione di capire ciò di cui parlano e ciò che gli diciamo, ma questo non è vero: associano parole, forme grammaticali e concetti su base statistica. Di fatto, mettono insieme due concetti perché quando l’hanno fatto in passato qualcuno gli ha detto che era giusto, non perché comprendano davvero il motivo per cui due concetti siano correlati.
Nel caso dell’algoritmo della UnitedHealth, la macchina è stata allenata analizzando a posteriori casi di pazienti che avevano finito il loro ciclo di cure, con lo scopo di imparare a prevedere quelli che sarebbero riusciti a guarire e senza sforare il massimale della loro assicurazione. L’IA, però, invece di basarsi sulle loro condizioni cliniche, ha finito col considerare come parametro attendibile le spese mediche passate, perché chi aveva speso meno era, tendenzialmente, più in salute e aveva meno urgentemente bisogno di cure. Il problema è per ragioni economiche e culturali gli afroamericani spendono mediamente meno in sanità anche quando sono più malati, e la il software non ha avuto modo di rendersene conto perché il campione scelto per “allenarla” era composta quasi interamente da bianchi.
La macchina non aveva sviluppato un proprio ideale razzista, né ne sarebbe stata capace, era solo stata sviluppata in modo sbagliato. “La morale non appartiene alle macchine, ma alle persone che le programmano” ha spiegato al Salone del Libro di Torino Emanuele Micheli, presidente di “scuola di robotica”, un’associazione no profit che promuove l’uso etico degli strumenti informatici. “Sono strumenti molto potenti, con cui è possibile fare del bene. Se un ‘intelligenza artificiale trova un modo per capire a chi bisogni dare precedenza nelle cure, salvando vite, dal punto di vista umano non possiamo che esserne contenti. Occorre però fare molta attenzione quando le si programma: proprio perché non hanno un’etica, non correggeranno i nostri errori”.