L’applicazione dell’intelligenza artificiale al campo dell’invecchiamento promette grandi risultati per la ricerca oltre che per lo sviluppo di strumenti capaci di migliorare la salute e la qualità della vita anche per le persone in età avanzata.

Che cosa si intende per “intelligenza artificiale“? La definizioni classica, fornita nel 1955 da McCarthy, Minsky, Rochester e Shannon pionieri della ricerca sull’IA resta ancora una delle più valide: “Per il presente scopo il problema dell’intelligenza artificiale è quello di far sì che una macchina agisca con modalità che sarebbero definite intelligenti se un essere umano si comportasse allo stesso modo”.

La base dei sistemi di IA è costituita da algoritmi, istruzioni sotto forma di codice informatico, che permettono una rapida analisi e trasformazione dei dati di input in conclusioni, informazioni e altri output. L’apprendimento automatico o machine learning, sottoinsieme delle tecniche di IA, si basa sull’uso di modelli statistici e matematici per definire e analizzare i dati. Grazie all’analisi di grandi quantità di dati (big data), vengono individuati pattern e correlazioni statistiche e vengono definiti modelli che una volta appresi possono essere applicati per eseguire o guidare determinati compiti e fare previsioni.

La ricerca nel campo dell’invecchiamento ha da sempre avuto a che fare con grandi set di dati – basti pensare agli studi che monitorano per decenni lo stato di salute e i suoi determinanti su grandi coorti di popolazione – oggi ha a disposizione una maggiore quantità di informazioni di diverso tipo e alla stesso tempo un potente strumento di analisi e di predizione.

In ambito di ricerca biomedica, un recente articolo pubblicato su Nature Aging, sottolinea le opportunità di comprendere i meccanismi dell’invecchiamento grazie all’IA per sviluppare una medicina della longevità: “definiamo la medicina della longevità come una branca della medicina di precisione che si concentra specificamente sulla promozione della durata della salute e della vita e che è alimentata dalla tecnologia AI. La medicina della longevità alimentata dall’intelligenza artificiale faciliterà la scoperta di bersagli farmacologici per individui specifici, l’identificazione di interventi geroprotettivi su misura e di biomarcatori dell’invecchiamento e della longevità per migliorare lo studio dell’invecchiamento e delle traiettorie delle malattie, nonché l’identificazione di interventi che possono contribuire a rallentare o addirittura invertire i processi biologici, fisiologici o psicologici associati all’invecchiamento”.

Come sottolinea il filosofo Luciano Floridi “Oggi, facciamo sempre più affidamento su applicazioni basate sull’IA (…) per eseguire compiti che sarebbero semplicemente impossibili per un’intelligenza umana non aiutata o non aumentata. L’IA riproduttiva ottiene regolarmente risultati migliori e sostituisce l’intelligenza umana in un numero sempre maggiore di contesti.”

Ma l’utilizzo di applicazioni basate su intelligenza artificiale non si limita al mondo della ricerca: l’IA è entrata nelle nostre case e nelle nostre vite quotidiane, per esempio attraverso dispositivi di domotica, assistenti vocali o più banalmente con l’algoritmo che ci suggerisce che film guardare su Netflix questa sera.

Bias e ageismo

Contestualmente all’esplosione delle applicazioni dell’intelligenza artificiale sono emerse però anche le prime criticità, sia nel mondo della ricerca sia a livello etico-politico. Il problema dei bias nei sistemi informatici è stato definito fin dalla fine degli anni ‘90 come la capacità di un sistema di “discriminare sistematicamente e ingiustamente alcuni individui o gruppi di individui a favore di altri.” (Friedman & Nissenbaum, 1996, p. 332). Si tratta quindi di un problema noto che è stato portato sotto i riflettori per larga diffusione di strumenti basati sull’IA. Secondo Kate Crawford, ricercatrice presso il Microsoft Research Lab, questi bias o pregiudizi possono provocare due tipi di danni alle persone: i danni di allocazione e i danni di rappresentazione (Crawford, 2017). I danni da allocazione si riferiscono alla distribuzione di risorse e opportunità, come ad esempio la possibilità di ricevere notifiche su potenziali prospettive di lavoro o l’accesso a risorse o servizi sanitari. I danni di rappresentazione, invece, si riferiscono al modo in cui i diversi gruppi o identità sono rappresentati e percepiti dalla società.

Tra questi pregiudizi il meno studiato e poco considerato è probabilmente quello dell’ageismo. Il termine “ageismo” si riferisce agli stereotipi (il modo in cui pensiamo), ai pregiudizi (il modo in cui ci sentiamo) e alla discriminazione (il modo in cui agiamo) rivolti alle persone sulla base della loro età. Secondo l’OMS) si tratta di un problema diffuso a livello non solo a livello individuale e interpersonale, ma un pregiudizio che pervade anche le istituzioni e la società in generale, come emerso in maniera evidente durante la pandemia da Covid-19. Il recente report dell’OMS, riferisce che l’ageismo è associato a una vita più breve, a una salute fisica e mentale peggiore e a una minore qualità della vita. Inoltre contribuisce alla povertà e all’insicurezza finanziaria in età avanzata e può limitare la qualità e la quantità dell’assistenza sanitaria fornita agli anziani.

È stata ancora l’OMS ad attivare “un segnale di allarme” sui pregiudizi ageisti diffusi nelle tecnologie basate sull’intelligenza artificiale e nei sistemi di machine learning, che potrebbero ribadire e rinforzare le discriminazioni già presenti nella società.

In che modo avviene? Un esempio significativo dei circoli viziosi generati dai pregiudizi ageisti nelle tecnologie digitali è quello riportato da Chu et al (…): le tecnologie che si rivolgono agli anziani sono prevalentemente orientate alla salute e alla gestione di malattie croniche, piuttosto che per esempio alla gestione del tempo libero o del divertimento, perché il sottinteso paternalistico è che gli anziani siano solo malati, bisognosi di aiuto e di cure mediche. Questo pregiudizio di rappresentazione, che indirizza la progettazione della tecnologia, influisce anche sui dati raccolti sugli anziani, perché tecnologie orientate alla cura di malattie croniche non raccoglieranno i dati relativi agli anziani sani, includendo un bias statistico nei dataset. Questo bias rinforzerà lo sviluppo di tecnologie rivolte esclusivamente ai bisogni di salute e la carenza di strumenti che rispondano ad altri bisogni delle persone anziane continuerà a tenerli lontani dalle tecnologie.

Perché l’IA produce discriminazioni

Mentre ai suoi esordi la ricerca sull’IA si concentrava su rappresentazioni simboliche astratte della conoscenza umana e sulla logica procedurale , l’IA oggi è prevalentemente orientata alle tecniche di apprendimento automatico (machine learning), in cui la conoscenza è derivata dall’analisi di grandi quantità di dati, dall’individuazione di pattern e dalla produzione di risultati probabilistici: semplificando, l’IA si basa sulla statistica. Per questo il concetto di bias nell’IA è spesso interpretato proprio in termini statistici. Come spiega Kate Crawford:

[il termine inglese bias] All’inizio del Novecento bias aveva sviluppato un significato più tecnico nelle statistiche, dove si riferisce a differenze sistematiche tra un campione e una popolazione, quando il campione non è veramente rappresentativo del tutto. È da questa tradizione statistica che il settore dell’apprendimento automatico trae la sua concezione di bias, con riferimento a una serie di altri costrutti: generalizzazione, classificazione e varianza. I sistemi di apprendimento automatico sono progettati per giungere a una generalizzazione a partire da un ampio insieme di casi usati come addestramento, per poi classificare in modo corretto nuovi dati non inclusi nel dataset di training In altre parole, i sistemi di apprendimento automatico possono eseguire un certo genere di induzione, apprendendo da esempi specifici (come i curricula di candidati a posizioni lavorative) al fine di decidere quali elementi cercare in esempi ulteriori (ad esempio, raggruppamenti di parole nei curricula di nuovi candidati). In tali casi, il termine bias si riferisce a un tipo di errore che può verificarsi durante questo processo predittivo di generalizzazione, ovvero un errore di classificazione sistematico o riprodotto con costanza che il sistema evidenzia in presenza di ulteriori esempi. Questo tipo di bias è spesso contrastato da un altro tipo di errore di generalizzazione, la varianza, che si riferisce alla sensibilità di un algoritmo alle differenze presenti nei dati di training.

Le discriminazioni e i pregiudizi però non si collocano solo su un piano tecnico, non sono un semplice errore statistico, ma si annidano soprattutto nella stretta relazione che esiste sempre tra intelligenze umane e intelligenza artificiale.
Gli algoritmi non sono mai neutrali in quanto riproducono le assunzioni e le credenze di chi li progetta e sviluppa. Allo stesso modo i set di dati utilizzati per il training dell’IA, supervisionato o meno, non possono essere considerati oggettivi o neutri, in quanto contengono già un’interpretazione del mondo “Creare un set di addestramento significa prendere un mondo quasi infinitamente complesso e vario e fissarlo in tassonomie composte da classificazioni discrete di dati individuali, un processo che richiede scelte intrinsecamente politiche, culturali e sociali” (Crawford).

Anche l’interpretazione dei risultati del machine learning richiede un intervento umano, perché i sistemi di IA non sono in grado di valutare se una correlazione statistica è significativa, è necessaria una comprensione qualitativa del significato del dato quantitativo. E quando questo risultato deve informare processi decisionali è necessario che qualcuno valuti come questo risultato sarà utilizzato nel contesto sociale di riferimento.

Per arginare i bias dell’IA bisogna considerare il più ampio contesto socio-tecnologico, in cui ai bias statistici, intesi come errori tecnici, si intrecciano i bias cognitivi, i bias impliciti, le credenze umane, gli stereotipi e i pregiudizi. Non è possibile correggere le discriminazione prodotte dagli algoritmi attraverso soluzioni puramente tecniche, con dataset più inclusivi o con lo sviluppo di algoritmi più equi, perché il motivo principale per cui le IA perpetuano le discriminazioni della nostra società non si colloca su un piano puramente tecnico.

Un framework per studiare l’ageismo nell’IA

Data la necessità di una riflessione critica sull’ageismo nei sistemi di IA, Justyna Stypinska, ricercatrice della Freie Universität di Berlino, propone una definizione e un framework orientato a delineare diverse linee di ricerca in una prospettiva interdisciplinare.

La definizione operativa di ageismo dell’IA, aperta al perfezionamento empirico e teorico, è la seguente: insieme di pratiche e ideologie operanti nel campo dell’IA che escludono, discriminano o trascurano gli interessi, le esperienze e i bisogni delle popolazioni più anziane e che hanno o potrebbero avere impatti disparati sulla parità di età. Include, ma non si limita a, cinque forme interconnesse:

  1. pregiudizi sull’età incorporati negli algoritmi e nei dataset digitali (livello tecnico)
  2. stereotipi sull’età, pregiudizi e ideologie degli attori nel campo dell’IA (livello personale/attoriale),
  3. l’invisibilità o le rappresentazioni stereotipate della categoria dell’età e della vecchiaia nei discorsi sull’IA (livello discorsivo)
  4. effetti discriminatori dell’uso della tecnologia dell’IA sui gruppi di età avanzata (livello di gruppo)
  5. l’esclusione come utenti di tecnologie, servizi e prodotti di IA (livello utente).

L’autrice presenta alcuni esempi per comprendere come questi 5 livelli si manifestano o potrebbero manifestarsi concretamente.

Un esempio di ageismo a livello tecnico può essere riscontrato nei cutoff dei dataset di training utilizzati per il riconoscimento facciale oppure nelle classificazioni palesemente ageiste utilizzate in dataset come quello di ImageNet. Anche i sistemi di riconoscimento vocale, per esempio quelli degli assistenti virtuali, sono meno efficaci nel riconoscere le voci di persone in età avanzata, probabilmente a causa del dataset di training.

Abbiamo poi l’ageismo nell’industria dell’IA, il livello che riguarda cioè i protagonisti dello sviluppo del’IA: la Silicon Valley è stata definita il luogo più ageista della terra, un luogo in cui l’80% dei lavoratori sopra i 40 anni è preoccupato per la propria carriera e vede l’età come un ostacolo nella ricerca di un nuovo lavoro. D’altra parte è tristemente nota l’affermazione di Mark Zuckerberg secondo cui le tech company non dovrebbero assumere persone sopra i 30 anni perché “i giovani sono semplicemente più capaci” (Young people are just smarter). La cultura diffusa a partire dall’epicentro statunitense veicola il pregiudizio ageista nelle persone che progettano l’IA.

L’ageismo a livello dei discorsi sull’IA può essere esemplificato dai risultati di uno studio condotto dall’università di Toronto che ha analizzato l’AI Ethics Guidelines Global Inventory, una raccolta di documenti sull’etica dei sistemi di IA creati da governi, enti pubblici e privati e organizzazioni internazionali, in lingua inglese: su 146 documenti disponibili in quel momento, solo 34 (23,3%) menzionano l’ageismo come pregiudizio. Di questi, 19 (54,7%) si limitavano a elencare l'”età” come parte di un elenco generale di caratteristiche protette, accanto a sesso o razza.

L’azione dell’ageismo dell’IA a livello di gruppo è rappresentata dai sistemi di decisione autonoma o di supporto alla decisione basati su IA. Nati per ottimizzare il processo decisionale umano, anche in virtù di una presunta neutralità dell’algoritmo, risultano spesso in concrete discriminazioni. Il caso dell’algoritmo di assunzione di Amazon, che escludeva i CV delle donne quando si trattava di posizioni in ambito tecnologico, può dare un’idea di che cosa può succedere quando i processi decisionali vengono demandati a sistemi che incorporano bias. Discriminazioni nei confronti delle persone anziane sono già emerse in contesti come quello assicurativo o bancario.

Le persone anziane infine potrebbero sperimentare discriminazioni ageiste anche a livello individuale, come utenti di tecnologie basate su IA: per esempio i chatbot potrebbero interagire con l’utente in modo scorretto o manifestare stereotipi ageisti.

Tutti questi livelli, ancora poco studiati, sono evidentemente intrecciati tra loro: per questo la prospettiva di una ricerca interdisciplinare risulta la più adeguata una volta presa consapevolezza che l’ageismo nell’IA non è soltanto un problema tecnico, ma qualcosa che si dipana a livello di relazioni interpersonali, di discorsi e di immaginario, di progettazione e di politiche. Pertanto si tratta di un’area di studi che dovrebbe coinvolgere in modo collaborativo gerontologi, sociologi, filosofi, avvocati, eticisti, medici, informatici, data scientist e ingegneri.

 

Bibliografia


Articoli Correlati

Nessun altro articolo per questa categoria


Iscriviti alla Newsletter

* Richiesti

Scegli la newsletter

Consenso all’utilizzo dei datiAging Project userà le informazioni che fornisci al solo scopo di inviarti la newsletter richiesta.

Puoi annullare l'iscrizione in qualsiasi momento cliccando sul link che trovi nel footer dell'email. Per informazioni sulla Privacy Policy clicca qui.

Cliccando su "Acconsenti", accetti anche che le tue informazioni saiano trasferite a Mailchimp per l'elaborazione. Ulteriori informazioni sulle privacy di Mailchimp qui