article banner
Approfondimento

L’Intelligenza Artificiale discrimina? Un problema prima di tutto etico

Una discriminazione si verifica quando un certo giudizio nega un’opportunità o un diritto ad un individuo, con motivazioni infondate e inappropriate. Talvolta i sistemi di intelligenza artificiale si rivelano non imparziali, ma al contrario presentano pregiudizi che si traducono in output discriminatori dell'algoritmo nei confronti di un individuo o un gruppo di individui per razza, genere, età, ecc.

In termini scientifici il fenomeno è noto col termine di “bias” ossia distorsione causata da un pregiudizio. Questo naturalmente non riguarda solo gli algoritmi ma anche la mente umana.

Gli esseri umani hanno bias cognitivi, ovvero distorsioni sistematiche di giudizio che, in buona sostanza, derivano da due sorgenti differenti.

La prima è di carattere biologico.

La seconda è figlia del contesto culturale e sociale in cui cresce e vive l’individuo.

Si può dire che la prima sorgente è “infrastrutturale” e l’altra è "informativa”.

Ad esempio, è provato che l’ordine di presentazione delle opzioni condiziona le scelte umane: il cervello umano "preferisce" certe cose perché vengono presentate in una certa posizione rispetto alle altre. Si pensi a come vengono proposti i prodotti sugli scaffali del supermercato o i film sulle piattaforme.

Questo è un bias “infrastrutturale”.

Un tipico bias “informativo” invece è il bias di genere. Se siamo abituati a vedere uomini in posizioni apicali, potremmo tendere a giudicare, erroneamente, che una donna non possa raggiungere posti di comando.

I sistemi di intelligenza artificiale sono potenzialmente soggetti alle stesse categorie di distorsioni o bias che si trovano nell’uomo.

Un sistema di intelligenza artificiale adoperato per suggerire il candidato più adatto per una posizione, può dare suggerimenti non appropriati per motivi infrastrutturali legati all’algoritmo, che magari presenta dei difetti tali per cui una certa caratteristica viene sottostimata o sovrastimata. Oppure può produrre un suggerimento errato o addirittura discriminatorio per ragioni informative, ovvero legate ai dati con cui è stato “allenato”.

I dati possono infatti presentare delle distorsioni esattamente come le presenta l’ambiente in cui crescono gli umani: del resto ne sono un prodotto. Da qui il famoso detto “garbage in garbage out”: ossia se i dati non sono di buona qualità anche le predizioni dell’algoritmo non saranno di buon livello, ma presenteranno errori o distorsioni.

Un’area tipica in cui si rinvengono bias è quella della parità fra uomo e donna o fra persone di razze o religioni diverse. Ciò in quanto il nostro sistema economico e culturale è imperniato, da millenni, su atteggiamenti discriminatori molto spesso avallati dagli stessi ordinamenti giuridici.

Nell’ambito dei sistemi di intelligenza artificiale, se le candidate donne in una certa impresa hanno sempre ricevuto una paga più bassa degli uomini, un algoritmo allenato su quei dati tenderà a riproporre alle candidate donne un’offerta mediamente più bassa. Questo tipo di distorsione, in letteratura, prende il nome di bias storico ed è il riflesso, in molti casi, di una forma di disparità sociale presente nei dati di training.

Il nascente Artificial Intelligence Act (si rimanda al contributo di Carlo Giuseppe Saronni in questa stessa Edizione di TopHic) si dovrebbe occupare anche di questo genere di bias.

L’articolo 29 (a) del testo proposto dal Parlamento prevede infatti un impact assessment sui diritti fondamentali in base al quale l’utilizzatore del sistema dovrebbe condurre appunto un assessment dei sistemi ad alto rischio volto proprio ad identificare potenziali violazioni dei diritti fondamentali tra cui, naturalmente, rientra anche il diritto alla non discriminazione.

Come detto, un bias può dipendere anche dalla scarsa rappresentatività dei dati.

In generale, tanti più sono i dati che il sistema di intelligenza artificiale ha ricevuto in un certo ambito o riguardo ad una certa popolazione, tanto più robusta e affidabile sarà la sua predizione e la sua capacità di rappresentarla in modo adeguato.

Si prenda in considerazione il caso delle discriminazioni razziali: se per una data etnia saranno disponibili pochi dati, la predizione del sistema su quell’etnia sarà poco affidabile perché poche sono le informazioni su cui il sistema è stato allenato.

Se poi le caratteristiche, supponiamo il basso reddito, per quell’etnia saranno costanti, il sistema assocerà ad una data etnia un basso reddito anche in circostanze opposte finendo per pregiudicare gli appartenenti a questa etnia.

Per ovviare a problemi di scarsa rappresentatività l’emananda normativa dovrebbe prevedere all’articolo 10 (3), che “i dati siano rappresentativi” della popolazione su cui l’algoritmo avrà effetto.

La ratio della norma è encomiabile.

Bisognerà, però, vedere se la previsione sarà in concreto soddisfatta.

Infatti, i dati a disposizione dell’algoritmo saranno sempre dipendenti dalla popolazione sottopostagli sino a quel momento e, perciò, casi mal rappresentati in alcune circostanze saranno difficilmente evitabili.

Infine vi sono casi di bias che dipendono dal tipo di dati impiegati.

Vi sono alcune caratteristiche degli esseri umani difficilmente catturabili.

L’intelligenza, il senso morale, l’empatia, la capacità di mettere d’accordo le persone sono tutte dimensioni che si prestano poco ad essere ridotte a elementi misurabili e quindi valutabili ad esempio da un algoritmo di selezione del personale.

Anche in questo caso il risultato che fornisce la macchina potrebbe essere discriminatorio o non efficiente per l’utilizzatore perché potrebbe portare a selezionare un candidato meno meritevole solo perché, qualità importantissime, non sono riducibili al dato e quindi non vengono calcolate.

Un ultimo caso.

L’intelligenza è un complesso di facoltà psichiche e mentali che distingue l’uomo dal mondo animale.

Il QI può essere misurato.

Il QI, però, riguarda un aspetto molto limitato, ovvero le abilità logiche (inferenze elementari che coinvolgono la memoria a breve termine) e di visualizzazione spaziale (soprattutto rotazioni e riconoscimento di pattern) dell’intelligenza umana.

Questo tipo di capacità, siano esse innate o allenate, indubbiamente avvantaggiano professionalità abituate a ragionare in senso spaziale, come ad esempio matematici e fisici che hanno una maggiore preparazione in geometria. Queste persone saranno avvantaggiate in un algoritmo di intelligenza artificiale che si occupi di scrutinare la misura dell’intelligenza di un soggetto in base al QI.

Infatti la macchina, per quanto sofisticata, ha bisogno, per valorizzare un elemento, che questo sia misurabile.

In questo senso il QI è un parametro misurabile, consolidato e privilegiato nella misurazione dell’intelligenza.

Non possiamo però sostenere che questo parametro possa riassumere adeguatamente la dimensione che intende misurare, ovvero l’intelligenza nel suo complesso proprio perché nella ponderazione complessiva rischia di pesare di più quel che è facilmente riducibile a numero rispetto ad altre doti personologiche, magari importantissime, ma non facilmente misurabili.

Perciò la valutazione dell’intelligenza attraverso il QI rappresenta una soluzione sintetica, ma potenzialmente non esaustiva delle caratteristiche del candidato perché il sistema, non avendo la possibilità di utilizzare aspetti dell’intelligenza difficilmente misurabili, può escludere individui meritevoli.

E’ chiaro che si tratta questioni molto delicate.

Il data scientist non può essere lasciato solo nel considerare queste problematiche, ma deve essere accompagnato da giuristi e filosofi che lo aiutano nella valutazione di quali possano essere possibili bias presenti nel sistema di intelligenza artificiale e quali siano le tecniche migliori per mitigarli.

Le grandi aziende si stanno, per fortuna, muovendo reclutando nei propri team figure professionali di questo tipo cui è dato il compito di indirizzare e aiutare i data scientist nell’impostazione del loro lavoro.