Nel 1971, il filosofo John Rawls propose un esperimento mentale per comprendere l'idea di equità conosciuto come the veil of ignorance (il velo dell'ignoranza). E se, si chiese, potessimo cancellare la nostra memoria in modo da non ricordare chi eravamo, la nostra razza, il nostro livello di reddito, la nostra professione, qualsiasi cosa che potesse influenzare la nostra opinione? Chi proteggeremmo e chi serviremmo con le nostre politiche?

Il “velo dell'ignoranza” è un esercizio filosofico per pensare alla giustizia e alla società, ma può essere applicato anche al fiorente campo dell'intelligenza artificiale (IA). Spesso si tende a lodare i risultati dell'IA come matematici, programmatici e intrinsecamente migliori delle decisioni umane cariche di emozioni. Ma è lecito chiedersi, l'IA può fornire quel velo di ignoranza che porterebbe a risultati obiettivi e ideali?

Gli algoritmi sono ovunque

Algorithm bias auditors  - algoritmi

Shutterstock

Oggi tutte le grandi aziende, da Facebook a Google, da Amazon a Netflix, utilizzano gli algoritmi (ossia sequenze di istruzioni che suggeriscono a una macchina le operazioni da svolgere per risolvere un dato problema) all'interno dei feed per suggerire comparazioni e ricerche personalizzate che ci fanno risparmiare tempo nel decidere quale film guardare o quale cibo ordinare.

Al di là dei chiari vantaggi, si è scoperto che alcuni di questi algoritmi sono prevenuti nei confronti di determinati gruppi razziali, di genere e di classe. A ciò si aggiunge il fatto che il loro livello di complessità aumenta sempre più, dato che, attraverso l'apprendimento automatico o machine learning, i computer non sono più dei meri esecutori di sequenze di istruzioni, ma sono in grado scrivere in autonomia i propri algoritmi apprendendo nozioni dal mondo esterno.

Negli ultimi anni, l'impatto etico dell'IA è stato al centro di scandali pubblici per esiti distorti, mancanza di trasparenza e uso improprio dei dati, il che ha portato a una crescente sfiducia nei confronti dell’IA.

Per quanto obiettiva possa essere la nostra tecnologia, alla fine è influenzata dalle persone che la costruiscono e dai dati che la alimentano. Coloro che sviluppano gli algoritmi non definiscono funzioni oggettive indipendentemente dal contesto sociale, ma riflettono pregiudizi sociali e culturali preesistenti. In pratica, l'IA può essere un metodo perperpetuare i pregiudizi, portando a conseguenze negative non intenzionali e risultati iniqui.

Al di là dei bias, l’Algorithm Bias Auditor

Algorithm bias auditors studio algoritmi

Shutterstock

Il pregiudizio che così si crea è legato principalmente a un problema di input/output delle informazioni o delle caratteristiche da filtrare. Sono diversi gli studi che dimostrano come algoritmi basati sull’intelligenza artificiale possano rispecchiare gli stereotipi di genere e razza degli umani che li addestrano.

Gli algoritmi non sono neutri, né perfetti: sono solo il riflesso di ciò che il programmatore umano e i dati gli dicono di fare, imperfetti quanto coloro che li hanno sviluppati.

Ed è proprio qui che si inserisce il ruolo dell’Algorithm Bias Auditor, una figura essenziale per la regolamentazione del modo in cui le tecnologie cognitive prendono decisioni, poiché aiutano a proteggere i cittadini dai potenziali effetti negativi della tecnologia.

Revisionare gli algoritmi affinché siano trasparenti, equi e spiegabili

Algorithm bias auditors revisione algoritmi

Shutterstock

Il “revisore delle distorsioni algoritmiche” possiede una nutrita conoscenza dei concetti di etica ed equità, come del funzionamento pratico degli algoritmi AI-based e di come impattano sulla vita dei cittadini. Quello che fa è collaborare con i team di data scientist per revisionare gli algoritmi e assicurarsi che siano trasparenti, equi, e spiegabili.

Un ruolo cruciale visto che lasciati incontrollati, gli algoritmi di IA incorporati nelle tecnologie digitali e sociali codificano i pregiudizi della società accelerando la diffusione di disinformazione.

L’auditor esegue, inoltre, revisioni periodiche per determinare l'equità di un modello dopo l'implementazione, che includono il controllo di problemi di black-box, bias algoritmici, protezione della privacy e discriminazione illecita. 

Oltre a identificare i problemi, gli Algorithm Bias Auditor forniscono raccomandazioni su come rendere il modello più etico e spiegabile. Collaborano con le agenzie di regolamentazione e giudiziarie per riesaminare gli algoritmi di IA più avanzati e adottare misure preventive e correttive prima che possano avere un impatto negativo sugli utenti.

Di che responsabilità si tratta

Algorithm bias auditors

Algorithm bias auditors 

Per questo, la figura dell’Algorithm Bias Auditor si occupa di indagare sul potenziale rischio algoritmico e pregiudizievole per garantire che le responsabilità etiche siano soddisfatte; esaminare i set di dati utilizzati per addestrare i modelli determinando se alcuni gruppi sono sottorappresentati o sovrarappresentati e aggiustandoli in considerazione della normativa sulla violazione della privacy.

Ancora, valutare le prestazioni degli algoritmi su dati reali per testare le distorsioni nascoste risultanti da correlazioni complesse; come fornire una revisione di terze parti affidabile e obiettiva, convalidando la conformità legale degli algoritmi e assicurarsi che vengano utilizzati appropriatamente. Sono loro a certificare gli algoritmi come “fidati”.

Per saperne di più: Quali sono i lavori del futuro che richiedono competenze tecnologiche e di sicurezza

A cura di Cultur-e Costruisci il tuo futuro con la connessione Fastweb