Lo studio di Indigo.ai sui bias
Negli ultimi anni si stanno facendo passi da gigante nello sviluppo dell’intelligenza artificiale. Ciò su cui oggi si sta dibattendo di più sono però i bias che essa comporta. La nostra società è ricca di pregiudizi ed essi vanno ad influenzare la programmazione intelligente, tanto che le macchine tendono ad amplificarli. Una maggiore giustizia è difficile da ottenere, ma non impossibile. Secondo Indigo.ai bisogna partire dalla consapevolezza dei propri sbagli e iniziare un percorso verso modelli più fair. Il futuro dell’AI dipende infatti dalla capacità di risolvere i bias. Non si è ancora riusciti a elaborare soluzioni reali, ma si sta tentando di utilizzare approcci diversi.
Perfino la definizione di “bias” è sfuggente. Se in statistica è lo scostamento dai dati reali, nel mondo reale invece è l’aderenza ai dati, che sono essi stessi discriminatori. Il pregiudizio è infatti insito nel sistema. Joy Buolamwini, ricercatrice del MIT di Boston, nello studio “Gender Shades” ha verificato l’accuratezza di alcuni prodotti di riconoscimento facciale. La conclusione? I sistemi trattano alcune etnie in modo più impreciso di altre. La precisione per gli uomini bianchi è del 99% mentre quella per le donne scure è del 34%. Gli algoritmi usati da questi sistemi sono addestrati su immagini di soggetti prevalentemente maschili e di carnagione chiara.
Intelligenza artificiale discriminatoria: come contrastarla
L’UE vuole pubblicare un Codice Etico grazie al quale l’AI non danneggerà la dignità e la sicurezza delle persone. Fino ad oggi ci sono infatti stati troppi casi di discriminazione attraverso il riconoscimento facciale. Le macchine quindi non sono perfettamente oggettive. Gli algoritmi sono progettati da esseri umani e di conseguenza sempre pieni di bias (basti pensare a quanto la posizione sociale delle donne le abbia rese invisibili). Secondo la letteratura sul tema 23 tipologie di bias possono incidere su un progetto di AI e distorcerne i risultati. Insomma, il fatto che le macchine moltiplichino la faziosità dell’uomo rende più difficile individuare l’errore nell’algoritmo: il pregiudizio è stato ignorato a lungo e nel frattempo la quantità di dati analizzata è aumentata.
La prima cosa da fare per risolvere il problema è averne la consapevolezza. Di conseguenza verrà introdotta maggiore inclusività nell’AI. L’algoritmo deve funzionare per tutti e quindi essere testato in un regime simile a quello del mondo reale. È necessario che i data set siano senza distorsioni, realmente rappresentativi anche delle comunità che sono state finora ignorate. Il tema dei bias nell’AI offre grandi opportunità: è un’occasione per ridurre l’effetto dei pregiudizi umani e per evitare che si perpetuino. Per giungere a soluzioni migliori è necessario uscire dal campo informatico e dell’ingegneria: il tema è complesso e va affrontato a 360°. C’è bisogno della partecipazione di tutti per creare una Ai migliore: chi la sviluppa e chi la utilizza.
Per altre notizie riguardanti AI, clicca qui