Un algoritmo può nutrire dei pregiudizi?

Alexandria Ocasio-Cortez, la più giovane parlamentare eletta al Congresso degli Stati Uniti, ha accusato le A.I. adibite al riconoscimento facciale di nutrire gli stessi pregiudizi dei loro creatori. La polemica ha suscitato l’ironia della stampa conservatrice, che ha sminuito le critiche considerate insensate. Può sembrare paradossale, ma il problema mosso dalla giovane democratica è fondato e i sistemi di riconoscimento facciale fino ad oggi hanno manifestato forme di razzismo.

algoritmo può nutrire dei pregiudizi
Alexandria Ocasio-Cortez

Alexandria Ocasio-Cortez e le critiche al sistema di riconoscimento facciale

Sentire dire che gli algoritmi possono essere razzisti suscita un sincero sorriso. Gli algoritmi tradizionali che eseguono le istruzioni comandate dal programmatore non presentano questo genere di problemi. Quando invece si parla di intelligenze artificiali, algoritmi in grado di apprendere ed elaborare risposte intelligenti alle domande che il fruitore pone, il discorso si complica. Questo lo sa bene Alexandria Ocasio-Cortez, parlamentare statunitense di 29 anni, eletta con i democratici al Congresso lo scorso novembre. A seguito della elezione molti media di stampo conservatore le hanno dedicato  attenzioni commentando con ironia il suo modo di vestire, la sua passione per i videogiochi e la maniera molto spontanea con cui comunica sui social. Aoc, così è stata soprannominata, si è recentemente espressa in maniera critica contro le sempre più diffuse tecnologie di riconoscimento facciale, sostenendo che “portano con sé queste iniquità razziali perché gli algoritmi sono pur sempre fatti da uomini”.

L’affermazione della giovane parlamentare ha scatenato le reazioni di importanti firme di giornali conservatori che hanno commentato ironicamente l’affermazione, considerata paradossale ancora prima di essere analizzata.

Ma veramente alcune intelligenze artificiali, in particolar modo quelle applicate al riconoscimento facciale, hanno fornito risultati che possono essere considerati razzisti?

Intelligenze artificiali razziste

I progressi nel campo del riconoscimento facciale sono sempre più stupefacenti e negli ultimi anni i grandi colossi tech stanno investendo molto per implementare queste nuove e potentissime tecnologie. Il riconoscimento facciale trova impiego in tantissimi campi, dai semplici filtri che ci permettono di modificare le storie su Instagram all’implementazione di sistemi di sorveglianza hi-tech. Tramite delle telecamere di sorveglianza questi sistemi permettono, in pochi secondi, il riconoscimento biometrico delle persone inserite all’interno dei database a partire dai quali l’A.I. opera. Queste tecnologie permettono di monitorare zone vaste e trafficate delle città e facilitano per le forze dell’ordine l’identificazione dei criminali. In mano a regimi politici non democratici possono diventare veri e propri strumenti di repressione. Numerosi paesi stanno comprando software di questo tipo per migliorare i propri apparati di sicurezza. Anche le forze dell’ordine italiane hanno recentemente adottato S.A.R.I, un software analogo. Ma come precedentemente detto, diversi casi dimostrano che queste tecnologie hanno ancora un margine d’errore vasto, soprattutto per quanto riguarda il riconoscimento di etnie diverse da quelle della maggior parte delle persone presenti nei database a cui i software fanno riferimento.

algoritmo può nutrire dei pregiudizi

Uno dei più recenti episodi che hanno dimostrato fallibilità di questi algoritmi riguarda un test eseguito da Aclu (American Civil Liberties Union) su Amazon Rekognition, il software di riconoscimento facciale venduto dal colosso dell’e-commerce alle forze dell’ordine di tutto il mondo. Il test consisteva nel fare confrontare le foto di 535 parlamentare statunitensi con un database di 25000 foto di criminali schedati dalla polizia. L’algoritmo ha associato 28 foto di parlamentari alle foto di criminali, ma la cosa che ha fatto scalpore è che di questi 28 quasi il 40% era costituito da parlamentari di colore (che sono il 20% dei membri del parlamento).

Non si tratta dell’unico ecclatante caso in cui i numeri fanno pensare ad un algoritmo razzista. Sul web sono infatti celebri diversi screenshot che mostrano come il sistema di riconoscimento facciale di Google, utilizzato per esempio per ordinare automaticamente le foto nella galleria del telefono, abbia più volte associato la foto di persone di colore alla classificazione “gorilla”.

algoritmo può nutrire dei pregiudizi

Come può un’algoritmo, una sequenza di codice governata da una logica matematica, manifestare comportamenti razzisti? Per comprenderlo è necessario approfondire come sono sviluppati e come funzionano queste intelligenze artificiali.

Bias cognitivi e pregiudizio degli algoritmi: le A.I. possono pensare?

I pregiudizi si inseriscono all’interno dell’insieme di quegli atteggiamenti umani chiamati dagli psicologi “bias cognitivi“, che consistono nell’associazione di più informazioni non connesse da una logica comune. Il risultato è un giudizio che manca di oggettività perchè influenzato dal contesto in cui viene emesso, dalle esperienze pregresse e dalle convinzioni di chi lo elabora. I pregiudizi nascono quindi sul terreno del pensiero. Ma una A.I. può pensare?

algoritmo può nutrire dei pregiudizi

Secondo gli esperti non ancora. Il machine learning, la tecnologia alla base delle intelligenze artificiali, consente però alle macchine di raccogliere numerosissimi dati e relazionarli tra loro creando col tempo collegamenti stabili. In parole più semplici, più dati forniamo alla macchina, più essa “apprende”, sviluppando progressivamente la capacità di dare risposte alle richieste per le quali sarà programmata. Questa capacità si sviluppa però solo a partire dai dati che vengono forniti alla macchina. Questo è uno dei motivi per cui oggi le intelligenze artificiali più efficienti sono sviluppate da Google, Amazon e Microsoft, colossi digitali che hanno a disposizione archivi di dati immensi.

Rispetto ad un algoritmo tradizionale che svolge le istruzioni impartitegli dal codice di cui è composto, un’intelligenza artificiale impara autonomamente a risolvere determinati problemi ma non è possibile capire “come” la macchina sia arrivata ad una determinata soluzione (black box). Le A.I. necessitano quindi di allenamento e di enormi quantità di dati per “imparare” a svolgere al meglio i compiti da loro richiesti. Inoltre i dati devono essere selezionati con criterio e devono toccare tutti i possibili campi in cui la tecnologia viene applicata (nel caso del riconoscimento facciale devono riguardare tutte le etnie, non solo alcune). Nel campo del riconoscimento facciale questo risulta possibile sono tramite la diretta applicazione che permette di immagazzinare un numero molto elevato di dati biometrici. L’applicazione di queste tecnologie nel campo della giustizia risulta però ancora problematica perchè anche i migliori software di riconoscimento facciale sbagliano (spesso peraltro nutrendo pregiudizi già presenti all’interno del nostro contesto sociale). Fare decidere ad un algoritmo chi abbia commesso un crimine può quindi risultare prematuro, ma sempre più paesi stanno adottando metodi di riconoscimento del genere.

A fronte di questi problemi la questione sollevata dalla parlamentare americana non risulta più banale, anzi tocca un problema (quello dell’A.I.) con cui in futuro la nostra società dovrà fare i conti in svariati settori. Conoscere i problemi legati allo sviluppo tecnologico per non abbracciare l’innovazione in modo passivo ed assumere un atteggiamento critico nei suoi confronti è fondamentale, soprattutto per la classe politica che verrà.

Edoardo Dal Borgo

 

Leave comment

Your email address will not be published. Required fields are marked with *.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.