I pregiudizi dell’intelligenza artificiale sono argomento dibattuto. Si è parlato a lungo della capacità che hanno gli uomini nel loro ruolo di programmatori di influire in maniera negativa sulla tecnologia, con riferimento ad esempio al linguaggio. La novità è che questo genere di associazioni non proprio neutrali possono essere fatte anche dai sistemi di riconoscimento facciale.
A mettere in guardia da questo pericolo riportato dal Guardian è lo Human Rights Law Centre australiano.
Le difficoltà nel riconoscere le minoranze etniche
L’avvertimento è arrivato anche a una commissione parlamentare in Australia. Sono stati registrati degli errori nel funzionamento di questa tecnologia e, nella maggior parte dei casi, i problemi erano legati a un’impossibilità di riconoscere i volti degli appartenenti ad alcune minoranze etniche. Eppure stiamo parlando dei sistemi migliori al mondo, la
NEC Neoface Technology, usata da agenzie federali e da molti stati australiani. Il suo valore è stato riconosciuto anche dallo US National Institute of Standards and Technology.
La sicurezza del sistema
Questo problema può influire in maniera negativa sugli scopi per i quali viene in genere utilizzato il sistema: indagini, sorveglianza, sicurezza.
La presenza di falsi positivi potrebbe abbassare di molto la fiducia che questa tecnologia si sta faticosamente guadagnando, date anche le riserve sul controllo che questo genere di riconoscimento può esercitare sulle persone, specialmente in occasioni pubbliche. La possibilità di falsi positivi può nei fatti creare delle falle nella sicurezza e acuire i dubbi della popolazione sull’opportunità che lo stato utilizzi questi sistemi.
La ricerca del MIT sui pregiudizi
Anche il MIT nel mese di febbraio aveva potuto verificare dal controllo incrociato dei sistemi Microsoft, IBM e Megvii of China che
il riconoscimento era accurato solo in presenza di uomini bianchi. Altri caratteri etnici falsavano il test. I risultati di questa ricerca condotta da
Joy Buolamwini erano stati riportati dal
New York Times e avevano dimostrato che la percentuale di errore saliva addirittura al 35 per cento per le donne con pelle nera. L’errore si fermava al 12 per cento per gli uomini neri, mentre non superava l’1 per cento per quelli bianchi. Il pregiudizio deriva da una considerazione di tipo statistico: il numero di foto di uomini bianchi inserite nei database è superiore a quelle delle donne e degli uomini neri, il che non aiuta l’intelligenza artificiale a sviluppare la capacità di riconoscimento di quei tratti somatici.
Una tecnologia da migliorare
È quindi evidente che la tecnologia non è in grado di discriminare da sé. Questi dati dimostrano, però, che il suo funzionamento può e deve essere migliorato per evitare che la sua efficacia diminuisca. «Dal momento che la tecnologia è in uso in settori di alto profilo come la sanità e la giustizia, più lavoro deve essere fatto per confrontarsi con gli algoritmi per gruppi demografici e fenotipici diversi», aveva spiegato Buolamwini.