INTELLIGENZA ARTIFICIALE MA UN FILO RAZZISTA – L’ALGORITMO DI FACEBOOK HA SCAMBIATO I NERI PER GORILLA E IL SOCIAL DOPO LA FIGURACCIA SI E’ SUBITO SCUSATO: “UN ERRORE INACCETTABILE” – LA VICENDA E’ EMERSA PERCHE’ SOTTO A UN VIDEO DEL DAILY MAIL CHE RIPRENDEVA UN GRUPPO DI PERSONE BIANCHE DISCUTERE CON ALTRE DI COLORE FACEBOOK HA SUGGERITO: “CONTINUA A GUARDARE VIDEO SUI PRIMATI” – E NON E’ LA PRIMA VOLTA CHE SUCCEDE…
Dal Corriere.it
Il «colpevole» è un video di un tabloid britannico, il Daily Mail, che risale al 27 giugno 2020. Si intitola «L’uomo bianco chiama i poliziotti contro gli uomini di colore al porto turistico». Il filmato mostra un gruppo di persone di colore che discutono con altri uomini bianche e con degli agenti di polizia.
Nessun riferimento a scimmie o gorilla. Eppure l’algoritmo di Facebook ha pensato di suggerire, a chi aveva guardato questo post, dei video relativi ai primati. C’era scritto proprio così: «Continua a guardare video sui primati». Inevitabile lo scoppio di una polemica contro questa intelligenza artificiale che non è stata allenata in modo sufficiente – a quanto pare – a distinguere un nero da una scimmia.
Facebook ha subito avviato un’indagine interna e ha disabilitato l’algoritmo. Per poi scusarsi: un portavoce ha definito l’errore «inaccettabile» e assicura che si sta facendo il possibile perché questo «non succeda di nuovo». E ancora. «Mentre abbiamo fatto dei miglioramenti alla nostra intelligenza artificiale, sappiamo che non è perfetta e che dobbiamo fare altri progressi».
Non è però un caso isolato quello relativo al video del tabloid britannico. Da anni i sistemi di intelligenza artificiale delle grandi società tecnologiche, da Facebook a Google a Amazon, sono sotto osservazione in particolare per i pregiudizi sulla questione di razza.
Diversi studi hanno dimostrato come, ad esempio, il riconoscimento facciale abbia molte più difficoltà a identificare le persone di colore rispetto ai bianchi. Portando a incidenti spiacevoli, come quello capitato al 31enne Nijeer Parks. Assomigliava a un ricercato: l’intelligenza artificiale lo ha identificato come colpevole e lui è finito in carcere. E andando indietro al 2015, c’è stato il caso dei tag di Google che identificavano come «gorilla» due persone di colore.