Facebook pidió disculpas por un error en el mecanismo de Inteligencia Artificial (IA) que recomienda videos en su red social, después de que esta identificara a personas de raza negra como primates, y desactivó este sistema hasta investigar el motivo del error.
El error de Facebook apareció para algunos usuarios de la red social después de ver un video del Daily Mail que mostraba a personas de color. La IA de recomendación les aconsejaba ‘seguir viendo videos de primates’, informó el diario The New York Times.
«Fue claramente un error inaceptable», reconoció un portavoz de Facebook en declaraciones a The Verge, donde pidió disculpas a los usuarios que hayan podido ver estas «recomendaciones ofensivas».
«Si bien hemos realizado mejoras en nuestra IA, sabemos que no es perfecta y tenemos más avances que hacer», admitió la compañía estadounidense.
Un error demasiado frecuente
No es la primera vez que la IA muestra un sesgo racista. En 2015, Google tuvo que disculparse después de que el algoritmo de Google Photos etiquetara con la palabra «gorilas» las fotos de dos jóvenes afroamericanos. «Estaba arriba en mi lista de errores que no quería que sucedieran jamás», lamentó Yonatan Zunger, por entonces ingeniero de la compañía. Zunger lo atribuyó a las dificultades del sistema de reconocimiento facial en cuanto a las imágenes de personas con piel oscura.
El llamado racismo tecnológico puede hacer peligrar, incluso, la vida de las personas. Científicos de la Universidad Tecnológica de Georgia, en Estados Unidos, demostraron que los sistemas de reconocimiento visual de peatones con los que están equipados los coches autónomos reconocen a las personas con tonos de piel más oscuros como objetos en lugar de como humanos en un 10% más de ocasiones que en el caso de quienes tienen la piel clara.
Lea también: