El software de detección facial de Amazon frecuentemente identifica por error a las mujeres, específicamente a las de piel oscura, según una investigación del Instituto Tecnológico de Massachusetts (MIT) y la Universidad de Toronto.

Defensores de la privacidad y los derechos civiles han solicitado al gigante estadounidense  dejar de comercializar este producto debido a las preocupaciones sobre la discriminación contra las minorías. Algunos inversionistas de la empresa han pedido a Amazon que detenga las ventas de “Rekognition” por temor a que la compañía sea vulnerable a las demandas.

De acuerdo al estudio, la tecnología de Amazon clasificaba a las mujeres de piel oscura como hombres el 31 por ciento de las veces. Las mujeres de piel más clara se identificaron erróneamente el 7 por ciento de las veces. En el caso masculino, los hombres de piel más oscura tenían una tasa de error del 1% mientras que los de piel más clara no lo tenían.

El gerente general de inteligencia artificial de la unidad de computación en la nube de Amazon, Matt Wood dijo que el estudio utiliza un “análisis facial” y no una tecnología de “reconocimiento facial”.

(Foto referencial)

Wood explicó que el análisis facial “puede detectar rostros en videos o imágenes y asignar atributos genéricos, como usar lentes”, mientras que “el reconocimiento es una técnica diferente mediante la cual una cara individual se combina con caras en videos e imágenes”.

Por su parte, la investigadora del MIT Media Lab, Joy Buolamwini, respondió que las empresas deberían revisar todos los sistemas que analizan rostros humanos en busca de sesgos.

“Si usted vende un sistema que ha demostrado tener sesgo en rostros humanos, es dudoso que sus otros productos basados ​​en el rostro también estén completamente libres de sesgos”, escribió Buolamwini en un post publicado el viernes en la web Medium.

“Rekognition” es un programa de reconocimiento facial que Amazon ya ha comercializado a las fuerzas del orden en el estado de Florida y que, de acuerdo a informaciones de la prensa local, también a la oficina del Servicio de Inmigración y Control de Aduanas (ICE, en inglés) del Gobierno federal.

Entre las críticas al sistema destaca la de no ser “completamente fiable”, ya que puede cometer errores a la hora de identificar a personas y confundirlas con otras, lo que puede tener graves implicaciones para los afectados.

En julio de 2018, la Unión Americana de Libertades Civiles (ACLU, en inglés) denunció que “Rekognition” identificó incorrectamente a 28 congresistas de Estados Unidos EE.UU. (gran parte pertenecientes a minorías étnicas) como criminales al comparar sus fotografías con imágenes policiales.