Microsoft Corp  dijo el martes que dejaría de vender tecnología que adivina la emoción de alguien en función de una imagen facial y que ya no brindaría acceso sin restricciones a la tecnología de reconocimiento facial.

Las acciones reflejan los esfuerzos de los principales proveedores de la nube para controlar las tecnologías confidenciales por su cuenta, ya que los legisladores de los Estados Unidos y Europa continúan sopesando los límites legales integrales.

Desde al menos el año pasado, Microsoft ha estado revisando si los sistemas de reconocimiento de emociones tienen raíces científicas.

«Estos esfuerzos plantearon preguntas importantes sobre la privacidad, la falta de consenso sobre una definición de ‘emociones’ y la incapacidad de generalizar el vínculo entre la expresión facial y el estado emocional en casos de uso, regiones y datos demográficos», dijo Sarah Bird, directora de productos del grupo. gerente de la unidad Azure AI de Microsoft, dijo en una publicación de blog.

Los clientes existentes tendrán un año antes de perder el acceso a las herramientas de inteligencia artificial que pretenden inferir emociones, género, edad, sonrisa, vello facial, cabello y maquillaje.

Google Cloud de Alphabet Inc  se embarcó el año pasado en una evaluación similar, reportada por primera vez por Reuters.  Google bloqueó 13 emociones planificadas de su herramienta de lectura de emociones y colocó en revisión cuatro existentes, como la alegría y la tristeza. Estaba sopesando un nuevo sistema que describiría movimientos como fruncir el ceño y sonreír, sin pretender asociarlos a una emoción.

Google no respondió de inmediato a la solicitud de comentarios el martes.

Microsoft también dijo que los clientes ahora deben obtener la aprobación para usar sus servicios de reconocimiento facial, que pueden permitir a las personas iniciar sesión en sitios web o abrir puertas cerradas a través de un escaneo facial.

La empresa instó a los clientes a evitar situaciones que infrinjan la privacidad o en las que la tecnología pueda tener problemas, como la identificación de menores, pero no prohibió explícitamente esos usos.

Con Reuters