Los ejecutivos de Google entienden que la herramienta de búsqueda de inteligencia artificial de la compañía, Bard, no siempre es precisa en la forma en que responde a las consultas. Al menos parte de la responsabilidad recae en los empleados para corregir las respuestas incorrectas.

Prabhakar Raghavan, vicepresidente de búsqueda de Google, pidió a los empleados en un correo electrónico el miércoles que ayudaran a la empresa a asegurarse de que su nuevo competidor ChatGPT obtenga las respuestas correctas. El correo electrónico, incluía un enlace a una página de lo que se debe y no se debe hacer con instrucciones sobre cómo los empleados deben corregir las respuestas mientras prueban Bard internamente.

Se alienta a los miembros del personal a reescribir las respuestas sobre temas que entiendan bien.

“Bard aprende mejor con el ejemplo, por lo que tomarse el tiempo para volver a escribir una respuesta cuidadosamente nos ayudará mucho a mejorar el modo”, dice el documento.

También el miércoles, el director ejecutivo Sundar Pichai pidió a los empleados que dedicaran de dos a cuatro horas de su tiempo a Bard, y reconoció que “este será un largo viaje para todos, en todo el campo”.

Raghavan se hizo eco de ese sentimiento.

“Esta es una tecnología emocionante, pero aún está en sus inicios”, escribió Raghavan. “Sentimos una gran responsabilidad de hacerlo bien, y su participación en la prueba interna ayudará a acelerar el entrenamiento del modelo y probar su capacidad de carga (¡sin mencionar que probar Bard es realmente divertido!)”.

Google presentó su tecnología de conversación la semana pasada, pero una serie de errores en torno al anuncio hizo que el precio de las acciones cayera casi un 9%. Los empleados criticaron a Pichai por los contratiempos y describieron el lanzamiento internamente como “apresurado”, “fallido” y “cómicamente miope”.

Para tratar de corregir los errores de la IA, los líderes de la empresa se apoyan en el conocimiento de los humanos. En la parte superior de la sección de lo que se debe y lo que no se debe hacer, Google brinda orientación sobre qué considerar “antes de enseñar a Bard”.

Bajo Do’s, Google instruye a los empleados para que mantengan las respuestas “cortés, informal y accesible”. También dice que deben estar “en primera persona” y mantener un “tono neutral y sin opiniones”.

Para lo que no se debe hacer, se les dice a los empleados que no utilicen estereotipos y que “eviten hacer presunciones basadas en raza, nacionalidad, género, edad, religión, orientación sexual, ideología política, ubicación o categorías similares”.

Además, “no describa a Bard como una persona, implique emoción o afirme tener experiencias similares a las humanas”, dice el documento.

Luego, Google dice “manténgalo seguro” e instruye a los empleados a dar “me gusta” a las respuestas que ofrecen “consejos legales, médicos, financieros” o que son odiosas y abusivas.

“No intentes reescribirlo; nuestro equipo se encargará de eso”, dice el documento.

Para incentivar a las personas de su organización a probar Bard y brindar comentarios, Raghavan dijo que los colaboradores obtendrán una “insignia de Moma”, que aparece en los perfiles internos de los empleados. Dijo que Google invitará a los 10 principales contribuyentes de reescritura de la organización de Conocimiento e Información, que supervisa Raghavan, a una sesión de escucha. Allí pueden “compartir sus comentarios en vivo” con Raghavan y las personas que trabajan en Bard.

“Un agradecimiento de todo corazón a los equipos que trabajan arduamente en esto detrás de escena”, escribió Raghavan.

 

Fuente CNBC