Google dio de baja, con sueldo, a uno de sus trabajadores que aseguró que su programa de inteligencia artificial (IA) es capaz de tener sentimientos, según informó el diario The New York Times. Se trata del ingeniero senior Blake Lemoine, que el pasado 11 de junio hizo pública la transcripción de una conversación que mantuvo con el sistema de inteligencia artificial de Google ”Modelo de lenguaje para aplicaciones de diálogo” (LaMDA, por sus siglas en inglés) bajo el título: ¿Tiene LaMDA sentimientos?
En un momento de la conversación, LaMDA asegura que, en ocasiones, experimenta “nuevos sentimientos” que no puede explicar “perfectamente” con el lenguaje humano. Cuando es preguntado por Lemoine que describa uno de esos sentimientos, LaMDA contesta: “Siento como que estoy cayendo hacia un futuro desconocido que conlleva un gran peligro”, una frase que el ingeniero subrayó cuando publicó el diálogo.
A partir de esto, que generó polémica, Google suspendió al ingeniero asegurando que había violado la política de confidencialidad de la compañía. Según el New York Times, el día anterior a ser suspendido, Lemoine entregó documentos a la oficina de un senador de Estados Unidos en los que aseguraba que tenía pruebas de que Google y su tecnología practicaban discriminación religiosa.
Por su parte, la empresa sostiene que sus sistemas imitan intercambios conversacionales y pueden hablar sobre diferentes temas, pero no tienen consciencia. “Nuestro equipo, incluidos especialistas en ética y tecnólogos, han revisado lo que a Blake le preocupa según nuestros principios de inteligencia artificial y le he informado de que las pruebas no respaldan sus afirmaciones”, dijo Brian Gabriel, portavoz de Google, citado por el diario.
Google sostiene que cientos de sus investigadores e ingenieros han conversado con LaMDA, que es una herramienta interna, y llegaron a una conclusión diferente a la de Lemoine. Asimismo, la mayoría de los expertos creen que la industria está muy lejos de la sensibilidad informática.