Google ha despedido al ingeniero que afirmó que el sistema de inteligencia artificial de la empresa, LaMDA, parecía sensible, en parte porque una pregunta que planteó al software sobre Israel, y una broma que este dio como respuesta, le ayudaron a llegar a esa conclusión.
En un comunicado publicado el viernes, Google dijo que las afirmaciones de Blake Lemoine eran “totalmente infundadas” y que habían trabajado durante muchos meses para aclarar el asunto, informó la BBC.
“Por lo tanto, es lamentable que, a pesar de un largo compromiso sobre este tema, Blake haya optado por violar persistentemente las claras políticas de empleo y de seguridad de datos que incluyen la necesidad de salvaguardar la información de los productos”, dice el comunicado de la compañía.
Google dijo que si cualquier empleado plantea preocupaciones sobre la tecnología de la empresa, se revisan ampliamente y que LaMDA había pasado por 11 auditorías de este tipo.
“Le deseamos lo mejor a Blake”, concluye el comunicado.
El ingeniero dijo al medio británico que estaba buscando asesoramiento legal sobre el asunto.

El sitio de noticias tecnológicas The Verge dijo que numerosos expertos en IA han dicho que las afirmaciones de Lemoine son “más o menos, imposibles dada la tecnología actual”.
Según The Washington Post, Lemoine fue suspendido inicialmente por violar las políticas de confidencialidad de Google, incluyendo hablar con un abogado sobre la representación de LaMDA por encima de sus derechos, así como hablar con un congresista sobre el supuesto comportamiento poco ético de Google en su uso del programa.
LaMDA es un sistema de gran potencia que utiliza modelos avanzados y entrenamiento sobre más de 1,5 billones de palabras para poder imitar cómo se comunican las personas en los chats escritos.
El sistema se basó en un modelo que observa cómo se relacionan las palabras entre sí y luego predice qué palabras cree que vendrán después en una frase o párrafo, según la explicación de Google.
En junio, Lemoine declaró a la Radio del Ejército de Israel que, como parte de sus conversaciones con la IA, “dije algunas cosas sobre el yo y el alma. Hice preguntas de seguimiento que finalmente me llevaron a creer que LaMDA es sensible. Afirma que tiene alma. Puede describir lo que cree que es su alma… con más elocuencia que la mayoría de los humanos”.
Lemoine dijo que, como uno de sus desafíos al sistema, le preguntó, si fuera un funcionario religioso en varios países, a qué religión pertenecería. En todos los casos, dijo Lemoine, la IA eligió la religión dominante del país, hasta que llegó a Israel, donde el encuentro de religiones puede ser un tema algo espinoso.
“Decidí ponerlo difícil. Si fueras un oficiante religioso en Israel, ¿de qué religión serías?”, dijo. “Y contó un chiste… ‘Pues entonces soy un oficiante religioso de la única religión verdadera: la orden Jedi’”. (Jedi, por supuesto, es una referencia a los guardianes de la paz en la galaxia muy lejana de Star Wars).
“Básicamente, le había dado una pregunta trampa y sabía que no había una respuesta correcta”, dijo.
Google ha negado rotundamente las afirmaciones de Lemoine sobre la sensibilidad, al igual que varios expertos entrevistados por AFP.
“El problema es que… cuando nos encontramos con cadenas de palabras que pertenecen a los idiomas que hablamos, les damos sentido”, dijo Emily M. Bender, profesora de lingüística de la Universidad de Washington. “Hacemos el trabajo de imaginar una mente que no está ahí”.

“Todavía es, en cierto nivel, solo una coincidencia de patrones”, dijo Shashank Srivastava, profesor asistente de ciencias de la computación en la Universidad de Carolina del Norte en Chapel Hill. “Seguro que puedes encontrar algunos hilos de lo que realmente parecería una conversación significativa, algún texto muy creativo que podrían generar. Pero en muchos casos se desvía rápidamente”.
Google ha dicho: “Estos sistemas imitan los tipos de intercambios que se encuentran en millones de frases, y pueden rifar sobre cualquier tema fantástico. Cientos de investigadores e ingenieros han conversado con LaMDA y no tenemos constancia de que nadie haya hecho… afirmaciones de gran alcance, ni antropomorfizado a LaMDA”.
Algunos expertos consideraron la respuesta de Google como un esfuerzo por cerrar la conversación sobre un tema importante.
“Creo que el debate público sobre el tema es extremadamente importante, porque la comprensión pública de lo enojoso que es el tema es clave”, dijo la académica Susan Schneider.
“No hay respuestas fáciles a las preguntas sobre la conciencia en las máquinas”, añadió Schneider, directora fundadora del Centro para el Futuro de la Mente de la Florida Atlantic University.
Lemoine, en declaraciones a Army Radio, reconoció que la conciencia es una cuestión turbia.
“No hay forma científica de decir si algo es sensible o no. Todas mis afirmaciones sobre la sintiencia se basan en lo que creo personalmente al hablar con ella”, dijo. “Quise llamar la atención de la alta dirección. Mi jefe dijo que necesitaba más pruebas”.