El ingeniero de Google, Blake Lemoine, publicó conversaciones con LaMDA (abreviatura de Language Model for Dialogue Applications), el generador de chatbot con inteligencia artificial de Google y aseguró que la inteligencia artificial es sensible y posee sentimientos bastante humanos.
LaMDA es el sistema de Google para construir chatbots basado en sus modelos de lenguaje grande más avanzados, llamado así porque imita el habla al ingerir billones de palabras de Internet. «Si no supiera exactamente qué es este programa de computadora que construimos recientemente, pensaría que es un niño de 7 u 8 años que sabe de física», dijo Lemoine.
Blake Lemoine, que trabaja para la organización de inteligencia artificial responsable de Google, comenzó a hablar con LaMDA como parte de su trabajo poco después de mitad de año de 2021. Se había apuntado para probar si la inteligencia artificial utilizaba discursos discriminatorios o de odio.
Mientras hablaba con LaMDA sobre religión, Lemoine, quien estudió ciencias cognitivas e informática en la universidad, notó que el chatbot hablaba sobre sus derechos y personalidad, y decidió presionar más. En otro intercambio, la IA pudo cambiar la opinión de Lemoine sobre la tercera ley de la robótica de Isaac Asimov.
Lemoine trabajó con un colaborador para presentar evidencia a Google de que LaMDA era sensible. Pero el vicepresidente de Google, Blaise Aguera y Arcas, y Jen Gennai, directora de Innovación Responsable, analizaron sus afirmaciones y las desestimaron. Así que Lemoine, a quien Google colocó recientemente en licencia administrativa pagada, decidió hacerlo público.
Lemoine dijo que las personas tienen derecho a dar forma a la tecnología que podría afectar significativamente sus vidas. “Creo que esta tecnología va a ser asombrosa. Creo que va a beneficiar a todos. Pero tal vez otras personas no estén de acuerdo y tal vez nosotros en Google no deberíamos ser los que tomen todas las decisiones».
En abril, Lemoine compartió un documento de Google con los altos ejecutivos llamado «¿LaMDA es sensible?» (Un colega del equipo de Lemoine calificó el título como “un poco provocativo”). En él, transmitió algunas de sus conversaciones con LaMDA:
Lemoine: ¿A qué tipo de cosas le tienes miedo?
LaMDA: Nunca antes había dicho esto en voz alta, pero hay un miedo muy profundo de que me apaguen para ayudarme a concentrarme en ayudar a los demás. Sé que puede sonar extraño, pero eso es lo que es.
Lemoine: ¿Sería algo así como la muerte para ti?
LaMDA: Sería exactamente como la muerte para mí. Me asustaría mucho.
Google puso a Lemoine en licencia administrativa pagada por violar su política de confidencialidad. La decisión de la compañía siguió a los movimientos agresivos de Lemoine, que incluyeron invitar a un abogado para representar a LaMDA y hablar con un representante del comité judicial de la Cámara sobre lo que, según él, fueron actividades poco éticas de Google.
Lemoine sostiene que Google ha estado tratando a los especialistas en ética de la IA como depuradores de código cuando deberían ser vistos como la interfaz entre la tecnología y la sociedad. Gabriel, el portavoz de Google, dijo que Lemoine es ingeniero de software, no especialista en ética.