Ahora, un ingeniero de software de Google que se inscribió para probar la herramienta de inteligencia artificial de Google llamada LaMDA (Modelo de lenguaje para aplicaciones de diálogo), ha revelado detalles sobre su experiencia y algunos son inquietantes: esta IA es sensible y tiene pensamientos y sentimientos.
Durante una serie de conversaciones con LaMDA, Blake Lemoine, de 41 años, le presentó a la computadora varios escenarios a través de los cuales se podían realizar análisis. Sus conversaciones incluyeron temas religiosos y probó si la inteligencia artificial podría ser incitada a usar un discurso discriminatorio u de odio. Lemoine se quedó con la percepción de que LaMDA era realmente consciente y estaba dotado de sensaciones y pensamientos propios.
Si no supiera exactamente qué es, que es este programa de computadora que construimos recientemente, pensaría que es un niño de 7 u 8 años que sabe física dijo Lemoine en un comunicado.
Lemoine trabajó con un colaborador para presentar las pruebas que había recopilado a Google, pero el vicepresidente Blaise Aguera y Arcas y Jen Gennai, responsable de Innovación Responsable de la empresa, desestimaron sus afirmaciones. Google, de hecho, lo ha suspendido de empleo por violar su política de confidencialidad. Mientras tanto, Lemoine ha decidido hacerlo público y compartió sus conversaciones con LaMDA.
"Google podría llamar a esto compartir propiedad propietaria. Lo llamo compartir una discusión que tuve con uno de mis compañeros de trabajo" tuiteó Lemoine.
El sistema de IA hace uso de información ya conocida sobre un tema en particular para "enriquecer" la conversación de forma natural. El procesamiento del lenguaje también es capaz de comprender significados ocultos o incluso ambigüedades en las respuestas de los humanos.
Lemoine pasó la mayor parte de sus siete años en Google trabajando en la búsqueda proactiva, incluidos los algoritmos de personalización y la inteligencia artificial. Durante ese tiempo, también ayudó a desarrollar un algoritmo de imparcialidad para eliminar los sesgos de los sistemas de aprendizaje automático.
El ingeniero también debatió con LaMDA sobre la tercera ley de la robótica, ideada por el autor de ciencia ficción Isaac Asimov, que está diseñada para evitar que los robots dañen a los humanos. Las leyes también establecen que los robots deben proteger su propia existencia a menos que lo ordene un ser humano o que hacerlo dañe a un ser humano.