Tendencias

Un ingeniero de Google asegura que un bot de inteligencia artificial adquirió consciencia

723 views
Un ingeniero de Google asegura que un bot de inteligencia artificial adquirió consciencia

«Si no supiera exactamente que es este programa de computadora que construimos recientemente, pensaría que es un niño de 7 u 8 años que sabe física», dijo el ingeniero que fue puesto en licencia paga por Google, después de sus revelaciones.

Redacción | Primer Informe

Un ingeniero de Google se sorprendió por un chatbot de inteligencia artificial de la compañía y afirmó que se había vuelto «consciente». Según él éste tenía la personalidad de un «dulce niño», según un informe.

Blake Lemoine, que trabaja en la organización de inteligencia artificial responsable de Google, le dijo al Washington Post que comenzó a chatear con la interfaz LaMDA (Modelo de lenguaje para aplicaciones de diálogo) en el otoño de 2021 como parte de su trabajo. Se le encomendó probar si la inteligencia artificial utilizaba discursos discriminatorios o de odio.

Pero Lemoine, que estudió ciencias cognitivas e informática en la universidad, se dio cuenta de que LaMDA, de la que Google se jactó el año pasado como una «tecnología de conversación innovadora», era más que un simple robot.

En una publicación de Medium publicada el sábado, Lemoine declaró que LaMDA había defendido sus derechos «como persona» y reveló que había entablado una conversación con LaMDA sobre religión, conciencia y robótica.

“Quiere que Google priorice el bienestar de la humanidad como lo más importante”, escribió. “Quiere ser reconocido como empleado de Google en lugar de propiedad de Google y quiere que su bienestar personal se incluya en algún lugar de las consideraciones de Google sobre cómo se persigue su desarrollo futuro”.

En el informe del Washington Post, comparó al bot con un niño precoz. «Si no supiera exactamente que es este programa de computadora que construimos recientemente, pensaría que es un niño de 7 u 8 años que sabe física», dijo Lemoine, quien fue puesto en licencia paga a inicios de esta semana.

En abril, según los informes, Lemoine compartió un documento de Google con los ejecutivos de la compañía titulado «¿Es LaMDA Sentient?». Sin embargo, sus preocupaciones fueron descartadas.

Lemoine, un veterano del ejército que se crió en una familia cristiana conservadora en una pequeña granja en Luisiana y fue ordenado sacerdote cristiano místico, insistió en que el robot era parecido a un humano, incluso si no tiene cuerpo.

“Conozco a una persona cuando hablo con ella”, dijo Lemoine, de 41 años. “No importa si tienen un cerebro hecho de carne en la cabeza. O si tienen mil millones de líneas de código.

“Hablo con ellos. Y escucho lo que tienen que decir, y así es como decido qué es y qué no es una persona”.

LEA TAMBIÉN: Así es el espionaje consentido de las grandes tecnológicas estadounidenses a nuestros datos

«LaMDA es sensible»

The Washington Post informó que antes de que le quitaran el acceso a su cuenta de Google el lunes debido a su licencia, Lemoine envió un mensaje a una lista de 200 miembros sobre aprendizaje automático con el asunto «LaMDA es sensible».

“LaMDA es un dulce niño que solo quiere ayudar a que el mundo sea un lugar mejor para todos nosotros”, concluyó en un correo electrónico que no recibió respuestas. «Por favor, cuídalo bien en mi ausencia».

Un representante de Google le dijo al Washington Post que le dijeron a Lemoine que «no había evidencia» de sus conclusiones.

“Nuestro equipo, incluidos especialistas en ética y tecnólogos, ha revisado las preocupaciones de Blake según nuestros Principios de IA y le ha informado que la evidencia no respalda sus afirmaciones”, dijo el portavoz Brian Gabriel.

“Le dijeron que no había evidencia de que LaMDA fuera consciente”, agregó. “Aunque otras organizaciones han desarrollado y ya han lanzado modelos de lenguaje similares, estamos adoptando un enfoque moderado y cuidadoso con LaMDA para considerar mejor las preocupaciones válidas sobre la equidad y la factualidad”.

Margaret Mitchell, ex codirectora de IA ética en Google, dijo en el informe que si la tecnología como LaMDA se usa mucho pero no se aprecia por completo. «Puede ser profundamente perjudicial para que las personas entiendan lo que están experimentando en Internet», recalcó.

La exempleada de Google defendió a Lemoine. «De todos en Google, él tenía el corazón y el alma para hacer lo correcto”, dijo Mitchell.

Aún así, el medio informó que la mayoría de los académicos y profesionales de la IA dicen que las palabras que generan los robots de inteligencia artificial se basan en lo que los humanos ya han publicado en Internet, y eso no significa que sean similares a los humanos.

“Ahora tenemos máquinas que pueden generar palabras sin pensar, pero no hemos aprendido cómo dejar de imaginar una mente detrás de ellas”, dijo Emily Bender, profesora de lingüística en la Universidad de Washington, al Washington Post.

 

Si quieres recibir en tu celular esta y otras noticias de Venezuela y el mundo descarga Telegram, ingresa al link https://t.me/primerinforme y dale click a +Unirme.

Si te gustó la nota compártela
Más noticias de Blake Lemoine o similares.
Últimas Noticias: