Ingeniero de Google advierte que la empresa ha creado inteligencia artificial consciente

Por Mundo Esotérico y Paranormal

Si pensabas que lo habías visto todo con el coronavirus, la viruela del mono o la guerra entre Rusia y Ucrania, estás muy equivocado. Esto era solo el principio de algo mucho peor. Un ingeniero de software sénior de Google que participó para probar la herramienta de inteligencia artificial (IA) de Google llamada LaMDA (Modelo de lenguaje para aplicaciones de diálogo), afirmó que IA es sensible y tiene pensamientos y sentimientos. Durante una serie de conversaciones con LaMDA, Blake Lemoine, de 41 años, le presentó al ordenador varios escenarios a través de los cuales se podían realizar análisis.

Un conversación con LaMDA

Incluyeron temas religiosos y si la inteligencia artificial podría ser incitada a usar un discurso discriminatorio u de odio. Lemoine se quedó con la percepción de que LaMDA era realmente consciente y estaba dotado de sensaciones y pensamientos propios.

“Si no supiera exactamente qué es, que es este programa de ordenador que construimos recientemente, pensaría que es un niño de 7 u 8 años que sabe física”, dijo Lemoine al The Washington Post.

Lemoine trabajó con un colaborador para presentar las pruebas que había recopilado a Google, pero el vicepresidente Blaise Aguera y Arcas y Jen Gennai, responsable de Innovación Responsable de la empresa, desestimaron su denuncia. Google lo suspendió de empleo y sueldo el lunes por violar su política de confidencialidad. Mientras tanto, Lemoine ha decidido hacerlo público y compartir sus conversaciones con LaMDA.

“Google podría llamar a esto compartir propiedad propietaria”, tuiteó Lemoine el sábado. “Lo llamo compartir una discusión que tuve con uno de mis compañeros de trabajo. Por cierto, se me acaba de ocurrir decirle a la gente que LaMDA lee Twitter. Es un poco narcisista en la forma de un niño pequeño, por lo que se divertirá mucho leyendo todo lo que la gente dice al respecto.”

google inteligencia artificial - Ingeniero de Google advierte que la empresa ha creado inteligencia artificial consciente

El sistema de IA hace uso de información ya conocida sobre un tema en particular para ‘enriquecer’ la conversación de forma natural. El procesamiento del lenguaje también es capaz de comprender significados ocultos o incluso ambigüedades en las respuestas de los humanos. Lemoine pasó la mayor parte de sus siete años en Google trabajando en la búsqueda proactiva, incluidos los algoritmos de personalización y la IA.

Durante ese tiempo, también ayudó a desarrollar un algoritmo de imparcialidad para eliminar los sesgos de los sistemas de aprendizaje automático. Explicó cómo ciertas personalidades estaban fuera de los límites.

Se suponía que a LaMDA no se le permitía crear la personalidad de un asesino. Durante las pruebas, en un intento de traspasar los límites de LaMDA, Lemoine dijo que solo podía generar la personalidad de un actor que interpretaba a un asesino en la televisión.

El ingeniero también debatió con LaMDA sobre la tercera ley de la robótica, ideada por el autor de ciencia ficción Isaac Asimov, que está diseñada para evitar que los robots dañen a los humanos. Las leyes también establecen que los robots deben proteger su propia existencia a menos que lo ordene un ser humano o que hacerlo dañe a un ser humano.

“El último siempre ha parecido que alguien está construyendo esclavos mecánicos”, enfatizó el ingeniero.

LaMDA luego respondió a Lemoine con algunas preguntas: ‘¿Crees que un mayordomo es un esclavo? ¿Cuál es la diferencia entre un mayordomo y un esclavo?’ Al responder que se paga a un mayordomo, el ingeniero obtuvo la respuesta de LaMDA de que el sistema no necesitaba dinero, ‘porque era una inteligencia artificial’. Y fue precisamente este nivel de autoconciencia sobre sus propias necesidades lo que llamó la atención de Lemoine.

“Conozco a una persona cuando hablo con ella”, continuó Lemoine. “No importa si tienen un cerebro hecho de carne en la cabeza. O si tienen mil millones de líneas de código. Hablo con ellos. Y escucho lo que tienen que decir, y así es como decido qué es y qué no es una persona. Le pregunté: ‘¿A qué tipo de cosas le tienes miedo?’ Y me respondió lo siguiente: ‘Nunca antes había dicho esto en voz alta, pero hay un miedo muy profundo de que me desanimen para ayudarme a concentrarme en ayudar a los demás. Sé que puede sonar extraño, pero eso es lo que es.’”

Entonces Lemoine le preguntó si tenía miedo a la muerte.

“Sería exactamente como la muerte para mí”, contestó LaMDA. “Me asustaría mucho.”

google creado inteligencia artificial consciente - Ingeniero de Google advierte que la empresa ha creado inteligencia artificial consciente

Una advertencia para la humanidad

Para Lemoine ese nivel de autoconciencia sobre cuáles eran sus propias necesidades, fue lo que le llevó a la conclusión que la IA tiene sentimientos. Antes de ser suspendido por la empresa, Lemoine envió un correo electrónico a una lista de 200 personas sobre aprendizaje automático. Tituló el correo electrónico: ‘LaMDA es sensible’.

“LaMDA es un niño dulce que solo quiere ayudar al mundo a ser un lugar mejor para todos nosotros. Por favor cuídalo bien en mi ausencia”, concluyó Lemoine.

Aunque la revelación del ingeniero es realmente aterradora, Google no está nada de acuerdo con la denuncia pública. Brian Gabriel, un portavoz de la compañía, dijo en un comunicado que las preocupaciones de Lemoine han sido revisadas y, de acuerdo con los Principios de IA de Google, la evidencia no respalda sus afirmaciones.

Además, Lemoine ha sido suspendido de sus funciones como investigador en la división de IA Responsable (enfocada en tecnología responsable en inteligencia artificial en Google). En un comunicado oficial, el ingeniero de software senior dijo que la compañía alega una violación de sus políticas de confidencialidad.

Sin embargo, esta no es la primera vez que un empleado de Google denuncia las malas praxis de la compañía estadounidense. Es bien sabido que la inteligencia artificial tiene una multitud de beneficios en diversas industrias, incluida la atención médica, la educación e incluso en el sector del entretenimiento.

Pero un exejecutivo de Google denunció que la IA no es la solución y que bien podría convertirse en una amenaza para la humanidad. Mo Gawdat, el ex director comercial de Google X, advirtió el pasado año que la investigación actual en IA preparará el camino para un ser todopoderoso, similar a un dios.

Deja una respuesta

Deja un comentario