Desconectan 2 robots que habían creado un “lenguaje propio”

Por Ufo Spain

Alice y Bob, dos robots con inteligencia artificial se comunicaban entre sí de un modo que nadie entendía.

La inteligencia artificial ocupa cada vez más sectores. Desde los algoritmos que regulan qué vemos y qué nos vemos en redes sociales, los asistentes personales en teléfonos inteligentes, en la conducción autónoma y hasta su presencia en fábricas y hospitales.

El futuro nuestra relación con las diversas IA implicará que estas puedan aprender por sí mismas, volverse más eficientes y casi indistinguibles de nosotros.

Precisamente eso es lo que pretendía Facebook cuando creó dos sistemas IA, Alice y Bob… aunque luego los desconectó. Por comunicarse de un modo que nadie entendía pero, ¿qué pasó de verdad?

De acuerdo con las noticias que circularon en aquel momento, Facebook habría desconectado dos de sus robots de inteligencia artificial, Alice y Bob, después de que comenzaran a hablar entre ellos en un idioma que inventaron.

Si bien algunos elementos de esta historia futurista son ciertos, no todo es cierto

Alice y Bob eran dos chatbots, básicamente programas informáticos que imitan conversaciones humanas a través de texto.

Debido a que estos programas aún no son capaces de funciones muy sofisticadas más allá de, por ejemplo, responder preguntas de los clientes o pedir comida, el Grupo de Investigación de Inteligencia Artificial (FAIR) de Facebook se dispuso a ver si se podían enseñarles a negociar.

Usando un juego en el que los dos chatbots, así como los jugadores humanos, intercambiaron artículos virtuales como libros, sombreros y pelotas, Alice y Bob demostraron que podían hacer tratos con diversos grados de éxito.

Para ello, los científicos del grupo FAIR utilizaron un software de inteligencia artificial y una interfaz cerebro-ordenador pero cuando Alice y Bob comenzaron a negociar entre ellos, los expertos se dieron cuenta de que no habían programado a los bots para que se limitaran a respetar las reglas del inglés, por lo que el resultado era un diálogo aparentemente sin sentido.

En una publicación de Facebook, Dhruv Batra, miembro de FAIR, dijo que este comportamiento no era alarmante, sino “un subcampo bien establecido de la IA, con publicaciones que se remontan a décadas.

En pocas palabras, los agentes en entornos que intentan resolver una tarea a menudo encontrarán formas poco intuitivas de maximizar una recompensa.

Analizar la función de recompensa y cambiar los parámetros de un experimento NO es lo mismo que desconectar o apagar la IA. Si ese fuera el caso, todos los investigadores de IA han estado cerrando la IA cada vez que hay un error.

En pocas palabras, Facebook puso en pausa a ambos bots para afinar las reglas idiomáticas que manejaban, pero no hubo ningún peligro ni se inventaron un idioma.

Deja una respuesta

Deja un comentario