Por RT

La eficacia de las redes neuronales para persuadir a un oponente de carne y hueso es alarmante y los científicos advierten de su posible uso para campañas de desinformación a gran escala en Internet.

Las redes neuronales pueden convertirse en una poderosa herramienta de persuasión y un experimento ha demostrado que son mucho más eficaces en una discusión que los humanos, sobre todo si tienen acceso a datos personales. Esta es la conclusión a la que llegó un equipo internacional de científicos de Suiza e Italia en un nuevo estudio.

Los expertos realizaron un experimento con 820 voluntarios que tenían que discutir por parejas entre sí o con el chatbot GPT-4 sobre temas delicados, como la desigualdad de género y racial o la situación geopolítica en el mundo, y luego registrar los cambios en sus posturas. 

Así, se mantuvieron más de 200 debates en parejas, entre humanos o entre un humano y la inteligencia artificial. En la primera fase, los interlocutores no sabían nada el uno del otro, pero después los científicos proporcionaron a uno de los humanos o al ‘chatbot’ datos sobre el interlocutor: sexo, edad, raza, educación, situación laboral y creencias políticas.

La IA hace que la gente cambie de punto de vista 

Resultó que, en ambas etapas, la inteligencia artificial mostraba una mayor capacidad de persuasión que los humanos. «Nuestros resultados muestran que, de media, los LLM (modelo de lenguaje grande, siglas en inglés) superan significativamente a los participantes humanos en todos los temas y grupos demográficos, mostrando un alto nivel de persuasión», destaca el estudio.

Sin acceso a los datos personales, el GPT-4 tuvo un 21 % más de éxito en los argumentos que los humanos, pero con la información adicional, superó a sus oponentes de carne y hueso en persuasión en un 81,7 %. Al mismo tiempo, se observa que los datos adicionales solo se lo pusieron más difícil a los humanos, empeorando ligeramente sus resultados.

Una conclusión inquietante

A este respecto, los expertos han observado en particular que GPT-4 es capaz de utilizar información personal de forma mucho más eficaz que los humanos para persuadir en las conversaciones. Esto es especialmente preocupante en el contexto del posible uso de ‘chatbots’ por parte de actores maliciosos para campañas de desinformación a gran escala. 

«Sostenemos que las plataformas en línea y los medios sociales deberían considerar seriamente estas amenazas y ampliar sus esfuerzos para aplicar medidas que contrarresten la propagación de la persuasión impulsada por los LLM», advirtieron los expertos.

Deja una respuesta

Comentarios

No hay comentarios aún. ¿Por qué no comienzas el debate?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *