WATERLOO, Ontario — ¿Crees que podrías distinguir entre un rostro humano y uno generado por inteligencia artificial? Puede que sea mucho más difícil de lo que crees. Investigadores de la Universidad de Waterloo en Canadá están exponiendo la asombrosa dificultad que enfrenta la gente a la hora de distinguir entre imágenes humanas reales y generadas por IA. En general, casi el 40 por ciento de las personas reales no pueden distinguir quién es falso.
Esta revelación llega en un momento en que las imágenes generadas por IA se están volviendo más sofisticadas, lo que genera preocupación sobre el potencial de uso indebido en campañas de desinformación .
En la investigación participaron 260 participantes, a quienes se les presentaron 20 imágenes sin etiquetas que indicaran su origen. Entre ellas, la mitad eran fotografías de personas reales obtenidas a través de búsquedas en Google , mientras que la otra mitad fueron elaboradas por Stable Diffusion y DALL-E , dos de los programas de generación de imágenes de IA más avanzados disponibles en la actualidad. La tarea era sencilla: identificar qué imágenes eran reales y cuáles eran producto de la IA.
Sorprendentemente, sólo el 61 por ciento de los participantes pudo distinguir con precisión entre los dos, una cifra significativamente menor que la tasa de precisión anticipada por los investigadores del 85 por ciento.
«La gente no es tan experta en hacer distinciones como cree», dice la autora principal del estudio, Andreea Pocol, candidata a doctorado en ciencias de la computación en la Universidad de Waterloo, en un comunicado de la universidad .
Este hallazgo subraya una preocupación creciente sobre nuestra capacidad colectiva para discernir la verdad en el ámbito digital .
Los participantes basaron sus juicios en detalles específicos como la apariencia de los dedos, los dientes y los ojos, características que creían que traicionarían la naturaleza artificial de las imágenes. Sin embargo, estos indicadores no fueron tan fiables como se esperaba.
El diseño del estudio permitió un examen meticuloso de cada fotografía, un lujo que no se permiten los navegadores ocasionales de Internet o aquellos que se desplazan rápidamente por el contenido, una práctica conocida coloquialmente como «doomscrolling».
«El ritmo extremadamente rápido al que se está desarrollando la tecnología de IA hace que sea particularmente difícil comprender el potencial de acciones maliciosas o nefastas que plantean las imágenes generadas por IA «, añade Pocol.
Este rápido avance supera tanto la investigación académica como los esfuerzos legislativos para mitigar los riesgos, y las imágenes generadas por IA se vuelven aún más realistas desde el inicio del estudio a fines de 2022.
El posible uso indebido de la IA para fabricar imágenes convincentes de figuras públicas en situaciones comprometedoras es un problema particularmente aspecto alarmante de esta tecnología. Representa una poderosa herramienta de manipulación política y cultural , capaz de generar desinformación con una facilidad y sofisticación sin precedentes.
«La desinformación no es nueva, pero las herramientas de la desinformación han estado cambiando y evolucionando constantemente», explica Pocol. “Puede llegar a un punto en el que las personas, sin importar cuán capacitadas estén, todavía tendrán dificultades para diferenciar las imágenes reales de las falsas. Por eso necesitamos desarrollar herramientas para identificarlo y contrarrestarlo. Es como una nueva carrera armamentista de IA”.
Los investigadores dicen que el estudio destaca un desafío crítico en la intersección de la tecnología, la ética y la sociedad, lo que provoca una reevaluación de nuestra dependencia de los medios visuales como fuente de verdad en la era digital.
El estudio se publica en la revista Advances in Computer Graphics .
Visto en: Activist Post
Deja una respuesta