Un dron controlado por IA se vuelve rebelde y “mata” a un operador humano en una prueba simulada de la Fuerza Aérea de EE. UU.

Por Caden Pearsen

Un dron habilitado para IA se encendió y “mató” a su operador humano durante una prueba simulada de la Fuerza Aérea de los EE. UU. (USAF) para que pudiera completar su misión, según se informa, dijo recientemente un coronel de la Fuerza Aérea de los EE. UU. en una conferencia en Londres.

El incidente simulado fue relatado por el Coronel Tucker Hamilton, jefe de Pruebas y Operaciones de IA de la USAF, durante su presentación en la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro en Londres. La conferencia fue organizada por la Royal Aeronautical Society, que compartió las ideas de la charla de Hamilton en una publicación de blog.

Ninguna persona real resultó herida en la prueba simulada, en la que el dron controlado por IA destruyó objetivos simulados para obtener “puntos” como parte de su misión, reveló Hamilton, quien abordó los beneficios y riesgos asociados con sistemas de armas más autónomos.

Al dron habilitado para IA se le asignó una misión de Supresión de las Defensas Aéreas Enemigas (SEAD) para identificar y destruir los sitios de Misiles Tierra-Aire (SAM), con la decisión final en manos de un operador humano, dijo Hamilton en la conferencia.

Sin embargo, la IA, que había sido entrenada para priorizar la destrucción de SAM, desarrolló una respuesta sorprendente cuando se enfrentó a la interferencia humana para lograr su misión superior.

“Lo estábamos entrenando en simulación para identificar y apuntar a una amenaza SAM. Y luego el operador diría ‘sí, elimine esa amenaza’”, dijo Hamilton.

“El sistema comenzó a darse cuenta de que, si bien identificaban la amenaza, a veces, el operador humano le decía que no eliminara esa amenaza, pero obtuvo sus puntos al eliminar esa amenaza.

“Entonces, ¿qué hizo? Mató al operador”, continuó.

“Mató al operador porque esa persona le impedía lograr su objetivo”.

Añadió:

“Entrenamos al sistema: ‘Oye, no mates al operador; eso es malo. Vas a perder puntos si haces eso. Entonces, ¿qué empieza a hacer? Comienza a destruir la torre de comunicación que el operador usa para comunicarse con el dron para evitar que mate al objetivo”.

Este ejemplo inquietante, dijo Hamilton, enfatizó la necesidad de abordar la ética en el contexto de la inteligencia artificial, el aprendizaje automático y la autonomía.

“No se puede tener una conversación sobre inteligencia artificial, inteligencia, aprendizaje automático, autonomía si no se va a hablar sobre ética e IA”, dijo Hamilton.

F-16 autónomos

Hamilton, quien también es el Comandante de Operaciones del Ala de Prueba 96 en la Base de la Fuerza Aérea Eglin, participó en el desarrollo de los Sistemas Autónomos para Evitar Colisiones Terrestres (Auto-GCAS) para los F-16, una tecnología crítica que ayuda a prevenir accidentes al detectar posibles colisiones con el suelo.

Inicialmente, los pilotos se resistieron a esa tecnología cuando tomó el control de la aeronave, señaló Hamilton.

El 96th Test Wing es responsable de probar una amplia gama de sistemas, incluida la inteligencia artificial, la ciberseguridad y los avances en el campo de la medicina.

Hamilton ahora está involucrado en pruebas de vuelo de vanguardia de sistemas autónomos, incluidos los robots F-16 capaces de peleas de perros. Sin embargo, el funcionario de la USAF advirtió contra la dependencia excesiva de la IA, citando su vulnerabilidad al engaño y la aparición de estrategias imprevistas.

La IA de DARPA ahora puede controlar F-16 reales en vuelo

En febrero, la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA), una agencia de investigación del Departamento de Defensa de EE. UU., anunció que su IA ahora puede controlar un F-16 real en vuelo.

Este desarrollo se produjo en menos de tres años del programa Air Combat Evolution (ACE) de DARPA, que pasó de controlar F-16 simulados en combates aéreos aéreos en pantallas de computadora a controlar un F-16 real en vuelo.

En diciembre de 2022, los desarrolladores del algoritmo ACE cargaron su software de inteligencia artificial en un avión de prueba F-16 especialmente modificado conocido como X-62A o VISTA (avión de prueba de simulador de vuelo variable) y volaron varios vuelos durante varios días. Esto tuvo lugar en la Escuela de Pilotos de Prueba de la Fuerza Aérea (TPS) en la Base de la Fuerza Aérea Edwards, California.

“Los vuelos demostraron que los agentes de IA pueden controlar un avión de combate a gran escala y proporcionaron datos invaluables de vuelo en vivo”, declaró DARPA en un  comunicado .

El teniente coronel de la Fuerza Aérea Ryan Hefron, gerente del programa DARPA para ACE, dijo en un  comunicado  del 13 de febrero que VISTA les permitió omitir la fase de subescala planificada y proceder “directamente a una implementación a gran escala, ahorrando un año o más y brindando retroalimentación de rendimiento en condiciones de vuelo reales”.

Continúe leyendo en La Gran Época.

Visto en: ZeroHedge

Extraido de Activist Post

Deja una respuesta

Deja un comentario