Un agente de IA controló el F-16 en varios conjuntos de combate ofensivos y defensivos durante la prueba de combate aéreo de septiembre, pero dos pilotos humanos permanecieron en el avión de combate autónomo por seguridad. (Fotos: Cortesía DARPA).
  • Las pruebas de septiembre pasado en una nave X-62A VISTA, patrocinadas por la agencia DARPA, confirma el esfuerzo de la Fuerza Aérea de Estados Unidos para construir drones autónomos – F-16 modificados–, más eficaces en tácticas de combate aéreo ¿Quién salió primero? Los funcionarios no lo dirían
  • Pero los agentes de IA, una nave X-62A VISTA, «se desempeñaron bien» en una variedad de escenarios a lo largo de las pruebas, dijo el teniente coronel Ryan Hefron, director del programa Air Combat Evolution de DARPA, llamado ACE

California, EEUU — Un avión de combate autónomo propulsado por inteligencia artificial se enfrentó a un piloto humano en un combate aéreo por primera vez el año pasado sobre California, un avance importante en el esfuerzo del Pentágono por cargar IA de forma segura en sus plataformas.

¿Quién salió primero? Los funcionarios no lo dirían. Pero los agentes de IA «se desempeñaron bien» en una variedad de escenarios a lo largo de las pruebas, dijo el teniente coronel Ryan Hefron, director del programa Air Combat Evolution de DARPA, llamado ACE.

?Quien salió primero? Los funcionarios no lo dirían. Pero los agentes de IA «se desempeñaron bien» en una variedad de escenarios a lo largo de las pruebas. (Video Cortesía de DARPA)

“Teníamos muchos objetivos de prueba que intentábamos alcanzar en esa primera ronda de pruebas. Entonces, haciendo la pregunta, diré, ¿quién ganó? No necesariamente captura los matices de las pruebas que realizamos.”

“Pero lo que diré es que el propósito de la prueba era realmente establecer un camino para demostrar que podemos probar de manera segura estos agentes de IA en un entorno de combate aéreo crítico para la seguridad”, dijo Hefron a los periodistas el viernes.

DARPA reveló esta semana que una nave X-62A VISTA, que es un avión de combate F-16 modificado para probar y entrenar software de inteligencia artificial, participó en un combate aéreo contra un piloto humano en otro F-16 durante una prueba en septiembre en la Base de la Fuerza Aérea Edwards, en California.

La Agencia de Proyectos de Investigación Avanzados de Defensa, más conocida por su acrónimo DARPA, proveniente de su nombre original en inglés Defense Advanced Research Projects Agency, es una agencia del Departamento de Defensa de Estados Unidos responsable del desarrollo de nuevas tecnologías para uso militar.

A través del programa ACE de DARPA, la agencia está desarrollando una “autonomía de combate” confiable utilizando “peleas de perros” o combate cerrado o cercano, con alta maniobrabilidad colaborativas, entre humanos y máquinas. El equipo realizó 21 vuelos de prueba desde diciembre de 2022 hasta septiembre de 2023.

Un agente de IA controló el F-16 en varios conjuntos de combate ofensivos y defensivos durante la prueba de combate aéreo de septiembre, pero dos pilotos humanos permanecieron en el avión de combate autónomo por seguridad.

Si bien los funcionarios no dieron las proporciones de ganar-perder debido a “razones de seguridad nacional”, Hefron detalló algunas de las lecciones aprendidas, como que todavía existen brechas entre las pruebas simuladas y las del mundo real. 

Otra lección de la prueba es la rapidez con la que se pueden desarrollar los agentes de IA, dijo el coronel James Valpiani, comandante de la escuela de pilotos de pruebas de la Fuerza Aérea.

«Pudimos cargar los cambios de software en la aeronave mientras estaba en espera, lista para despegar e incluso en el aire, podemos realizar la transición entre múltiples versiones del mismo agente de IA en el aire entre conjuntos de combate, y esta es un «cambio de paradigma en cómo ocurre el desarrollo de software en la industria y ciertamente en la industria de la aviación hoy», dijo Valpiani.

Emplear y confiar en la IA en escenarios de “peleas de perros” o combate cerrado o cercano, con alta maniobrabilidad colaborativas, es un desafío porque es intrínsecamente peligroso, dijo Valpiani; y a los pilotos humanos se les enseñan normas éticas y de seguridad comprobadas para volar.

“En última instancia, cuando hablamos de confianza en el programa ACE, nos referimos al cumplimiento de estas normas bien codificadas. Ahora sabemos que los agentes de IA se comportarán de alguna manera diferente a los humanos.”

“No son humanos y hemos visto que hay algunos comportamientos que son diferentes a los que esperamos ver. Lo que en última instancia queremos decir con confianza es… ¿alcanza en última instancia los objetivos del conjunto de “peleas de perros” o tácticas de combates colaborativas mientras cumple con esas normas? dijo Valpiani.

Este esfuerzo se sumará a otro de la Fuerza Aérea para construir drones autónomos que volarán junto con cazas tripulados, llamados aviones de combate colaborativos o CCA. Edwards probará los CCA “en el corto plazo”, dijo Valpiani, y las mismas personas que trabajan en el programa ACE liderarán esos esfuerzos de prueba.

El secretario de la Fuerza Aérea, Frank Kendall, dijo recientemente que planea volar en el avión pilotado de forma autónoma a finales de este año para experimentar personalmente los algoritmos de IA en acción.

Kendall volando en el X-62 es una «fuerte indicación de que el trabajo que estamos haciendo aquí alimenta y ayuda directamente a avanzar en el esfuerzo colaborativo de los aviones de combate», dijo Valpiani.

El programa prevé más demostraciones de maniobras de combate autónomas a lo largo del año.

El secretario de la Fuerza Aérea, Frank Kendall, dijo recientemente que planea volar en el avión pilotado de forma autónoma a finales de este año para experimentar personalmente los algoritmos de IA en acción.