La IA lleva al Robot Wingman al combate aéreo
HogarHogar > Blog > La IA lleva al Robot Wingman al combate aéreo

La IA lleva al Robot Wingman al combate aéreo

Aug 08, 2023

Un programa de la Fuerza Aérea muestra cómo el Pentágono está empezando a aprovechar el potencial de una tecnología que emerge rápidamente, con implicaciones de largo alcance para las tácticas de guerra, la cultura militar y la industria de defensa.

El avión experimental no tripulado XQ-58A Valkyrie de la Fuerza Aérea está controlado por inteligencia artificial. Credito...Edmund D. Fountain para The New York Times

Apoyado por

Por Eric Lipton

Información desde la Base de la Fuerza Aérea de Eglin, Florida y Washington

Es propulsado por un motor de cohete. Puede volar una distancia igual al ancho de China. Tiene un diseño sigiloso y es capaz de transportar misiles que pueden alcanzar objetivos enemigos mucho más allá de su alcance visual.

Pero lo que realmente distingue al avión experimental no tripulado XQ-58A Valkyrie de la Fuerza Aérea es que está dirigido por inteligencia artificial, lo que lo sitúa a la vanguardia de los esfuerzos del ejército estadounidense para aprovechar las capacidades de una tecnología emergente cuyos vastos beneficios potenciales se ven atenuados por profundas preocupaciones sobre cuánta autonomía otorgar a un arma letal.

Esencialmente un dron de próxima generación, el Valkyrie es un prototipo de lo que la Fuerza Aérea espera que pueda convertirse en un potente complemento a su flota de aviones de combate tradicionales, brindando a los pilotos humanos un enjambre de pilotos robóticos altamente capaces para desplegar en la batalla. Su misión es combinar la inteligencia artificial y sus sensores para identificar y evaluar las amenazas enemigas y luego, después de obtener la aprobación humana, actuar para matar.

En un día reciente, en la Base de la Fuerza Aérea de Eglin, en la costa del Golfo de Florida, el mayor Ross Elder, de 34 años, piloto de pruebas de Virginia Occidental, se estaba preparando para un ejercicio en el que volaría su caza F-15 junto al Valkyrie.

"Es una sensación muy extraña", dijo el Mayor Elder, mientras otros miembros del equipo de la Fuerza Aérea se preparaban para probar el motor del Valkyrie. “Estoy volando por el ala de algo que está tomando sus propias decisiones. Y no es un cerebro humano”.

El programa Valkyrie ofrece una visión de cómo el negocio de armas, la cultura militar, las tácticas de combate y la competencia con naciones rivales de Estados Unidos están siendo remodelados en formas posiblemente de gran alcance gracias a los rápidos avances tecnológicos.

El surgimiento de la inteligencia artificial está ayudando a generar una nueva generación de contratistas del Pentágono que buscan socavar, o al menos alterar, la primacía de larga data del puñado de empresas gigantes que suministran a las fuerzas armadas aviones, misiles, tanques y barcos.

La posibilidad de construir flotas de armas inteligentes pero relativamente económicas que podrían desplegarse en grandes cantidades está permitiendo a los funcionarios del Pentágono pensar de nuevas maneras sobre cómo enfrentarse a las fuerzas enemigas.

También los está obligando a enfrentar preguntas sobre qué papel deberían desempeñar los humanos en los conflictos librados con software escrito para matar, una cuestión que es especialmente complicada para Estados Unidos dado su historial de ataques errantes con aviones no tripulados convencionales que causan víctimas civiles.

Y obtener y mantener una ventaja en inteligencia artificial es un elemento de una carrera cada vez más abierta con China por la superioridad tecnológica en seguridad nacional.

A los planificadores militares les preocupa que ya no se pueda contar con la combinación actual de aviones y sistemas de armas de la Fuerza Aérea (a pesar de los billones de dólares invertidos en ellos) para dominar si estallara un conflicto a gran escala con China, particularmente si involucrara una invasión china de Taiwán.

Esto se debe a que China está bordeando sus costas y las islas artificiales que ha construido en el Mar Meridional de China, con más de mil misiles antibuque y antiaéreos que restringen gravemente la capacidad de Estados Unidos para responder a cualquier posible invasión de Taiwán sin ataques masivos. Pérdidas en el aire y en el mar.

Después de décadas de construir cada vez menos aviones de combate cada vez más caros (el avión de combate F-35 cuesta 80 millones de dólares por unidad), la Fuerza Aérea ahora tiene la flota más pequeña y más antigua de su historia.

Ahí es donde entrará en juego la nueva generación de drones con IA, conocidos como aviones de combate colaborativos. La Fuerza Aérea planea construir entre 1.000 y 2.000 de ellos por tan solo 3 millones de dólares cada uno, o una fracción del costo de un caza avanzado. , razón por la cual algunos en la Fuerza Aérea llaman al programa “masa asequible”.

Habrá una variedad de tipos especializados de estos aviones robot. Algunos se centrarán en misiones de vigilancia o reabastecimiento, otros volarán en enjambres de ataque y otros servirán como “compañeros leales” de un piloto humano.

Los drones, por ejemplo, podrían volar delante de aviones de combate pilotados, realizando una vigilancia temprana y de alto riesgo. También podrían desempeñar un papel importante en la desactivación de las defensas aéreas enemigas, asumiendo riesgos para derribar objetivos de misiles terrestres que se considerarían demasiado peligrosos para un avión pilotado por humanos.

La IA, una versión más especializada del tipo de programación ahora más conocida por impulsar chatbots, reuniría y evaluaría información de sus sensores a medida que se acerca a las fuerzas enemigas para identificar otras amenazas y objetivos de alto valor, solicitando autorización al piloto humano antes. lanzar cualquier ataque con sus bombas o misiles.

Los más baratos se considerarán prescindibles, lo que significa que probablemente sólo tendrán una misión. El más sofisticado de estos aviones robot podría costar hasta 25 millones de dólares, según una estimación de la Cámara de Representantes, mucho menos que un avión de combate pilotado.

“¿Es una respuesta perfecta? Nunca es una respuesta perfecta cuando se mira hacia el futuro”, dijo el mayor general R. Scott Jobe, quien hasta este verano estuvo a cargo de establecer los requisitos para el programa de combate aéreo, mientras la Fuerza Aérea trabaja para incorporar la IA en sus sistemas. aviones de combate y drones.

“Pero se pueden presentar dilemas a adversarios potenciales, y uno de esos dilemas es la masa”, dijo el general Jobe en una entrevista en el Pentágono, refiriéndose al despliegue de grandes cantidades de drones contra las fuerzas enemigas. "Se puede llevar masa al espacio de batalla con potencialmente menos personas".

El esfuerzo representa el comienzo de un cambio sísmico en la forma en que la Fuerza Aérea compra algunas de sus herramientas más importantes. Después de décadas en las que el Pentágono se ha centrado en comprar hardware construido por contratistas tradicionales como Lockheed Martin y Boeing, el énfasis está cambiando hacia software que puede mejorar las capacidades de los sistemas de armas, creando una oportunidad para que las empresas de tecnología más nuevas se apoderen de partes del vasto Pentágono. presupuesto de adquisiciones.

"En realidad, las máquinas se basan en los datos y luego crean sus propios resultados", dijo el general de brigada. El general Dale White, funcionario del Pentágono que ha estado a cargo del nuevo programa de adquisiciones.

La Fuerza Aérea se da cuenta de que también debe enfrentar profundas preocupaciones sobre el uso militar de la inteligencia artificial, ya sea el temor de que la tecnología pueda volverse contra sus creadores humanos (como Skynet en la serie de películas "Terminator") o recelos más inmediatos sobre permitir que los algoritmos guíen el uso. de fuerza letal.

"Se está traspasando una línea moral al subcontratar el asesinato a máquinas, al permitir que sensores informáticos en lugar de humanos tomen vidas humanas", dijo Mary Wareham, directora de defensa de la división de armas de Human Rights Watch, que está presionando para que se establezcan límites internacionales. sobre las llamadas armas letalmente autónomas.

Una política recientemente revisada del Pentágono sobre el uso de inteligencia artificial en sistemas de armas permite el uso autónomo de fuerza letal, pero cualquier plan particular para construir o desplegar tal arma debe primero ser revisado y aprobado por un panel militar especial.

Cuando se le preguntó si los drones de la Fuerza Aérea podrían eventualmente realizar ataques letales como este sin la aprobación humana explícita de cada ataque, una portavoz del Pentágono dijo en una declaración al New York Times que la pregunta era demasiado hipotética para responderla.

Cualquier dron autónomo de la Fuerza Aérea, según el comunicado, tendría que estar "diseñado para permitir a los comandantes y operadores ejercer niveles apropiados de juicio humano sobre el uso de la fuerza".

Los funcionarios de la Fuerza Aérea dijeron que comprenden perfectamente que las máquinas no son inteligentes de la misma manera que los humanos. La tecnología de inteligencia artificial también puede cometer errores (como ha sucedido repetidamente en los últimos años con los automóviles sin conductor) y las máquinas no tienen una brújula moral incorporada. Los funcionarios dijeron que estaban considerando esos factores mientras construían el sistema.

“Es una responsabilidad enorme”, dijo el coronel Tucker Hamilton, jefe de Pruebas y Operaciones de IA de la Fuerza Aérea, quien también ayuda a supervisar las tripulaciones de pruebas de vuelo en la Base de la Fuerza Aérea de Eglin, y señaló que “la narración distópica y la cultura pop han creado una especie de frenesí” en torno a la inteligencia artificial.

"Sólo tenemos que llegar allí de manera metódica, deliberada y ética, en pequeños pasos", dijo.

El largo corredor revestido de madera en el Pentágono, donde tienen sus oficinas los altos mandos de la Fuerza Aérea, está lleno de retratos de líderes de un siglo, mezclados con imágenes de las máquinas voladoras que han dado a Estados Unidos el dominio global en el aire desde la Guerra Mundial. Segunda Guerra.

De las imágenes surge un tema común: el papel icónico del piloto.

Los humanos seguirán desempeñando un papel central en la nueva visión de la Fuerza Aérea, dijeron altos funcionarios del Pentágono, pero se asociarán cada vez más con ingenieros de software y expertos en aprendizaje automático, quienes perfeccionarán constantemente los algoritmos que gobiernan el funcionamiento de los pilotos robóticos que volará junto a ellos.

Será necesario revisar casi todos los aspectos de las operaciones de la Fuerza Aérea para adoptar este cambio. Es una tarea que durante este verano había sido confiada en gran medida a los generales White y Jobe, cuya asociación los oficiales de la Fuerza Aérea apodaron Dale and Frag Show (el distintivo de llamada del general Jobe como piloto es Frag).

El Pentágono, a través de sus divisiones de investigación como DARPA y el Laboratorio de Investigación de la Fuerza Aérea, ya ha pasado varios años construyendo prototipos como el Valkyrie y el software que lo ejecuta. Pero el experimento ahora está pasando a convertirse en el llamado programa de registro, lo que significa que si el Congreso lo aprueba, se asignarán importantes dólares de los contribuyentes a la compra de los vehículos: un total de 5.800 millones de dólares durante los próximos cinco años, según el plan de la Fuerza Aérea.

A diferencia de los aviones de combate F-35, que Lockheed Martin y sus subcontratistas entregan como un paquete, la Fuerza Aérea planea dividir el avión y el software como compras separadas.

Kratos, el constructor del Valkyrie, ya se prepara para licitar por cualquier contrato futuro, al igual que otras grandes empresas como General Atomics, que lleva años construyendo drones de ataque utilizados en Irak y Afganistán, y Boeing, que dispone de su propio avión autónomo experimental. Prototipo de avión de combate, el MQ-28 Ghost Bat.

Un conjunto separado de empresas que priorizan el software (nuevas empresas tecnológicas como Shield AI y Anduril, que están financiadas con cientos de millones de dólares en capital de riesgo) están compitiendo por el derecho a vender al Pentágono los algoritmos de inteligencia artificial que manejarán las decisiones de la misión. .

La lista de obstáculos que deben superarse es larga.

El Pentágono tiene un historial miserable en la creación de software avanzado y en el intento de iniciar su propio programa de inteligencia artificial. A lo largo de los años, ha pasado por varias oficinas de programas cargadas de siglas que se crean y luego cierran con poco que mostrar.

Hay una rotación constante entre los líderes del Pentágono, lo que complica los esfuerzos para seguir avanzando según lo previsto. El general Jobe ya ha sido asignado a un nuevo rol y pronto lo será el general White.

El Pentágono también necesitará alterar el control férreo que los principales contratistas de defensa tienen sobre el flujo del gasto militar. Como sugiere la estructura del programa Valkyrie, los militares quieren hacer más para aprovechar la experiencia de una nueva generación de empresas de software para entregar partes clave del paquete, introduciendo más competencia, velocidad empresarial y creatividad en lo que durante mucho tiempo ha sido un riesgo. sistema adverso y lento.

El trabajo más importante, al menos hasta hace poco, recaía en el general Jobe, quien se hizo un nombre en la Fuerza Aérea hace dos décadas cuando ayudó a diseñar una estrategia de bombardeo para destruir búnkeres profundamente enterrados en Irak que albergaban interruptores de comunicación militares críticos. .

Se le pidió que tomara decisiones clave que establecieran el marco sobre cómo se construirán los aviones robot impulsados ​​por IA. Durante una entrevista en el Pentágono, y en otros eventos recientes, los generales Jobe y White dijeron que un imperativo claro es que los seres humanos sigan siendo quienes toman las decisiones finales, y no los robots drones, conocidos como CCA, el acrónimo de aviones de combate colaborativos.

"No voy a dejar que este robot salga y empiece a disparar a las cosas", dijo el general Jobe durante una sesión informativa con periodistas del Pentágono a finales del año pasado.

Añadió que un ser humano siempre estaría decidiendo cuándo y cómo hacer que un avión con IA se enfrente a un enemigo y que los desarrolladores están construyendo un firewall alrededor de ciertas funciones de IA para limitar lo que los dispositivos podrán hacer por sí solos.

"Piense en ello simplemente como una extensión de su compartimento de armas si está en un F-22, F-35 o cualquier otra cosa", dijo.

En 1947, Chuck Yeager, entonces un joven piloto de pruebas de Myra, Virginia Occidental, se convirtió en el primer ser humano en volar más rápido que la velocidad del sonido.

Setenta y seis años después, otro piloto de pruebas de Virginia Occidental se convirtió en uno de los primeros pilotos de la Fuerza Aérea en volar junto a un dron de combate autónomo potenciado por IA.

Alto y larguirucho, con un ligero acento de los Apalaches, el mes pasado el Mayor Elder voló su F-15 Strike Eagle a 1.000 pies del experimental XQ-58A Valkyrie, observando de cerca, como un padre corriendo junto a un niño que aprende a andar en bicicleta, mientras el dron voló solo, alcanzando ciertas velocidades y altitudes asignadas.

Las pruebas funcionales básicas del dron fueron solo el período previo al espectáculo real, donde el Valkyrie va más allá del uso de herramientas avanzadas de piloto automático y comienza a probar las capacidades de guerra de su inteligencia artificial. En una prueba programada para finales de este año, se le pedirá al dron de combate que persiga y luego mate a un objetivo enemigo simulado mientras se encuentra sobre el Golfo de México, ideando su propia estrategia para la misión.

Durante la fase actual, el objetivo es probar la capacidad de vuelo del Valkyrie y el software de IA, para que el avión no lleve armas. El combate aéreo planeado será con un enemigo "construido", aunque el agente de IA a bordo del Valkyrie creerá que es real.

El Mayor Elder no tenía forma de comunicarse directamente con el dron autónomo en esta etapa inicial de desarrollo, por lo que tuvo que observar con mucha atención mientras emprendía su misión.

“Quiere matar y sobrevivir”, dijo el Mayor Elder sobre el entrenamiento que recibió el dron.

Se ha reunido un equipo inusual de oficiales y civiles de la Fuerza Aérea en Eglin, que es una de las bases de la Fuerza Aérea más grandes del mundo. Incluyen a la capitana Rachel Price de Glendale, Arizona, quien está finalizando un doctorado. en el Instituto de Tecnología de Massachusetts sobre aprendizaje profundo informático, así como el Mayor Trent McMullen de Marietta, Georgia, que tiene una maestría en aprendizaje automático de la Universidad de Stanford.

Una de las cosas que Major Elder observa es cualquier discrepancia entre las simulaciones ejecutadas por computadora antes del vuelo y las acciones del dron cuando está realmente en el aire (un problema de “sim a real”, lo llaman) o incluso más preocupante. cualquier signo de "comportamiento emergente", en el que el robot robot esté actuando de una manera potencialmente dañina.

Durante los vuelos de prueba, el Mayor Elder o el director del equipo en la torre de control de la Base de la Fuerza Aérea de Eglin pueden apagar la plataforma de IA mientras mantienen en funcionamiento el piloto automático básico del Valkyrie. También puede hacerlo el capitán Abraham Eaton de Gorham, Maine, quien se desempeña como ingeniero de pruebas de vuelo en el proyecto y está encargado de ayudar a evaluar el desempeño del dron.

"¿Cómo se califica a un agente de inteligencia artificial?" preguntó retóricamente. “¿Lo calificas a escala humana? Probablemente no, ¿verdad?

Es probable que los adversarios reales intenten engañar a la inteligencia artificial, por ejemplo creando un camuflaje virtual para aviones u objetivos enemigos para hacer creer al robot que está viendo algo más.

La versión inicial del software de IA es más "determinista", lo que significa que sigue en gran medida los scripts con los que ha sido entrenado, basados ​​en simulaciones por computadora que la Fuerza Aérea ha ejecutado millones de veces mientras construye el sistema. Con el tiempo, el software de IA tendrá que ser capaz de percibir el mundo que lo rodea y aprender a comprender este tipo de trucos y superarlos, habilidades que requerirán una recopilación masiva de datos para entrenar los algoritmos. El software deberá estar fuertemente protegido contra la piratería por parte de un enemigo.

La parte más difícil de esta tarea, dijeron el Mayor Elder y otros pilotos, es generar confianza vital, que es un elemento central del vínculo entre un piloto y un compañero: sus vidas dependen una de la otra y de cómo reacciona cada uno de ellos. También es una preocupación en el Pentágono.

"Necesito saber que esas CCA van a hacer lo que espero que hagan, porque si no lo hacen, podría terminar mal para mí", dijo el General White.

En las primeras pruebas, los drones autónomos ya han demostrado que actuarán de maneras inusuales, y en un caso el Valkyrie entró en una serie de vueltas. Al principio, Major Elder pensó que algo andaba mal, pero resultó que el software había determinado que sus sensores infrarrojos podían obtener una imagen más clara si hacía giros continuos. La maniobra habría sido como una montaña rusa que le revolviera el estómago a un piloto humano, pero el equipo concluyó más tarde que el dron había logrado un mejor resultado para la misión.

Los pilotos de la Fuerza Aérea tienen experiencia en aprender a confiar en la automatización informática, como los sistemas para evitar colisiones que se hacen cargo si un avión de combate se dirige al suelo o está a punto de chocar con otro avión, dos de las principales causas de muerte entre los pilotos.

Inicialmente, los pilotos se mostraron reacios a volar con el sistema activado, ya que permitiría a las computadoras tomar el control de los aviones, dijeron varios pilotos en entrevistas. A medida que crecieron las pruebas de que el sistema salvó vidas, fue ampliamente adoptado. Pero aprender a confiar en los robots de combate será un obstáculo aún mayor, reconocieron altos funcionarios de la Fuerza Aérea.

Los funcionarios de la Fuerza Aérea utilizaron la palabra “confianza” docenas de veces en una serie de entrevistas sobre los desafíos que enfrentan para generar aceptación entre los pilotos. Ya han comenzado a volar los prototipos de drones robot con pilotos de prueba cerca, para que puedan iniciar este proceso.

La Fuerza Aérea también comenzó un segundo programa de prueba llamado Proyecto Venom que colocará pilotos en seis aviones de combate F-16 equipados con software de inteligencia artificial que manejarán decisiones clave de la misión.

El objetivo, dijeron funcionarios del Pentágono, es una Fuerza Aérea que sea más impredecible y letal, que cree una mayor disuasión ante cualquier movimiento de China y una lucha menos mortífera, al menos para la Fuerza Aérea de Estados Unidos.

Los funcionarios estiman que podrían pasar de cinco a diez años para desarrollar un sistema funcional basado en inteligencia artificial para el combate aéreo. Los comandantes de la Fuerza Aérea están presionando para acelerar el esfuerzo, pero reconocen que la velocidad no puede ser el único objetivo.

“No estaremos allí de inmediato, pero sí llegaremos”, dijo el general Jobe. "Es avanzado y mejora cada día a medida que se continúan entrenando estos algoritmos".

Eric Lipton es un periodista de investigación radicado en Washington. Tres veces ganador del Premio Pulitzer, anteriormente trabajó en The Washington Post y The Hartford Courant. Más sobre Eric Lipton

Anuncio