Armas Autónomas

Una breve introducción

MQ-25 Stingray repostando un F-35. Fuente - US Navy

Armas Autónomas

Una breve introducción

Por Christian D. Villanueva López

En los últimos años hemos sido testigos del crecimiento exponencial de los Sistemas de Armas Autónomos. Son, sin duda, por motivos que explicaremos, el futuro de muchas Fuerzas Armadas, especialmente aquellas que sirven a las naciones más avanzadas, tanto por los recursos de que disponen, como por la aversión de sus sociedades a las bajas. Ahora bien, existe una notable confusión al hablar sobre este tipo de sistemas, así como al definir el propio concepto de “autonomía”. En este artículo vamos a intentar arrojar algo de luz sobre un tema complejo y particularmente polémico.

Antes de hablar sobre la utilización de estos sistemas en el campo de batalla, el futuro previsible, o algunos de los modelos en desarrollo sean terrestres, aéreos o marítimos, conviene explicar qué es exactamente un Sistema de Armas Autónomo, un asunto que genera importantes desacuerdos, existiendo varias definiciones y acrónimos posibles para referirnos a ellos. Así, los angloparlantes hablan normalmente de FAWS (Fully Autonomous Weapon Systems), LAWS (Lethal Autonomous Weapon Systems), LAW (Lethal Autonomous Weapon) o LARs (Lethal Autonomous Robots) e incluso, en tono más informal, de Robots Asesinos (Killer Robots). En realidad, a poco que se bucee entre los muchos artículos que se han escrito al respecto, se pueden encontrar todavía más términos para referirse a lo que aquí denominaremos -por abreviar- como Sistemas Autónomos (SA) y dejando claro que, en realidad, estaremos hablando en casi todo momento de sistemas semi-autónomos, como explicaremos en las próximas líneas.

Ahora bien, independientemente del término o acrónimo empleado, lo realmente importante son las características a las que nos referimos ya que son en última instancia las que lo definen. Es aquí en donde empiezan los verdaderos problemas, pues lo que entendemos por “autonomía”, al existir varios niveles posibles en función del punto de vista desde el que intentemos explicar el concepto, puede entenderse de forma muy diferente. Si hablamos de autonomía en función de la participación o no de seres humanos en el proceso de decisión, tenemos tres niveles básicos, o tipos de SA, a saber:

  • Human-in-the-Loop: Armas que requieren de la participación humana tanto para seleccionar los objetivos como para, llegado el caso, atacarlos. Este sería el caso más básico de un UGV (Unmanned Ground Vehicle) dotado de un arma como pueda ser una ametralladora de 12,70, pero sin ninguna capacidad de Inteligencia Artificial (IA) que le permita distinguir posibles objetivos, poder que queda en manos de su operador. Es también el caso de los robots utilizados por los equipos de desactivación de explosivos, aparatos que permiten manejar los bultos sospechosos sin poner en peligro vidas, pero obedecen en todo momento a las órdenes del TEDAX a sus mandos.
  • Human-on-the-Loop: Sistemas capaces de discriminar objetivos, fijarlos e incluso atacarlos por sí mismos pero que, en todo momento, se encuentran bajo supervisión humana, de tal forma que un operador puede, en cualquier momento, intervenir sobre las decisiones que toma el sistema, corrigiendo posibles errores. Es el caso más común y en él podemos englobar desde los drones de observación y ataque (como el MQ-9 Reaper) o UGVs armados (como el TheMIS). En ambos casos, poseen autonomía a la hora de moverse, pudiendo llegar por sí mismos a la zona designada y son capaces de encontrar objetivos, pero no pueden utilizar su armamento sin intervención humana.
  • Human-out-of-the-Loop: Este último caso es el que todos entendemos por sistema autónomo, aunque como vemos la cuestión no es tan simple. Se trata de sistemas de armas que no están sujetos a control humano y que, por tanto, dependen únicamente de su programación y de la sensibilidad de sus sistemas para encontrar objetivos, seleccionarlos, establecer el orden del ataque y, en su caso, proceder a él.

Sin embargo, no es, ni de lejos, la única clasificación posible. Por ejemplo, modelos como el propuesto por Noel Sharkey nos hablan de cinco niveles de autonomía:

  • El humano toma parte en la selección de los objetivos y da la orden de ataque.
  • El Programa sugiere posibles objetivos alternativos y el Humano elige entre ellos y da la orden de ataque.
  • El Programa selecciona el objetivo y el Humano da la orden de ataque (o no).
  • El Programa selecciona un objetivo y el Humano cuenta con un tiempo limitado para cancelar dicho ataque antes de que se lleve a efecto.
  • El Programa selecciona el objetivo e inicia el ataque sin intervención humana.

También hay clasificaciones relacionadas con la complejidad ambiental, como la de Christof Heyns, que distingue entre sistemas autónomos y automáticos, en función del contexto en el que han de desarrollar su misión. Así, diferencia los:

  • Sistemas Automáticos: Es el caso, para que todos lo entiendan, de los electrodomésticos, que realizan su función en un ambiente estructurado y predecible -una lavadora espera unos pocos inputs (ropa, detergente, suavizante) que gestiona mediante una serie de programas fijos y genera, en principio, un output (ropa limpia). Ahora bien, si mezclamos la ropa de color con la blanca es posible que todo termine en catástrofe, pues la lavadora no tiene medios para detectar el problema. Se trata pues de máquinas realizan siempre las funciones para las que han sido programados, sin posibilidad de adaptarse a los diversos inputs, más allá de los programas preestablecidos.
  • Sistemas Autónomos: Funcionan en un entorno cambiante e impredecible que constantemente pone a prueba su programación y obliga al sistema a buscar soluciones a escenarios imposibles de prever. El caso más evidente es el de los drones capaces de actuar en enjambre, pues no solo deben establecer una ruta de aproximación a su objetivo y valorar la mejor forma de realizar el ataque, sino que han tener en cuenta en tiempo real las decisiones que van tomando sus pares.

No son las únicas aunque, de cara a los lectores, son clasificaciones más que suficientes como para tomar conciencia de la complejidad de definir algo que todavía está en desarrollo y que no sabemos bien qué forma va a tomar en el futuro, pues las posibles evoluciones de este tipo de sistemas, así como de su uso, son muchas.

Para lo que aquí nos interesa, atenderemos a la primera clasificación, que parece estar imponiéndose, ya que es manejada tanto por el Departamento de Defensa de los EE. UU. como por diversas organizaciones no gubernamentales como Human Rights Watch.. Adelantamos, además, que la mayor parte de los sistemas en desarrollo se pueden encuadrar en el segundo apartado de dicha escala, es decir, que son sistemas Human-on-the-Loop (o semi-autónomos) y no porque los ingenieros sean incapaces de desarrollar sistemas completamente autónomos, sino por razones éticas y morales que, tarde o temprano, como siempre ha sucedido, serán dejadas de lado en favor de aquellos sistemas más letales, algo que explicaremos.

THeMIS, de Milrem Robotics, un sistema autónomo capaz de acometer tareas muy diversas, desde logística a combate. Imagen – Milrem Robotics.

Un largo camino

Sin necesidad de retrotraernos a griegos y egipcios, que ya hicieron algunos intentos por crear ingenios mecánicos más o menos complejos, o a los autómatas de Vaucanson o Jaquet-Droz, ni a los esfuerzos, durante la Primera Guerra Mundial, de diversos visionarios por controlar remotamente algunos aviones, tanques y torpedos (Elmer Wickersham, Adolphe Kegresse…) aprovechando entre otros los avances logrados por el ingeniero español Leonardo Torres Quevedo con su Telekino, podemos considerar que la historia operativa de los primeros sistemas autónomos se remonta a la Segunda Guerra Mundial. las V1 y V2, por ejemplo, ya utilizaban un sistema de guiado automatizado, dotado de giróscopos y acelerómetros. Ahora bien, pese a lo mucho que se ha fabulado sobre ellos, no dejan de ser sistemas muy simples que, eso sí, sirvieron a los ingenieros estadounidenses y soviéticos de punto de partida para nuevos desarrollos.

Sería en la Guerra Fría cuando el desarrollo de los Sistemas Autónomos comenzase a dar como resultado diseños que todavía hoy podemos reconocer como tales. Fue en este escenario en donde los avances que se habían ido produciendo durante las décadas previas en diversos campos (robótica, informática, aeronáutica, nuevos materiales…) confluyeron para alumbrar una serie de sistemas que se pusieron a prueba en conflictos como el de Vietnam. Así, para 1960, la archiconocida DARPA (Defense Advanced Research Projects Agency) estadounidense desarrolló el UGV Shakey, un robot dotado de un sistema de navegación computerizado, de sensores inerciales y de cámara de vídeo. Para 1962 Ryan Aeronautical (ahora propiedad de Northrop Grumman) desarrolló su Model 147, un drone de reconocimiento utilizado poco después sobre China y Vietnam y que dio lugar a diversas variantes empleadas con bastante éxito (se cuentan 3.435 misiones) hasta 1975.

Precisamente en ese año hacen su aparición las bombas Paveway II, que darían lugar a toda una familia de municiones guiadas, seguidas en los 80 por las Paveway III, ya con un CEP (Círculo de Error Probable) cercano a 0. Y es que el desarrollo de las municiones guiadas, no solo de lanzamiento aéreo, ha sido imparable tanto por parte estadounidense, siendo uno de los pilares de la RMA de la Información, como por parte de sus competidores soviéticos/rusos y cada vez más de otras latitudes. Es más, es un aspecto clave de cara al desarrollo de los actuales SA, pues sin los avances en navegación y guiado sería imposible el desarrollo de los drones modernos o de las loitering munitions que ya están al llegar.

A su vez, estas municiones -como los actuales SA-, hubiesen sido imposibles sin el desarrollo de la misilística y sin la carrera espacial, que obligó a las superpotencias a encontrar soluciones novedosas a problemas complejos, como el acoplado o la separación de las naves, el aterrizaje, el diseño de una aviónica capaz de filtrar las órdenes del piloto humano para que el vehículo no se salga de lo que permite su envolvente de vuelo, etc.

En la lógica de la lanza contra el escudo, llegamos también a los sistemas de defensa antimisil y antiaérea, imposibles de concebir sin importantes avances en el campo de la automatización, en tanto el tiempo de reacción necesario para responder con un mínimo éxito al lanzamiento de misiles enemigos, pese a estar estos sistemas controlados por un operador humano, solo era posible mediante el empleo de máquinas (que no tienen porqué ser físicas, sino que pueden digitales). Algo parecido ocurre con sistemas como el Perimetr soviético, capaz sobre el papel de interpretar los inputs de diversos sensores (sísmicos, radiación, etc) como un ataque estadounidense exitoso (en su objetivo de decapitar el sistema de mando y control soviético) y de lanzar un contraataque como represalia.

Todos estos avances, que para los militares del otro lado del Telón de acero estaban provocando lo que catalogaron como Revolución Técnico-Militar, cristalizaron en la Guerra del Golfo, cuando los misiles de crucero, las bombas guiadas, los sistemas antiaéreos, los drones de reconocimiento o los nuevos sistemas de adquisición de blancos y tiro de los carros de combate se utilizaron a un tiempo provocando el colapso del ejército iraquí en pocas semanas.

He ahí la cuestión. Lo que ahora consideramos como Sistemas Autónomos serían inconcebibles sin todos esos desarrollos anteriores (y muchos otros que no tenemos espacio para citar), precisamente por la necesidad de conjugar diferentes sensores y un programa que los coordine y sepa interpretar los datos que aportan para cumplir una misión previamente programada. Un proceso de aprendizaje que en sus primeras etapas ha sido relativamente lento pero que, desde los años 90 y muy especialmente desde la pasada década y las intervenciones en Afganistán e Irak, se ha visto acelerado hasta alcanzar tasas de crecimiento exponenciales en algunos casos. Por ejemplo, durante el año 2005 los EE. UU. pasaron de contar con 150 UGV y drones de diversos tipos a más de 5.000, una cifra que una década después era de 7.000 y 12.000 aparatos respectivamente, gracias tanto a la necesidad impuesta por la presencia en los citados escenarios como a los avances en un campo concreto, el de la Inteligencia Artificial.

Es importante recalcar que han sido los conflictos post-11S los que han generalizado el uso no solo de UAS, sino también de UGV. Lo que es más, aunque los EE. UU. continúan manteniendo una importante ventaja en este campo, tanto por la experiencia acumulada como por el número de modelos en prueba o la cantidad de empresas involucradas en nuevos desarrollos, en los últimos años hemos podido ver a nuevos actores, como la Federación Rusa, entrar de lleno en esta carrera.

Para hacernos a la idea del auge que han vivido estos sistemas, en la actualidad los EE. UU operan de forma oficial una veintena de sistemas aéreos no tripulados diferentes, destacando los MQ-1C Gray Eagle, los RQ-4 Global Hawk y RQ-7 Shadow, el MQ-9 Reaper o el ScanEagle entre otros, a los que recientemente se ha unido el MQ-4C Triton.

En tierra la situación es algo diferente. A pesar de que se vienen utilizando desde hace años, entidades como Jane’s se quejan, en sus análisis, de la infrautilización de estos ingenios, que en su mayoría se emplean por parte de los equipos EOD. Sin embargo, que el US Army no se haya lanzando en masa a la adquisición de estos sistemas (se calcula que solo el 5% de los drones en uso por las Fuerzas Armadas de los EE. UU. son terrestres), eso no quiere decir que no cuenten con una boyante industria. Es más, el número de productos ofertados se ha multiplicado en los últimos años gracias a una demanda que solo puede crecer y al creciente uso de tecnologías COTS (Commercial-Off-The-Shelf) y hay interesantes productos en fases avanzadas de desarrollo como el Titan (basado en el TheMIS de Milrem). Es posible, no obstante, que el US Army haya elegido un camino diferente en cuando a la implementación de los SA. De hecho, el principal empeño se dirige no a la adopción de robots de nuevo cuño, sino a dotar de autonomía a los vehículos ya en uso, como los IFV, APC y MBT en servicio. Así, se pretende que muchos de los programas legacy (heredados), lleguen a contar con la posibilidad de funcionar de forma totalmente autónoma de aquí a pocos años, aunque esta política está en el aire después de que el Secretario de Defensa, Mark Esper, anunciara hace pocas semanas que su departamento podría poner fin a estos esfuerzos en favor de proyectos totalmente nuevos y más adecuados a las guerras del futuro, por lo que es difícil aventurar qué ocurrirá en los próximos años.

Quien sigue su propio camino es la US Navy, convencida de que la guerra naval del futuro la decidirán estos sistemas, que servirán no solo para multiplicar el número de plataformas navales con un coste aceptable, sino también para permitir nuevas formas de guerra aplicando tácticas que ahora resultan inimaginables. Y es que el potencial submarino de los UUV y USV es enorme, pues programas como el SeaHunter o el XLUUV permitirán, de llegar a buen puerto, llegar a zonas que hasta ahora estarían vetadas a los buques de la US Navy (debido a la instauración de zonas A2/AD) y atacar con cierta impunidad. Es más, harían posible cubrir extensiones oceánicas mucho mayores o proyectar el poder naval sobre tierra sin arriesgar vidas humanas y, lo que es mejor, con un coste operativo minúsculo (el coste de operación del SeaHunter se calcula en alrededor de 20.000 dólares por día frente a los más de 600.000 que cuesta mantener en servicio un destructor de la clase Arleigh Burke si sumamos conceptos como el salario de sus tripulantes).

Rusia, a pesar de llegar tarde a la carrera por desarrollar SA, tan solo en la Guerra Civil de Siria ha probado, que se sepa, los drones Granat-4, Orlan 10, Forpost, Eleron 3SV y Ptero, el UUV Galtel y los UGV Sfera, Uran-6 y Uran-9, Soratnik y Skarabey. En indudable que, pese a su desempeño desigual -y en algunos casos bastante decepcionante-, han logrado un feedback impagable que solo los escenarios de combate reales ofrecen y que les ha permitido por una parte mejorar sus sistemas y, por otra, lograr contratos de exportación. Lo que es más, ha permitido a las empresas rusas tener en catálogo más de 200 drones de diferente tipo, algo que hace solo una década era impensable y que comenzó a fraguarse en 2008, cuando tomaron conciencia de sus carencias en este área tras la tan celebrada como precaria victoria sobre Georgia. Sin embargo, la gran mayoría de los UAVs rusos en servicio tienen un peso inferior a los 30 kilos, dependiendo en la categoría MALE del Forpost, variante local de un más que superado Searcher Mk II israelí y además carente de armas por el momento. Se espera subsanar esta deficiencia con el Altius-U y el Orion, modelo este último que será adquirido a finales de año.

Posteriormente, la guerra del Donbáss ha supuesto un enorme auge en el uso de UAS y su desarrollo por parte tanto de Rusia como de una Ucrania que, aun siendo un actor de segunda fila, cuenta con ingenieros muy imaginativos y en los catálogos oficiales de su agencia de exportación de armamentos, Ukroboronexport, así como en los del organismo encargado de controlar el complejo militar-industrial, Ukroboronpron, ofrece literalmente docenas de modelos diferentes de prácticamente todos los segmentos, desde mini-drones a UCAV armados con ametralladoras y cohetes. De hecho, uno de los aspectos más fascinantes de este conflicto ha sido el uso que se ha dado a los drones no solo para tareas de observación, sino también de señalización de objetivos para la artillería, logrando un éxito rotundo en algunos casos.

China no se está quedando atrás, ni mucho menos. Está avanzando en absolutamente todos los campos relacionados con el desarrollo de Sistemas Autónomos, con especial énfasis en la Inteligencia Artificial. Además, ha logrado algunos éxitos exportadores de consideración, como el alcanzado con sus UAV de observación Wing Loong, fabricado por Chengdu y que es utilizado por Egipto, Indonesia, Pakistan, EAU o Arabia Saudita entre otros. Las variantes más avanzadas de este diseño cuentan con navegación GPS e inercial, cámaras de TV e infrarrojas, la capacidad de mantenerse en el aire durante más de 30 horas y la posibilidad de lanzar misiles similares a los Hellfire estadounidenses y cohetes. Es el más conocido, sin duda, pero el listado de vehículos no tripulados fabricados por empresas como Xian, CAIC, Aisheng, Tiancai, Hange, RADI, CASM o Zero Tech se eleva literalmente a millares de modelos diferentes, pues China es el país que domina la fabricación de aparatos civiles y ahora está aplicando ese vasto conocimiento a sus Fuerzas Armadas, aprovechando las tecnologías COTS como nadie. En tierra están trabajando en el UGV 8×8 Dragon Horse II, que se pretende introducir como mula mecánica en el Ejército de Liberación o en el King Leopard, de Norinco, dotado de un cañón de 23mm. La misma empresa también está desarrollando aparatos de reconocimiento como el Wachtkeeper, con un mástil extensible y que vendría a cumplir con el papel de nuestros VERT. Ahora bien, parece claro que los drones chinos carecen de las cualidades de sus homólogos norteamericanos o israelíes, al menos las variantes de exportación. Por ejemplo, estados como Jordania se están deshaciendo de ellos de ellos y otros como Nigeria apenas los utilizan.

El resto de estados sin duda van un paso por detrás. El caso europeo es sangrante, con multitud de proyectos que han ido quedando en agua de borrajas, por más que hayan servido para desarrollar valiosas tecnologías que podrían aprovecharse en el futuro. Con todo, empresas como Rheinmetall, que recientemente se ha hecho con la canadiense Provectus Robotics Solutions están desarrollando interesantes propuestas como el Mission Master. También el sector naval está en eclosión, con empresas como Marine Instruments lanzando modelos como el MIST, destinado a la vigilancia y seguridad de las bases navales y los buques de guerra, Naval Group presentando el UUV D19, ECA Group con su USV Inspector 90 o iXblue con su SEADRiX para guerra antisubmarina. Los modelos presentados en los últimos años solo en Europa son tantos, que ni siquiera merece la pena intentar un repaso. El lector debe quedarse con la idea de que es un sector en franco crecimiento y que tanto mayor es el número de propuestas cuanto más son los avances que se hacen en el campo de la Inteligencia Artificial, el auténtico cuello de botella a la hora de desarrollar SA.

UGV Uran-9 ruso en el desfilo del Día de la Victoria, un modelo que ha sido puesto a prueba en Siria. Autor – Dimitri Fomin.

Inteligencia Artificial

Se puede considerar como Inteligencia Artificial (IA), grosso modo, al “conjunto de acciones llevadas a cabo por una máquina (física o virtual) y encaminadas a solucionar una tarea o problema tal y como lo haría un ser humano”. Es, naturalmente, una de muchas definiciones posibles, utilizada por J. McCarthy, uno de los precursores de este campo, aunque hay otras que atienden a la forma en que estos ingenios razonan, a si dicho razonamiento es o no racional o al resultado del mismo. Además, en términos muy simples se puede diferenciar entre sistemas de IA débiles y fuertes, siendo los primeros aquellos actualmente en servicio, capaces de ejecutar programas diseñados por humanos (incluso aunque puedan aprender del entorno) pero en cualquier caso, sin capacidad para salirse de las pautas fijadas en su código y los segundos (teóricos y que algunos sostienen que jamás se materializarán) aquellos capaces de desarrollar autoconciencia, imaginación y, en resumen, todas aquellas características propias de la mente humana.

Los usos de la IA son múltiples y, aplicada al terreno militar, que es el que nos interesa, tiene el efecto de acelerar la Kill chain (o de romper su ciclo) a niveles hasta ahora desconocidos, algo que ya sucede por ejemplo con los sistemas de defensa de punto, capaces de reaccionar ante la cercanía de un misil enemigo con una velocidad que supera en varios órdenes de magnitud a la que podría alcanzar el mejor operador humano. De esta forma, el sistema de control de tiro de un CIWS Phalanx recibe datos de sus subsistemas de radar y FLIR, los procesa y pone en marcha su cañón M61 Vulcan en fracciones de segundo, para hacer frente a misiles que vuelan a velocidades supersónicas. Algo que lleva décadas utilizándose en el mar, está costando más aplicarlo al ámbito terrestre y, en casos como la guerra urbana, todavía es muy difícil que un robot pueda discriminar entre aquellos sujetos que realmente suponen una amenaza y los objetivos civiles o de otro tipo. Imagine el lector la dificultad de distinguir a un insurgente por el hecho de llevar un fusil o un lanzador de RPG, cuando en movimiento, con el ropaje y demás, los sistemas optrónicos solo distinguen una parte del arma. Ahora, añadan a la ecuación la posibilidad de que en lugar de un combatiente enemigo sea un miembro de un ejército aliado, cuerpo policial o cualquier otra cosa y tendrá una idea del reto que supone desarrollar un algoritmo capaz de hilar tan fino. Con todo, los avances están ahí y su ritmo es cada vez más rápido, aunque siempre, es indudable, habrá daños colaterales. No obstante, es posible que la misma tecnología que ahora se teme porque elimina al humano del proceso de toma de decisiones con la posibilidad de que una máquina provoque bajas por error, se perfeccione tanto en unos años que lo criminal llegue a ser dejar esa decisión en manos humanas.

Por otra parte, la IA aplicada al reconocimiento fotográfico, especialmente en combinación con sistemas de aprendizaje avanzados, permite identificar instalaciones concretas de forma inimaginable hace solo un lustro. Precisamente DARPA está trabajando en un programa que analiza fotografías aéreas y satelitales, identificando en las imágenes los sistemas antiaéreos enemigos con una fiabilidad de más del 90% y realizando en cuestión de segundos una tarea que hasta hace poco llevaba semanas o meses a los mejores analistas. El algoritmo aprende de imágenes en las que aparecen instalaciones antiaéreas detectadas con anterioridad, extrae patrones que en muchos casos escapan al ojo humano y con esos datos y los nuevos que recibe de cada fotografía que le muestran, discrimina en las siguientes imágenes las instalaciones que tiene como objeto buscar. Lo mejor es que, como sucede con todos estos programas, cuantas más veces ejecuta su tarea más hábil es llevándola a cabo.

Lo mismo sucede con los algoritmos de navegación, un asunto complejo que varía enormemente según hablemos de navegación aérea, marítima o terrestre, siendo su dificultad mucho mayor en este último medio. Con todo, lo que hace poco parecía un obstáculo formidable; un vehículo capaz de seguir el ritmo de avance de la infantería en un escenario real, está muy cerca de conseguirse, con prometedores proyectos en fases muy avanzadas de desarrollo, como los UGV Mission Master de Rheinmetall y TheMIS de Milrem Robotics, entre otros. En el mar, más sencillo por la ausencia de obstáculos físicos como piedras, árboles, cuestas, baches, etc, pero aun así impredecible por el oleaje y le necesidad de compensar las corrientes y demás factores a la hora de navegar, los UUV y USV son cada vez más comunes. Como ejemplo, los EE. UU. están trabajando no ya en pequeños robots, sino en buques y submarinos de un desplazamiento considerable, como el futuro MUSV (Medium Unmanned Surface Vehicle) que dará lugar a buques de entre 12 y 50 metros de eslora o el XLUUV (Extra Large Unmanned Undersea Vehicle), un programa a cuya fase de diseño se han asignado recientemente 43 millones de dólares y que busca dotar a la US Navy de futuros submarinos no tripulados de alcance oceánico, con una gran persistencia en misión y susceptibles de ser empleados también en aguas someras, en misiones de inserción de unidades de Operaciones Especiales o en Guerra Litoral. En el aire, por supuesto, los problemas de la navegación han sido solucionados hace mucho tiempo y fuerzas armadas relativamente pequeñas y de medios muy limitados como las españolas ya utilizan en su día a día medios como los Raven, Searcher MKII, etc, tal es su difusión.

Las ventajas de la introducción de la IA se extienden a muchos otros aspectos, como ocurre también con la puntería, en donde las máquinas podrían hacer con relativa facilidad cálculos complejos que a un tirador humano, más bajo presión, le suponen un reto insalvable. Incluso los vehículos autónomos consumirán menos que los manejados por humanos, debido a la capacidad de encontrar en tiempo real el mejor equilibrio entre velocidad y consumo. Podríamos seguir enumerando los campos en los que la IA tiene algo que decir, en relación al funcionamiento de los SA y necesitaríamos varios artículos para enumerar cada posibilidad. No obstante, una vez más, el lector ha de quedarse con una idea: La IA es la verdadera tecnología disruptiva que hará posible que los SA lo sean realmente y que, además, lleguen a superar a los humanos en rendimiento y fiabilidad en prácticamente cualquier tipo de misión que podamos imaginar, si no en todos.

Lanzamiento de un enjambre de mini-drones Perdix desde un F/A-18 de la US Navy y seguimiento de la posición de cada uno de ellos orbitando en torno a un objetivo. Fuente – US Navy.

Problemas éticos

Llegados a este punto, todos tenemos claro que los avances en diversos campos han cristalizado en una serie de sistemas capaces de llevar a cabo algunas funciones mejor que sus pares humanos. Toca pues hablar de una cuestión peliaguda y que, con perdón, en ocasiones se torna hilarante por la ceguera que muestran algunos de los expertos que tratan de limitar (con muy buenas intenciones, pero de forma muy poco realista) la introducción en el campo de batalla de SA cada vez más autónomos, valga la redundancia. Antes de exponer algunos de los debates que se están produciendo en torno a estos sistemas y al punto más crítico, esto es, que una máquina pueda decidir arrebatar la vida a un ser humano, conviene recordar una frase del general de división Juan A. Moliner que forma parte de un artículo escrito para el GESI (Grupo de Estudios en Seguridad Internacional) de la Universidad de Granada:

“La tecnología ha demostrado ser imparable y los avances que se han ido produciendo no se han detenido por ningún tipo de consideración, sea política, económica, cultural o ética. Con frecuencia, ha sido a posteriori cuando se ha logrado ajustar su utilización a las consideraciones éticas».

Es una verdad irrefutable y sobran los ejemplos históricos que lo demuestran, desde la prohibición, con efecto nulo, de la ballesta, por parte de la Iglesia Católica, en el Concilio de Letrán del año 1139, a los intentos por erradicar las bombas de racimo o las minas antipersona, cuyo uso se podrá limitar en tiempos relativamente pacíficos, pero que nadie dudará en recuperar si la necesidad aprieta.

Volviendo al tema ético, la principal cuestión que se plantea, es la de si los SA deben estar o no siempre bajo supervisión humana. Muchos entienden que debe ser así, pues la única forma de sujetar una máquina a las convenciones éticas propias de los seres humanos es dejar su control, en última instancia, en manos humanas. Ahora bien, el problema no es tan sencillo de abordar, puesto que como podemos imaginar, los sistemas Human-in-the-Loop tienen una notable desventaja frente a los sistemas Human-on-the-Loop, que reducen la carga de trabajo del operador humano significativamente y, por tanto, permiten responder a las amenazas con mayor premura. Lo mismo sucede entre estos y los sistemas Human-out-of-the-Loop, lo que produce una presión casi incontrolable hacia la adopción de estos últimos.

Así las cosas, la única forma de control racional pasa por el control ex-ante, esto es, aquel que se introduce en la fase de programación, durante el diseño del SA. Se pretende, por tanto, que los organismos internacionales lleguen a acuerdos vinculantes sobre los principios éticos que deben incluir los programas en los que se basan no solo los SA, sino la IA en general. Es una forma, entre otras cosas, de poner la venda antes de la herida, en caso de que llegue la tan temida singularidad, en la que una IA fuerte fuese capaz de superar a la humana, con consecuencias de calado imposibles de calcular, como podrían ser la automejora o la consideración del Homo sapiens como un competidor, un escenario que ya ha adelantado la ciencia ficción y que, por aterrador o fascinante que pueda parecer, difícilmente vamos a poder frenar si es que técnicamente es factible.

De hecho, ese es el problema de fondo a la hora de hablar de máquinas y ética: hemos de considerar el progreso como algo imparable en términos generales, por más que intelectuales como Jared M. Diamond nos hayan hablado sobre civilizaciones que cayeron y pueblos enteros que desaparecieron, pese a sus logros tecnológicos, de la faz de la Tierra. Nos guste o no, frente a fracasos puntuales, la historia de la Humanidad es la historia de un avance continuo y de la necesidad en muchos casos de adaptarse a él cuando este ya se ha producido. Es por ello que quien escribe es bastante pesimista respecto a la posibilidad real de frenar la utilización en los conflictos futuros de SA Human-out-of-the-Loop, pues por necesidad, tarde o temprano, uno de los contendientes dará el paso, obligando a los demás -si siguen existiendo- a hacer lo propio.

Es más, todavía se le puede dar una vuelta de tuerca adicional al asunto. Si consideramos que en poco tiempo los sistemas Human-out-of-the-Loop superarán a aquellos controlados por humanos también en lo relativo a la capacidad de discriminar entre amenazas y falsas amenazas, lo más ético sería dejar en manos de la IA esta consideración, como forma de minimizar la posibilidad de error y, por ende, los daños colaterales.

Con todo, es inevitable que ante la opinión pública y la presión de diversas organizaciones, los gobiernos se vean en la obligación de hacer algo. Además, hasta que los SA hayan avanzado lo suficiente -y no haya conflictos que justifiquen ninguna otra medida-, ciertamente es más ético perder algunos robots o fracasar en algunas misiones al dejar el control en manos de operadores humanos, que fiarlo todo a la tecnología con los previsibles fallos. Es por ello que en los próximos años asistiremos a enconados debates sobre la mejor forma de adaptar los SA a las normas tanto del Derecho Internacional Humanitario, como a los principios del Derecho Internacional de los Derechos Humanos.

La discusión, en este punto, gira en torno a conceptos como el CHS (Control Humano Suficiente) y si son adecuados para la misión a cumplir (permitir una utilización ética de los SA), son poco efectivos o, como argumentan algunos expertos, son una limitación que en la práctica supone prohibir los SA. No parece, en cualquier caso, que vaya a haber ningún tipo de acuerdo a corto plazo y menos en esta época de realineamiento geopolítico, ruptura de tratados y búsqueda de autonomía estratégica por parte de las principales potencias.

Algunos de los UAS de reconocimiento y ataque en servicio ven limitadas partes de sus capacidades por motivos éticos. Imagen – General Atomics.

Otros sistemas autónomos

Hasta aquí hemos hablado de los SA más comunes, los que todos conocemos, como UAVs, UGVs, UUVs o USVs de reconocimiento y ataque. Ahora bien, no son ni mucho menos los únicos que marcarán el futuro y conviene dejar aunque sea un breve apunte sobre otros sistemas cuyo papel puede llegar a ser incluso más relevante en las guerras que vendrán, por actuar en los niveles operacional y estratégico, frente a los hasta ahora citados, los cuales operan generalmente en los niveles táctico y operacional.

El primer conjunto de SA tiene que ver con la logística. Al igual que vemos con empresas civiles como Amazon, la logística militar de los ejércitos más avanzados, cada vez más depende de programas informáticos alimentados por lo que se conoce como Big Data y del empleo de conjuntos de robots tanto para la manipulación, empaquetado y clasificación, como para el transporte y cada vez más, la producción (caso de la impresión 3D). Son varias las naciones que están experimentando con drones de distinto tamaño para abastecer a sus soldados en el campo de batalla sin exponer vidas humanas y, además, logrando por el camino un notable ahorro (al fin y al cabo la partida de gasto más abultada de cualquier ejército siempre es el gasto en personal). China, por ejemplo, tiene en pruebas el AT200, una avioneta con un radio de acción de 2.000 kilómetros, además de varios drones medios y pesados para llevar suministros a las zonas más inaccesibles. El Ministerio de Defensa británico acaba de invertir más de tres millones de libras en un programa de drones que pretende servir para llevar suministros de forma autónoma a la “última milla”, es decir, a la línea de fuego. De esta forma podrían llevar cajas de munición, agua, víveres o medicinas a los lugares más expuestos. La palma, no obstante, se la llevan los EE. UU., país que no solo está desarrollando variantes autónomas para el transporte de cargas (Bell V-247, Sikorsky SARA…), sino también para el reabastecimiento en vuelo (Boeing MQ-25 Stingray) o mulas mecánicas (Boston Dynamics LS3, General Dynamics MUTT…) entre otros muchos proyectos no solo de las agencias gubernamentales, sino de las propias empresas, que ven un filón en estas tecnologías. Al final, si la concurrencia de tecnologías da sus frutos, la logística pasará a ser un sistema de sistemas prácticamente autónomo en su conjunto. Esto, en el caso de los EE. UU. es primordial si se pretende proyectar una fuerza considerable a distancias lejanas y entornos disputados, minimizando el gasto y las bajas, de ahí que la delantera, al menos en el terreno conceptual, la lleve el USMC.

Buque autónomo SeaHunter está en pruebas con la US Navy. Si el proyecto llega a buen puerto dará lugar a una generación de buques no tripulados capaces de realizar travesías oceánicas, luchar contra submarinos y buques de superficie, haver de avanzadilla y coordinarse entre sí. Imagen – US Navy.

El segundo conjunto de SA se relaciona con el dominio espacial. Por su naturaleza hostil a la vida, el espacio es considerado ya un dominio más, junto con el cibernético, el electromagnético y los tradicionales terrestre, aéreo y marítimo. Operar en él obligará a utilizar SA, como se ha venido haciendo desde el principio de la conquista espacial pese a los intentos por llevar humanos más allá de nuestra atmósfera. Ahora bien, lo que tenía un importante valor simbólico y científico, carece de sentido en el plano militar, en el que es más rentable y lógico confiar las operaciones espaciales a las máquinas. De esta forma, si de verdad se pretende maniobrar en el espacio, entendido como dominio, serán los SA quienes lleven a cabo dichas maniobras tanto ofensivas como defensivas. Sistemas que tomarán la forma de minisatélites orbitando a los satélites que han de defender, o de satélites dotados de brazos robóticos capaces de apresar o inutilizar los sistemas enemigos como si del Moonraker se tratara.

Algo parecido ocurre en lo relativo a las armas estratégicas, especialmente a medida que nuevos conceptos, como las armas hipersónicas, los misiles de crucero con alcances mucho mayores que los actuales o armas de tercer ataque como el Status-6 entren en servicio. Si hasta ahora la respuesta ante un ataque nuclear, protagonizado por ICBMs, SLBMs, IRBMs o bombarderos estratégicos estaba en todo momento controlada por humanos (salvo en el caso del Perimetr, como hemos visto), resulta dudoso que estos puedan intervenir -salvo para empeorar las cosas- en un enfrentamiento que será mucho más complejo e impredecible que lo visto hasta ahora.

El dominio cibernético es también el de las máquinas, aunque sean virtuales. Máquinas capaces de controlar otros programas y con ello elementos físicos, desde robots a vehículos y de plantas industriales a armamento. Hace ya casi una década desde que se detectara el malware Stuxnet, utilizado para atacar el programa nuclear iraní. Se trataba de un programa capaz no solo de replicarse a sí mismo, sino de acceder a los programas SCADA que controlan procesos industriales y reprogramarlos cambiando sus parámetros de actuación, en este caso para frustrar la producción de material susceptible de ser empleado con fines militares en la plantas nucleares persas. Y es que estamos llegando a un punto en el que las fronteras entre los dominios se diluyen y en el que gran parte de la superioridad militar del mañana vendrá no tanto del número de sistemas de que se disponga o de su calidad individual, como de la capacidad para extraer las ventajas de operar en cada momento el sistema más adecuado en el dominio más conveniente o a través de varios dominios.

USV MIST, de Marine Instruments. En poco tiempo la patrulla de los puertos y bases militares, así como de los buques de guerra, dependerá de vehículos no tripulados, en muchos casos armados. Imagen – Marine Instruments.

El futuro previsible

En los próximos años vamos a ver una eclosión de SA tanto marítimos como terrestres, los dos dominios en los que más está costando generalizar su uso por el momento, pues en el dominio aéreo hace tiempo que son una realidad. Si hasta ahora en el ámbito terrestre lo más común era utilizar sistemas controlados remotamente, pero con una mínima autonomía, lo cierto es que la tendencia hacia la construcción de verdaderos SA será cada vez más sólida por varios factores, entre los que cabe destacar: 1) La necesidad de acelerar la Kill chain; 2) La aversión a las bajas; 3) La dificultad de operar sistemas por control remoto en ambientes electromagnéticos disputados en los que el enemigo pueda degradar nuestra capacidad de controlar dichos artefactos; 4) Economía de medios, ya que no solo se ahorran vidas al no necesitar operadores relativamente cercanos al SA, sino también porque en poco tiempo será más sencillo desarrollar un buen software que convierta el sistema en totalmente autónomo, que fabricarlo con los sistemas de comunicaciones necesarios para que sea controlado remotamente; 5) La creciente importancia del combate urbano, un medio propicio al uso de AS como se ha visto en Irak o Siria, sin ir más lejos 6) Reducción de la huella logística en evacuación de heridos (y riesgos), y su posterior atención en hospital.

Incluso países como España, con un notable retraso en la adopción de estos sistemas y, por tanto, en en cuanto a experiencia de uso, reconocen en documentos como el Entorno Operativo 2035 del Ministerio de Defensa de España que:

“Existe una tendencia a dotar a los sistemas no tripulados de mayor inteligencia y autonomía, aplicando tecnologías robóticas que evitan que los sistemas deban ser pilotados remotamente. Este paradigma de teleoperación está cambiando y se quiere evolucionar hacia sistemas con mayor capacidad de decisión y mayor grado de libertad”.

Esto, en la práctica, no supone que el infante que conocemos vaya a desaparecer, sino que tendrá el complemento perfecto en estos sistemas ya que serán las máquinas las que afronten las tareas más pesadas o arriesgadas, desde la exploración y la lucha C-IED al transporte de cargas o la evacuación de heridos.

En el ámbito marítimo, son ya varios los programas que persiguen desarrollar buques capaces de realizar tanto misiones de ataque en zonas A2/AD, como de escolta de los buques principales (que previsiblemente seguirán tripulados durante décadas), como de llevar a cabo misiones totalmente autónomas tanto de obtención de inteligencia, como de ataque en superficie y submarino. Precisamente, hace escasas semanas la empresa Textron presentaba a la US Navy y al USMC un nuevo vehículo de superficie autónomo desarrollado junto con la División Dahlgren del Centro de Guerra Naval de Superficie, un organismo dependiente del Mando de Sistemas Navales (NAVSEA) de la US Navy capaz patrullar áreas seleccionadas, escoltar buques, seleccionar amenazas y, en su caso, disparar bien con su ametralladora de 12,70, bien con los misiles Hellfire de que dispone. En principio, toda la operación estaba supervisada por controladores humanos pero sus desarrolladores reconocían que, en realidad, estaba preparado para actuar de forma totalmente autónoma. No es, ni mucho menos, el único proyecto de este tipo.

Israel, por ejemplo, hace tiempo que de la mano de Rafael ha desarrollado el Protector. Especial relevancia tiene, en cualquier caso, el programa SeaHunter, que va un paso más allá y abre la puerta a la creación de enjambres de buques al permitir a estos coordinarse entre sí para decidir la mejor forma de cubrir un área naval y, una vez localizado el objetivo, elegir cual es el buque mejor posicionado para destruirlo, todo ello sin intervención humana.

Esta última es la clave del futuro, más allá de los SA individuales. Los enjambres (drone swarms) son, por decirlo de alguna forma, la quintaesencia de los SA. La constitución de enjambres, que puede llevarse a cabo en cualquier dominio, será una realidad en primer lugar en el aire por razones obvias, dado que es mucho más fácil evolucionar en el medio aéreo, como hemos indicado anteriormente, que en el mar o en la tierra. Las investigaciones van sumamente avanzadas en este área, con programas como LOCUST (Low-Cost UAV Swarming Technology), OFFSET (OFFensive Swarm-Enabled Tactics) o los famosos Perdix, que llevaran a cabo en octubre de 2016 una demostración, con 103 drones lanzados desde un cazabombardero F/A-18 Super Hornet y evolucionando alrededor de diferentes objetivos. El Reino Unido también parece haber avanzado mucho en este sentido y anuncia que dispondrá de enjambres listos para pruebas (seguramente sean loitering munitions y no exactamente drones) a finales de este mismo año. China y Rusia, por supuesto, también tienen sus propios programas, pues todos entienden que será un campo de desarrollo primordial por sus posibilidades.

En este punto conviene hacer un pequeño inciso, porque existe muchísima confusión acerca de lo que es un enjambre, utilizándose esta denominación normalmente para cualquier ataque con múltiples drones, como los que se han visto sin ir más lejos con las bases rusas en Siria. Ahora bien, la cuestión no es tan sencilla. Un grupo de drones lanzado de forma coordinada no constituye un enjambre. Para ello hace falta que dichos vehículos estén dotados de una IA suficiente como para: 1) Conferirles un nivel de autonomía que les permita volar de forma autónoma hacia el objetivo prefijado o los objetivos que se le indiquen durante la ruta y; 2) Ser capaces de elegir por sus propios medios, en base a la información que les faciliten sus sensores y a los datos que reciben de sus iguales la posición a ocupar en cada momento dentro del enjambre, la mejor ruta de aproximación hacia el objetivo, qué rol adoptar en caso de que parte del grupo sea neutralizado y qué hacer si el ataque culmina con éxito en función de si quedan o no nuevos objetivos por batir, entre otras muchas cosas. Se necesitan, por tanto, una enorme capacidad de cálculo y un gran ancho de banda para manejar semejante cantidad de datos en tiempo real, además de una inteligencia artificial “colectiva”, que decida no solo lo mejor para cada drone en cada momento de la misión sino también lo más adecuado para el conjunto y, por supuesto, todo ello sin intervención humana de ningún tipo, salvo para asignar objetivos o abortar la misión, pues no hay humano capaz de gestionar una situación en la que se ven implicados decenas o cientos de aparatos.

Por último, al hablar sobre el futuro, conviene dejar al menos un apunte sobre la posible adopción de SA por parte de actores no estatales, como grupos terroristas, o de estados fallidos o díscolos y su probable utilización contra nosotros. Se ha visto en Siria lo que se puede conseguir con un ataque coordinado, que ha necesitado de pocos recursos, contra aviones que valen decenas de millones de euros. Hemos visto también como se utilizan lanchas controladas remotamente en conflictos como el de Yemen (ver Número 9) y no tardará en llegar el día en el que en lugar de una, se coordinen ataques con una docena de pequeños UUV y USV, algo contra lo que nuestros buques todavía no están preparados para lidiar y que las redes de protección no van a frenar si están bien ejecutados. Si esta perspectiva resulta aterradora ahora que las tecnologías de swarming todavía no se han generalizado y que suponen inversiones millonarias, el día en que lo hagan y realmente los ataques estén coordinados y los enjambres lanzados por los terroristas funcionen en modo totalmente autónomo, el resultado puede ser demoledor para los ejércitos peor preparados, por lo que conviene adoptar cuanto antes las tecnologías capaces de enfrentarse a tamañas amenazas.

El programa XLUUV de la US Navy busca un submarino capaz de realizar patrullas oceánicas de forma autónoma. Fuente – Boeing.

Conclusiones

Los actuales SA han sido posibles únicamente por la conjunción de una serie de desarrollos tecnológicos que llevan fraguándose durante décadas, como es el caso de los avances en navegación, comunicaciones, nuevos materiales, robótica o inteligencia artificial. La actual generación de Sistemas Autónomos no obstante está formada, en realidad, por sistemas semi-autónomos, en los que la IA se utiliza para facilitar la tarea del controlador humano, maximizando la letalidad y ahorrando bajas, pero no para sustituirle, pues la mano del hombre siempre está detrás.

El estado del arte permite ya el despliegue de sistemas totalmente autónomos, capaces no solo de alcanzar el objetivo por sus propios medios, sino de ejecutar todo el bucle de decisión (kill chain) a una velocidad inalcanzable para los operadores humanos. Si no se han introducido ha sido tanto por los debates éticos abiertos, como porque todavía no se ha dado ningún escenario que fuerce su despliegue.

Los debates éticos giran en torno a dos aproximaciones básicas: 1) La búsqueda de acuerdos que impidan la adopción de sistemas de armas totalmente autónomos; 2) La posibilidad de introducir, en el código de estos sistemas, medidas que maximicen la protección del ser humano. Ambos caminos, en la práctica, conducen a una vía muerta, pues como ha ocurrido siempre a lo largo de la Historia, pese a las prohibiciones, los nuevos armamentos han terminado entrando en servicio cuando la guerra ha obligado a ello.

La Inteligencia Artificial es el aspecto crítico en la evolución de estos sistemas y serán los avances en este campo los que permitan su generalización y su utilización para multitud de tareas que actualmente continúan en manos del ser humano. Desde la logística a la guerra espacial y de la ciberguerra a la fabricación de recambios sobre el terreno, pues ni mucho menos todos los sistemas serán de combate.

En la próxima década viviremos una eclosión sin igual de los SA, especialmente en los ámbitos terrestre y marítimo, en los que avanzan con cierto retraso por las dificultades inherentes al movimiento en estos espacios. Esto tendrá su máxima expresión en la adopción de enjambres capaces de actuar en grupo, coordinándose en tiempo real en base a una IA colectiva y sin ningún tipo de control humano, salvo a la hora de definir objetivos o abortar una misión.

Por estos y por muchos otros factores, podemos decir que la guerra, en el caso de los países desarrollados, que cada vez sufren menos bajas para lograr sus objetivos, cambiará su naturaleza. Con la tecnificación creciente del campo de batalla se abre un capítulo nuevo en el que los ejércitos de masas se verán eclipsados por los combatientes robóticos. Lo que es más, lejos de la idea de que los sistemas robóticos son solo vehículos, buques o aviones -armados o no-, hay toda una revolución en segundo plano que afecta a capacidades como la de identificación de objetivos -algo que la IA hace infinitamente mejor que los seres humanos analizando por ejemplo imágenes por satélite y localizando instalaciones militares- o la criptografía.

Un último aspecto difícil de prever es el papel que jugará la generalización de estas tecnologías. Su posible utilización por parte de grupos terroristas, insurgentes o naciones díscolas y el nivel de maduración que podrían llegar a lograr constituyen un enigma, pero nos obligará a estar prevenidos por las implicaciones que podría tener. ■

Autor

Be the first to comment

Leave a Reply