
Los drones de guerra, esto es, los vehículos no pilotados o pilotados remotamente, han llegado para quedarse. Asentados ya en muchas funciones de apoyo, se postulan ahora como un elemento sustitutivo de los sistemas de armas tradicionales. Bajo el paradigma del ahorro en vidas humanas (riesgo de atrición) e impulsados por la incipiente Inteligencia Artificial (IA), amenazan con reemplazar por completo a gran parte del personal que actúa en un campo de batalla.
Conceptos básicos sobre los drones de guerra
La primera distinción clara que podemos hacer en relación con los drones de guerra tiene que ver con la intervención de los humanos en su control. Por un lado, están aquellos manejados por un operador, y que cada vez con más frecuencia se emplean por parte de los diferentes ejércitos. Por otro, aquellos otros que a caballo de una nueva revolución tecnológica, están llamados a tomar decisiones por sí mismos, mediante sistemas de software avanzado conocido comúnmente por inteligencia artificial (AI).
Por lo general, lo que conocemos por drones de guerra, vehículos no tripulados o armas autónomas, ya sean aéreos, terrestres o navales, cumplen tres condiciones básicas que los distinguen de otro tipo de artefactos, que son:
- Ser reutilizables.
- Tener control humano continuado.
- Operar a distancia del operador mediante conexión remota.
Esta última distinción es importante, pues incide en la vulnerabilidad inherente al uso de vehículos de control «remoto», diferentes a los que usan mandos de control que evitan al operador compartir espacio físico con el aparato (por ejemplo un robot EOD o un vehículo desminador) pero que tienen la conexión asegurada por cableado o señal de alcance visual (Line of Sight o LOS).
Ni que decir tiene que esto excluye igualmente a las torretas remotas que se instalan en vehículos, aeronaves (especialmente helicópteros) o embarcaciones, y que son operadas de forma directa por un ser humano, si bien no toma asiento en la instalación propiamente dicha. Es curioso ver como la pujanza de estos sistemas es, especialmente en los terrestres, algo contradictoria; pues ni han reducido el volumen del afuste (pese a no acomodar tripulantes, o mejor dicho hacerlo en otra parte del vehículo) ni permiten solventar cualquier problema de funcionamiento en los automatismos (giro/elevación, alimentación, pérdida de visores, etc).
Del mismo modo, podemos afirmar que, de lograrse un funcionamiento completamente autónomo (mediante la denominada Inteligencia artificial o IA) dejaríamos de hablar de un dron, entrando ya en lo que sería un sistema de armas cibernético.

Artificial sí, pero no tal inteligencia
Sobre este asunto realmente controvertido hay mucho que discutir; especialmente en lo que se entiende por AI. En realidad hace muchos años que esta «inteligencia artificial» está con nosotros, y no parece haber supuesto ninguna revolución en los asuntos militares (RMA) sino más bien la lógica evolución que la electrónica y la informática han venido realizando durante varias décadas no solo en los ejércitos, también en nuestros trabajos y hogares.
Si entendemos la IA como sistemas autónomos que, con gran capacidad de proceso, asisten al ser humano en la toma de decisiones y en la interpretación de ingentes cantidades de datos, no hay tal revolución.
Solo por recordar el ejemplo más notorio y conocido por cualquier aficionado: la capacidad de un ordenador para «fusionar» diferentes sensores, contrastar los datos que captan, analizarlos con diferentes librerías pre-programadas y convertirlo en información útil al operador, es algo habitual en los complejos y avanzados sistemas de armas modernos, como pueda ser un cazabombardero; permitiendo así al piloto o pilotos (la posibilidad de reducir tripulantes ha sido solo uno de sus beneficios) centrarse en la toma de decisiones, ajenos a cálculos laboriosos (distancia al objetivo, velocidad, priorización de amenaza, medidas defensivas, frecuencias de comunicación, mapeado, etc) que ponen en riesgo su eficacia y limitan su concentración para ejecutar con éxito la misión.
Ahora bien, si de lo que se trata es de que una máquina sustituya al piloto en este último eslabón dentro del proceso comúnmente conocido por «misión de combate» la cosa ya cambia notablemente. La automatización de los procedimientos, algo tan simple como ejecutar programas de vuelo automático, estabilización en emergencia e incluso tomar el control de un vehículo en caso de pérdida (de control) del piloto. Esta ya forma parte no solo de los avanzados sistemas de armas, sino incluso de nuestra vida cotidiana (véanse los sistemas de ayuda a la conducción de cualquier turismo moderno); otra cuestión muy distinta es que la máquina anule nuestra capacidad de decisión, no cuando una distracción o un desmayo ponen nuestra vida en peligro, sino cuando puede ir en contra de nuestra voluntad y de nuestra capacidad de discernir el comportamiento correcto en cada ocasión.
Si un coche es incapaz de entender que acelerar en un adelantamiento mal calculado puede suponer culminar con éxito una maniobra que en caso de frenar (prudentemente) acabará en choque frontal, no podemos dejarle el control. Igualmente un cazabombardero o un misil, no puede discernir si el blanco asignado debe ser batido o no en virtud del daño que provoque a fuerzas propias o no combatientes, no puede discriminar efectos políticos y sociales, no interpreta características del comportamiento humano ni puede valorar la eficiencia en recursos (incluidos los humanos) de una acción determinada.
¿Pondrían en manos de un algoritmo la decisión de sacrificar soldados en favor de la supervivencia de una unidad superior? ¿Qué tasa de atrición es asumible en la consecución de cualquier objetivo militar? Preguntas siempre difíciles para un comandante, inasumibles para un sistema automatizado y para el poder político-militar que lo implementó.
No es de extrañar que el empleo de máquinas para asumir tareas milenariamente atribuidas al ser humano genere controversia. No es la primera vez, el uso de submarinos, armas nucleares o stand off, e incluso de tiradores selectos (francotiradores) y toda otra ventaja táctica que otorgue a un bando impunidad, se ve desde las sociedades occidentales más avanzadas como una perversión y un abuso de poder.
Esta tergiversada y errónea visión caballeresca de la guerra, que procede de la antigüedad (y que aún influía en muchos pilotos de caza de la Primera Guerra Mundial) es incompatible con la eficacia en el ejercicio de la profesión de las armas y nace de una visión política basada en argumentos más o menos discutibles sobre la opresión con la que Occidente somete a otros pueblos más atrasados (algo obvio en otras épocas de colonización masiva).
La IA representa el último paso en este proceso de deshumanización de la guerra y causa un gran impacto en los aspectos éticos y hasta jurídicos de la misma. No debemos olvidar que las guerras, justas o no, son terribles actos de violencia que generan un rastro siempre indeseable de muerte y destrucción, afectando por desgracia no solo a los profesionales de las armas, sino a los pueblos (personal no combatiente) e incluso al medioambiente (desastres ecológicos que a la postre generan más miserias a la Humanidad).
Con esta perspectiva, que los causantes de tal desatino no se dignen a «morir por su causa» y empleen nuevas tecnologías para obtener sus fines, sin la presión añadida de poner a sus ciudadanos en riesgo (una masacre como Verdún puede poner fin por sí sola a un conflicto, haciendo reflexionar a los gobiernos) puede banalizar los aspectos negativos de la guerra e impulsar políticas exteriores aún más agresivas.
La idea es francamente aterradora, por ello debemos ser prudentes a la hora considerar propuestas que rozan el concepto literario de ciencia-ficción. En cualquier caso, si se diera la tecnología necesaria la pregunta ya no sería si se puede, sino si se debe hacer algo semejante. Precisamente porque suprimir el sufrimiento humano de los acontecimientos bélicos puede acabar con la no deseable deshumanización de la guerra.
En realidad, la auténtica IA (IA fuerte), entendida como un sistema cibernético similar a nuestro cerebro, capaz de pensar por sí mismo, es aún territorio exclusivo de la citada ciencia-ficción. No sólo ya por la fantasiosa visión de un ser artificial capaz de tener «conciencia del ser» y mucho menos sentimientos; tan solo la capacidad de aprender, de construir ideas por sí mismo o resolver problemas complejos, es decir, pensar; está fuera de las capacidades de la tecnología actual.
Lógicamente, estas cuestiones no afectan a las armas que actúan según los deseos de sus tripulantes, estén o no presentes en el mismo espacio físico que el artefacto en cuestión; en realidad, dicho concepto se aplica hace mucho tiempo, y dista de ser exclusivo de los drones de guerra. Un simple misil, guiado por un radar, por una señal satélite o por un sistema «inteligente» que contrasta las imágenes que capta su sensor con una ‘visión’ preprogramada del blanco buscado, con o sin capacidad de abortar o cambiar la misión una vez empezada (hasta cierto punto, muchos sistemas actuales comparten las inquietudes que apuntábamos para la IA) es un sistema autónomo y hará el trabajo que se le ha encomendado sin exponer a su controlador al fuego enemigo. Veremos cuán difusa es la frontera entre ambos conceptos cuando tratemos el uso de municiones merodeadoras y/o drones suicidas.
Por tanto ¿Qué es un dron? Sin querer generar una definición académica, podemos decir que un simple artefacto de control remoto (fuera de la línea de visión) supervisado de forma continua por un operador humano.

Be the first to comment