El enorme conjunto de cambios tecnológicos y científicos que se había venido dando desde los años 20, unido al contexto geopolítico de la Guerra Fría y al varapalo que supusieron para los Estados Unidos tanto la derrota en Vietnam, como la constatación de la creciente superioridad cuantitativa soviética, son los elementos que estuvieron detrás del lanzamiento de la Second Offset Strategy. Una iniciativa directamente relacionada con todo lo que hoy consideramos novedades a nivel militar, desde la drónica al empleo de sistemas de gestión del campo de batalla o la digitalización de los sistemas de armas, pero que tienen su origen hace más de medio siglo. Los estadounidenses, sabiendo que por la vía del número no podían competir con los soviéticos, y tratando de ser coherentes con lo que algunos autores han denominado “American Way of War”[1], hicieron a finales de los años 70 y principios de los 80, coincidiendo con los mandatos de Jimmy Carter y Ronald Reagan, un esfuerzo presupuestario y tecnológico decidido, destinado a ampliar la ventaja tecnológica de sus Fuerzas Armadas, en la convicción de que ese era el camino para contrapesar las inversiones soviéticas e imponerse en la Guerra Fría. Máxime en un momento en el que la economía de la URSS comenzaba a dar claros signos de estancamiento, lo que repercutía sobre su capacidad de seguir el ritmo de la competición militar y tecnológica[2]. Y lo consiguieron, hasta el punto de que abrieron la puerta a lo que podríamos denominar como «Era de la Información».
Índice
- Introducción
- Nuevas armas
- Y nuevas ideas
- Más y más aportes
- «Guerra en Red» y «Guerra Centrada en Redes»
- El impacto de la Second Offset Strategy
- Notas
- Bibliografía y fuentes
Introducción
Esta serie de artículos, como explicamos en el primero de ellos, no tiene como objeto adelantar el futuro de la guerra, sino más bien hablar cómo se veía dicho futuro unos años atrás y cómo se ha llegado hasta el presente, a veces por caminos un tanto sinuosos.
En la primera entrega, tratamos sobre la guerra de Tercera Ola, explicando las aportaciones de los Toffler. En esta ocasión, vamos a ser menos teóricos y algo más prácticos, retrocediendo de paso un poco en tiempo para hablar sobre un capítulo fundamental: la Second Offset Strategy estadounidense. Esta fue, a pesar de su nombre, más que una estrategia un un conjunto de iniciativas con un objetivo claro (desarrollar las herramientas tecnológicas necesarias para imponerse frente a una Unión Soviética superior en términos cuantitativos), pero sin demasiada ligazón entre ellas.
Lo más relevante, en cualquier caso, es que la puesta en marcha de la Second Offset Strategy permitió no sólo desarrollar nuevas y rompedoras tecnologías sino también, como consecuencia, iniciar una serie de debates que cambiaron radicalmente la forma de entender la guerra y, con el paso del tiempo, la forma de librarla. Tanto fue así, que todavía hoy seguimos pensando en los términos que se derivaron de este debate, de forma que lo que consideramos más alucinante y nuevo es, en muchísimos aspectos, una puesta en práctica de las posibilidades que se abrieron en los años 70 y 80 del pasado siglo.
Los orígenes de la Second Offset Strategy[3], dicho esto, merecerían un artículo propio, aunque lo obviaremos ya que son muchos los autores que han tratado el tema y difícilmente podemos aportar nada nuevo[4]. Además, desviaría a los lectores del hilo del artículo. Baste decir que la serie de programas y de propuestas englobadas dentro de esta iniciativa, que “superó las presidencias de Nixon, Ford, Carter y Reagan”[5] han seguido desde hace medio siglo determinando el cómo se hace la guerra. Algo que es así por más cambios que queramos ver en conflictos recientes como el de Ucrania.
Como se ha explicado en la entradilla, Vietnam y la superioridad convencional soviética jugaron un papel relevante a la hora de decidir al Departamento de Defensa estadounidense a lanzar una nueva estrategia de compensación. El elemento decisivo, sin embargo, fue la constatación de que la URSS había alcanzado en 1973 a los Estados Unidos también en cuanto a número de cabezas nucleares, desplegando además en 1975 el misil SS-19, equipado con MIRV[6]. Lo que es más, para 1979 superaría ampliamente en número de ojivas a su oponente norteamericano. No era cuestión baladí, pues la paridad (y no digamos una hipotética supremacía soviética) ponía en tela de juicio la doctrina y las políticas en vigor, provocando importantes debates y una revisión de muchas de las asunciones que se habían hecho hasta entonces en relación con la disuasión, como la validez de la Destrucción Mutua Asegurada, fuertemente cuestionada por entonces[7].
Los Estados Unidos, en esa tesitura, debían encontrar una forma de cuadrar el círculo, ya que la solución tenía que ser lo suficientemente buena como para recuperar la libertad estratégica, es decir, la iniciativa, pero manteniendo el control de la escalada, de forma que cualquier movimiento no terminase sin quererlo en una guerra nuclear. Para ello, comenzaron por el personal, de forma que se pueden situar los orígenes de la Second Offset Strategy en:
“El nombramiento de Malcolm S. Currie en 1973 como Director de Defensa para Investigación e Ingeniería (DDR&E), y su posterior dirección a la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) para abordar la amenaza convencional soviética. Currie nombró a George Heilmeier director de DARPA en 1974, encargándole contrarrestar los avances militares soviéticos aprovechando los avances tecnológicos, lo que permitió a las fuerzas estadounidenses y de la OTAN desplegar capacidades generaciones por delante de los sistemas actuales”[8].
Los movimientos fueron inmediatos. Ese mismo año 1973 se lanzó el Long-Range Research and Development Planning Program, liderado por la Agencia de Proyectos de Investigación Avanzada y la Agencia Nuclear de Defensa, en el que se identificaban los conceptos y tecnologías que harían posible compensar la superioridad convencional y nuclear soviética[9]. En buena medida, se trataba de multiplicadores de fuerza, caso de los sistemas de posicionamiento global (GPS), los sensores y plataformas de inteligencia, los sistemas de vigilancia y reconocimiento (ISR), las armas inteligentes o los diseños furtivos, todos los cuales permitían que, a igualdad numérica, la letalidad de la fuerza que implementase dichos avances fuese muy superior. Currie, de hecho, compareció ante el Congreso, proponiendo que el 40% del presupuesto de I+D para el año fiscal 1977 (más de 4 mil millones de dólares de la época) se destinara a investigar las tecnologías citadas.
No fue, sin embargo, el único protagonista de una historia en la que también tomaron parte el subsecretario de Defensa para Investigación e Ingeniería, William Perry[10], quien por su experiencia profesional conocía de primera mano las posibilidades que podrían llegar a ofrecer los microchips y los incrementos en la capacidad de cómputo en el ámbito militar. Y, por encima de Perry, estaba Harold Brown, quien tampoco era una persona corriente, pues fue el primer científico en liderar el Departamento de Defensa norteamericano siendo, además, un sujeto con un bagaje lo suficientemente amplio -incluyendo 4 años como Secretario de la Fuerza Aérea y 8 al frente del prestigioso California Institute of Technology- como para ser respetado por tirios y troyanos (que los había, dentro del Pentágono, en la industria de defensa y en la Administración). El tipo de persona capaz de dejar una institución por entonces sumida en las dudas[11] en la dirección correcta: la de desplegar “cantidades menores de equipo extremadamente capaz y de alta calidad, tecnologías de vanguardia y conceptos operativos asociados”[12].
El caso es que los astros se habían alineado de tal forma que en prácticamente todos los escalones se disponía de personas capaces y con visión. Además, la mayor parte de ellas procedían del sector de la alta tecnología. Lo que fue mejor, las directrices que fueron marcando y los programas iniciados tuvieron continuidad, ya que la dirección conferida por Brown y compañía fue, en lo sustancial, respetada por los siguientes presidentes y secretarios de Defensa, durante los años 80. Es más, la inversión en Defensa, que Carter había prometido disminuir, aumentó sustancialmente tanto durante su mandato como en el posterior de Ronald Reagan, quien además lanzó la conocida Iniciativa de Defensa Estratégica (SDI).
Al mismo tiempo, y en paralelo, se lanzaron programas de concienciación de la población, con iniciativas de lo más interesantes, desde películas de Hollywood que contaron con financiación del Departamento de Defensa, hasta las series de libros sobre “El poderío militar soviético” publicados por la Defense Intelligence Agency (DIA) en los que se buscaba no tanto dar una idea real de las capacidades del Pacto de Varsovia, como convencer al público general sobre la necesidad de invertir en defensa, constituyendo, básicamente, “una pieza de propaganda cuidadosamente elaborada”[13]. De ahí que se llegasen a incluir capítulos, como en el volumen de 1982, en los que se hablaba sobre la erosión de la superioridad tecnológica occidental frente al bloque comunista, con frases como:
“Durante la década de 1970, los soviéticos han reducido drásticamente la ventaja de Estados Unidos en prácticamente todas las tecnologías básicas importantes. Estados Unidos está perdiendo su liderazgo en tecnologías clave, como sensores electroópticos. guiado y navegación, hidroacústica, óptica y propulsión”[14].
Los intentos por hacer de la tecnología un vector asimétrico frente a los soviéticos, llegarían a su apogeo con la citada Iniciativa de Defensa Estratégica[15] de 1983, tras el colapso de las negociaciones de control de armas de la década anterior y la nueva escalada armamentística. Reagan, quien consideraba que el equilibrio estratégico basado en la Destrucción Mutua Asegurada era precario y moralmente inaceptable, se propuso superar ese estado de cosas a través de un escudo defensivo capaz de proteger tanto a los propios Estados Unidos como a sus aliados, poniendo a los soviéticos en una tesitura en la que tendrían o bien que aceptar reducciones en los armamentos estratégicos, o una ventaja norteamericana en un hipotético intercambio, gracias a la posibilidad de defenderse de un segundo ataque[16].
La idea, independientemente de la valoración que merezca a cada uno, era técnicamente muy difícil de implementar, tal y como advirtieron numerosos científicos a la Casa Blanca. Además, escondía un potencial escalatorio evidente -amén de que el espacio dejaría de ser un santuario[17]– y, de hecho, los soviéticos llegaron a pensar que los Estados Unidos estaban preparando un primer ataque poco después, coincidiendo con las maniobras Able Archer de noviembre de 1983[18].
Pese a todo, tuvo la virtud de someter a la Unión Soviética a un esfuerzo financiero y tecnológico que su anquilosada economía no pudo soportar y que estuvo directamente detrás de su posterior colapso, a pesar de los intentos e Gorbachov por reconducir la situación.
Nuevas armas
En el marco de la Second Offset Strategy vieron la luz decenas de proyectos, muchos de los cuales terminaron germinando en forma de armas, sistemas de armas y plataformas rompedores que, en última instancia, permitieron disponer de capacidades militares antes impensables.
Un repaso rápido nos lleva a nombres tan significativos, en lo que concierne a la USAF, como el F-117 Nighthawk, desarrollado por Lockheed a petición de la DARPA a partir del demostrado Have Blue a partir de la segunda mitad de los 70. También a los bombarderos B-1B Lancer y B-2 Spirit, de los cuales particularmente el segundo se beneficiaría de las tecnologías furtivas aparecidas en los años previos. Eso por no hablar de los aviones de alerta temprana y Mando y Control E-3 Sentry, que proporcionaron capacidades de vigilancia y coordinación desconocidas hasta entonces.
Si hablamos del US Army, nos encontramos con el archiconocido Big Five[19], pero también con desarrollos como el Tactical Fire Direction System (TACFIRE) para las unidades de artillería, que comenzó a entrar en servicio en 1979 o el sistema de comunicaciones tácticas Mobile Subscriber Equipment (MSE), así como con el Joint Tactical Information Distribution System (JTIDS)[20], que permitió coordinar a las fuerzas aéreas y terrestres en una red común sin miedo a interferencias.
La US Navy, por su parte, vio entrar en servicio sucesivamente los F-14 y, especialmente, los F/A-18. Aparatos de 4ª generación que integraban radares avanzados (como el AWG-9 y el APG-65) y misiles guiados como el AIM-54 Phoenix y el AIM-7 Sparrow. Además, al igual que la USAF con el E-3 Sentry, los marinos estadounidenses integraron los E-2 Hawkeye en sus portaaviones. No sólo eso, sino que en el futuro pudieron proyectar el poder naval sobre tierra no sólo gracias a la aviación, sino también a los misiles Tomahawk, lanzados entre otros por los novísimos submarinos de ataque de propulsión nuclear clase Los Ángeles y por los cruceros de la clase Ticonderoga, equipados además con el sistema de combate AEGIS, que combinaba radares AN/SPY-1 y misiles superficie-aire SM-2.
(Continúa…) Estimado lector, este artículo es exclusivo para usuarios de pago. Si desea acceder al texto completo, puede suscribirse a Revista Ejércitos aprovechando nuestra oferta para nuevos suscriptores a través del siguiente enlace.
IMPORTANTE: Las opiniones recogidas en los artículos pertenecen única y exclusivamente al autor y no son en modo alguna representativas de la posición de Ejércitos – Revista digital sobre Defensa, Armamento y Fuerzas Armadas, un medio que está abierto a todo tipo de sensibilidades y criterios, que nace para fomentar el debate sobre Defensa y que siempre está dispuesto a dar cabida a nuevos puntos de vista siempre que estén bien argumentados y cumplan con nuestros requisitos editoriales.

Be the first to comment