Autorizando una guerra nuclear: el caso de Okinawa

Juegos de Guerra

– “No es procedimiento correcto

– Al diablo el procedimiento, quiero hablar con alguien antes de matar a veinte millones de personas

– … General, todos sabemos que [sus hombres son magníficos]. Pero no podemos permitirnos que en una guerra nuclear nuestros misiles se queden en sus silos porque nuestros hombres se niegan girar una llave cuando las computadoras se lo ordenan.”

[Juegos de Guerra, 1983]

Hace algunos días, en algún lugar, alguien publicó una entrevista con un título similar a “hemos sobrevivido a la Guerra Fría y ya ven, no somos tan tontos.” No recuerdo quién lo dijo, dónde o por qué, pero poco después leí una historia que me reafirmó en una creencia: sí somos tan tontos. Si hemos sobrevivido a la guerra fría durante tantos años es solamente porque hemos tenido una suerte loca.

La siguiente historia fue publicada hace poco en el Bulletin of the Atomic Scientists, un foro especializado en temas relativos a las armas nucleares, y se basa en un relato hecho por uno de los actores principales del que podía haber sido la última tragedia en la historia de la Humanidad Aún no ha sido confirmada oficialmente. La narro aquí porque ilustra un problema relacionado con la emisión y autenticación de órdenes, en la que la criptografía juega un papel principal.

Ya habrán visto ustedes películas de tiempos de la Guerra Fría. La base de misiles o el submarino recibe una orden. Los tripulantes proceden a autenticarla para verificar si se trata de una broma o de una orden real. Se comparan los códigos recibidos con los guardados en una caja de seguridad, y se actúa en consecuencia. En ocasiones los códigos son una birria y sirven lo mismo que nada, como ya comenté en mi artículo Los códigos del Juicio Final; otras veces la cadena de mando se fragmenta y los oficiales deben hacer su elección sobre qué órdenes obedecer, como en la película Marea Roja. Esta historia combina un poco de ambas cosas.

Nos encontramos en la madrugada del 28 de octubre de 1962. La crisis de los misiles de Cuba se encontraba en su apogeo en esos momentos y todas las fuerzas estratégicas norteamericanas se encontraban en alerta DEFCON-2, la antesala de la guerra total. Eso incluía la base aérea de Kadena, en Okinawa, donde el aviador John Bordne, nuestro testigo presencial, comenzaba su turno de trabajo.

Se suponía que Okinawa no albergaba misiles nucleares, pero lo cierto es que era una potencia nuclear en sí misma. Kadena albergaba una base secreta de lanzamiento de misiles nucleares: nada menos que 32 misiles nucleares tácticos Mace B. Los misiles formaban parte del Grupo de Misiles Tácticos 498 y estaban repartidos en cuatro emplazamientos de lanzamiento. Con un alcance de 1.500 kilómetros, podían alcanzar objetivos en Hanoi, Pekín y Vladivostok desde la isla de Okinawa y destruirlos con su cabeza nuclear de 1,1 megatones (unas 70 veces la potencia de la bomba de Hiroshima).

Kadena

Imagen: uno de los emplazamientos de lanzamiento de misiles Mace B en Kadena, Okinawa. Ahora es un templo budista (foto Clancy)

Había dos centros de control en cada emplazamiento, y cada centro de control estaba dirigido por un oficial de lanzamiento. En total eran ocho centros de control y ocho oficiales de lanzamiento, cada uno de ellos responsable de cuatro misiles.

La noche comenzó con tranquilidad, pero a mitad del turno el comandante del centro de operación de misiles de Okinawa transmitió un mensaje a los cuatro emplazamientos. Se trataba de un informe meteorológico rutinario, pero al final aparecía un mensaje en tres partes. La primera parte era un código alfanumérico que indicaba la transmisión inmediata de un mensaje importante. En otras ocasiones dicho mensaje sería un test de prueba, pero con la base en DEFCON-2 todos sabían que no sería un test.

La segunda parte del mensaje era un indicativo de lanzamiento. Puesto que era correcto, el oficial de lanzamiento tenía que recibir la tercera parte del mensaje, que era un código de lanzamiento, y compararla con la copia guardada en el centro de control. Eso es lo que hizo el capitán William Bassett, que estaba al mando del centro de control en el que Bordne hacía guardia. El código de lanzamiento era el correcto. Había que disparar los misiles.

El siguiente paso que el capitán Bassett debía dar era abrir un sobre que contenía las claves de lanzamiento y la información para programar los misiles hacia sus blancos. Por supuesto, era reacio a hacerlo. Por mucho que las instrucciones hayan llegado de forma reglamentaria y los códigos de autorización hayan sido autenticados, los problemas éticos pesaban muy fuerte. El dilema del capitán Bassett se agudizaba porque no se cumplía una condición crítica: los lanzamientos de misiles nucleares exigen un grado de alerta DEFCON-1, el más alto, y el grado de alerta vigente en esos momentos eran DEFCON-2.

Bordne, testigo presencial, recuerda que Bassett dijo algo como “puede ser [la orden de lanzamiento] auténtica o puede ser la mayor jodienda de nuestras vidas.” Podían estar todos frente a una orden de lanzamiento falsa o errónea; pero también era perfectamente posible que el mensaje de pasar a DEFCON-1 hubiese sido interferido; o que la guerra nuclear estuviese ya en marcha y no hubiese forma de cambiar la condición de defensa a tiempo.

Mientras Bassett consultaba con los oficiales al mando de los otros siete centros de lanzamiento, Bordne y sus compañeros esperaban. En cualquier momento los misiles enemigos podían alcanzar Okinawa en un ataque preventivo, así que se ordenó una comprobación de los propios misiles. Para sorpresa de todos, los cuatro objetivos de los misiles que contralaba Basset incluían tres blancos que no estaban en la Unión Soviética, y dos de ellos ni siquiera eran aliados rusos. ¿Una orden de lanzamiento que incluía países no beligerantes? ¿Qué chifladura era aquella?

Bassett ordenó que las puertas del misil que apuntaban a objetivos no rusos, y que las demás puertas quedasen abiertas para un posible lanzamiento y recomendó a los oficiales de los otros siete centros de control que hiciesen lo mismo. A continuación telefoneó al centro de operación de misiles de Okinawa y pidió que el mensaje de lanzamiento fuese transmitido de nuevo, con la esperanza de que fuese una falsa alarma y se diesen cuenta. El mensaje fue retransmitido. Era el mismo que antes.

En ese momento la situación se puso estilo Marea Roja. El teniente al mando de uno de los centros de control se negó a seguir la recomendación del capitán Bassett y se preparó para lanzar sus misiles hacia sus blancos en Rusia. Aunque Bassett era el oficial de campo de mayor graduación, el teniente no reconocía su autoridad y decidió seguir las órdenes del comandante. Enseguida llegó un mensaje de pánico procedente del segundo oficial al mando de ese centro de control: ¡el teniente había ordenado el lanzamiento de misiles! Según el testimonio de Bordne, Bassett le ordenó al segundo oficial que tomase dos hombrea armados y abatiesen a tiros al teniente si éste intentase lanzar los misiles sin autorización suya.

En ese momento de tensión extrema, Bassett consiguió calmar su mente y cayó en la cuenta de algo muy extraño: las órdenes de lanzamiento habían sido transmitidas después de un informe meteorológico rutinario. No sólo eso sino que el comandante había retransmitido el mensaje sin la menor vacilación y sin que se notase estrés alguno en su voz, como si estuviese repitiendo la lista de la compra. Bassett cogió los toros por los cuernos y exigió telefónicamente al comandante una de dos cosas: que elevase el grado de alerta a DEFCON-1 o que emitiese una orden de anulación del lanzamiento.

El relato de Bordne no incluye la cara que debió poner el comandante (estaba al otro lado de la línea, y Bordne no estaba al teléfono), pero podemos imaginarnos lo que pasó. El hombre había enviado mensajes que consideraba rutinarios, cuando de repente le llama uno de sus capitanes sobre no sé qué chifladura de lanzar misiles. Con una mezcla de fastidio y aburrimiento comprueba el mensaje… ¡y se encuentra con la orden de lanzamiento para sus 32 misiles nucleares! Me resulta increíble que encontrase la calma suficiente para dar siquiera la orden de anulación de lanzamiento, pero por fortuna pudo dar esa orden.

Ese fue el fin de la guerra nuclear que Okinawa casi desencadenó por error. No se sabe bien por qué sucedió, por qué el sofisticado sistema de mensajes de autenticación diseñados para evitar un lanzamiento accidental de misiles falló de forma tan calamitosa. Tampoco sabemos qué sucedió después del incidente. Bordne afirma que poco después él y otros testificaron en el consejo de guerra abierto contra el comandante del centro de operación de misiles de Okinawa, el que dio tan desafortunada orden. Algún tiempo después Bassett comentó a Bordne que el comandante había sido degradado y obligado a retirarse tras cumplir el período mínimo de servicio de veinte años. No se tomaron más medidas contra nadie. Con respecto a los hombres que con su sangre fría evitaron un intercambio nuclear catastrófico, ni siquiera recibieron una palmadita en el hombre.

Durante cincuenta años los hombres del capitán Bassett cumplieron la orden de guardar silencio sobre todo lo sucedido. Sólo ahora un Bordne en silla de ruedas se ha atrevido a romper el muro de silencio. Bassett falleció en mayo de 2011. Un grupo denominado National Security Archives ha cursado una petición FOIA (Freedom Of Information Act) para que el gobierno libere los documentos del caso y revelen la verdad de lo que sucedió en aquel dáa de 1962, el día en que el mundo casi fue a la guerra en una isla remota. Quieren que el público sepa lo cerca que estuvieron del desastre.

No se trata de una mera curiosidad histórica. La guerra nuclear accidental ha estado muy cerca de desencadenarse en diversas ocasiones, no sólo en 1962. Casi sucede en 1967. Y en 1979. Y en 1995. Con más de quince mil armas nucleares listas para disparar a día de hoy, no podemos permitirnos ningún fallo.

9 comentarios

Participa Suscríbete

Manuel Sánchez Manuel Sánchez

Interesante. También hay otro incidente similar sucedido en 1983, del cual no sé si se ha hablado aquí

Es el siguiente:

https://en.wikipedia.org/wiki/1983_S...rm_incident

Pequeño resumen. El 26 de septiembre de 1983 el teniente coronel Stanislav Petrov, al mando del centro de control de satélites de alerta temprana de Serpukhov-1, recibió el aviso de que se había lanzado un misil desde los Estados Unidos. Petrov pensó que debía tratarse de algún tipo de error, ya que no tenía lógica que sólo se registrara un lanzamiento, en lugar de múltiples. Pero al poco tiempo saltó el aviso de que se habían producido cinco nuevos lanzamientos. Esta vez Petrov se lo tuvo que pensar un poco, pero decidió que también debía ser algún tipo de error en el sistema de detección de los satélites. Así que lo descartó y no lanzó la alarma de “ataque preventivo USA”

Menos mal que acertó. Sin embargo a Petrov le echaron la bronca porque sus órdenes eran comunicar el incidente a sus superiores y que ellos decidieran si aquel aviso era un error técnico o no. Era la época de Andropov y la tensión con los USA era muy alta. En el año 2013 Petrov recibió el premio Dresde.

Saludos

Oscar Moreno Oscar Moreno

Probablemente los informes meteorológicos utilizaban las mismas características que una orden de lanzamiento que el comandante del centro de operación de misiles de Okinawa no reconocía a simple vista, posiblemente para evitar alteraciones a los códigos de lanzamiento, este se cifraba en una numeración idéntica a un simple reporte metereológico, por último que los lugares donde deberían apuntar los misiles presumo yo que era un test que se iba a realizar, al colocar localizaciones haría menos plausible que era un ataque real. De mis suposiciones me queda la sangre helada de como se alteraba un sistema tan complejo como la orden de lanzar un misil nuclear.

Miguel Espinosa Miguel Espinosa

Hasta donde tengo entendido, sólo el presidente o el secretario de defensa de una nación pueden ordenar un ataque nuclear. ¿Cuanto tiempo toma desde que da la orden hasta que se lanzan los misiles?

Concha Pérez Concha Pérez

Justo hace unos dias leía una entrada en un blog sobre los problemas que pueden surgir con el uso de nuevas tecnologías que dejen en manos de las máquinas la toma de decisiones y escribí un comentario sobre ese asunto y recordando también el problema mostrado en “Juegos de guerra”:

http://piperlab.es/a-quien-decidira-...-accidente/
La entrada dice:
“Imagina años de investigación para desarrollar una tecnología que haga más fácil la vida de las personas y en la cual muchas de las mejores mentes de una generación se han dejado muchas horas. Supongamos que, en determinado momento, se llega a la solución de ese problema, ese programa informático, ese algoritmo que lo resuelve el 100% de las veces con la máxima perfección posible. ¿Se ha acabado ahí la historia?

Resulta que cuando le decimos a una máquina el problema que tiene que resolver, de manera inherente surgen circunstancias que nos envuelven en paradojas que hace que otras situaciones de fácil formulación queden fuera de la solución. Hace unos días leí un dilema ético irresoluble incluso para el más perfecto de los automóviles. Pensemos que los coches que se conducen automáticamente ya son una realidad perfecta, funcionan a las mil maravillas y se convierten en un vehículo de uso común. Por supuesto tú, querido lector, eres el propietario de uno de estos coches autónomos y vas un día por la carretera tan tranquilo, leyendo el periódico o algo similar, que para eso es automático. De repente, una serie de catastróficas desdichas hace que en tu camino se cruce un inoportuno grupo de 10 personas, con tan mala suerte (léase con tono de presentador de Impacto TV) que lo hacen de manera que no puedes frenar antes de arrollarlas. Por tanto, el coche, esa máquina sin fisuras a la hora de tomar decisiones, debe decidir entre dos de ellas: o arrolla al grupo de personas o se desvía y estrella el coche contra un muro provocando la muerte del conductor, es decir, tú.
Toulouse School of Economics

Toulouse School of Economics

Desde el punto de vista frío y objetivo, parece razonable pensar que la segunda es mejor opción que la primera ya que se reduce el número de víctimas del accidente y en el peor de los casos muere solamente una en vez de 10. Por otro lado, dado que fue esta persona la que pagó para comprarse el coche y la que conducía, no parece del todo justo que sea una decisión de su propio coche la que acabe de manera fatal con su vida.

Podemos pensar en algún caso menos extremo e imaginar que en vez de un grupo de 10 personas es una moto que se cruza en tu camino. No hace falta llegar al escenario de fallecimiento para encontrar paradojas muy difíciles de resolver: si el algoritmo sabe que provocar el accidente con la moto tiene riesgo 0 para el conductor del coche y muy alto para el motorista y encuentra una solución en la que el conductor sufra un accidente grave pero no mortal, ¿debe tomarla?

Como casi siempre que se habla de algoritmos e inteligencia artificial, da un poco de vértigo analizar hasta qué punto nuestra vida puede estar condicionada por un modelo o por una serie de frías reglas lógicas ejecutadas en un procesador de manera perfecta según el problema que se planteó pero que abren dilemas morales y éticos de muy difícil solución.

Este post está basado en el trabajo publicado en Arxiv “Autonomous Vehicles Need Experimental Ethics: Are We Ready for Utilitarian Cars?“

Escrito por Alejandro Llorente, Co-Fundador & Data Scientist en PiperLab @llorentealex”

Y mi comentario:

Interesante entrada que entronca con el clásico dilema del tranvía y que me recuerda la trama de la película, en su día, de ciencia ficción “Juegos de guerra”, en la que el gobierno de EEUU de turno decide dejar la última decisión sobre apretar el botón del inicio de la guerra nuclear en manos de un ordenador.
El desarrollo de la inteligencia artificial ha llegado a tal punto que puede darse el caso de que una “máquina” decida por nosotros en un caso como el expuesto aún en contra de nuestras convicciones. En realidad, en estos casos, no decide la máquina concreta que usemos, sino quien hizo el software con el que funciona. Es decir, nuestras decisiones éticas no serán tomadas por nosotros sino por las personas que diseñaron el programa, con su ética particular, que no tiene que coincidir con la nuestra o con la de los miles de personas que utilicen ese programa. ¿Es eso lo que queremos? ¿Dejar de tener el control sobre nuestras propias decisiones? Habrá quien crea que su vida está en manos de un ser superior que sabe lo que se debe hacer en cada caso pero aquí ese ser superior es la máquina, o el programa que la dirige. Y ha sido diseñado por una persona o grupo de personas, con su forma de ver el mundo y sus intereses y sus propias convicciones y valores éticos o faltos de ética. ¿El gobierno de los más formados, los más ricos, los que saben programar, los que reciben más dinero por hacer un determinado programa?
Creo que hay mucho que pensar antes de lanzarse a desarrollar este tipo de soluciones técnicas.
Gracias por la invitación a pensar, nunca viene mal.
Concha Pérez

Tepúflipo Tepúflipo

Paradójicamente, la razón que subyace detrás de dejar la última decisión en manos de la maquina es evitar la guerra. No es difícil imaginar el caso en el que una de las dos potencias crea que la otra no tiene agallas para lanzar sus misiles y que por tanto un el ataque preventivo. puede no tener represalias. Eso es lo que argumenta Walter Matthau en “teléfono rojo..”, lo que sucede en “Juegos de Guerra”, y los casos reales de Okinawa y el coronel Petrov . Que la última decisión (o incluso la primera) esté en los escrúpulos éticos (o la chaladura) de un teniente metido en un silo es un riego de seguridad evidente. Ese riesgo queda anulado con el principio de la “máquina apocalíptica” en el que se garantiza que a un ataque le sigue la represalia de forma inapelable. Creo que eso se desarrolló en un número de una revista especializada en Teoría de Juegos a principios de lo años 60 (cito de memoria) y desde luego su gran defensor era Hermann Kahn.

Obviamente, la “máquina apocalíptica” tiene riesgos mucho más grandes como los que se han mencionado y yo personalmente prefiero confiar en el sentido común del teniente en cuestión y de los dirigentes que tengan la tentación del ataque preventivo. A pesar de todo lo que se ha dicho, parece que no funcionó tan mal 🙂

Miguel Rodríguez Miguel Rodríguez

Siempre he pensado que lo que hizo que la Guerra Fría no se hizo caliente fue precisamente el temor a la bomba. Pero ello no quita que situaciones como la de Okinawa sean posibilidades muy tangibles y escalofriantes. Aquel libro que inspiró las películas Teléfono Rojo y Punto Límite realmente tuvo en cuenta circunstancias bastante plausibles.

Me ha gustado mucho la entrada. Me interesa mucho todo lo relacionado con la Guerra Fría.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *