El caso Petrov y otros errores tecnológicos que casi desatan una guerra nuclear


Juan Jesús Velasco (ELDIARIO.es)

El 26 de septiembre de 1983 los sistemas de alerta de la Unión Soviética detectaron un ataque con misiles procedentes de Estados Unidos. Era una falsa alarma pero las pruebas indicaban lo contrario, y el mundo se salvó gracias a un hombre que decidió aplicar el sentido común: Stanislav Petrov. El caso de Petrov no es la única ocasión en la que errores tecnológicos que han puesto al mundo al borde del abismo de una guerra nuclear.
Durante la época de la Guerra Fría (1) se produjeron momentos extremadamente tensos como Crisis de los Misiles en Cuba (2), y el miedo a un holocausto nuclear fue tratado en el cine en más de una ocasión. Películas como Juegos de guerra (3) jugaron con esta temática y le sumaron un nuevo factor a la ecuación: la creciente dependencia de ordenadores y sistemas de información.
Aunque Juegos de guerra sea una película, la realidad suele superar a la ficción y el mundo ha estado, en más de una ocasión, al borde de la guerra nuclear, precisamente, por anomalías en los sistemas de defensa. Aunque el incidente más conocido sea el de la Crisis de los Misiles de Cuba, se cuentan cuatro casos más en los que el mundo estuvo al borde del abismo. Uno de ellos ocurrió un 26 de septiembre de 1983 y, aunque los sistemas de la Unión Soviética indicaban que Estados Unidos había lanzado un ataque con misiles, un teniente coronel pensó que "la gente no empieza una guerra nuclear con sólo cinco misiles" y decidió no activar el protocolo de respuesta.
El pensamiento lógico de Petrov
En septiembre de 1983 la Guerra Fría estaba viviendo un momento álgido. La Unión Soviética había derribado un avión de pasajeros (4) por entrar en su espacio aéreo, la OTAN había respondido organizando unas maniobras militares y el KGB soviético pronosticaba un ataque inminente de Estados Unidos como represalia. En este contexto, el teniente coronel Stanislav Petrov (5) comenzó su turno de guardia en el búnker Serpukhov-15 de Moscú, lugar en el que se controlaba el sistema de satélites OKO (6) que se usaba en el sistema de alerta ante ataques nucleares.
Los satélites OKO apuntaban a las bases de lanzamiento de Estados Unidos y detectaban misiles distinguiendo su silueta en el horizonte en contraposición a la oscuridad del espacio. Este sistema era de nueva implantación y, de hecho, era el primer equinoccio de otoño en el que se utilizaba (un detalle que luego sería de vital importancia). A las 00:14, hora de Moscú, uno de los satélites detectó el lanzamiento de un misil desde Estados Unidos (7) y, según el protocolo, Petrov debía activar el procedimiento de respuesta y alertar a sus superiores.
Sin embargo, Petrov pensó que no tenía sentido iniciar una guerra con un único misil. En vez de alertar a los mandos, Petrov decidió esperar porque intuía que el sistema podía estar equivocado y ordenó cancelar la alerta. Poco después, el sistema volvió a alertar del lanzamiento de un segundo misil y después otros 3 misiles más; con 5 misiles en el aire, Petrov pensó que seguían siendo pocos (famosa es su frase de "la gente no empieza una guerra nuclear con sólo cinco misiles") y decidió esperar la confirmación de los sistemas de radar de tierra (a pesar de acortarse el tiempo de respuesta).
Finalmente, el radar confirmó la falsa alarma y, por tanto, el error del sistema OKO. Petrov documentó el incidente en el diario de operaciones de aquella noche y su superior, el general Yuri Votintsev, le prometió que sería condecorado por salvar al mundo de una guerra.
El sistema OKO fue objeto de investigación y se dictaminó que el Sol, la Tierra y el satélite OKO habían experimentado una alineación que provocó que la luz solar reflejada en las nubes de altas cotas se confundiese con el lanzamiento de un misil. Petrov también fue investigado porque se consideró, al no haber seguido el protocolo, que actuó de manera indisciplinada al saltarse la cadena de mando. El teniente coronel perdió la confianza de sus mandos, pasó a puestos de baja responsabilidad y vio sus ascensos bloqueados; además, tuvo problemas nerviosos y de ansiedad como consecuencia de la tensión vivida en aquel búnker de Moscú.
Lo más curioso de toda esta historia es que, a pesar de haber librado al mundo de una guerra nuclear, Petrov no es un personaje muy conocido. Hasta 1998 el incidente permaneció en secreto y no fue hasta 2004 cuando se le concedió el "World Citizen Award" (8) por su temple aquella noche de septiembre y también se realizó un homenaje en su honor en la ONU en 2006. Petrov hoy disfruta de su jubilación en la ciudad de Friázino (Rusia).
El incidente de la cinta equivocada
El caso de Petrov no fue el único momento tenso en el que el mundo ha estado a punto de enfrentarse a una guerra nuclear por un error en un sistema. El 9 de noviembre de 1979 (9), las computadoras del NORAD (Mando Norteamericano de Defensa Aeroespacial) situado en la montaña Cheyenne, el Mando Nacional del Pentágono y el Mando Alternativo Nacional (situado en Fort Richie, Maryland) comenzaron a lanzar alarmas referidas a un repentino ataque nuclear soviético.
Aplicando la inquietante teoría de la destrucción mutua asegurada (10), la alerta se transmitió al aparato de defensa de Estados Unidos. Despegaron ocho cazas estadounidenses y dos canadienses para interceptar los misiles y se preparó el despegue de los bombarderos; sin embargo, los radares no detectaban ningún indicio de ataque aunque los ordenadores alertaban del lanzamiento de 300 misiles que se dirigían a Estados Unidos.
Ante la discrepancia entre las fuentes de información, se optó por verificar la alerta y, al igual que ocurría en la película Juegos de guerra, se comprobó que los primeros objetivos seguían sanos y salvos aunque las computadoras señalaban el impacto de los misiles. Tras quedar claro que se debía a un error de los sistemas, se realizó una comprobación en los ordenadores para localizar el origen del problema: alguien había introducido una cinta de entrenamiento como base de datos para el análisis de amenazas.
Durante aquel incidente, los ordenadores estaban pasando una simulación de un juego de guerra previamente grabado; se había usado un sistema en explotación para hacer una prueba y, por poco, no se acabó lanzando un ataque contra la Unión Soviética. Fruto de este incidente, el Departamento de Defensa determinó que los sistemas de prueba se aislasen por completo de la red del NORAD, aplicando la regla básica de los administradores de sistemas de separar los entornos productivos de los entornos de desarrollo y pruebas.
Un chip de 46 centavos
Al año siguiente del incidente de la cinta equivocada, concretamente, el 3 de junio de 1980, otro fallo técnico hizo saltar las alarmas en el comando aéreo estadounidense. El sistema de alerta contaba con un display que mostraba el número de misiles enemigos lanzados y que, en tiempos de paz, mostraba "0000"; sin embargo, a las 2.25 de la madrugada de esa noche, los contadores comenzaron a sustituir, aleatoriamente, el cero por un dos. De repente, había 200 misiles en el aire y, de repente, no había ninguno; se movilizaron las fuerzas de respuesta pero, finalmente, se dictaminó que era una falsa alarma porque las cifras no coincidían entre los distintos puestos de mando.
Tres días más tarde, el sistema de alertas volvería a activarse por el mismo motivo y se movilizarían las fuerzas de respuesta de nuevo. Al final, los sistemas fueron revisados y se encontró la causa del problema: un chip de computadora en mal estado (11) acompañado de un cableado defectuoso. Por cierto, el coste del chip eran 46 centavos de dólar de la época.
Algunos años antes, el 24 de noviembre de 1961 (12), también ocurrió otro incidente tecnológico que hizo saltar las alarmas de ataque nuclear en Estados Unidos. Aquel día, todas las líneas de comunicación entre el Comando Aéreo Estratégico de Estados Unidos y el NORAD quedaron inutilizadas, lo que cortó la conexión con las estaciones de radar de alerta temprana en Reino Unido, Alaska y Groenlandia.
Teniendo en cuenta que los sistemas de comunicación se habían diseñado con una alta tolerancia a fallos y, por tanto, estaban redundados; un corte total en las comunicaciones solamente podía significar una cosa: la Unión Soviética había lanzado un ataque a gran escala contra objetivos estratégicos en Estados Unidos. Con esa premisa, se lanzó la alerta a los bombarderos que se sacaron a las pistas para su despegue; sin embargo, finalmente los aviones no despegaron porque se localizó la causa del corte de comunicaciones. No había redundancia en las comunicaciones. Todas ellas se cursaban a través de una central de conmutación en Colorado que había sufrido una avería.
Notas: 1) http://es.wikipedia.org/wiki/Guerra_Fr%C3%ADa
2) http://es.wikipedia.org/wiki/Crisis_de_los_misiles_en_Cuba
3) http://www.eldiario.es/turing/IMSAI-mitica-computadora-Juegos-Guerra_0_272623401.html
4) http://es.wikipedia.org/wiki/Vuelo_007_de_Korean_Air
5) http://en.wikipedia.org/wiki/Stanislav_Petrov
6) http://en.wikipedia.org/wiki/Oko
7) http://en.wikipedia.org/wiki/1983_Soviet_nuclear_false_alarm_incident
8) http://usatoday30.usatoday.com/news/world/2004-05-21-russia-doomsday-averted_x.htm
9) http://es.wikipedia.org/wiki/Historia_de_las_armas_nucleares
10) http://es.wikipedia.org/wiki/Estrategia_de_las_armas_nucleares#Destrucci.C3.B3n_Mutua_Asegurada:_la_Carta_del_Loco_y_la_disuasi.C3.B3n_nuclear
11) http://www.foreignpolicy.com/articles/2010/07/08/the_fear_factor
12) http://mentalfloss.com/article/25685/7-close-calls-nuclear-age
Foto: Operation Upshot-Knothole - Badger 001, por el Gobierno Federal de los Estados Unidos. / Fuente: Wikimedia

Entradas populares de este blog

Científicos declaran oficialmente el fluoruro (flúor) como una neurotoxina

Francia: ‘Mi orina contiene glifosato, ¿y la tuya?’ Denuncia contra el polémico herbicida

Japón decidió deshacerse de todos los hornos de microondas en el país antes de finales de este año