Interferencias

Por Arturo Quirantes, el 2 mayo, 2011. Categoría(s): Espacio • Física de Película • Óptica ✎ 6

Interferencia

Si lo que cuenta la prensa en estos momentos es cierto, Osama bin Laden ha muerto. Un equipo de comandos ha entrado en su casa, equipados (imagino) con lo último en inteligencia electrónica, mientras alguien capta la escena desde un satélite. No habrá sido muy similar a lo que imaginan los cineastas.  Durante los últimos años, cualquier película que se precie cuenta con imágenes por satélite que ayudan a tener controlado el campamento de los malos, facilitando así la tarea del inevitable equipo de asalto.

Una de esas películas, Estado de Sitio, me produce escalofríos cada vez que la veo por su carácter profético.  Filmada en 1998, narra un escenario muy similar al de Septiembre de 2001.  Un jeque, sospechosamente parecido a bin Laden, es secuestrado en las arenas del desierto.  Como respuesta, un grupo terrorista tras otro desencadena atentados terroristas en Nueva York. El Gobierno de Estados Unidos, desbordado, no tiene mejor idea que poner al ejército al mando, y el general de aspecto duro y mirada implacable (Bruce Willis) se lanza a la captura del enemigo como un elefante en una cacharrería: torturas, espionaje, detenciones masivas, un Guantánamo improvisado en un estadio.  El agente del FBI (Denzel Washington) intenta desesperadamente detener tanto a los terroristas como los desmanes del ejército.  En una de las escenas cumbre, en una sala de interrogatorios, usa estas proféticas palabras:

«¿Y si ni siquiera quieren al jeque?  ¿Se le ha ocurrido eso?  ¿Y si lo que en realidad quieren es vernos hacinar a críos en estadios, tal como lo hacemos, y poner soldados en las calles, y que los americanos se miren con recelo; amañar la ley, reducir la Constitución en pedazitos?  Porque si le torturamos, general, si hacemos eso, todo por lo que hemos sangrado, y peleado, y muerto, se habrá acabado.  De hecho, ya han ganado»

Proféticas palabras, en efecto.  Por desgracia, la realidad no es como en las películas: ni los malos son capturados en pocos días, ni el general malvado paga por sus acciones, ni aquí hay paz y después gloria.

Pero vamos a lo nuestro.  Al comienzo de Estado de Sitio, aparecen las inevitables imágenes aéreas supuestamente captadas por un satélite.  Pueden verse la carretera y el vehículo del jeque, aunque con poco detalle.  En la película Enemigo Público, también de 1998, se ve con mucho mayor detalle a Gene Hackman, que es el bueno de la película.  Aunque su figura es borrosa, pueden apreciarse la cabeza con sus entradas (abonos de temporada, que diría mi hermano), las orejas, la pistola que tiene en la mano.  Posteriormente siguen su coche, y de nuevo la imagen se degrada, impidiendo obtener detalles claros.

¿Por qué sucede así?  ¿Acaso en pleno siglo XXI, con satélites de última generación y lo último en realce digital, no pueden hacer nada mejor?  Sorprendentemente, no, no pueden.  Y no se trata de un problema técnico.  En este punto, nos topamos con los límites de la naturaleza ondulatoria de la luz.

Desde tiempos de Newton, hay dos teorías para explicar la naturaleza de la luz.  La corpuscular afirma que la luz son partículas, que se mueven por medios materiales como si fuesen pequeñas bolitas.  La ondulatoria, por su parte, dice que la luz es una onda, y que tiene las características de ésta: interferencia, difracción, polarización.  ¿Cuál de las dos teorías es la correcta?  En realidad, ambas y ninguna.  La luz puede manifestarse como onda o como partícula, según sea el experimento que estemos diseñando.

Normalmente, cuando diseñamos sistemas ópticos como lupas o telescopios, usamos la teoría corpuscular.  Es clara, sencilla, y da buenos resultados.  Pero para que funcione bien, hay que partir de un conjunto de hipótesis.  Una de ellas es que la longitud de onda de la luz que usemos sea mucho menor que el tamaño de los obstáculos o rendijas que la luz se encuentre en su camino. De ese modo, las interferencias que produce al pasar por esas rendijas u obstáculos serán pequeñas, y la imagen no sufrirá apenas deformación.  La luz tiene longitudes de onda en el entorno de la milésima de milímetro, así que en la mayoría de los casos todo va bien.

El problema lo tenemos cuando forzamos las cosas. Tomemos una imagen del típico satélite espía.  La imagen parece muy nítida. Conforme vayamos aumentando el tamaño de la imagen, comenzaremos a tener problemas: nubes, capas de polvo, la propia atmósfera, irán degradando la imagen.  Supongamos que no hubiese atmósfera (o que tengamos un buen software de corrección de imágenes).  Incluso así, llegará un aumento por encima del cual no podremos ver más detalles.  Si aumentamos más, solamente veremos borrones más gordos, como una imagen de periódico.

Eso se debe a que, a fin de cuentas, la luz es una onda, y produce fenómenos de difracción dentro de la abertura de la cámara o telescopio.   La imagen de un objeto puntual es, en realidad, una sucesión de anillos claros y oscuros, algo así:

Eso afecta a la resolución, es decir, a la capacidad para distinguir detalles.  Si hay dos objetos puntuales muy cercanos, observaremos algo así:

Esos dos objetos se encuentran en el límite de resolución.  Un pelín más cerca, y la imagen se parecería demasiado a la de un solo objeto.  Y ahí no nos sirve el Photoshop, ni todos esos truquitos informaticos de esos tramposos del CSI.  Este límite está impuesto por el hecho de que la luz es una onda electromagnética.  De hecho, es un problema común a cualquier tipo de onda electromagnética.

Eso nos deja la pregunta siguiente.  Si no puedo obtener una resolución infinitamente buena, ¿hasta dónde podemos llegar?  John Rayleigh propuso un criterio, ampliamente usado en la actualidad, según el cual, podremos suponer que dos imágenes han sido «resueltas» (separadas en dos) cuando el anillo brillante de una de ellas coincide con el anillo oscuro de la otra.  O, dicho en términos gráficos:

A la izquierda, tenemos dos imágenes bien resueltas, es decir, se ve claramente que son dos puntos diferentes.  A la derecha, una imagen individual, o bien dos imágenes tan cercanas que no pueden distinguirse.  Y en el centro, dos imágenes que apenas comienzan a distinguirse como tales.  Se encuentran cumpliendo el llamado criterio de Rayleigh.  Es una regla nos dice que dos imágenes podrán ser distinguidas (separadas e identificadas como imágenes individuales) si se cumple esta condición:

sen(theta) = 1.22 L/D

donde theta es el ángulo que subtienden las imágenes (es decir, la separación angular vista por el observador), L es la longitud de onda y D es el diámetro de la abertura.

Como lo que queremos es detectar a los malos por satélite, podemos transformar levemente esa ecuación para hacerla más cómoda.  Otra imagen para aclararnos:

Tenemos nuestro satélite (con una cámara de abertura D) observando desde una distancia R.  El menor detalle x capaz de apreciarse viene dado por:

x = 1,22LR/D

De ese modo, para captar detalles (x) lo más pequeños posibles hemos de usar una longitud de onda L pequeña, acercarnos una distancia R todo lo posible, y usar una cámara con una abertura D lo más grande posible.

¿Hacemos números?  Esa imagen es la entrada a la Faculta de Ciencias de mi Universidad, captada por Google (copyright, todos los derechos reservados, bla, bla, bla).  La uso precisamente para explicar el criterio de Rayleigh a mis alumnos.  No sabía (ni sé ahora) los parámetros del satélite, pero hice lo mismo que George Clooney: un «reasonable guess.»  Un satélite a unos 100 km de distancia (no puede ser menos sin que la atmósfera frene tu órbita), con una cámara del orden de 1 metro de diámetro, y observando en el visible (longitud de onda de unos 600 nm) da una resolución de unos 7 cm.  Es decir, no podemos distinguir detalles menores que esa cantidad.  Bien, pues si ustedes toman esa imagen en Google Maps y la aumentan al máximo, podrán comprobar que la imagen se convierte en cuadritos (los píxeles).  Hice cuentas, y cada píxel tenía una longitud de … 7,5 centímetros.  ¡En toda la boca! Parafraseando al coronel Smith, me encanta que los números salgan bien.

Eso significa que la pistola que esgrimía Gene Hackman en Enemigo Público no podría apenas verse, ya que su grosor es menor que eso.  Tampoco podríamos ver sus orejas.  Y eso, les recuerdo, suponiendo condiciones atmosféricas perfectas.  Si queremos leer el periódico desde el espacio, habrá que hacerlo mejor que eso.

El criterio de Rayleigh molesta no sólo a los espías de la NSA (sí, ya lo sé, en realidad son de otra agencia), sino a los astrofísicos.  Uno de los motivos de construir telescopios de gran diámetro es el de poder recoger luz de fuentes muy débiles, pero el criterio de Rayleigh también juega un papel importante.  Por lo general, a menor longitud de onda y mayor diámetro del aparato, mayor resolución.

Los radioastrónomos tenían en su contra lo de la longitud de onda.  Las ondas de radio son millones de veces más largas que las de luz, así que el criterio de Rayleigh imponía una resolución horriblemente mala a los mapas radio.  Lo primero que se les ocurrió fue, por supuesto, construir radiotelescopios grandes.  ¿Recuerdan esa gigantesca antena que servía de refugio (y tumba) del malo en la película de 007 Goldeneye?  Pues es el radiotelescopio de Arecibo, un plato con un diámetro de 300 metros.

Esto sigue siendo insuficiente para poder «ver» con de detalle el Universo en longitudes de onda de radio.  Pero a alguien se le ocurrió un truco interesante.  Si ponemos dos radiotelescopios a cierta distancia, y conseguimos combinar sus señales con precisión, la resolución será igual a la de un solo aparato con un diámetro igual a la distancia entre los dos radiotelescopios.  Ahora D será igual a la distancia entre los dos instrumentos.  Es lo que se denomina «línea base» (baseline). Y la podemos hacer muuuuy grande.

En la película Contact, podemos ver a la doctora Arroway frente a una cadena de radiotelescopios, el llamado VLA (Very Large Array) de Nuevo México.  Es una cadena de 27 radiotelescopios, dispuestos en tres brazos con forma de Y.  Cada brazo tiene hasta 21 kilómetros de longitud.  Eso nos da una resolución 21.000/300 = setenta veces mejor que la de Arecibo.  Por cierto, que el VLA sale también en la película 2010, Odisea Dos (no se la recomiendo, pero ustedes mismos).

Y después alguien pensó: ¿por qué conformarse con unos pocos kilómetros? ¿Y si pudiésemos combinar las señales de radiotelescopios separados por miles de kilómetros?  Imagínenselo.  Un plato en California y otro en España nos daría un instrumento de medida con una D de más de 10.000 kilómetros.  Eso es un millón de veces el diámetro del mayor telescopio óptico.  Sería grandioso, ¿no?  ¡Pues funciona!  Se trata de un concepto llamado Interferometría de Línea Base muy Larga (VLBI). Es un sistema con una resolución tan enorme, que incluso se usa para medir la separación entre las placas tectónicas.  Y, como dicen los norteamericanos, «el cielo es el límite.»  Un satélite japonés llamado HALCA contiene un radiotelescopio que se ha usado para VLBI.  Su órbita es de hasta 21.000 kilómetros.  Imaginen lo que podrían hacer con radiotelescopios orbitales situados a millones de kilómetros.

De repente, la radioastronomía puede escrutar el cielo con mayor resolución que sus primos los astrónomos «visibles.»  Por supuesto, también ellos pueden usar la interferometría.  El sistema de telescopios dobles Keck, en Mauna Kea, puede combinar las señales captadas por sus dos objetivos (espejos de 10 metros cada uno), creando una línea base de 85 metros.

A lo mejor es lo que hacen ahora los satélites espía.  En lugar de un solo satélite, utilizarán dos para aumentar la línea base, y por tanto, la resolución.  Sería un proyecto con una complejidad técnica formidable, pero con presupuestos sin fondos y los mejores técnicos, probablemente lo hayan hecho ya.  Por si acaso, tenga cuidado, señor Hackman, y siga sin mirar hacia arriba.



6 Comentarios

  1. Una pregunta, y si en lugar de usar el visible o las ondas de radio para «ver» usamos longitudes de onda más pequeñas como ultravioleta, Rayos X, etc, con la misma separación angular, ¿podríamos usar lentes de diámetros mas pequeños?
    Gracias

  2. ¡¡Magnífica entrada!! Me recuerda a aquello que salió en el telediario (¿me fío?) hace un par de semanas o así, y que decía que EE.UU. pagaría una suma (irrisoria) de dinero a quien encontrara un método para distinguir mujeres y niños en las imágenes de satélite de objetivos militares, supongo que para reducir bajas en la población civil. Teniendo en cuenta la información aquí expuesta… creo que la cosa tiene bastante dificultad.

    ¡Un saludo y gracias por este gran Blog!

  3. Para hechos de los que saben lugar y hora, hay una forma mejor para «saltarse» esas limitaciones si no hay problemas para sobrevolar el espacio aéreo: utilizar aviones no tripulados en vez de satélites.

  4. ¿Una resolución 7,5 cm de una imagen satelite de google maps?. Con todos mis respetos ¡¡ni de coña!!. Esa resolución NO ES DE UN SATELITE.
    Como máximo google tiene resoluciones satelite de 50 cm. Los chicos de Obama no le dejan dar más. 7,5 cm es resolución militar solo reservada (se supone, porque los datos son secretos) a los Keyhole (aunque las últimas series se llaman de otra forma).
    Entonces ¿como es posible tanto detalle?. Pues que los chicos de google son muy listos e integran (muy bien, eso si) en sus maps o earth fotos de distintas fuentes. Las últimas, las que dan más detalle y se ven arboles o personas andando por la calle NO SON FOTOS DE SATELITE SINO DE AVIONES, suministradas por diversas instituciones. Si analizas las fuentes veras que conforme nos acercamos a Granada aparece como suministrador el «INSTITUTO DE CARTOGRAFIA DE ANDALUCIA».

  5. Se me olvidaba, algunos enlaces:
    Los ultimos keyhole son unos enormes telescopios, más grandes que el hubble pero que apuntan hacia «abajo». El KH12, IMROVED ADVANCED CRYSTAL, tiene un espejo de 3 metros y una resolución de 10 cm.
    http://www.globalsecurity.org/space/systems/kh-12.htm.

    Máxima resolución satelital de google, 50 cm.
    http://www.ojobuscador.com/noticias/google-earth-recibe-las-primeras-imagenes-de-geoeye-1/

    El punto más cercano de los keyhole suele estar en los 300 Km.
    http://en.wikipedia.org/wiki/KH-12.

    en resumen, google hace «truco» con sus fotos «satélite» al igual, como bien has dicho, los chicos del CSI ¿Como es posible que con una cutre-cámara de cajero sean capaces de ver los detalles de una pegatina en un coche a 50 metros?

  6. Que interesante, jeje.
    Por otro lado, en puridad, lo que J.M. le pide a Clooney que haga es «an educated guess». (educated-> fundado)

Deja un comentario

Por Arturo Quirantes, publicado el 2 mayo, 2011
Categoría(s): Espacio • Física de Película • Óptica
Etiqueta(s): ,