Búsqueda

miércoles, agosto 31, 2005

Wing Commander vs. Newton

Ayer comenté un error garrafal en la película Wing Commander. El que voy a comentar hoy no tiene nada que envidiarle. En un momento dado de la película, uno de los cazas se estrella contra la pista de aterrizaje de la nave principal. Aunque no saben si el piloto ha sobrevivido, se decide despejar la pista ya que hay otros dos cazas que deben aterrizar en seguida, pues se les acaba el combustible. Así que una máquina parecida a un bulldozer, sale a la pista, empuja el caza accidentado, y cae fuera de ella (condenando al pobre piloto). El único problema es que todo esto ocurre en el espacio.Fotograma de la película que muestra la pista de aterrizaje de la nave principal

Y esta vez, la escena no ocurre en la órbita de ningún planeta. No. Ocurre en medio del espacio, sin nada alrededor. En total ingravidez. Y esto hace que en una misma escena ocurran dos errores.

El primero es el hecho de que el caza accidentado "caiga". Uno puede imaginar que la pista de aterrizaje tiene algún tipo de gravedad artificial, al igual que el interior de la nave (aunque no se me ocurre qué ventajas puede tener eso). Pero en la película, una vez el caza es empujado fuera de la pista, cae. Y eso es sencillamente absurdo. ¿Por qué cae? ¿Qué hay debajo de la nave que haga caer el caza? La respuesta es nada. El caza de marras debería haberse alejado flotando, siguiendo la misma dirección en la que lo empujaba el bulldozer.

Y el segundo error es la urgencia de los otros cazas para aterrizar. Les queda poco combustible, bueno ¿y qué? Basta con igualar la velocidad del caza con la de la nave principal para quedarse ahí flotando junto a ella todo el tiempo que sea necesario, con los motores apagados. No hay gravedad contra la que luchar, y no hay rozamiento que frene el vehículo.

Y es que la escena parece escrita para un portaaviones. En ese contexto, sí tendría sentido que tras empujar un avión accidentado fuera de la pista, este caiga al mar, y que un avión con poco combustible tenga que aterrizar inmediatamente o estrellarse.

En fin. Un envío corto el de hoy, pero el error es tan evidente, que no hay mucho más que explicar.

martes, agosto 30, 2005

Púlsares y Quásares en Wing Commander

Carátula de Wing CommanderMis dos anteriores envíos, dedicados a Star Trek: Generations y al colapso de estrellas, me ha recordado otra película donde el tratamiento que reciben determinados objetos astronómicos es sencillamente demencial. La película en cuestión es Wing Commander, poco exitosa adaptación de un videojuego de éxito. En ella, los viajes interestelares se realizan mediante púlsares y quásares, que son utilizados como si fueran agujeros de gusano entre distintas regiones del espacio. Es más, al inicio de la película, el protagonista "salta" a través de un púlsar que está cerca de la Tierra.

¿Y qué es eso de un púlsar o un quásar? Pues son objetos astronómicos que poco tienen que ver con lo que se ve en la película, o incluso entre ellos mismos (salvo la terminación -sar).

Composición en colores falsos del púlsar de la zona central de la Nebulosa del Cangrejo.Un púlsar es una estrella de neutrones que emite pulsos de radiación electromagnética de forma regular. Su nombre viene precisamente de pulsating star (estrella pulsante). Ah, ya, pero ¿qué es una estrella de neutrones?

Una estrella de neutrones es el resto de una estrella, al final de su ciclo de vida. Ya expliqué hace dos envíos, que una estrella es un inmenso reactor de fusión nuclear, que mantiene un equilibrio entre su propia gravedad, que trata de comprimirla, y la energía liberada por los procesos nucleares, que tratan de expandirla. Durante la mayor parte de su vida, la estrella transforma el hidrógeno en helio. A medida que el hidrógeno se agota, la estrella comienza a colapsarse por su propia gravedad, calentando su interior hasta que se inician otros procesos nucleares (transformación de helio en carbono) que vuelven a expandirla. El helio también se agota, se vuelve a colapsar, se inicia otro proceso nuclear... así hasta que llegamos a procesos nucleares que en vez de generar energía, la consumen. Llegados a este punto, al no existir una fuerza que compense la gravedad, la propia masa de la estrella la colapsa sobre sí misma, hasta convertirse en materia degenerada.

En la materia degenerada, no hay átomos ni espacio entre ellos. Es básicamente un amalgama de partículas subatómicas. En las estrellas ligeras, como nuestro Sol, el colapso termina cuando la presión ejercida por los electrones, es suficiente para compensar la fuerza gravitatoria, formando una enana blanca. En estrellas más masivas, eso no es suficiente, y tras una espectacular explosión (supernova), el nucleo continúa colapsándose hasta que protones y electrones se combinan para formar neutrones. Tenemos un conglomerado de neutrones, bien juntitos: una estrella de neutrones. Si la masa fuera aún mayor, ni siquiera la presión de los neutrones detendría el colapso, y se formaría un agujero negro.

Pero quedémonos con la estrella de neutrones. Hemos visto que es un objeto formado exclusivamente por neutrones apelotonados, con una densidad inmensa. Las estrellas suelen girar sobre sí mismas, como un planeta, y poseen también un campo magnético. Cuando una estrella se colapsa, no deja de girar, sino más bien al contrario. La ley de conservación del momento angular nos dice que un cuerpo en rotación, sobre el que no actuan fuerzas externas, debe mantener su momento angular. ¿Y qué es el momento angular? Pues es la suma del momento lineal o cantidad de movimiento de cada particula, por su respectivo vector de posición con respecto al eje de rotación.

¿Ein? ¿Lo cualo? Vamos con un ejemplo. Supongamos que nos sentamos en una silla de esas de oficina, que giran sobre sí mismas, y nos damos un impulso para dar vueltas, con los brazos y piernas extendidos. El momento angular de nuestro dedo índice (por ejemplo), sería su masa multiplicada por la velocidad que tenga (eso es la cantidad de movimiento) y además, multiplicada por la distancia al eje de giro (que será una vertical que atravesará o pasará cerca de nuestra cabeza). Eso, aplicado a todas las partes del cuerpo y sumado todo, debe permanecer constante (o casi, ya que el rozamiento nos irá frenando poco a poco). Eso quiere decir que si replegamos los brazos y piernas, ¡aumentaremos nuestra velocidad de giro! Comprobadlo, es muy fácil. O si no os queréis marear, podéis ver alguna competición de patinaje artístico. Fijáos como cuando un patinador comienza a girar, junta sus brazos y piernas lo más posible para girar más deprisa. Con las estrellas pasa lo mismo. A medida que se colapsa, su velocidad de giro aumenta. Cuando llega al estado de estrella de neutrones, su velocidad puede ser de varias revoluciones por minuto.

Dibujo explicativo de un púlsar.A esto hay que añadirle que su campo magnético emite un haz de ondas electro- magnéticas desde los polos. Si el eje del campo magnético y el eje de rotación no coinciden, tenemos una especia de "faro estelar". Un observador situado de forma que uno de los polos del eje magnético "apunte" hacia su posición durante un instante en cada giro, vería un pulso electromagnético de frecuencia regular. Es decir, un púlsar. En esta página, podemos ver una animación muy explicativa.

Así que un púlsar no es más que el resto de una estrella. Un conglomerado de neutrones, que gira sobre sí mismo. Difícilmente puede pensarse en eso como en algún tipo de "agujero" en el espacio, sino más bien como en algo que se ha quedado a mitad de camino, sin llegar a convertirse en agujero negro. Por otro lado, la estrella más cercana que conocemos, Próxima Centauri, está a más de cuatro años luz de distancia, y nunca se convertirá en púlsar, ya que es más pequeña y ligera que nuestro Sol.

Imagen de un quásar, con colores falsos.¿Y qué es un quásar? Su nombre viene de quasi-stellar radio source, y son objetos muy lejanos, que emiten una enorme cantidad de energía. Y con muy lejanos, quiero decir, muy muy lejanos de verdad, del orden de cientos o miles de millones de años luz de distancia. Para hacernos una idea de la escala, nuestra galaxia tiene un diámetro de unos 100.000 años luz. La Gran Nube de Magallanes (una pequeña galaxia satélite de la nuestra) está a unos 160.000 años luz, y la galaxia de Andrómeda, a unos 3 millones de años luz. Se cree que los quásares son núcleos activos de galaxias, que emiten una candidad brutal de energía (están a miles de millones de años luz de distancia, ¡y se pueden observar!) debido a la presencia de un agujero negro supermasivo en su interior. Y con supermasivo me refiero a más de un millón de veces la masa del sol.

Una vez comprendido esto, un quásar tampoco parece que se pueda usar como en la película. Vale, hay un "super agujero negro" de su centro, pero para llegar a él habría que recorrer una distancia inimaginable.

lunes, agosto 29, 2005

La velocidad de la luz

El viernes pasado comenté un error de bulto en la película Star Trek: Generations. Al hacerlo, recordé alguno más de la misma película, pero voy a quedarme con uno que refleja algo que la gente suele olvidar. Veamos, hacia el final de la película, el Capitán Picard es teletransportado al planeta donde está el científico loco con su torpedo, listo para disparar a la estrella alrededor de a que está orbitando dicho planeta. El pobre Picard fracasa en su objetivo, y el torpedo es disparado. Para que no quede duda, se nos muestra una toma en la que el torpedo se dirige diractamente a la estrella, visto desde el propio planeta, y segundos después la luz solar disminuye drásticamente: la estrella se está colapsando.Fotograma de la película

¿Qué problema hay? Vamos a obviar el hecho de que el torpedo de marras llegue a su destino en cuestión de segundos. En el universo Star Trek, la tecnología que permiten viajar más rápido que la luz, es algo común: el famoso warp drive, que ha sufrido multitud de traducciones variopintas según el equipo de doblaje ("impulso factorial", "factor de torsión", "motor de curvatura"...). El torpedo puede tener perfectamente un impulsor de esos, a pesar de dejar un rastro de humo como un vulgar cohete de toda la vida. El problema es la propia luz.
Fotograma de la película

La luz viaja a 300.000 km/s, como todo el mundo sabe. A nosotros nos puede parecer una velocidad de vértigo, pero cuando nos movemos a escalas de sistemas planetarios, puede resultar bastante lenta. Para hacernos una idea de las distancias, nuestra querida Tierra se encuentra aproximadamente a unos 150 millones de km del Sol. Cuando nos metemos en cifras con tantos ceros, perdemos la escala de las cosas. Por eso, para distancias en nuestro sistema solar, se utiliza la Unidad Astronómica (UA). ¿Cuánto es eso? Pues para facilitar las cosas, los astrónomos decidieron llamar UA a la distancia media entre el Sol y la Tierra (aunque se equivocaron un poco con las medidas, como ocurrió en su día con el metro). Así que la Tierra está a una UA del sol. Por comparar un poco, Mercurio, el planeta más cercano al Sol, está a 0,387 UA de éste. Júpiter está a 5,2 UA, y el lejano Plutón a 39,5 UA.

Vale, esto es muy interesante, pero ¿qué tiene que ver con la luz? Pues resulta que la luz tarda algo más de 8 minutos en recorrer una UA. Es decir, si de pronto el Sol se apagase, tardaríamos más de 8 minutos en enterarnos. En la película no nos dan ninguna información de la distancia a la que se encuentra el planeta de su estrella. Sin embargo sí nos dicen que es de "clase M", que en la jerga de Star Trek quiere decir habitable y parecido a la Tierra. Por otro, lado, esa información no es necesaria, ya que en la peli, Picard va tranquilamente por el planeta con su uniforme de la Flota Estelar, por lo que suponemos que la temperatura es moderada. Eso quiere decir que no puede estar demasiado cerca. Otra vez para comparar, Mercurio, que hemos visto que está a 0,387 UA del sol, tiene una temperatura media de 167 ºC, y alcanza máximas de 427 ºC. Aún así, la luz del Sol tarda más de 3 minutos en llegar hasta él.

Bueno, tal vez la estrella en cuestión sea más pequeña o más fría que nuestro Sol, y así el planeta puede estar más cerca. Pues tampoco puede ser, ya que en la peli vemos que se trata de un sol amarillo, muy parecido al nuestro (claro, después de todo, los exteriores se rodaron en algún sitio de nuetro planeta). Con las estrellas pasa una cosa muy curiosa, y es que su temperatura determina su color. Es decir, observando el color de una estrella, podemos saber su temperatura. Dado que la estrella que aparece en la película es amarilla, debe tener una temperatura parecida a nuestro Sol. Además, nuestro Sol es de las estrellas más pequeñas de su tipo (enana amarilla).

Así que deberían haber pasado varios minutos entre el colapso de la estrella y la disminusión de la luz solar en el planeta. La única forma de que eso ocurra en segundos, es que el planeta estuviese situado muy muy cerca de la estrella. Más o menos, a la misma distancia que se encuentra la Luna de nosotros. Y entonces el calor sería excesivo para sobrevivir.

viernes, agosto 26, 2005

Star Trek: Generations

Carátula de Star Trek: GenerationsSupongo que todo el mundo habrá oido hablar de Star Trek. Esta franquicia ha dado hasta ahora 5 series de TV (6, si contamos la de dibujos animados), 10 películas y multitud de cómics y novelas. Hoy voy a hablar de la película Star Trek: Generations, la 7ª de la saga, aunque la primera con los personajes de la serie Star Trek: Next Generation (la segunda serie de TV, ambientada un siglo después que la original). ¿Lioso? Bueno, no tanto.

La trama de la película consiste en que un científico alienígena se obsesiona con algo llamado el Nexus. El Nexus es una especia de "grieta" en el espacio-tiempo que va viajando por ahí, y si te metes dentro, apareces en una especie de mundo "a medida", donde prácticamente ocurre lo que más deseas, y así uno puede vivir siempre feliz. El problema es que si una nave se acerca al Nexus, aquélla sufre serios daños o incluso explota, y si uno aún no había entrado completamente en el Nexus, pues como que se muere.

Así que nuestro obsesionado científico se dedica a colapsar estrellas, para desviar la trayectoria del Nexus hasta que pase por un planeta, y así pueda entrar en el sin riesgo. La idea es que el Nexus es afectado por la gravedad, por lo que si eliminamos un objeto tan masivo como una estrella, cerca de su trayectoria, esta se modificará.Fotograma de la película que muestra al Nexus acercándose a un planeta

Tranquilos, que no voy a filosofar sobre el Nexus y sus características, o sobre cualquier aspecto de la tecnojerga de Star Trek. Voy a destacar un error que atenta contra la más elemental de las leyes físicas: la conservación de la energía, o en este caso de la masa.

Vamos a ver. La idea es hacer desaparecer la masa de una estrella, para alterar el campo gravitatorio circundante. De esa manera, si el Nexus, por ejemplo, tuviera una trayectoria que pasara cerca de la estrella, al desapareces ésta, el Nexus se movería algo más alejado de la misma. Pura física. Basta con aplicar las Leyes de Newton. Fácil ¿verdad?Composición de dos fotogramas de la película que muestran la trayectoria del Nexus antes y después de colapsar una estrella.

El problema es que para que esto funcione, toda la masa de la estrella debería desaparecer en la nada. En la película, el científico de marras, lanzaba un torpedo de no-se-qué a la estrella de forma que detenía su proceso de fusión nuclear, y la estrella se colapsaba sobre sí misma. Bien, ningún problema a eso. Obviando el cómo detener un proceso de fusión en una masa de gas de cuatrillones o quintillones de toneladas (nuestro Sol tiene una masa de de casi 2 x 1030 kg, esto es, un 2 seguido de 30 ceros, o 2 quintillones de kg, y no es precísamente de las más masivas), es verdad que si una estrella detuviera total o parcialmente su proceso de fusión, su propia gravedad haría que se colapsara sobre sí misma.Fotograma de la película que muestra el colapso de una estrella

En una estrella, la energía desprendida por la fusión nuclear de su interior, tiende a "hincharla". Por otro lado, debido a la enorme masa que tiene, su propia gravedad tiende a "comprimirla". En una estrella estable, ambas fuerzas están en equilibrio. En el mundo real, llega un momento en que el hidrógeno de la estrella se agota. Dependiendo de la masa de la estrella, se pueden iniciar otros procesos de fusión que sigan generando energía y mantengan a la estrella, pero finalmente, todo el combustible se agotará, o se llegará a un proceso de fusión en el que en vez de liberar energía, la absorbe. En ese momento, la gravedad de la propia estrella la colapsará sobre sí misma, comprimiendo y calentando el gas de forma brutal hasta que en algunos casos explote en forma de supernova.

Así que la idea de detener la fusión de una estrella para que esta se colapse no está mal. Pero la masa sigue estando ahí. El campo gravitatorio circundante no varía en absoluto.

Fotograma de la película en la se ve la estrella colapsándose y la onda de choqueVale, en la película, tras el colapso se producía una "onda de choque" (¿mala traducción de "onda expansiva"?) que se expandía como si fuera la onda expansiva de una explosión, arrasándolo todo a su paso. Pero la estrella no explotaba realmente. Se podía ver perfectamente ahí en medio.

Bueno, supongamos que la estrella realmente explota. Aún así, todos los átomos de la estrella, aunque salgan despedidos, siguen ahí, de forma que desde fuera del sistema planetario, o al menos, desde bastante lejos de la explosión, el campo gravitatorio no debería cambiar.

¿Seguro? Las masas se encuentran ahora en posiciones diferentes ¿no? Cierto, pero cuando uno está suficientemente lejos de una masa o conjunto de masas, el campo gravitatorio en ese punto es el mismo que generaría un punto imaginario donde se concentrara la masa total del sistema, y estuviera situado en el centro de masas. Cuando un cuerpo cualquiera explota, si no hay acción de una fuerza externa, debe mantener su cantidad de movimiento antes y después de la explosión, como consecuencia de las Leyes de Newton. ¿Qué es la cantidad de movimiento? Fácil, es la suma del producto de todas las masas por su respectiva velocidad.

Vamos a explicar esto un poco con un ejemplo sencillo. Imaginemos un asteroide, viajando por el espacio. A la hora de calcular su trayectoria, podemos suponer que el asteroide no es más que un punto, en el que se concentra toda su masa. Este punto es el centro de masas, y además, cualquier eje de giro del asteroide, atraviesa este punto. Ahora vamos y le colocamos una cabeza nuclear justo en el centro, que lo parte en dos. Los fragmentos se alejarán uno de otro después de la explosión, y la suma de las masas de ambos es igual a la del asteroide original. Pues bien, el centro de masas del sistema formado por los dos fragmentos, coincidirá con el centro de masas del asteroide. Sería un punto situado entre ambos fragmentos. Y la trayectoria de ese punto imaginario sería exactamente la misma que la que pudieramos haber calculado antes. Lo mismo ocurre si en vez de 2 trozos, se fragmenta en 4, en 10, en 100, o en millones de ellos.

Hagamos lo mismo con algo tan masivo como una estrella. Si la partimos en dos, los planetas suficientemente alejados, seguirán tranquilamente sus órbitas, ya que desde suficiente distancia, se puede considerar que toda la masa está concentrada en el centro de masas. Si la masa no ha variado, y el centro de masas tampoco, aunque la estrella salte en mil pedazos, el campo gravitatorio a suficiente distancia, será el mismo.

Así que, explote o no explote la estrella, el hacer que se colapse sobre sí misma no alteraría el campo gravitatorio, y por tanto, no alteraría la trayectoria del Nexus ese.

miércoles, agosto 24, 2005

El color del cielo

El envío de ayer tocó un poco el tema del color rojo del sol en el atardecer y el amanecer. Un comentario de Ricardo me ha recordado que por norma general, hay confusión sobre el porqué del color del cielo. Una de las preguntas que todo niño hace en su etapa de preguntar el porqué de todo, es precisamente "¿por qué el cielo es azul?".

Diagrama explicativo de la dispersión de la luzEl motivo es un fenómeno físico llamado dispersión. Cuando la luz atraviesa un medio transparente, algunos fotones "chocan" contra partículas y son desviados de su trayectoria. Parte de la luz se "dispersa". Cuanto más cantidad de ese medio atraviesa, más se dispersa. Este fenómeno es mucho más apreciable en gases, y nuestra atmósfera no es ninguna excepción.

La luz del sol es blanca (aunque en realidad, el propio sol es amarillo). Eso quiere decir que está compuesta por todos los colores (rojo, naranja, amarillo, verde, azul y violeta). Cada color corresponde a un intervalo de frecuencias diferente, o lo que es lo mismo, a longitudes de onda diferentes. Para hacernos una idea del tamaño de las longitudes de onda, el violeta está entre los 380 nm y 430 nm, mientras que el rojo está entre los 625 nm y 740 nm (un nanómetro, abreviado nm, es la millonésima parte de un milímetro).

La dispersión de la luz depende de la relación entre la longitud de onda de la luz y el tamaño de las partículas. Si las partículas son mayores que la longitud de onda, la dispersión es independiente de ésta, y se rige por la teoría de Mie. Todas las longitudes de onda sufren la misma dispersión, o traducido al cristiano, afecta a todos los colores por igual. Además, la dispersión ocurre preferentemente en una dirección no muy desviada de la original. Es decir, la mayoría de fotones que se dispersen, se desviarán solo un poco. Esto es lo que ocurre con las nubes o nieblas. Las microscópicas gotas de agua que las forman, son mayores que la longitud de onda de la luz visible, y por eso son blancas (o grises), ya que todos los colores de la luz que las atraviesan, se dispersan por igual.

Si las partículas son menores que la longitud de onda, entonces la dispersión depende de la misma, siendo mayor a longitudes de onda menores. Ésta es la llamada dispersión de Rayleigh. En este caso, se puede calcular el coeficiente de dispersión mediante una sencilla fórmula, en la que dicho coeficiente es inversamente proporcional a la cuarta potencia de la longitud de onda, por lo que una pequeña variación de la misma puede suponer una gran variación en el coeficiente.

Esto es lo que ocurre en el cielo. La luz azul se dispersa mucho más en nuestra atmósfera que el resto de colores (salvo el violeta). Esto quiere decir que una parte de los fotones correspondientes al azul, no nos llegan directamente desde el sol, sino después de haber rebotado por la atmósfera. Si miramos un punto cualquiera del cielo, nuestros ojos reciben fotones correspondientes a la longitud de onda del azul, que al atravesar la atmósfera han rebotado varias veces, hasta llegar a nosotros. El resto de colores apenas se dispersa, por lo que únicamente los recibimos directamente del sol.

Ese es el motivo, no solo de que el cielo sea azul, sino de que el azul es más intenso cuanto más lejos del sol miramos, ya que a medida que nuestra mirada se acerca al sol, recibimos más cantidad del resto de colores.

Pero el cielo cerca del horizonte también es más pálido, pensaréis algunos. Cierto, pero eso es debido a la luz reflejada por la misma superficie de la tierra.

¿Y qué pasa durante la puesta de sol? Como ya dije en mi anterior envío, cuando el sol está cerca del horizonte, la luz tiene que atravesar una mayor cantidad de atmósfera que cuando está alto en el cielo. La dispersión aumenta, y ya no sólo la dispersión de la luz azul es apreciable, sino la del resto de colores también. El rojo es el color con longitud de onda más baja alta, por lo que apenas sufre dispersión. Al ser el único color que nos llega directamente del sol, lo vemos rojo. El naranja y amarillo sí se dispersan, y por eso, el cielo que rodea el sol es de esos colores. El verde se dispersa más, y aunque no se puede apreciar en todas las puestas de sol, aquellos con suerte y buena vista podrán distinguir a veces un tenue color verde separando las zonas amarillentas y azuladas de cielo. El azul y violeta de dispersan mucho más, y lejos del sol, podemos ver aún algo de estos colores.

Y entonces surge la pregunta, si la dispersión aumenta con la inversa de la longitud de onda, y el violeta es el color con menor longitud de onda, ¿por qué demonios el cielo es azul y no violeta? Bueno, eso es otra historia, y es debida a nuestra propia fisiología. Nuestros ojos tienen receptores para ver básicamente tres colores: rojo, verde y azul. El resto de colores los vemos como combinación de estos tres. De hecho, si miráis muy de cerca una televisión o un monitor de ordenador (de tubo de rayos, no valen las de plasma), veréis puntitos únicamente de esos tres colores. Los que hayan utilizado alguna vez algún programa de diseño gráfico o retoque fotográfico, o simplemente les guste el diseño web, sabrán que todos los colores se obtienen como mezcla de rojo, verde y azul. Se trata del famoso RGB (Red Green Blue). Esto hace que haya colores que veamos mejor que otros. Concretamente, nuestra sensibilidad al color azul es muchísimo mayor que al violeta.

Esta forma de percibir los colores, unido al hecho de que el violeta, tal vez se disperse demasiado para que nos llegue con suficiente intensidad, hace que veamos el cielo azul, y no violeta.

martes, agosto 23, 2005

Comunicaciones bajo tierra y bajo el agua

Carátula de The CoreEn el envío del viernes, dedicado a Ángeles y Demonios y cómo localizar el contenedor de antimateria de forma más rápida, alguien comentó que estando la cámara bajo tierra, no llegaría la señal a los receptores de la Guardia Suiza. Ese detalle me ha hecho recordar dos errores similares en la película The Core, y en la serie de televisión SeaQuest.

Carátula de la banda sonora de SeaQuestEn The Core, los "terranautas" a bordo del vehículo que viaja al núcleo de nuestro planeta, se comunican con la superficie transmitiendo voz sin problemas. En SeaQuest, la cosa va más allá, ya que aunque el submarino esté sumergido, los tripulantes se comunican con el exterior mediante audio y vídeo. Esto es sencillamente imposible, y vamos a ver por qué.

Las ondas electromagnéticas son atenuadas en distinta medida por diferentes materiales, dependiendo de la frecuencia de las mismas. La luz, por ejemplo, se atenua poco con el aire, algo más con el agua, y bastante con cualquier otro material no transparente. Como norma general, la penetración de las ondas electromagnéticas disminuye con la frecuencia (y no seáis mal pensados). Así, el sol y el cielo se vuelven rojos en el atardecer y amanecer, porque la luz debe atravesar una cantidad mucho mayor de aire, y la luz roja (la de menos frecuencia de todas) es la única que nos llega bien.Diagrama que muestra el distinto recorrido de la luz en diferentes momentos del día.

Hay excepciones, como los rayos X, que siendo de frecuencia superior a la luz visible, atraviesan los materiales blandos, pero en la mayoría de casos, se puede decir que disminuyendo la frecuencia, aumentamos la penetración.

Esto también se aplica a las transmisiones de radio. Por la experiencia cotidiana, sabemos que las ondas de radio son capaces de atravesar paredes de ladrillo y piedra, pero hasta cierto grosor. Dentro de un edificio, nuestros móviles tienen cobertura, pero si bajamos a un sótano o aparcamiento subterráneo la perderemos. Tambien sabemos que a las ondas electromagnéticas no se les da bien atravesar el metal. Si nos metemos dentro de un ascensor, en la mayoría de los casos nuestro móvil perderá su cobertura. Esto es debido a que las ondas electromagnéticas se atenúan muchísimo al intentar atravesar un material conductor de la electricidad, como el metal, o el agua salada.

Bueno, pero eso ya lo sabíamos todos. ¿Para qué tanta explicación? Pues porque como he dicho antes, al disminuir la frecuencia aumenta la profundidad de penetración (de las ondas). Es posible comunicarse mediante una transmisión de radio con alguien dentro de una mina, o a bordo de un submarino, pero deben utilizarse frecuencias muy muy bajas.

Así, en el rango de muy baja frecuencia (VLF, de Very Low Frequency), que se encuentra comprendido entre los 3 y 30 kHz, las ondas electromagnéticas pueden llegar a atravesar unas pocas decenas de metros de agua salada. La situación mejora en el rango de ultra baja frecuencia (ULF), entre 300 y 3.000 Hz, y puede ser utilizado para comunicarse en el interior de minas. Los siguientes rangos son el de super baja frecuencia (SLF), entre 30 y 300 Hz, y el de extremadamente baja frecuencia (ELF), entre 3 y 30 Hz (aunque a veces se considera que el rango ELF llega hasta los 300 Hz, incluyendo así el SLF). En esos rangos, las señales de radio ya pueden atravesar cientos de metros de agua salada y miles de km de roca.

Entonces, ¿lo de The Core y SeaQuest no es un error? Pues sí lo es, porque con frecuencias tan bajas tenemos dos problemas.

El primer problema es la transmisión de datos. La voz humana tiene una frecuencia más alta que el rango de ELF o SLF. De hecho, la señal de voz que utilizan las redes analógicas de telefonía fija, está comprendida entre los 300 y 3.400 Hz. Y ya suena distorsionada. Por debajo de 300 Hz es sencillamente imposible modular una señal de voz, si pretendemos que se transmita en tiempo real. Por eso, en las comunicaciones con un submarino mediante ELF, la transmisión no es de voz, sino que se emiten una serie de símbolos que se interpretan como texto. Carátula de Marea RojaUn ejemplo de esto lo podemos ver en la película Marea Roja. En ella, vemos cómo los mensajes se reciben en un terminal de texto, y además con una lentitud exasperante (como unas pocas letras por segundo, o algo así). Además se hace referencia a la antena de ultra baja frecuencia (en realidad sería extremadamente baja frecuencia, pero no importa demasiado).

El segundo problema es el tamaño de la antena para una transmisión de ELF. Normalmente, para la emisión de ondas electromagnéticas es necesario que la antena sea tan larga como la mitad de la longitud de onda de la señal a emitir. Eso no es problema para un teléfono móvil, ya que en el rango en el que opera (microondas) la longitud de onda es entre 1 y 30 cm. Pero a 300 Hz, la longitud de onda es de 1.000 km. Y a 30 Hz, de 10.000 km. Si es un problema construir antenas de ese tamaño en tierra (el radio de nuestro planeta es de unos 6.400 km), imaginad cómo podría un submarino llevar un pedazo de antena de ese tamaño. De hecho, las antenas ELF se construyen de forma diferente a las convencionales, aprovechando el propio suelo como conductor de electricidad, con enormes electrodos enterrados en la tierra, separados decenas de km de distancia. Esto implica que las comunicaciones con submarinos utilizando ELF, son en un sólo sentido. El mando naval de turno transmite las órdenes y el submarino las recibe, sin posibilidad de responder.

Así pues, si bien es posible una comunicación parcial con submarinos completamente sumergidos, o incluso con vehículos en las inmediaciones del núcleo terrestre, ésta nunca podría ser mediante voz como en The Core, y no digamos ya con video como en SeaQuest. Y siempre teniendo en cuenta que el vehículo no podría transmitir. Sólo recibir.

lunes, agosto 22, 2005

El Cero Absoluto

He recibido un correo electrónico de Jhoro Popo advirtiéndome sobre una noticia aparecida en El País, sobre el hallazgo de un manuscrito original de Einstein. El manuscrito en cuestión habla sobre el condensado de Bose-Einstein, un estado de la materia que se da en temperaturas muy cercanas al cero absoluto. La noticia explica muy amablemente que el cero absoluto se encuentra a unos 460º bajo cero.

¿Qué es el cero absoluto? Pues como todo el que no se durmiera en el cole debe saber, es la mínima temperatura alcanzable. Desde un punto de vista microscópico, la temperatura de un cuerpo es la energía cinética de sus átomos, es decir, el movimiento de los mismos. Cuanto más se mueven, mayor temperatura. Cuanto menos se mueven, menor temperatura. ¿Y si están quietos? Pues entonces hemos llegado al cero absoluto. No se puede bajar de esa temperatura pues no tiene sentido estar "más quieto que en el reposo" (bueno, esta es una explicación de andar por casa, pero nos vale para hacernos una idea). De hecho, el Tercer Principio de la Termodinámica nos dice que ni siquiera se puede alcanzar.

En el colegio también nos enseñaron que el cero absoluto es el origen de la escala Kelvin de temperatura, y que corresponde a -273,16º C. Vaya, ¿y de dónde salen esos -460º? ¿Se los han inventado? ¿Estaba Einstein equivocado? Nada de eso. Lo que ocurre es que en el mundo anglosajón utilizan una escala de temperatura diferente. En la mayor parte del mundo utilizamos la escala Celsius (º C), que pertenece al Sistema Internacional de Unidades. En esta escala conocida por todos como "grados centígrados", el agua hierve a 100º y se congela a 0º. Sin embargo, en otros países como EEUU, utilizan la escala Fahrenheit (º F), en la cual en agua hierve a 212º y se congela a 32º.

Y aquí está el motivo del gazapo. El cero absoluto correponde a -459,7º F (redondeando un poco, nos dan esos 460º bajo cero).

Este es uno de esos errores en los que ninguna persona con un mínimo de cultura general (la que se adquiere en el colegio) debería caer. No sé qué es peor, si ignorar que el cero absoluto está a unos -273º C (o al menos, una aproximación), o ignorar que en otros países se usa la escala Fahrenheit.

El País no es el único que ha caído en este descuido. La noticia de 20 minutos comete el mismo error. En cambio, El Mundo, cita correctamente la temperatura del cero absoluto.

viernes, agosto 19, 2005

Ángeles y Demonios: una más.

El viernes pasado di por concluido el "ciclo" de Ángeles y Demonios, pero tras terminar el libro, hay algo que no puedo resistirme a comentar. Resulta que una parte de la trama es la búsqueda del contenedor de antimateria. Éste se encuentra escondido en algún lugar del Vaticano, y tiene una cámara inalámbrica enfocando la cuenta atrás, cuya imágen se puede ver en los monitores de seguridad. A la Guardia Suiza se le ocurre que si apagan todas las luces del Vaticano, pueden intentar detectar el campo magnético del contenedor, sin interferencias. Bueno, no digo que no, pero hay una forma mucho mejor de localizar el contenedor: mediante la señal de la cámara.

A ver, la cámara es inalámbrica ¿no? Eso quiere decir que la señal se transmite por el aire (radio, microondas, da igual). Y la imágen se ve en los monitores ¿verdad? Eso quiere decir que la señal llega al receptor inalámbrico que tenga el sistema de vigilancia (sea cual sea, esté donde esté). Entonces, basta con averiguar en qué frecuencia está transmitiendo la cámara, para localizar su posición utilizando un par de receptores, mediante triangulación. ¿Cómo averiguar la frecuencia de la cámara? Bueno, pues dado que el sistema de vigilancia recibe esa señal y muestra la imagen, examinando la configuración del mismo se podría saber a qué frecuencia corresponde esa señal.

¿Y qué es eso de la triangulación? Pues ya lo expliqué en un envío anterior. Es un sistema muy sencillo para localizar cualquier tipo de emisión de señales electromagnéticas. Basta situarse en dos puntos distintos y averiguar en qué dirección se encuentra la fuente de la señal (mediante una antena direccional), y con un poquito de matemáticas, o bien con un mapa, un lápiz y una regla... ¡voilà!

Resulta muy difícil de creer que ningún miembro de la Guardia Suiza lo sugiera, ya que la triangulación se utiliza desde el inicio de las transmisiones de radio, y fue ampliamente utilizada durante la Segunda Guerra Mundial para localizar el origen de transmisiones enemigas o clandestinas. Es lo primero que se le debe ocurrir a cualquiera para localizar un objeto que emite una señal electromagnética.

jueves, agosto 18, 2005

DHTML, IBM y Firefox

El martes leí una noticia en El Mundo sobre la ayuda de IBM a Firefox para hacerlo más accesible (para el que no lo sepa, Firefox es un estupendo navegador web que, en mi opinión, supera al omnipresente Internet Explorer). La noticia dice que IBM ha donado código a la fundación Mozilla (la creadora de Firefox) para que la versión 1.5 del Firefox (ahora va por la 1.0.6) sea más accesible.

Hay que hacer notar que en este contexto, "accesibilidad" se refiere a las facilidades para que una persona discapacitada pueda utilizar el programa en cuestión. Un ejemplo de esto lo tienen los usuarios de Windows. Si van al Panel de Control, dependiendo de la versión que utilicen, aparecerá entre las diversas opciones, una de título "Opciones de accesibilidad" Icono de "Opciones de accesibilidad" del Panel de Control de Windows XPcon el clásico icono de un hombre en silla de ruedas. Allí podrán configurar cosas como el escuchar un pitido al presionar determinadas teclas, o que no sea necesario mantener pulsadas las teclas Sifth, Ctrl y Alt para realizar determinadas combinaciones de teclas.

La noticia es muy corta, y hay un párrafo que es engañoso:

Esta contribución, que fue anunciada por la compañía el lunes 15 de agosto, permitirá añadir las ventajas del lenguaje dinámico de hipertexto (DHTML) a la versión 1.5 de Firefox. Así, las páginas 'web' diseñadas para este navegador podrán ser leídas automáticamente, por ejemplo, o bien poder navegar por ellas mediante el uso del teclado, en lugar del ratón.

Este párrafo da a entender varias cosas: Por un lado, parece que el DHTML es algo nuevo de lo que Firefox carece y que lo tendrá a partir de la versión 1.5 gracias a IBM. Por otro lado, parece que hoy por hoy, es imprescindible el ratón para poder usar el Firefox, y que no se puede usar sólo con el teclado. Además, se establece una relación entre el DHTML y esa posibilidad.

Pues bien, eso no es así. ¿Que demonios es eso del DHTML? se estarán preguntando ya algunos. Bueno, para contestar, antes hay que explicar brevemente tres conceptos fundamentales en el mundo web: el HTML, las CSS y el JavaScript.

El HTML (Hyper Text Markup Language) es lenguaje que se utiliza para crear páginas web. Este texto que estás leyendo ahora mismo, está escrito en HTML. Este lenguaje, es lo que se llama un lenguaje de marcas. Esto básicamente quiere decir que tú escribes el texto que quieres mostrar tal cual, y utilizas determinadas marcas para indicar un enlace, una imagen, un texto en negrita, etc. Si utilizáis la opción "Ver código fuente" de vuestro navegador (normalmente accesible con el botón derecho del ratón), veréis el código HTML de esta página. Habrá muchas cosas que no se entiendan a simple vista, pero se puede ver que los textos que leéis están ahí. Hay que tener muy claro que el HTML es simplemente un lenguaje para presentar información de forma estática. Nada más.

Las CSS (Cascading Style Sheet) son una especificación para dar estilo y formato a la página. Yo puedo decir perfectamente en HTML que un texto vaya en negrita, utilizando la etiqueta <b>, o puedo cambiar el color de un texto mediante la etiqueta <font>. Pero entonces estaríamos mezclando el contenido con el formato. Es buena idea separar de alguna manera la estructura del documento de la apariencia que debe tener. Y para eso se crearon las CSS. Utilizando CSS, uno puede hacer que toda la información relativa a la apariencia de una página esté en lo que se llama una "hoja de estilos" y quede completamente separada del HTML que es el contenido. Así, podemos cambiar la hoja de estilos para variar completamente la apariencia, pero sin tocar una sola coma del HTML. Un buen ejemplo de esto lo tenemos en la web CSS Zen Garden, donde hay una interesante colección de hojas de estilo aplicadas a la misma página. Pinchad aquí, aquí y aquí. Aunque parezca mentira, todas son exactamente la misma página, pero con estilos diferentes. Si no me creéis, mirad los textos y los encabezados, o mejor aún, el código HTML.

Finalmente, el JavaScript es un lenguaje de programación interpretado que permite realizar multitud de cosas en una página web, como pequeñas animaciones, ventanas emergentes, incluso modificar el contenido de la página.

Vale, todo esto es muy interesante, pero ¿qué demonios es el DHTML? Pues el DHTML no es más que el nombre que le dan algunos fabricantes a la combinación de HTML, CSS y JavaScript, para crear páginas web más "dinámicas" y vistosas. En realidad, el DHTML no es nada tangible. No es un estándar, ni una especificación, ni un lenguaje. Es una forma de darle un nombre a una mezcla de cosas.

Una vez explicado esto, veamos los errores de la noticia. El primero es decir que gracias a IBM, la versión 1.5 de Firefox contará con DHTML. Veamos, como todo navegador, Firefox "comprende" el HTML y "pinta" las páginas en consecuencia. Además, es uno de los navegadores con mejor soporte de CSS que existen (no me atrevo a decir que el mejor, pero si no lo es, le falta poco). Y como todo navegador moderno, es capaz de interpretar JavaScript. Esta combinación de factores lo convierte en una navegador que ya tiene DHTML.

El segundo es el afirmar que la donación de IBM permitirá la navegación con el teclado, en vez de con el ratón. Bueno, al igual que muchos otros navegadores, el Firefox se puede utilizar sólo con el teclado. Presionad ahora mismo la tecla TAB varias veces. Veréis que el foco (un rectangulito punteado) se va desplazando por los enlaces de la página. Si presionáis la tecla Enter, iréis a la página del enlace seleccionado. También podéis utilizar las flechas del cursor "arriba" y "abajo" para mover la página.

Pero esa forma de navegar es muchas veces tediosa, y ahí está el quid de la cuestión. El código que dona IBM a Mozilla, lo que permitirá es que la navegación mediante el teclado pueda ser mucho más cómoda y sencilla, permitiendo que personas con problemas de mobilidad (y que no puedan utilizar un ratón), puedan navegar de forma rápida.

Otro error es el decir que ese código donado, permitirá que las páginas sean leídas. Bueno, supongo que con "leídas" se referirá a que sean leídas en voz alta por algún software de síntesis de voz, para que un invidente pueda saber lo que dice una página. Pero nuevamente, eso es algo que ya se puede hacer. Lo que hará ese nuevo código es permitir mejorar la forma en la que ese software interactua con la página.

Finalmente, la noticia parece dar a entender que el DHTML está relacionado con la accesibilidad de las páginas web, cuando la triste realidad es que en muchos casos, el DHTML se utiliza para añadir molestas animaciones y efectos visuales, en la creencia de que así la página será más vistosa. Bueno, puede que sea más vistosa, pero eso mismo hace que sea más dificil aún de moverse por ella sólo con el teclado, o de ser correctamente interpretada por un software para invidentes.

En defensa del redactor de la noticia, diré que la fuente original (IBM) también es engañosa con respecto a estos temas. Esto es algo por desgracia bastante habitual en este tipo de notas de prensa. Se envuelven en paquetes muy bonitos que deforman la realidad.

miércoles, agosto 17, 2005

En la Zona Negativa

En mi envío sobre la antimateria en Ángeles y Demonios, comenté de pasada la Zona Negativa que aparece en los cómics de los 4 Fantásticos. Para los que no sean aficionados a los cómics, explicaré que la Zona Negativa es un universo como el nuestro, pero compuesto por antimateria. Se accede a él a través de algún tipo de pórtico dimensional, inventado por Mr. Fantástico, que atraviesa la llamada área de distorsión, donde la materia se convierte en antimateria y viceversa, dependiendo del sentido del viaje.

No, no voy a filosofar sobre si un universo de antimateria es posible, o no, o sobre portales dimensionales, o sobre cómo demonios todos los átomos de un cuerpo se transforman en antimateria, pero manteniendo su estructura original.

Portada de Fantastic Four Vol.1 #289Simplemente voy a comentar un error bastante gordo que ocurre en el número 289 de la edición original de los 4F. En este número (que pertenece a la mítica etapa de John Byrne), Mr Fantástico es absorbido por una grieta en el espacio que lleva a la Zona Negativa. Nuestro héroe llevaba puesto un traje espacial que generaba un campo de fuerza a su alrededor, por lo que al atravesar el área de distorsión, su estructura atómica no cambió, permaneciendo como materia, en un universo de antimateria.

Página 16 de Fantastic Four Vol. 1 #289Bien, lo aceptamos y no le damos más vueltas. El problema es que en esas condiciones, cualquier cosa que Mr. Fantástico tocara, resultaría en la conocida aniquilación materia-antimateria. Mr. Fantástico es capturado por uno de los villanos de la Zona Negativa (Blastaar), y así se lo explica. Afortunadamente, el villano de turno lo inmoviliza con otro campo de fuerza de forma que nuestro héroe se encuentra suspendido sin tocar nada. ¿Nada? Pues aquí está el problema, porque Mr. Fantástico si está en contacto con algo: el aire.

Nuestro héroe está prisionero dentro de una nave espacial, con aire dentro, ya que tanto el villano como el resto de los 4F cuando llegan al rescate, pueden respirar sin problemas. Bueno, tal vez el campo de fuerza que mantiene prisionero a Mr. Fantástico impide que nada le toque, incluso el aire, pero eso no parece ser así, ya que el villano le toca sin problemas para comprobar si es verdad que sigue siendo de materia, y más adelante, la Mujer Invisible se ve obligada a crear un escudo de los suyos alrededor de su marido para evitar que le toquen unos cascotes, resultado de la batalla entre sus compañeros y el villano de turno.
Viñeta 3 de la página 16 de Fantastic Four Vol. 1 #289

Por tanto, Mr. Fantástico tendría que haber provocado una terrible explosión en cuanto el villano lo metiera en su nave.

martes, agosto 16, 2005

La fusión nuclear y el hidrógeno

Este fin de semana, en el suplemento dominical de El Pais, aparecía un artículo titulado Un sol en la Tierra, que hablaba del ITER y la fusión nuclear. El artículo comienza enumerando las fuentes de energía actuales y sus respectivos problemas de todos conocidos: los combustibles fósiles no durarán mucho y son altamente contaminantes, y la energía nuclear genera residuos radiactivos que duran miles de años. Entonces añade lo siguiente:

¿Qué queda? El hidrógeno no vale porque es un almacén de energía, no una fuente en sí misma. Las energías renovables, por supuesto. Y algo que hoy por hoy no es más que un montón de datos científicos y una esperanza: la energía de fusión nuclear.

El decir que el hidrógeno no vale, para después afirmar que la fusión nuclear es una esperanza, es una contradicción, ya que la fusión nuclear que pretende investigar el ITER, utiliza hidrógeno como combustible. Aún peor, se necesitan dos isótopos de hidrógeno, el deuterio y el tritio, que son menos comunes que el hidrógeno-1.

¿Y cómo funciona esto? Muy fácil. En la fusión nuclear se unen átomos de elementos ligeros para formar átomos de elementos más pesados. En las reacciones que nos interesan como fuente de energía, el total de la masa obtenida es inferior al total de la masa proporcionada, por lo que la diferencia es emitida en forma de energía, siguiendo la conocidísima ecuación E=mc2. Diagrama de la reacción de fusión deuterio-tritio.Se conocen varios tipos de fusión nuclear, pero la más sencilla es la que un átomo de deuterio y otro de tritio, se unen para formar un átomo de helio. Es la misma reacción que se produce en las estrellas durante la mayor parte de su vida.

Entonces ¿qué sentido tiene la afirmación del párrafo? Por un lado, el hidrógeno es muchísimo más abundante que el petróleo, el carbón, el gas o el uranio. Lo tenemos en la atmósfera, en el agua, en numerosos compuestos. Además, es el elemento más común del universo. Pero por otro lado, el deuterio y el tritio son menos comunes que el hidrógeno-1. ¿Cómo se puede descartar el hidrógeno como fuente de energía, pero proponiendo el deuterio y el tritio? Yo no lo sé.

Terminaré con un pequeño matiz, y es que la fusión nuclear, no es una fuente de energía renovable, ya que consume hidrógeno. Una fuente de energía se considera renovable cuando su utilización no altera la fuente, o esta se renueva. Es decir, el sol seguirá emitiendo energía, la aprovechemos o no con placas solares. La luna seguirá dando vueltas alrededor de la tierra, aprovechemos o no la energía maremotriz. Los ríos seguirán fluyendo aprovechemos o no los saltos de agua. Pero el hidrógeno, por muy abundante que sea, se consume. De hecho, hasta las estrellas terminan por consumir su hidrógeno, y sufren cambios a lo largo de su vida, hasta que finalmente "mueren".

viernes, agosto 12, 2005

Ángeles, demonios, Galileo y Kepler

Voy a cerrar la semana de Ángeles y Demonios comentando las referencias a Galileo que se hacen en el libro. En la novela, el protagonista afirma que Galileo propuso que los planetas daban vueltas alrededor del Sol trazando elipses, lo que creo un enfrentamiento entre él y la Iglesia, que afirmaba que los planetas debían moverse en círculos, ya que era una figura geométrica "más pura".

El enfrentamiento entre la Iglesia y Galileo se debió en su mayor parte a la defensa de éste del modelo heliocéntrico, propuesto por Copérnico, en el que la Tierra y los planetas giraban alrededor del Sol. La Iglesia en cambio defendía el modelo geocéntrico, propuesto por primera vez por Aristóteles y completado posteriormente por Ptolomeo, en el que el Sol y los planetas giran alrededor de la Tierra. De hecho, Galileo, al igual que Copérnico, creía que los planetas describían órbitas circulares.

Fue Johhannes Kepler, contemporáneo de Galileo, quien propuso que los planetas se movían en órbitas elípticas. A base de observaciones, formuló sus famosas tres leyes:
  • Primera Ley de Kepler: Todos los planetas se desplazan alrededor del Sol describiendo órbitas elípticas, estando el Sol situado en uno de los focos de dicha elipse.
  • Diagrama explicativo de la Segunda Ley de KeplerSegunda Ley de Kepler: El radiovector que une el planeta y el Sol, barre áreas iguales en tiempos iguales. Esto quiere decir que el planeta se mueve más rápido cuanto más cerca del Sol está.
  • Tercera Ley de Kepler: Para cualquier planeta, el cuadrado de su período orbital (tiempo que tarda en dar una vuelta alrededor del Sol) es directamente proporcional al cubo de la distancia media con el Sol.

Kepler formulo estas tres leyes de manera completamente empírica. Es decir, se cumplían a la perfección en las observaciones, pero no sabía por qué. Hubo que esperar hasta Newton y su teoría gravitatoria, para que las tres leyes de Kepler pudieran ser explicadas.

Un detalle: En el libro, se hace referencia al famoso Dialogo de Galileo, y Vittoria lo tilda de poco más o menos que de traición a la ciencia, por considerar el modelo geocéntrico como una teoría tan viable como el modelo heliocéntrico. Lo cierto es que en Dialogo, el modelo geocéntrico sale perdiendo en favor del heliocéntrico, por lo que es claramente una defensa de este último modelo.

jueves, agosto 11, 2005

Ángeles y Demonios: Y por fin, la Antimateria

Hoy sí. Hoy toca la antimateria y cómo es tratada en el libro Ángeles y Demonios. Antes de empezar, conviene explicar qué demonios es la antimateria.

Como todos sabemos, toda la materia está formada por átomos. A su vez, los átomos están formados un núcleo de protones y neutrones, y electrones que dan vueltas alrededor de él. Existen además muchas otras partículas subatómicas, como el neutrino o la partícula Z de la que hablé hace un par de días. Las partículas subatómicas tienen una serie de propiedades de las que las más conocidas son la masa y carga eléctrica (que puede ser nula, como en el caso del neutrón). Pero tienen además otras propiedades algo menos conocidas por los profanos, y más "exóticas", con nombres bastante peculiares. Pues bien, por cada tipo partícula, existe (o puede existir) otra con la misma masa pero con el resto de propiedades de distinto signo (excepto el espín). Por ejemplo, el electrón tiene carga electrica negativa, y su antipartícula, el positrón (o antielectrón), tiene igual masa que el electrón, pero carga positiva.

La antimateria estaría formada entonces por antipartículas. Podemos imaginar un "antiátomo" formado por un núcleo de antiprotones y antineutrones, con positrones dando vueltas alrededor de él.

Lo interesante de todo esto es que cuando una partícula colisiona con su correspondiente antipartícula, se aniquilan mutuamente, emitiendo una cantidad de energía que viene dada por la conocidísima ecuación de Einstein E=mc2, donde E es la energía desprendida, m la masa de las partículas, y c la velocidad de la luz. Teniendo en cuenta que la velocidad de la luz es 300.000.000 m/s y que además está elevada al cuadrado, podemos ver que con una pequeña cantidad de masa se pueden conseguir cantidades increíbles de energía.

Empecemos ahora con las afirmaciones del libro. El primer gran error es la motivación que tiene el asesinado padre de Vittoria para obtener antimateria. Según él, la crear antimateria, estaría creando algo de la nada, lo que demostraría que la creación es posible, y que el Big Bang fue creado de la nada. Bueno, cualquiera con un mínimo conocimiento de física puede entender que hay algún tipo de trampa en esta afirmación. Uno de los pilares fundamentales de la física, del que todos hemos oído hablar es el famoso principio de conservación de la energía. "La energía ni se crea ni se destruye, sólo se transforma". Esta es una ley inviolable. Debemos entender el concepto de energía de forma muy amplia, es decir, según la ecuación E=mc2, la masa también es energía. Eso quiere decir que para "crear" antipartículas (con sus correspondientes partículas), debemos aplicar la misma increíble cantidad de energía que se desprende en su aniquilación. De hecho, necesitamos más, ya que nuestras máquinas no son eficientes al 100%, por lo que siempre se perderá parte de la energía (como ocurre con todas las máquinas existentes). La antimateria no se crea, sino que se obtiene a partir de la energía.

Esto no lleva directamente a otro error. Puesto que necesitamos aportar más energía para crearla, de la que obtenemos con su aniquilación, la antimateria no puede ser nunca una fuente de energía. En el mejor de los casos, podría utilizarse como batería, y para eso primero hay que solucionar otros problemas, como su contención. La única forma en la que la antimateria podría covertirse en fuente de energía, es que la encontremos ya hecha, en estado natural, en alguna parte. Pero está claro que en la Tierra no va a ser, pues se aniquilaría inmediatamente al entrar en contacto con la materia (incluso con el aire). Tendríamos que encontrarla en el espacio. Y eso si la encontramos.

Otro error bastante importante, es el asombro del director del CERN ante la afirmación de que Vittoria y su padre habían creado antimateria. Se dice que son los primeros especímenes de antimateria del mundo. Lo cierto es que el CERN y otras instituciones crean antipartículas de forma casi rutinaria en sus experimentos (y de forma distinta a como explica al libro, y no en el LHC, que aún no está operativo). Y muchísmo antes, allá por 1932, ya se habían detectado las primeras antipartículas. La fabricación de antimateria no debería ser ninguna novedad para un científico, y mucho menos, para el director del CERN.

La contención de la antimateria es otra de las cosas que tiene miga. Dado que no puede estar en contacto con la materia, la única forma conocida de almacenarla es mediante campos magnéticos, como dice el libro. Pero para ello, lo que se pretende retener debe tener carga eléctrica. Esto no es problema si queremos almacenar unos cuantos positrones, por ejemplo. Pero no podríamos hacerlo con antineutrones. En la novela, al hablar con el comandante de la Guardia Suiza, Vittoria dice que la única marca química que podrían haber detectado es la del hidrógeno. Esto sugiere que la "gota" de antimateria que tienen no son simplemente antipartículas a granel, sino átomos de antihidrógeno. Puesto que cada átomo tendría un antiprotón y un positrón, la carga eléctrica global sería neutra, por lo que un campo electromagnético no funcionaría. De hecho, a la hora de almacenar antipartículas, el que deban tener la misma carga eléctrica limita la cantidad que se puede almacenar, ya que éstas se repelen entre sí (creo que no hace falta explicar que cargas opuestas se atraen y cargas iguales se repelen). Para almacenar antimateria en cantidades apreciables, habría que buscar alguna otra solución (de momento desconocida).

Otro error es que en el libro se dice varias veces que la antimateria es inestable. La antimateria no es inestable per se. Cierto que en contacto con la materia se aniquila, pero uno puede imaginar un planeta de antimateria, con su atmósfera de antioxígeno y antinitrógenos, con formas de vida basadas en anticarbono, viviendo felices y sin problemas. Claro que si existiera un lugar así, el más pequeño meteorito de materia sería devastador para el "antiplaneta". Es más, podemos imaginar un universo entero formado por antimateria (como la famosa zona negativa que aparece en los cómics de los 4 Fantásticos).

Y terminaré con la afirmación de la novela de que los científicos ya sabían en 1918 que en el Big Bang se creó tanto materia como antimateria. Algo difícil que lo supieran en ese año, ya que poco antes mencionan que la teoría del Big Bang fue propuesta por Georges Lemaître en 1927, un dato que sí es verídico, aunque hay que hacer notar que el nombre de Big Bang es posterior (Lemaître la llamaba algo así como "teoría del huevo primigenio"). Por otro lado, la existencia de antimateria era desconocida en aquel entonces.

miércoles, agosto 10, 2005

Internet y la Web

Para variar un poco, pero siguiendo con Ángeles y Demonios, voy a hablar de algo que no sólo es un error en la novela, sino una confusión generalizada para muchísima gente. En Ángeles y Demonios, el director del CERN afirma con orgullo que Internet es una invención de ellos, en contra de la creencia popular de que fue un proyecto militar estadounidense. Aquí hay una mezcla de errores que voy a intentar aclarar.

Empecemos por algo que la mayoría de la gente no tiene claro: Internet y la Web no son lo mismo. No. Están muy relacionados, pero no son sinónimos. Internet es la red mundial de ordenadores que todos conocemos. Está formada por infinidad de nodos y servidores, que utilizan los mismos protocolos para entenderse entre sí. Y nada más. Los datos que viajan por la red pueden ser cualquier cosa. La Web, en cambio, es un servicio que opera sobre Internet en el que un navegador visualiza los contenidos de infinidad de servidores web.

Internet no es sólo la Web. El correo electrónico, el chat, las redes P2P, y muchas otras cosas, también utilizan Internet, pero no tienen nada que ver con la Web. Podemos hacer una analogía con la telefonía móvil. Por un lado tenemos la red de telefonía móvil, formada por las estaciones base, los propios terminales, y el sistema que utilizan para localizarse y comunicarse ambos. Por otro lado tenemos los servicios que utilizan esa red de comunicaciones: telefonía de voz, SMS, MMS, WAP... Con Internet ocurre lo mismo.

Y ahora vamos con los orígenes. Internet nació como evolución de la primitiva ARPANET, una red desarrollada por la Advanced Research Projects Agency (ARPA) que pertenece al Departamento de Defensa de EEUU. Esto hace que la mayoría de la gente piense en Internet como un "invento militar", pero el hecho es que en su primera encarnación, se implantó en entornos universitarios, allá por 1969. Sobre esta primitiva Internet, se implantaron servicios tan utilizados hoy en día como el FTP o el correo electrónico. En 1983 se cambió el protocolo de red por el TCP/IP, que es el utilizado actualmente en Internet.

El concepto de la Web (HTTP, HTML, navegador) fue creado en el CERN en 1989. De hecho, esta institución publicó la primera página web de la historia de Internet. Actualmente, uno de sus creadores es el presidente del W3C.

Así que, aunque la Web fuese originada en el CERN, es un error bastante gordo afirmar que la Internet en general fue inventada allí. Son cosas muy distintas. De hecho, la Web es posterior a Internet.

Hay que ser justos, y decir que creo que el error mencionado no es realmente de Dan Brown, sino del traductor de la edición española (Umbriel). En Simmonsays.com se reproduce el capítulo en cuestión, y se habla en todo momento de la Web, no de Internet. En este caso, la afirmación sería correcta, aunque el resto del diálogo es engañoso: El protagonista se asombra y comenta que siempre ha creído que la Web era un invento americano, y más adelante el director del CERN le dice que allí crean milagros mucho más importantes que la conexión global de ordenadores. Bien, la Web no es una conexión global de ordenadores. Eso es Internet. De una forma u otra, parece que Brown, al igual que mucha gente (incluído el traductor), confunde ambos conceptos.

martes, agosto 09, 2005

Ángeles y Demonios: La partícula Z

Seguimos con Ángeles y Demonios. Antes de meterme con la antimateria, voy a hablar de algo que se nombra de pasada en el libro, y que es digno de mencionar aquí. Cuando el protagonista llega al CERN, una de las cosas que se comentan son las partículas Z. En la novela, son descubiertas hace cinco años por el asesinado Leonardo Vetra, y dicen que son partículas sin masa, de pura energía.

Con pocas palabras se cometen varios errores bastante importantes. El primer error puede ser advertido fácilmente: partículas sin masa. Sólo existe una partícula conocida que no tiene masa. Es muy conocida por todos, y viaja a casi 300.000 km/s: el fotón. La luz, las microondas, los rayos X, en suma, toda la radiación del espectro electromagnético está compuesta por fotones que viajan a la velocidad de la luz.

Esto nos lleva al segundo error, para el que ya es necesario buscar un poco. ¿Cuál es la masa de una partícula Z? Uno podría pensar que debe ser muy pequeña, para que el autor haya cometido un error así. Tal vez sea tan pequeña como la de un neutrino, que durante un tiempo se creyó que no tenía, y de ahí la confusión. Pero no. Investigando un poco, descubrimos que las partículas Z tienen una masa enorme (en términos de partículas elementales). La masa de una partícula Z es casi 100 veces mayor que la de un protón. Y éste a su vez tiene unas 1.800 veces más masa que un electrón. De hecho, la masa de una partícula Z es mayor que la de muchos átomos, como el del hierro (Fe).

Luego está el tema del descubrimiento de estas partículas. Estoy seguro que todo el mundo imaginará que las partículas Z no fueron descubiertas por el personaje ficticio Leonardo Vetra. Pero es que tampoco han sido descubiertas hace tan poco tiempo. La existencia de las partículas Z fue predicha ya en los 60 y 70, cuando se postuló la teoría de la fuerza electrodébil (integración de la fuerza electromagnética y la fuerza nuclear débil). La confirmación de su existencia, es decir, su observación (y podríamos decir entonces, su descubrimiento) sucedió en 1983. La novela Ángeles y Demonios se publicó en 2000, por lo que según ésta, el descubrimiento de las partículas Z habría ocurrido en 1995. Es decir, más de 10 años después de su primera observación, y décadas después de su predicción.

lunes, agosto 08, 2005

Ángeles, Demonios y el X-33

Portada de la edición española de Ángeles y Demonios.He empezado a leer hace poco Ángeles y Demonios, que como todos sabéis es del mismo autor que el conocidísimo El Código Da Vinci. Ya en los primeros capítulos estoy viendo cosas dignas de comentar aquí. Empezaré por el avión que lleva a nuestro protagonista a través del Atlántico, hasta Suiza, en una hora. En la novela, el piloto dice que el avión en cuestión es un prototipo del Boeing X-33, y que no es el único, ya que los ingleses tienen el HOTOL, y lo los rusos el Scramjet.

Tanto el X-33 como el HOTOL eran prototipos para vehículos orbitales. Ambos proyectos fueron cancelados, y realmente nunca se termino totalmente ninguno de ellos. El que existan en la novela no puede considerarse realmente un error. Podemos imaginar que la acción se desarrolla en un futuro cercano y que ambos proyectos fueron terminados, o que los prototipos existen en algún lugar secreto. Pero sí es un error la mención del Scramjet como un avión. El scramjet no es un vehículo, sino un tipo de motor. Ciertamente, la idea del scramjet es permitir vuelos hipersónicos (superiores a Mach 5), en eso no iba desencaminado el autor. Pero es el nombre de un tipo de motor, no de una aeronave. Es como si habláramos del Diesel como si fuera un modelo concreto de coche, de un fabricante concreto.

En la novela, se nos describe el X-33 (que, por cierto, es de Lockheed Martin, no de Boeing) de forma bastanta acertada. Como una lanzadera espacial, casi sin alas y sin cola, con dos timones traseros, y sin ventanas. Pero hay dos problemas: Uno, el X-33 era una nave no tripulada, y por supuesto, no destinada al transporte de pasajeros. Y dos, el despegue del X-33 era vertical, como el de la Lanzadera Espacial. En la novela, en cambio, despega como un avión. Y es que, como ya he dicho, el X-33 (y el HOTOL) eran prototipos de vehículos orbitales de una sola etapa (SSTO o Single-Stage To Orbit), y no de transportes civiles de alta velocidad. La idea es evitar el actual uso de múltiples etapas como ocurre con la lanzadera espacial.
Representación del X-33

Esta confusión nos lleva directamente al siguiente error. En la novela, el X-33 viaja a Mach 15, a una altura de 18 Km. Mach 15 a nivel del mar supone unos 18.300 km/h. Desde luego, es una velocidad impresionante, teniendo en cuenta que la velocidad de una órbita baja es de 27.000 km/h. Sin embargo, 18 km es una altúra ridículamente baja. Aunque está en la estratosfera inferior, es más o menos la altitud de crucero del Concorde. A esa altura, la densidad del aire es todavía demasiado grande para una velocidad así. El rozamiento con el aire sería comparable al de la una reentrada. De hecho, el X-33 tenía un escudo térmico en la parte inferior, al igual que las lanzaderas espaciales, pues se trataba de un vehículo orbital. Si se utilizara para un simple vuelo de América a Europa, realizaría una trayectoria suborbital, subiendo muchísimo más para poder alcanzar esa velocidad (y superarla), y realizando la inevitable reentrada. Y no sólo el calor es un problema (que lo es), si no el alcanzar esa velocidad en una atmósfera. La función de una reentrada tal y como la conocemos es utilzar la propia resistencia del aire para frenar el vehículo, ya que hoy por hoy, es la única manera práctica de hacerlo (hacerlo con los motores supondría llevar más del doble de combustible, ya que no sólo hay que frenar el vehículo, sino llevarlo hasta allí arriba, con el peso adicional del combustible extra).

Al terminar el viaje en el X-33 hay otro posible error. El prota se siente fatal, y el piloto menciona que es por efecto de la altitud. Según él, allí arriba el peso se reduce un 30%. Bueno, bueno, bueno. A 18 km el peso no se reduce un 30%. Ya mencioné en mi envío sobre La Venganza de los Sith, que a más o menos 380 km, el peso se reduce sólo un 10%. Pero he dicho un posible error, no un error garrafal. Eso es porque si tenemos en cuenta la velocidad mencionada en la novela, por efecto de la fuerza centrífuga sí que se reduce el peso considerablemente (aunque en mis cáclculos me sale un 39%). Sin embargo, si leemos bien el diálogo, el piloto parece indicar que la disminución de peso se debe única y exclusivamente a la altura, ya que luego lo compara con un hipotético viaje a Tokio, en el que habría que subir hasta 150 km, sin mencionar para nada la velocidad.

Como curiosidad, mencionaré que en la versión original (de la que se puede leer un poco aquí), el piloto dice literalmente altitude sickness, que en la edición en castellano se ha traducido como "Efecto de la altitud". Pero en inglés, altitude sickness, se refiere al mal de altura. Y el mal de altura no tiene nada que ver con la falta de peso, sino con la menor densidad del aire y menor presencia de oxígeno. Se ve que el traductor tenía algo más de idea, y decidió no utilizar la expresión "mal de altura".

viernes, agosto 05, 2005

Grupos Sanguíneos

Carátula de PerdidosAyer en Perdidos, en el segundo episodio salió a relucir el eterno tema de los grupos sanguíneos y las transfusiones. La situación era sencilla: Boone, uno de los personajes sufre un accidente, y necesita una transfusión urgente. Su tipo era A-.

Por un momento temí que se fuera a caer en el eterno error de considerar que una persona de un grupo sanguíneo sólo puede recibir sangre de su mismo grupo, ya que Jack envía al Hobbit... digo, a Charlie a buscar a alguien con A-. Posteriormente, al no encontrar a nadie (muy pocos sabían su grupo), Jack dice que él es O-, y que puede usar su sangre, pero parece dar a entender que existe una posibilidad de un shock anafiláctico. Pero lo cierto, es que alguien con tipo O- puede donar sangre a cualquiera sin que el receptor sufra ningún riesgo (al menos en lo relativo exclusivamente al tipo ABO y el Rh).

En otras películas (lástima no recordar ningún ejemplo ahora), la situación es peor. Un herido es del grupo B o AB, que son muy poco frecuentes en occidente, y los médicos sudan tinta para obtener sangre de su mismo grupo. Algo innecesario, ya que un O valdría para ambos. Es más, alguien de tipo AB puede recibir sangre de cualquier grupo (de momento no estoy hablando del Rh).

¿Cómo funciona eso de los grupos sanguíneos y el Rh? Fácil. Existe por un lado lo que se llaman grupos sanguíneos ABO. Esto se produce por la presencia en la sangre o no, de antígenos de tipo A o de tipo B. Una persona con antígenos de tipo A, tiene el grupo sanguíneo A. Una persona con antígenos de tipo B, tiene el grupo sanguíneo B. Una persona con ambos tipos de antígenos, tiene el grupo sanguíneo AB. Y una persona sin ninguno de esos antígenos, es del grupo O.

Si una persona recibe sangre con antígenos que su cuerpo no reconoce, éste reaccionará generando anticuerpos para combatirlos, produciendo un rechazo de la sangre donada. Así, una persona del grupo O sólo podría recibir sangre de su mismo grupo (sin antígenos). Pero una persona del grupo A o del grupo B, no sólo puede recibir sangre de su mismo grupo, sino también del O. Como el grupo O corresponde a una sangre sin antígenos A o B, puede ser recibida por cualquiera. En el polo opuesto están los del grupo AB. Esta sangre tiene antígenos A y B, por lo que puede recibir sangre de cualquier grupo, pero solo puede donar a los de su mismo grupo.

Por otro lado existe el factor Rh. El factor Rh es una peculiaridad de la superficie de los glóbulos rojos, que se tiene o no se tiene. Los que tienen factor Rh se denominan Rh+, y los que no lo tienen, Rh-. Con el factor Rh ocurre lo mismo. El cuerpo reacciona ante lo que no conoce, atacándolo. Una persona con Rh+ puede recibir sangre Rh-, pero no a la inversa. Es decir, una persona con Rh- no puede recibir sangre con Rh+.

A partir de estos datos, es fácil observar que el tipo O- puede donar sangre a cualquiera (donante universal), y que el tipo AB+ puede recibir sangre de cualquiera (receptor universal).

Por tanto, Boone, de tipo A-, necesitaba sangre de tipo A- o de tipo O-. Y cualquiera de ellos sería igualmente válido. No parece lógico entonces el comentario de Jack sobre el riesgo que corría al usar O- en vez de A-. El riesgo en todo caso sería para Jack, si se producía algún reflujo de sangre (es decir, de Boone a Jack) al realizar la transfusión con medios tan rudimentarios.

Y en el resto de películas donde parece que sea un problema que el paciente sea B o AB, la situación es igualmente errónea. Basta con tener también sangre O- (y si además el Rh es +, también valdría el O+). De hecho, la sangre de tipo O- es muy solicitada por los hospitales, e intentan tener siempre una buena provisión de ella, ya que en caso de emergencia (moribundos, para los que cada segundo cuenta), se puede iniciar una transfusión con ella, sin perder tiempo en realizar una análisis de sangre del paciente.

jueves, agosto 04, 2005

La Venganza de los Sith

Carátula de La Venganza de los SithEl envío de hoy va a ser algo distinto. No voy a comentar algún error científico en La Venganza de los Sith, sino más bien al contrario. En varias webs (como en Badastronomy), se ha considerado que la escena inicial de la nave del General Grievous cayendo sobre Coruscant, es un fallo de la película.

Recordemos la secuencia: en plena batalla espacial sobre el planeta Coruscant, el destructor del General Grievous es seriamente dañado, y comienza a inclinarse y caer hacia el planeta. En el interior de la nave, se ve como todo se inclina, hasta que el suelo y el techo quedan verticales, y los protagonistas se ven obligados a caminar por la pared, que se ha convertido en el nuevo suelo. Poco después la nave se endereza, y el suelo vuelve a estar abajo y las paredes a los lados.
Fotograma de La Venganza de los Sith. El crucero del General Grievous comienza a caer.

Cuando se critica esta escena, se afirma que si la nave está en órbita, el interior debería estar en gravedad cero (o mejor dicho, en caída libre), a menos que exista algún tipo de gravedad artificial. Y si esta gravedad artificial está activada, entonces por mucho que se incline el destructor, y por muchas vueltas que de, todos los objetos del interior serán atraidos siempre hacia el suelo de la nave. Además, aunque la nave resulte dañada y aunque se apagasen completamente los motores, ésta seguiría en órbita.

Todo eso es cierto, pero se parte de una premisa: si la nave está en órbita.

¿Y qué pasa si la nave no está en órbita? Pues por un lado tenemos que para que se mantegna ahí flotando a varios kilómetros sobre la superficie del planeta, debe estar utilizando sus motores, que ejercerían una fuerza equivalente al peso de la nave, pero en dirección opuesta. Por otro lado, en el interior de la nave, la gravedad del planeta sería lo suficientemente fuerte como para no necesitar tener encendida la gravedad artificial. A modo de ejemplo, a unos 386 Km de altura (la de la Estación Espacial Internacional), la gravedad terrestre es aún un 90% de la que tenemos en la superficie.

En este caso, si los motores fallasen, es normal que la nave empiece a caer. Además, si ésta se inclina, es normal que en el interior, la gravedad siga dirigida hacia el planeta, y no hacia el suelo de la nave.

¡Eh! ¡Un momento! Si la nave está en caída libre, todo lo que haya en su interior debeía flotar. Pues sí. Si está en caída libre. Pero podemos suponer que la nave no está tan dañada como para caer como un ladrillo, sino que aún tiene potencia suficiente para frenar la caida (de hecho, consigue volver a ponerse derecha). Desde el momento en el que una fuerza se oponga a la caída, ya no se está en caída libre.

Y ¿cómo sabemos si la nave en cuestión está o no en órbita? Pues no se puede saber de forma segura, pero tenemos una batalla donde cientos de naves se cruzan siguiendo trayectorias muy dispares. Y se cruzan a relativamente baja velocidad, recordando las batallas navales de antiguos galeones. Esto parece descartar el que las naves se encuentren en órbita, ya que las velocidades orbitales son enormes, y más a tan poca altura.
Fotograma de La Venganza de los Sith. Dos cruzeros se intercambian cañonazos, a una distancia muy corta.

Es verdad que podría ser que en realidad todas las naves estuvieran casi en la mísma órbita, con pequeñas variaciones entre ellas. Pero en el universo Star Wars, no parece darse mucha importancia a las órbitas. La tecnología "antigravitatoria" parece ser de andar por casa, como demuestran las plataformas flotantes de Coruscant donde se posan las naves, o los speeders, o la silla flotante del padre de Owen Laars (en El Ataque de los Clones). Algunos vehículos continuan flotando incluso cuando están apagados o en stand by, como ocurre con las motos imperiales en El Retorno del Jedi. En un universo así, uno se preguntaría por qué molestarse en adoptar una órbita en torno a un planeta, en vez de simplemente acercarse y moverse en la dirección que uno quiera.

En cualquier caso, no podemos saber a partir de lo que se dice o se ve en la película si la nave está en órbita o no. Pero si no se puede saber con certeza, tampoco podemos decir con seguridad que se trata de un fallo.

miércoles, agosto 03, 2005

Satélites espía

Algunos comentarios a raíz de mi último envío sobre 24, sobre satélites espías, me ha hecho recordar cómo muchas veces nos muestran estos satélites como artefactos que todo lo ven, y que pueden hacerlo desde distintos ángulos. Yo no es que sepa demasiado de satélites espías (no creo que nadie sepa mucho, salvo los militares y agencias diversas), pero existen una serie de limitaciones físicas que deben cumplir.

Lo primero y más obvio, es que el satélite debe estar en órbita. La órbita más baja ya supone una altura impresionante sobre la superficie de la Tierra. La Estación Espacial Internacional, por ejemplo, está en una órbita considerada baja, y aún así está a 386 km sobre la superficie terrestre. Esto implica que todas las imágenes que pueda tomar el satélite, necesariamente han de tener una perspectiva cenital, o de planta. Es decir, desde arriba, mirando perpendicularmente al suelo. Esto imposibilita el ver por ejemplo matrículas de coches, a menos que el coche en cuestión se haya estrellado y tenga el morro o el culo apuntando hacia arriba.

Carátula de El PacificadorRecuerdo concretamente una escena de El Pacificador, en la que siguen a los malos con un satélite. Repetidas veces se nos muestra la supuesta imágen del satélite, y por la perspectiva, parece que esté tomada simplemente desde una colina elevada. Incluso llegan a ver perfectamente la matrícula debido a ello. Por el contrario, en Enemigo Público, sí se muestra siempre una perspectiva completamente cenital en todas las imágenes del satélite.

Carátula de Enemigo PúblicoUno podía argumentar que si el satélite está muy bajo sobre el horizonte, entonces se puede obtener una imágen más "natural" (por decirlo de alguna manera). Pero existe el problema de la atmósfera. Al observar algo que se encuentre casi en el horizonte, entre lo que queremos ver y el satélite, hay muchísimo más aire que cuando miramos directamente hacia abajo. Y por muy buenas que sean las capacidades del satélite, la distorsión producida por la atmósfera es demasiado grande. Pensad por ejemplo en cómo vemos el Sol al atardecer. Ese color rojo es debido a la inmensa cantidad de atmósfera que debe atravesar la luz hasta llegar a nosotros. O realizad un simple experimento con unos prismáticos o incluso un telescopio. Observad algo muy muy lejano, que esté en la superficie, y veréis como una especia de neblina o distorsión, que hace que la imágen se vea borrosa y temblorosa. Pero si miráis a la luna llena (y que esé alta), se ve perféctamente.

Otro error bastante habitual es la asombrosa velocidad con la que los satélites se mueven hasta la posición adecuada. Es cierto que un cuerpo en órbita se mueve a gran velocidad. Volviendo a la Estación Espacial Internacional, ésta da una vuelta a la Tierra aproximadamente cada 90 minutos. Pero eso siempre lo hacen siguiendo la trayectoria de la órbita. Si se necesita en un momento dado observar alguna otra zona, no se puede modificar la órbita tan rápidamente. Normalmente, los satélites destinados a "observar", siguen órbitas bajas e inclinadas con respecto a los paralelos o meridianos, de forma que en cada vuelta cubra una porción terrestre diferente, y al cabo de un número determinado de vueltas, haya observado todo el globo. Si quieres observar otra zona, has de esperar a que es satélite pase por ahí. Lo cual nos lleva a otro problema: el satélite no puede observar una misma zona durante mucho tiempo.

Estos dos problemas son fácilmente solucionables poniendo en órbita varios satélites, de forma que en todo momento haya un satélite sobre determinadas zonas "interesantes". El famoso sistema GPS, por ejemplo, depende de una red de satélites, cuyas trayectorias están pensadas para que en todo momento tengas varios satélites "a la vista". Sin embargo hay películas donde parece que sólo se dispone de un único satélite para verlo todo.