Búsqueda

viernes, marzo 30, 2007

«Forzando» discos duros

Carátula de la serie Mentes Criminales

Hace unas semanas que Tele 5 comenzó a emitir la segunda temporada de la serie Mentes Criminales. Recuerdo que cuando estrenaron la primera temporada, hace ya bastante tiempo, apunté mentalmente un detalle para comentar aquí, y que quedó olvidado en algún rincon de mi memoria; hasta ahora. En el primer episodio, los protagonistas deben resolver un caso de secuestro. En un momento dado, los protagonistas localizan la vivienda del secuestrador, pero la chica secuestrada se encuentra en otro lugar. Hace tanto tiempo que no recuerdo los detalles, así que no sé si el secuestrador no estaba, o fue malherido, o se resistía a hablar, pero la cuestión era que tenían que localizar a la chica con cierta urgencia, y tenían como única fuente de información el ordenador del secuestrador. Sin embargo, el secuestrador había protegido el disco duro de alguna manera, de forma que si no se introducía una contraseña correcta, se borraba toda la información. Y sólo disponían de un intento. Tras unos momentos de tensión y razonamientos, como los protas son psicólogos y estudian el comportamiento y todo eso, consiguen adivinar la contraseña correcta a partir de los datos que tienen del sujeto.

Bueno, obviamente, puesto que la serie trata de un grupo de analistas del comportamiento que desarrollan perfiles de criminales, y además era el primer episodio, había que mostar una solución en la que viéramos lo que son capaces de hacer con unos pocos datos. Sin embargo, existen mejores métodos, y más seguros, para extraer información de un disco duro protegido de esa manera.

Veamos, un disco duro no es más que un dispositivo que almacena información. Dentro de esa cajita con tornillos y etiquetas, hay unos discos físicos (normalmente 2 ó 4) donde se escribe y se lee la información (de forma magnética, sin tocar físicamente las caras de los discos). Y nada más. El hardware de un disco duro no hace mucho más. Para poder ser utilizado, al disco se le realiza un proceso (llamado formateo de bajo nivel) en el que se «crean las bases» donde guardar la información. Esto consiste en dividir cada cara de cada disco en pistas y sectores (geométricamente, una pista es una corona, y un sector es un sector circular), formando lo que se denominan bloques. Un disco duro sólo sabe leer y escribir datos (bytes) en bloques. No entiende de ficheros ni directorios. Eso son abstracciones que realiza el sistema operativo, de forma que cuando una aplicación quiere leer un fichero, el sistema localiza en qué bloques están los datos del fichero (que no tienen por qué estar contiguos), y le dice al disco duro que los lea y le devuelva esa información almacenada. Con la escritura sucede algo parecido: el sistema le dice al disco que sobreescriba algunos bloques, o busca bloques libres y escribe en ellos, o marca bloques escritos como disponibles.

Es importante hacer notar que cuando el sistema operativo borra ficheros, normalmente los bloques que lo componen no son borrados realmente, sino que únicamente los marca como libres, y se pueden recuperar mientras no se sobreescriban con datos nuevos. Esto se hace para ahorrar tiempo y alargar la vida de los discos, aunque existe software para borrar realmente los datos, sobreescribiendolos con basura. Esto puede ser útil si deseas impedir el acceso a información comprometedora, pero requiere más tiempo que un simple borrado.

Sin embargo lo más importante de todo es darse cuenta de que un disco duro no es más que una «caja tonta» de almacenamiento de datos. No es capaz de ejecutar nada, sólo de leer y escribir datos, según le digan. Ese sistema de seguridad que se menciona en la serie, o cualquier otro que podamos imaginar (como un sistema de permisos, en los que se limita a los usuarios la escritura o lectura de determinados ficheros y directorios), debe de ser necesariamente un software, que ejecuta el sistema operativo. ¿Y cómo saltarse todo eso? Pues de una forma muy simple: nos procuramos un destornillador, abrimos la caja del ordenador (apagado, claro, no es cuestión de que nos dé un calabre), extraemos el disco duro, y lo montamos en otra máquina. Podemos simplemente instalarlo en otro ordenador como disco esclavo, o en algún tipo de hardware especializado en recuperación de datos. Toda la información del disco está ahí, intacta y accesible.

Detalle de la página 3 del número 25 del manga IO, que muestra unas manos desatornillando la parte de abajo de un ordenador portátil, para acceder a su disco duro.

Curiosamente, estoy leyendo un manga llamado IO (que trata de unas misteriosas ruinas submarinas en Zamani, Okinawa), en el que se da una situación similar, y está bien tratada: unos desconocidos, para acceder a la información del disco duro de un portátil, lo extraen y lo sustituyen por otro para no despertar sospechas inmediatas, pudiendo analizarlo tranquilamente en otro lugar. Al igual que en otra ocasión, en un medio que mucha gente considera más infantil (consideración con la que no estoy de acuerdo en absoluto), se da un tratamiento más verídico y coherente.

Para proteger de verdad los datos, no hay que confiar en ningún «obstáculo» vía software, sino que hay que guardarlos cifrados. De esta forma, si uno no dispone de la clave para descifrar los datos, sólo obtendrá algo ininteligible. Pero fijáos que los datos siguen ahí. Se podrían intentar diversos ataques para descifrar el contenido, y si el algoritmo elegido es adecuado, sería inútil (se tardarían miles de años), pero los datos no se borrarían. Uno puede realizar todos los intentos que quiera, y fallar, que no pasaría nada. Una situación así, ciertamente sería igualmente tensa y dramática, pues en la serie había un límite de tiempo para localizar al chica secuestrada, y los protas tendrían que haber tirado igualmente de su psicología para adivinar la contraseña (suponiendo que se utilizara un sistema de generación de claves basado en contraseñas).

viernes, marzo 23, 2007

Ondas de televisión

Hace unos días me llegó un corréo electrónico alertándome sobre dos noticias (gracias José Luís). Comentaré la primera de ellas, ya que es la que comete errores mayores de concepto. Comienza con un titular (título y subtítulo), tal que así:

Internet se trasmitirá por ondas de televisión para ofrecer acceso inalámbrico de alta velocidad

[15-03-2007]

Una iniciativa impulsada, entre otras, por Google y Microsoft que intenta que las ondas de televisión se transformen en el nuevo modo de trasmitir Internet

Leyendo esto, uno podría pensar que se trata de acceder a Internet directamente a través de un aparato de televisión, o algo similar. Pero el siguiente párrafo nos aclara lo que se pretende:

Microsoft, Google, Dell, Hewlett-Packard, Intel y Philips se han unido con el propósito de presionar al gobierno de Estados Unidos para que utilice el espacio que no está ocupado por ninguna emisora de televisión para trasmitir en esta frecuencia Internet inalámbrico de alta velocidad.

¡Ah! Ahora está claro. Se refieren al uso de parte del espectro electromagnético asignado a las emisiones de televisión, para redes inalámbricas.

«¿Claro? Pues yo no entiendo nada». Bueno, como supongo sabréis, las transmisiones de radio, televisión, telefonía inalámbrica, y demás, se realizan mediante ondas electromagnéticas. En numerosas ocasiones he comentado que las ondas de radio, microondas, luz visible, rayos X y rayos gamma, son la misma cosa: radiación electromagnética. La única diferencia entre todas ellas es su frecuencia. Así, las microondas, por ejemplo, están entre los 3 y 300 GHz, y la luz visible entre los 384 y 789 THz (aunque para frecuencias superiores al infrarrojo, se prefiere utilizar la longitud de onda). Al conjunto de todas las frecuencias de la radiación electromagnética, se le denomina espectro electromagnético.

A la parte del espectro comprendida entre los 3 Hz y los 300 GHz se la denomina radiofrecuencia, y está regulada por un diversos organismos dependiendo de cada país, que a su vez siguen (o al menos, esa es la idea) las recomendaciones de la Unión Internacional de Telecomunicaciones. Todas las comunicaciones inalámbricas (radio, televisión, telefonía móvil, etc.) se realizan mediante ondas electromagnéticas en esta porción del espectro, y la UIT se encarga de definir una serie de recomendaciones relativas al uso de frecuencias, y así evitar un caos en el que cada uno emita como quiera, y cree interferencias en los demás. Para facilitar esta tarea, el espectro de radiofrecuencia se ha dividido en bandas o rangos de frecuencias, cada una con un nombre y rango definido.

Las emisiones de televisión terrestre, se asignan típicamente en las bandas de VHF (entre 30 y 300 MHz) y UHF (entre 300 MHz y 3 GHz), nombres que supongo a todos os sonarán (al menos, a los que vivieron la llegada de «la segunda cadena» en España). Estas bandas no se utilizan sólo para la televisión, sino que hay multitud de emisiones conviviendo en ellas, como la radio FM, la telefonía móvil, o el WiFi. Normalmente, para emitir en estas bandas, hay que realizar una serie de papeleo, y que el organismo correspondiente te asigne una frecuencia (en España, creo que es la CMT es la Secretaría de Estado de Telecomunicaciones y para la Sociedad de la Información, que depende del Ministerio de Industria). Sin embargo, hay determinados rangos que están definidos como «libres». Es lo que ocurre por ejemplo con las frecuencias utilizadas por los estándares WiFi, por lo que uno puede montarse una red inalámbrica sin pedir permiso a nadie (aunque puede haber variaciones dependiendo del país).

Antes de seguir, conviene saber lo que es la modulación y el ancho de banda. ¿Los qué? Bueno, lo explicaré poniendo un ejemplo muy sencillo. Como sabéis, el sonido es una vibración mecánica que se transmite en un medio. Estas vibraciones u ondas mecánicas pueden transformarse en variaciones de corriente eléctrica mediante un micrófono, y posteriormente, estas variaciones de corriente pueden convertirse en ondas electromagnéticas mediante una antena. La mayor parte de la voz humana está comprendida en un rango de frecuencias aproximado de 300 Hz a 4 KHz. Si quisieramos convertir un sonido de este tipo en una onda electromagnética, así sin más, sin ningún tipo de modificación, necesitaríamos una antenas kilométricas. ¿Por qué? Bueno, hace tiempo expliqué que para transmitir emitir una onda electromagnética de forma eficiente, necesitamos una antena con una longitud igual a la mitad de la longitud de onda de la señal a emitir. A 3 KHz, por ejemplo, la longitud de onda es de 100 km, y a 300 Hz de 1.000 km. Como antenas de este tipo serían muy costosas, debemos «trasladar» nuestra señal de voz a frecuencias más altas.

¿Cómo? Bien, partamos de una onda que sea un tono puro o perfecto, es decir, una función senoidal de frecuencia y amplitud constante, cuya frecuencia sea muy alta, comparada con la máxima que puede alcanzar la voz, como por ejemplo, 1 MHz. A esta onda la llamaremos portadora. Gráfico de una señal modulada en amplitud Ahora, usemos nuestra señal de voz como «patrón» para moldear la amplitud de la portadora. Obtendremos una onda con la misma frecuencia principal que la portadora, cuya amplitud varía con nuestra señal original. Estamos modulando la amplitud de la portadora, por lo que a esta técnica se le conoce como modulación de amplitud, o Amplitud Modulada (la famosa AM, aunque en la práctica se utilizan variaciones de este esquema). Dado que la frecuencia principal es la de la portadora, nuestra nueva señal está en torno a 1 MHz. Recordemos que nuestra señal original tenía un rango de frecuencias de entre 300 Hz y 4 KHz. Un tono puro, tiene una única frecuencia, pero una señal variable no senoidal ocupa varias frecuencias. Al modular la amplitud de la portadora, lo que hacemos es trasladar esas frecuencias en torno a la de la portadora, tanto por encima como por debajo. Así que tenemos una señal que ocupa el rango entre 1 MHz menos 4 KHz y 1 MHz más 4 KHz, es decir, entre 996 KHz y 1.004 KHz. Podemos pensar que nuestra señal tiene un «ancho» de 8 KHz, y precísamente, a eso se le llama ancho de banda.

La voz humana representa una pequeña parte del rango de frecuencias que es capaz de percibir nuestro oído. El límite superior de nuestro oído está en torno a los 20 KHz, y una orquesta interpretando una sinfonía, ciertamente llena todo ese rango. Si queremos transmitir música sin pérdida ni distorsión, nuestra señal original debe ser de 20 KHz, por lo que si utilizamos la técnica explicada, tendremos una señal con un ancho de banda de 40 KHz. Vemos que cuanta más información queremos modular, más ancho de banda ocupará nuestra señal.

Pero la AM no es la única técnica de modulación. Imaginemos que cogemos nuestra señal portadora, y en vez de modificar su amplitud, lo que hacemos es modificar su frecuencia, utilizando nuestra señal portadora como patrón. En este caso tenemos... Gráfico de una señal modulada en frecuencia ¿lo adivináis? ¡Exacto! la llamada modulación de frecuencia, o Frecuencia Modulada (FM). Es inmediato darse cuenta de que ambos tipos de modulación no son compatibles, de forma que si utilizamos uno de ellos, debemos utilizar el mismo tipo de técnica, pero al reves, para extraer la señal original. Así, para escuchar una transmisión en AM, necesitamos un aparato demodulador de AM. Si utilizáramos uno de FM, sólo obtendríamos un ruido ininteligible (óbviamente, la mayoría de los receptores de radio tienen ambos tipos de demoduladores, que seleccionamos con un botón, palanquita o similar; además, las emisoras comerciales de AM y FM, operan en frecuencias distintas).

Hemos estado hablando de sonido, pero ¿y la transmisión de imágenes? ¿y la de datos? Dado la distinta naturaleza de la información original, parece también evidente que se utilizan técnicas de modulación muy diferentes. En la televisión, por ejemplo, tenemos una señal de vídeo y otra de audio, y la señal de vídeo está compuesta por tres señales, cada una correspondiente a uno de los tres colores primarios aditivos, rojo, verde y azul (como siempre, la realidad es algo más complicada, ya que la modulación de estas tres señales es muy peculiar, debido a que al principio debía ser compatible con la TV en blanco y negro).

A la hora de repartir el espectro electromagnético, hay que tener en cuenta el ancho de banda de la señal. Una señal de TV, por ejemlpo, tiene un ancho de banda mucho mayor que el de una señal de radio FM, dado que hay mucha más información que transmitir. Al emitir en una determinada frecuencia, no sólo estas ocupando esa frecuencia concreta (la de la portadora), sino todo el ancho de banda necesario a su alrededor. Al asignar frecuencias para determinados usos, hay que dejar entre unas y otras la suficiente separación, para que no se nos mezclen parte de dos señales distintas.

Ya tenemos los conocimientos necesarios para entender de qué va realmente la noticia. Es de suponer que existirán muchas zonas geográficas en las que la zona del espectro reservada para las emisiones de TV, tenga frecuencias disponibles, puesto que no tenemos cientos de canales de televisión terrestre. El ancho de banda de la televisión analógica terrestre es bastante grande (aproximadamente 7 MHz), y podrían aprovecharse esos huecos para transmitir datos y formar redes inalámbricas de ordenadores. Pero claro, para eso se necesitan ciertos permisos, y de eso trata la noticia, de que algunas empresas están presionando al gobierno estadounidense para asignar determinadas frecuencias de TV no utilizadas, para redes inalámbricas.

Eso de las «ondas de televisión» parece dar a entender que se pretenden utilizar emisiones de TV para acceder a Internet, o algo así, lo cual no tiene ningún sentido, ya que tanto la naturaleza de la información transmitida, como la modulación utilizada, es totalmente diferente.

jueves, marzo 15, 2007

Y ya son 2 años

Dibujo de una tarta con dos velas

Pues sí, MalaCiencia cumple hoy dos añitos, así que es casi obligado hacer un balance de este segundo año. Comparando las estadísticas actuales con las de su primer cumpleaños, las visitas se han multiplicado: una media que oscila entre las 1.200 y 1.400 diarias (más o menos, dependiendo de la semana) y un total de poco más de 485.000 (según StatCounter). En pocas semanas podré celebrar el medio millón de visitas, algo que me parecía simplemente impensable cuando comencé con esta aventura.

Tampoco podía imaginar que el blog quedara finalista en ningún concurso, y muchísimo menos que me llegaran a entrevistar en un programa de radio (gracias otra vez a Francisco José Súñer Iglesias, del Sitio de Ciencia Ficción, por alojar los ficheros de la grabación del programa). Y todo eso es gracias a vosotros, algo que nunca me cansaré de repetir. Quiero además agradecer especialmente al ya mencionado administrador del Sitio de Ciencia Ficción por dedicar una sección a MalaCiencia, donde reproduce y enlaza artículos de este blog; a los creadores de Planeta Ciencia y de Hispaciencia, por invitarme a participar en sendos proyectos; y a los administradores de Lorem Ipsum, por invitarme a colaborar en el blog Hal 9000 (vaya, parece un discurso de ceremonia de los Oscar).

Dicho esto, me gustaría comentar en detalle cómo surgió en mi cabeza la semilla que años después me llevaría a crear este blog, algo que en la mencionada entrevista de la radio expliqué bastante rápido y mal (esos nervios...). Curiosamente, el origen de todo no tiene mucho que ver con mala ciencia, sino que fue una crítica publicada en el suplemento Metropoli, del diario El Mundo, relativa a la película Akira. Para los que no la conozcan, se trata de una película de animación japonesa, basada en el manga homónimo, ambientada en un futuro cercano y postapocalíptico. Para situarnos un poco, el estreno en España coincidió con el boom de Bola de Dragón y Los Caballeros del Zodiaco. Desde el punto de vista técnico, la animación es impecable: suave, muy natural, dibujos con volumen; no hay una sóla secuencia en la que no haya algo en movimiento. Incluso en los planos generales de la ciudad (muy tentadores para limitarse a un dibujo fijo) se ven luces y focos moviéndose con una animación muy suave. Sin embargo, el crítico de turno resume la película con la frase «una sucesión de planos fijos con la voz de los personajes en off». Esta frase podría aplicarse tal vez a la series de TV antes mencionadas (sobre todo en Los Caballeros del Zodiaco, donde se puede estar un episodio entero con reflexiones internas y primeros planos de los personajes, antes de iniciar un combate), pero en ningún caso a la película Akira. Sólo una persona que no haya visto la película, podría afirmar algo así. Y eso me indignó, ya que uno puede estar o no de acuerdo con un crítico, pero al menos que vaya a ver la película, que para eso le pagan.

Una situación similar ocurrió cuando un tiempo después, leí una crítica sobre Terminator 2, nuevamente en Metropoli. La frase destacada era «Nadie nos explica por qué la máquina asesina de la primera película, se convierte en un ángel protector», que debería figurar en el Libro Guiness por tener el mayor número de errores en una sola frase. Tres en total, a saber: el propio Terminator nos explica el motivo (ha sido reprogramado), no se trata de la misma máquina (recordemos que al final de la primera peli, es aplastada por una prensa hidráulica), y dista mucho de ser un ángel (casi mata a unos chicos si John Connor no se lo impide, y dispara a las piernas a un pobre guardia de seguridad en edad de jubilación). La conclusión inevitable es que si el crítico fue a ver la película, desde luego no prestó mucha atención.

Poco a poco fui tomando nota mental de este tipo de errores tan evidentes, con la intención de escribir alguna vez sobre ellos. Así, recuerdo disparates como el leer en una revista de cine que la saga de La Guerra de las Galaxias es de Steven Spielberg, la afirmación en los medios de comunicación de que el difunto Jesús Puente era el doblador habitual de James Stewart (en realidad, lo era Fernando Ulloa, como podéis comprobar en eldoblaje.com, cuya voz es más aguda y todos recordaréis de peliculones como La Ventana Indiscreta o La Soga), o una sinopsis de Parque Jurásico, que decía que la peli trataba de unos tipos que inventaban una máquina del tiempo y viajaban al pasado (¿¡Comorrr!?). Junto a estos errores de bulto, también tomaba nota de las patadas a la física en películas como Armageddon, de enormes errores de concepto en todo tipo de noticias científicas aparecidas en los medios (como el «notición» de que el sol se apagará algún día), o de creencias populares erróneas (como pensar que la Noche de San Juan es la más corta del año).

Durante mucho tiempo, le di vueltas a la idea de crear una página web personal, similar a Bad Astronomy (la original, no el blog), en la que pondría de manifiesto errores de todo tipo, que fuera encontrando. Serían siempre errores bastante grandes (nada de erratas, sino burradas), e incluso barajé el nombre de NPI (siglas de una expresión poco fina). Pero nunca me decidí, no sabría decir el porqué.

Un día se produjo el detonante: una noticia sobre el «descubrimiento» de que Mimas, una luna de Saturno, se parecía mucho a la ficticia Estrella de la Muerte de la saga de Star Wars (debido a un inmenso crater, similar al arma principal de la estación). En realidad, eso es algo que se sabe desde hace ya varios años, y tanto el titular como el texto de la noticia me parecían un cúmulo de disparates y falsedades. Por aquel entonces, acababa de descubrir el blog Malaprensa, y le mandé un correo electrónico a Josu, su autor, comentándole la noticia (luego, fue Josu precisamente el que puso el primer comentario en el blog, deseándome suerte). Me avisó de que no sabía si tendría tiempo para comentarla, y al pasar los días, la noticia me estaba quemando en las manos. Quiso la casualidad que hacía muy pocos días, un compañero de trabajo (saludos si me lees, Paquito) me comentó la existencia de Blogspot (ahora Blogger), y cómo podías crearte un blog en un pis pas, y ponerte a escribir entradas directamente, sin pensar en maquetaciones y demás. Y así me decidí a crear este blog. Tras un rato de reflexión en cuanto al nombre y la orientación que le quería dar, me decidí por el poco original MalaCiencia (influenciado por Bad Astronomy y Malaprensa), y restringir la temática a errores relacionados con la ciencia o la tecnología, ya que me parecía percibir cierta indiferencia hacia la ciencia, rozando el desprecio, por parte de mucha gente (ahora veo que también hay muchísima gente a la que le interesa). Y así, tras una declaración de intenciones, inicié este blog comentando la noticia sobre Mimas. Y como suele decirse, el resto es historia.

Releyendo algunos de los artículos de los primeros meses, veo que a veces utilizaba un tono un poco agresivo. Me he ido suavizando, y creo que el blog se ha vuelto más constructivo y didáctico. De hecho, a veces el error que comento es una mera excusa para explicar algo que me parece interesante. En eso, el blog ha mejorado. Como contrapartida, mi tiempo libre ha ido disminuyendo por diversos motivos, y ya no puedo dedicarle tanto tiempo como me gustaría. Atrás quedaron esos días en los que actualizaba el blog a diario (salvo sábados y domingos). Ahora, incluso me supone un pequeño esfuerzo hacerlo una vez a la semana. Pero tengo intención de seguir mientras pueda.

jueves, marzo 08, 2007

Estrellas fugaces, meteoros y meteoritos

Por esas casualidades de la vida, la última entrada de este blog fue sobre reentradas en nuestra atmósfera, y esta semana, en uno de los episodios de CSI aparece una lluvia de estrellas, algo que tiene mucho que ver. En el episodio en cuestión, se mostraba de vez en cuando un plano en el que se veía el cielo estrellado, surcado por un caudal más o menos constante de estrellas fugaces. Dichos planos eran bastante artificiales, y no por que se notara el montaje (que cantaba un poco, todo hay que decirlo), sino porque las trayectorias de las estrellas no eran coherentes. En algunos casos, podíamos ver trazas paralelas y divergentes a la vez.

En alguna otra ocasión he comentado qué es una lluvia de estrellas y por qué se produce. Hoy entraré más en detalle. Veamos, supongo que la mayoría de la gente sabe que una estrella fugaz no es un estrella propiamente dicha, sino un pequeño objeto que se incinera al penetrar en nuestra atmósfera. Lo correcto es referirse a ellas como meteoros o meteoritos. Existe una sutil diferencia entre ambos. Un meteoro se consume completamente en la atmósfera, mientras que un meteorito consigue impactar en la superficie de nuestro planeta, dejando un bonito crater (bueno, ahora que lo pienso, puede que la diferencia no sea tan sutil, sobre todo si te cae cerca). El nombre puede llevar a confusión, ya que «meteorito» parece un diminutivo de «meteoro», y sin embargo un meteorito es normalmente más grande (o más masivo) que un meteoro, puesto que consigue llegar al suelo antes de consumirse por completo.

La mayor parte de las estrellas fugaces que vemos son meteoros. Existen determinadas fechas en las que se produce lo que se conoce como lluvia de estrellas. Esto sucede porque cruzando la órbita de la Tierra, hay rastros de polvo y hielo dejados por un cometas, de forma que nuestro planeta atraviesa una zona de más densidad de materia de lo habitual, y todos los restos que «pilla en el camino» penetran en nuestra atmósfera, desintegrándose de forma espectacular. Es importante hacer notar que es la Tierra la que se mueve y «embiste» esos restos, de forma que desde nuestra perspectiva, parece que todos vienen del mismo punto del cielo, que es hacia el que se dirige nuestro planeta en ese momento. Si alguna vez habéis viajado en coche en plena nevada, el efecto es muy similar. Parece que cientos de copos de nieve se dirigen hacia nosotros, emanando de un punto sitado delante del coche y trazando trayectorias divergentes a partir de ese punto (algo parecido al efecto de «salto al hiperespacio» en las pelis de Star Wars), pero en realidad somos nosotros los que embestimos los copos a gran velocidad.

Fotografía del cielo en dirección a Leo, con varias Leónidas

Así que en una lluva de estrellas, todos los meteoros trazan trayectorias divergentes, que se cortan en un mismo punto. De hecho, se les da un nombre basado en la constelación donde esté ese punto. Así, las Perseidas, parecen provenir de un punto en la constelación de Perseo; las Leónidas, de Leo; y las Oriónidas, que son las que se mencionan en el episodio de CSI, de Orión. En el episodio, sin embargo, hay un plano en el que se ven dos trazas paralelas, bastante separadas entre sí, y entre ellas, una que no es paralela, por lo que es divergente con respecto a una y convergente con respecto a la otra. Algo así no podría ocurrir, a menos que el meteoro «discordante» no formara parte de la lluvia, y tuviera otro origen.

Hay otro detalle importante a tener en cuenta sobre los meteoros. La mayoría de las veces, se representan como puntos más o menos luminosos que se desplazan dejando un rastro más tenue, algo así como una bola de fuego en miniatura. Eso nos lleva a pensar que vemos el meteoro propiamente dicho, que está muy caliente y emite luz. Sin embargo, no siempre es así. Veamos, cuando el objeto que penetra en la atmósfera es muy pequeño, como por ejemplo del tamaño de un grano de arena, o una mota de polvo, la luz que vemos no procede de la incandescencia del objeto. Como recordaréis del artículo anterior, el aire se comprime a gran velocidad, elevando enormemente su temperatura. Además, también se ioniza, debido a que parte de la energía generada es utilizada para «arrancar» electrones a las moléculas de aire. Es decir, el aire se convierte en plasma. Y este plasma tan caliente emite luz, en parte por su temperatura, y en parte por la recombinación de electrones sueltos con las moléculas ionizadas que los han perdido.

Primer plano de un meteoro

Cuando el objeto es grande, la mayor parte de la luz viene de la incandescencia del propio objeto. Pero cuando es muy pequeño, es realmente el plasma de alrededor lo que vemos. Si alguna vez habéis disfrutado del fantástico espectáculo de una lluvia de estrellas, habréis visto que muchas de ellas no son puntos que se mueven, ni puntos que dejan una breve estela a su paso, sino únicamente la estela: una línea resplandeciente que se desplaza por el cielo durante unos segundos. El pequeño objeto que lo causa ni lo vemos, pero podemos apreciar sus efectos en el aire circundante. Incluso en el caso de ver un punto más o menos gordo, con una estela detrás, el punto gordo no es el objeto, sino el plasma que lo rodea, que parece lógico que esté más caliente en la zona delantera. De hecho, es más habitual que la zona más luminosa de la traza, esté un poco detrás de la cabeza.

jueves, marzo 01, 2007

Reentradas en la atmósfera

Carátula de Superman Returns

Normalmente no comento aquí cómics o películas de superhéroes, ya que no tiene mucho sentido estudiar si los poderes de tal o cual supertipo son posibles o no. Sabemos que es pura fantasía (aunque a veces se intente buscar una explicación pseudocientífica), y como tal hay que creérsela y disfrutar de ella. Pero ello no evita que me fije en detalles que no tienen que ver directamente con los superpoderes del personaje en cuestión. Hace unas semanas vi la película Superman Returns, y me llamó la atención una escena cerca del final. Veamos, Superman arranca toda la isla esa que crean los cristales kriptonianos, y se la lleva al espacio, lanzándola lejos. El pobre queda exhausto y muy debilitado debido a su exposición a la kriptonita, y empieza a caer inconsciente hacia la Tierra. Al hacerlo, casi inmediatamente vemos el clásico efecto de un resplandor anaranjado que nos indica que está sufriendo el enorme calor de una reentrada.

Es un error muy común pensar que el penetrar en la atmósfera desde el espacio, implica siempre una reentrada «ardiente» de estas características, simplemente por el hecho de entrar en ella. Lo he visto en alguna otra ocasión, aunque ahora no recuerdo donde. ¡Ah! ¿Y es que no es así? Pues no. El inmenso calor de las reentradas de los transbordadores espaciales y demás artefactos reales, que estamos acostumbrados a ver en las noticias, se debe a la enorme velocidad a la que se desplazan.

Veamos, cuando un objeto está en órbita, no quiere decir que esté tan lejos de la Tierra como para librarse de su atracción gravitatoria. De hecho, es la gravedad de nuestro planeta la que mantiene al objeto dando vueltas alrededor. Y es la velocidad del mismo lo que hace que no termine de caer. Explicándolo de forma muy simple, si suponemos una órbita circular, un cuerpo se mantiene en órbita cuando la fuerza centrífuga debida a su velocidad, es igual a la fuerza gravitatoria. En el colegio nos enseñaron que la fuerza de gravedad es directamente proporcional al producto de las masas, e inversamente proporcional al cuadrado de la distancia. Concretamente, F=G·M·m/r2, donde G es la famosa Constante de Gravitación Universal. En el colegio nos enseñaron también que en un movimiento circular y uniforme, la aceleración centrípeta (la aceleración que produce ese movimiento) es el cuadrado de la velocidad, dividido entre el radio de la circunferencia de la trayectoria. Es decir, a=V2/r. Cuando un objeto está en órbita circular, la gravedad produce exactamente esa aceleración centrípeta (o también podemos pensar que la fuerza centrífuga se iguala a la gravitatoria). Es decir, se cumple que V2/r=G·M/r2, y por tanto, V2=G·M/r. Dado que G y M (masa de la Tierra) son constantes, es fácil ver que la velocidad depende únicamente del radio de nuestra trayectoria, y que cuanto menor sea, mayor debe ser la velocidad. En el mundo real, las órbitas son elípticas (la circunferencia es un caso particular), pero la idea general nos sirve: para estar en órbita, cuanto más cerca estemos de la superficie, mayor debe ser nuestra velocidad.

¿Cómo de grandes son las velocidades de las que estamos hablando? Para hacernos una idea, podemos consultar la entrada de la Wikipedia, referente a la conocida Estación Espacial Internacional. Ahí podemos ver que la altura media a la que se encuentra es de poco más de 350 km, y su velocidad media es de 7,69 km/s, lo que equivale a más de 27.000 km/h. A esa velocidad, tarda una hora y media en dar una vuelta completa alrededor de la Tierra. Como vemos, es una velocidad enorme.

Contrariamente a la creencia popular, el calor de una reentrada a altas velocidades, no se debe al rozamiento con el aire, en el sentido en el que habitualmente pensamos, o al menos, no mayoritariamente. La fricción o rozamiento, en un sentido estricto, es únicamente el efecto producido por el desplazamiento de un objeto en contacto con otro. Un ejemplo revelador es el conocidísimo rozamiento entre el suelo y cualquier objeto que arrastremos sobre él. Cuando un sólido se desplaza inmerso (total o parcialmente) en un fluido, es más conveniente hablar de resistencia o arrastre. En este caso, la fuerza que se opone al movimiento no se produce únicamente por el rozamiento «lateral», sino porque el fluido es desplazado de su sitio por el objeto. Si el fluido en cuestión es un gas (como el aire), hay que añadir otro elemento más: los gases son compresibles (es decir, se pueden comprimir), por lo que no todo el gas que hay delante del objeto en movimiento es desplazado hacia los lados, sino que parte de él es comprimido.

Y aquí está el quid de del cuestión. Veamos, otra de las cosas que nos enseñaron en el colegio es el comportamiento de un gas ideal, que entre otras cosas nos dice que cuando un gas se expande, se enfría, y cuando se comprime, se calienta. En las extremas condiciones de presión y temperatura de una reentrada a miles de km/h, las leyes de un gas ideal no son aplicables, pero sigue siendo cierto que al comprimir el aire, su temperatura se eleva. Y este es el principal mecanismo que produce calor en una reentrada. ¿De qué temperaturas estamos hablando? Pues en el caso concreto del transbordador espacial, en el escudo térmico se llegan a superar los 1.600 ºC.

¿Por qué penetrar en la atmósfera a tales velocidades? ¿No sería mucho más seguro hacerlo a velocidades mucho menores? Sin duda. Como ya he explicado, la temperatura depende de la velocidad. Si disminuimos la velocidad del vehículo hasta 900 km/h, por ejemplo, no se nos recalentaría el aire de delante, o al menos, no más que a un avión comercial. Pero hay que tener en cuenta algo muy importante: el combustible. Para alcanzar la altura y velocidad de una órbita, el vehículo en cuestión ha tenido que gastar una cantidad indecente de combustible. Fijaos en un transbordador espacial: en el momento del despegue tiene dos cohetes laterales (boosters), y un enorme tanque de combustible bajo la panza. Los cohetes laterales proporcionan más o menos un tercio del empuje total, y se desprenden a los 2 minutos del lanzamiento (aproximadamente). El combustible del tanque exterior es consumido durante el ascenso, y cuando ya se tiene suficiente altura y velocidad para alcanzar una órbita baja (más o menos a los 9 minutos del despegue) se apagan los motores y se desprende también ese tanque. Eso nos deja el transbordador con muchísimo menos combustible que el que tenía en tierra. Y lo mismo ocurre con los cohetes por etapas (como el Ariane, o los Saturno V del Programa Apollo): consumen una enorme cantidad de combustible, dejando al vehículo final sin el necesario para detenerse por sus propios medios. Recordad que en el vacío, nada se opone a nuestro movimiento (aunque en una órbita baja, todavía hay un poquito de atmósfera, de una densidad casi despreciable). Necesitamos aplicar la misma fuerza para acelerar como para frenar. Y disminuir la velocidad de decenas de miles de km/h a algunos centenares, requiere un gasto enorme de combustible. No tanto como el necesario para alcanzar la órbita, ya que parte lo empleamos para vencer la gravedad y la resistencia del aire, y además la masa total era mayor, pero también estamos hablando de una cantidad indecente. Si quisiéramos llevar todo ese combustible encima, la masa de nuestro vehículo se multiplicaría, y necesitaríamos todavía muchísimo más combustible para despegar y frenar, que aumentaría más la masa... ¿veis el problema? Así que para economizar recursos, se utiliza como freno la propia resistencia de la atmósfera. Hay que decir que sí se aminora un poco, pues es necesario para romper el equilibrio que nos mantiene en órbita, y así la gravedad nos haga descender.

Bueno, a lo que íbamos. La temperatura alcanzada durante una reentrada depende de la velocidad, y si ésta es suficientemente baja, no pasa nada. En el caso concreto de Superman Returns, lo cierto es que no tenemos datos exactos sobre la altura a la que se encuentra y el tiempo que tardan en aparecer las «llamas» de la reentrada. Parece que es casi inmediatamente, pero bien podemos suponer algún tipo de elípsis entre plano y plano, y pensar que en realidad han transcurrido algunos minutos. En una caída libre sin apenas resistencia del aire, se adquieren velocidades muy altas. Por ejemplo, si caemos desde 350 km de altura (la de la ISS), aun teniendo en cuenta una aceleración gravitatoria menor (8,7) tardaríamos menos de medio minuto para para alcanzar los 900 km/h de un avión comercial, y recorremos 3 km y medio. Tenemos mucho espacio todavía hasta llegar a una región donde la densidad del aire sea lo suficiente como para tener efectos tan drásticos (típicamente, en el caso del transbordador espacial comienza a partir de 140 km de altura). Así que en este caso, puede que lo que vemos sea posible. Pero también puede inducir a error sobre lo que ocurre en una reentrada.