Búsqueda

lunes, julio 31, 2006

Horizonte Final: Gravedad y electromagnetismo

Carátula de Horizonte FinalLa semana pasada pusieron en la tele la película Horizonte Final, a la que dediqué un envío hace ya mucho tiempo, con relación a la forma en la que las naves se mantienen en la atmósfera de Neptuno. Hoy le toca al motor gravítico de la nave Event Horizon. En la peli, Sam Neil explica que mediante campos magnéticos se crea una singularidad que permite plegar el espacio-tiempo, de forma que dos puntos del espacio muy alejados entre sí, se junten temporalmente y la nave se desplace instantáneamente de un sitio a otro. Para explicarlo coge un poster, le hace dos agujeros, y lo dobla, haciendo coincidir los agujeros. El personaje explica también que el inmenso campo gravitatorio de la singularidad (un agujero negro, para entendernos), es contenido mediante campos magnéticos.

Bien, el retorcer el espacio-tiempo es un tema recurrente en la ciencia ficción para explicar viajes a velocidades superiores a la de la luz, pero sin superarla en realidad, y por tanto sin violar la Relatividad Especial. Y no sólo en la ficción, ya que este concepto aparece en los agujeros de gusano o el motor de Alcubierre. Sin embargo, la forma en la que se crea la singularidad y se contiene el campo gravitatorio, no es posible. La gravedad y el electromagnetismo no están ligados de esa manera. No se puede generar o anular un campo gravitatorio a partir de un campo electromagnético.

Es cierto que existe la llamada Teoría del Todo, que intenta unificar las cuatro fuerzas fundamentales (interacciones, más bien), entre las que se encuentran la gravedad y el electromagnetismo, y que el propio Einstein intentó unificar ambos. Es un camino lleno de dificultades, ya que la gravedad y el electromagnetismo son interacciones de naturaleza muy diferente. El electromagnetismo gira en torno al fotón, una partícula subatómica sin carga ni masa que se desplaza a la velocdad de la luz, y que actúa como portador de la interacción. Es decir, cuando dos objetos con carga eléctrica se atraen o se repelen, lo hacen porque se intercambian fotones entre ellos. La gravedad sin embargo es una deformación del espacio-tiempo, producida por el mero hecho de que un objeto tenga masa. Según la Relatividad General, ni siquiera sería realmente una fuerza (algo que expliqué hace algún tiempo). Para poder unificar ambas fuerzas, es necesario primero reformular la gravedad tal y como la entendemos en la actualidad, en una teoría de gravedad cuántica, en la que la interacción gravitatoria sea transportada por una partícula subatómica llamada gravitón (al igual que el fotón en el electromagnetismo). Y no basta con que a alguien se le ocurra una teoría estupenda. Hay que verificarla, y para ello debería predecir cosas de forma diferente a la Relatividad General, de forma que se pueda hacer un experimento y ver a qué teoría se ajusta el resultado observado. Y de momento no se ha conseguido con éxito.

En cualquier caso, aunque los científicos consiguan unificar ambas interacciones, eso no cambiaría la realidad que observamos. Y esa realidad nos dice que un campo electromagnético no genera ni anula un campo gravitatorio. La unificación de ambas interacciones se produciría en condiciones extremas, y no es el caso de la Event Horizon, donde se puede pasear a pocos metros del motor gravitatorio, e incluso tocarlo. ¿Y los imanes que levantan toneladas de peso? ¿Y los trenes que levitan mediante electromagnetismo? Bueno, en estos casos hay que tener muy claro que el campo magnético no interactua con el gravitatorio de ninguna manera. Simplemente genera una fuerza igual y opuesta al peso del objeto en cuestión. Pero no anula la gravedad, al igual que no lo hace el suelo que pisamos y evita que nos hundamos hacia el centro de la Tierra.

jueves, julio 27, 2006

Flotabilidad

Hace varios días que empecé a leer el libro El Quinto Día, de Frank Schätzing. Comienza con una serie de fenómenos inusuales en el mar, sin conexión aparente, distribuidos por todo el mundo. En una de las tramas iniciales (que luego convergen hacia... bueno, no, leed el libro), una petrolera noruega descubre una especie desconocida de gusano que habita en el lecho marino, y solicita la ayuda de un biólogo (también noruego) de renombre. En el libro explican que en determinados fondos marinos, se forma lo que se conoce como hidrato de metano, que explicado de forma simplificada, podríamos decir que es una mezcla entre metano y agua helada, a nivel químico. Es decir, no se trata simplemente de hielo con burbujas de gas metano en su interior, sino que cada molécula de metano se encuentra rodeada de una estructura cristalina de moléculas de agua. Este hidrato de metano, sólo es estable a temperaturas muy bajas y presiones muy altas (las condiciones del fondo del mar, vaya). Si por algún motivo, este material se desestabiliza y se libera el gas metano en grandes cantidades, éste ascendería hasta la superficie. Según el libro, la tensión superficial del agua disminuiría, provocando que un barco pierda su flotabilidad y se hunda como una piedra.

Bien, la explicación es correcta salvo en un detalle: la tensión superficial no interviene para nada en la flotabilidad de un barco. Ya hablé en otra ocasión sobre la tensión superficial, y expliqué que se trataba de un fenómeno producido por las fuerzas de cohesión entre las moléculas de agua, que hacían que la superficie de ésta se comportara como una película delgada y flexible. Pero en un barco, y en general, en cualquier objeto que flote manteniendo una parte sumergida, la tensión superficial no interviene para nada. El hecho de tener una parte sumergida indica que ha vencido esa tensión, rompiendo la superficie del agua. Estos objetos flotan debido al Principio de Arquímedes.

En el colegio nos enseñaron en qué consistía el principio de Arquímedes: Todo cuerpo sumergido en un fluido, experimenta un empuje vertical y hacia arriba, igual al peso del volumen del líquido que desaloja. Esto quiere decir algo muy fácil de entender. Si yo sumerjo un cuerpo (total o parcialmente) en un líquido (o en un gas), éste desplazará parte del líquido. ¿Cuánto? Pues exactamente el volumen correspondiente a la parte sumergida. Entonces el líquido empujará al cuerpo hacia arriba, con una fuerza igual al peso correspondiente a un volumen de líquido igual al volumen sumergido del cuerpo. Es decir, si yo meto un objeto en el agua, y la parte sumergida tiene un volumen de un litro, será empujado hacia arriba con una fuerza equivalente al peso de 1 l de agua, es decir 1 kgf (para los que no hayan leído el envío anterior, 1 kgf es la fuerza correspondiente al peso de un cuerpo de 1 kg de masa). Parece claro que a medida que un objeto se sumerje, el empuje debido al principio de arquímedes es mayor, dado que cada vez desaloja más volumen de líquido. Si llega un momento en el que el empuje iguala a la fuerza de gravedad, el cuerpo flotará. Si por el contrario, una vez esté completamente sumergido, el empuje es menor que la gravedad, se hundirá. Esto quiere decir que si una cantidad de líquido que ocupe el mismo volumen que todo el cuerpo, pesa más que éste, el cuerpo flota, y si no, se hunde. O dicho de otro modo, recordando que la densidad de un cuerpo es su masa dividida entre su volumen (d=m/v), si el objeto tiene más densidad que el líquido, se hundirá, y si tiene menos densidad, flotará.

Posiblemente una de las preguntas que todo niño hace tarde o temprano es ¿por qué flotan los barcos, si son de metal y el metal se hunde? La respuesta nos la da el principio de Arquímedes. Flota porque a pesar de todo, su densidad total es menor que la del agua. Un barco no es un bloque metálico macizo, sino que está hueco por dentro. De esta manera, su peso es inferior al de una cantidad igual de agua. Si densidad del barco varía, cargándolo o descargándolo (la masa total varía, pero el volumen sigue igual), el equilibio de flotabilidad en el que se encuentra, se rompe, y emergerá o se hundirá un poco, hasta que el peso del agua desalojada iguale al del barco. Pero si la densidad del agua varía, también se rompe el equilibio. ¿Cómo puede variar la densidad del agua? Pues alterando lo que tenga disuelto en ella. El agua de mar contiene sal, y es más densa que el agua dulce, por lo que la flotabilidad es mayor en el mar que en un río o en una piscina (haced la prueba estas vacaciones, si vais a la playa). Por el contrario, el agua con gas es menos densa, por lo que la flotabilidad es menor. En el caso concreto del libro, si se libera una gran cantidad de metano en el agua, la densidad del agua descenderá mucho, pudiendo llegar a ser inferior a la de un barco, provocando su hundimiento. De hecho, esta es una de las explicaciones que se da para las supuestas desapariciones de barcos en el famoso Triángulo de las Bermudas (que en realidad no fueron tantas, ni tan siquiera significativamente superiores a la media en otras regiones del mundo).

Es curioso que en un libro que explica bastante bien otras cosas (como el hidrato de metano, o la dinámica de un tsunami), se comenta un error con algo tan básico. No sé si sería un despiste del autor, o un fallo en la traducción.

miércoles, julio 26, 2006

Masa y peso

Si a una persona cualquiera le preguntaran cuánto pesa, diría algo así como peso 60 kg, por ejemplo. Si le preguntaran cuánto pesaría en la Luna, y dicha persona supiera que la gravedad lunar es seis veces menor que la terrestre, contestaría sin dudar que 10 kg. Y si le preguntaran por la fuerza de empuje de los motores de un determinado avión, y supiera la respuesta, diría que la fuerza de empuje es de 20 toneladas (por ejemplo). Y sin embargo, todas estas respuestas serían incorrectas. No por las cifras, sino por las unidades.

En el colegio nos enseñaron que los kilogramos, las toneladas y demás múltiplos y submúltiplos (gramos, miligramos, etc) son unidades de masa, no de peso. ¿Y no es lo mismo? Pues no, ya que el peso es una fuerza, concretamente la fuerza con la que un objeto es atraida por la gravedad, y por tanto se mide en unidades de fuerza. La fuerza y la masa están relacionadas mediante la Segunda Ley de Newton. De hecho, una definición muy habitual de fuerza (sobre todo en ámbitos didácticos) es la de todo aquello capaz de ejercer una aceleración sobre cuerpo, y matemáticamente se expresa como el producto entre la masa del cuerpo y la aceleración producida: F=m·a.

Aunque relacionados, fuerza y masa son dos conceptos completamente diferentes. La masa es una característica intrínseca de un cuerpo, que determina su resistencia ante variaciones de movimiento. Cuésta más empujar o frenar un cuerpo cuanto más masivo es, y también cuesta más hacerlo rotar. Es constante (sí, incluso a velocidades relativistas) y es una magnitud escalar, es decir, está perfectamente definida por su valor numérico.

La fuerza, en cambio, es algo externo al objeto y no depende de él. Además, es una magnitud vectorial, es decir, tiene un punto de aplicación, módulo, dirección y sentido. Esto es bastante intuitivo, simplemente pensando en las distintas formas que tenemos de empujar un objeto. En el Sistema Internacional de Unidades, la fuerza se mide en newtons. Un newton es la fuerza necesaria para acelerar un objeto de 1 kg de masa a 1 m/s2.

Dado que la fuerza de la gravedad es directamente proporcional al producto de las masas implicadas, resulta que la aceleración producida por ésta sobre un objeto, es siempre la misma, independientemente de la masa del objeto. En la superficie terrestre, esta aceleración es de 9,81 m/s2 (varía levemente dependiendo de la ubicación geográfica, ya que la Tierra no es una esfera perfecta). Por tanto, si queremos expresar nuestro peso en newtons, deberíamos multiplicar nuestra masa por 9,81. Pero claro, cuando calculamos el peso de un objeto, en muchos casos no nos interesa la fuerza con la que es atraido por la tierra, sino su masa. Si yo pido en una charcutería 150 g de jamón ibérico, quiero precisamente eso, una cantidad de jamón cuya masa sea de 150 g. Y si la tienda está en la Luna, querré la misma cantidad, independientemente de que su peso sea diferente (o mejor dicho, será el tendero el que no quiera darme 6 veces más cantidad de jamón por el mismo precio).

Dado que en nuestra vida cotidiana, hay una relación biunívoca entre masa y peso, es fácil entender por qué se intercambian los conceptos. Es más fácil decir peso 60 kg que tengo una masa de 60 kg. Y es aún mucho más fácil decir en la Luna pesaría 10 kg, que en la Luna tendría un peso igual al de un objeto de 10 kg de masa en la Tierra. Además, supongo que habrá motivos históricos para ello (el concepto intuitivo de peso, es anterior a su definición física como fuerza). Pero no hay que perder de vista que son cosas muy diferentes.

Es más grave cuando se utilizan unidades de masa para expresar una fuerza que no tiene nada que ver con el peso. Así, en determinados ámbitos, es común oír o leer cosas como una fuerza de X kg. En realidad, se suele deber al baile de alguna palabra al hacer alguna transcripción. Veréis existen otras unidades de fuerza además del newton (y sus múltiplos y submúltiplos). En el Sistema Técnico de Unidades, la unidad de fuerza es el kilogramo-fuerza, también llamado kilopondio. Se define como la fuerza necesaria para acelerar un objeto de 1 kg de masa a 9,81 m/s2. ¡Vaya! Entonces un objeto de 1 kg de masa, pesa exactamente 1 kgf (o kp). Parece bastante ovbio que estas unidades son más intuitivas, o al menos, que podemos hacernos una idea mejor de la magnitud de la fuerza si las utilizamos. Así, si me dicen que un motor tiene una fuerza de empuje máxima de 5.000 kgf, puedo pensar rápidamente que dicha fuerza es la misma que necesitamos para sostener un objeto de 5.000 kg de masa. Pero ojo, hay que utilizar kilogramos-fuerza o kilopondios, nunca kilogramos.

Sin embargo, me temo que si se os ocurre decir peso 60 kilogramos-fuerza, o peso 60 kilopondios, aunque sea físicamente correcto, la mayoría de la gente os mirará raro.

martes, julio 25, 2006

XHTML en Blogger

Supongo que muchos de vosotros os habréis fijado en dos iconos que hay en la parte de abajo de la barra lateral izquierda, y en el texto que lo acompaña. Indican que esta página que estáis viendo cumnple los estándares XHTML 1.0 Strict y CSS del W3C. O al menos, todo el código que yo escribo lo cumple. La barra que véis arriba, que compartimos todos los blogs alojados en Blogger.com, es añadida por el servidor, agregando código HTML nuevo a la página, antes de ser enviada al navegador. De vez en cuando recibo correos electrónicos de gente que muy amablemente me sugiere trucos para quitar la barra, pero todos ellos se basan en ocultarla, no en eliminar el código que la genera.

¿Lo cualo? No me entero de nada. Bueno, comencemos por el principio. Las páginas Web, como la que estáis leyendo ahora, están escritas en un lenguaje de marcas llamado HTML. Un lenguaje de marcas permite añadir información extra a un texto, como por ejemplo indicar que debe ponerse en negrita, o que se trata de un enlace. Si en vuestro navegador buscáis una opción que normalmente se llama Ver código fuente y la pulsáis, se os abrirá una ventana con un texto raro en el que mezclado con el texto que podéis ver en la página, aparecen palabras y siglas entre los símbolos < y >. Esas palabras son las marcas, que también se llaman etiquetas. Si por ejemplo quiero poner un texto en negrita, añado la etiqueta <b> justo antes del texto que quiero que se vea en negrita, y </b> justo al final. Si quiero añadir un enlace a una frase, utilizo la pareja de etiquetas <a href="dirección del enlace"> y </a> alrededor de la frase. En este último ejemplo, veis un texto adicional en la etiqueta: href="dirección del enlace". Esto es lo que se llama atributo. Una etiqueta puede tener atributos en la forma nombre=valor. En el caso concreto de una etiqueta <a>, hay que especificar el atributo href con la dirección o URL a la que apunta el enlace.

De momento fácil ¿no? Bien, el lenguaje HTML es una particularización del está basado en SGML, que es un lenguaje genérico, a partir del cual se puede definir otros lenguajes de marcas. En el lenguaje HTML hay definidas una serie de etiquetas y atributos, cada una de ellas con una determinada función, y en algunos casos, con la obligación de seguir determinada estructura. Así por ejemplo, una página HTML debe comenzar con la etiqueta <html> y debe ir seguida de una cabecera definida con la etiqueta <head> (donde entre otras cosas está el título que aparece en la barra superior del navegador), y tras ella debe estar el contenido de la página en sí, el llamado cuerpo, definido por la etiqueta <body>, y que contiene todo el texto que veis.

Al principio, el lenguaje HTML era, llamémoslo permisivo y caótico. Veamos, los nombres de etiquetas y atributos, podían ir tanto en minúsculas como en mayúsculas. Así, uno podía poner <body>, <BODY> o <Body>, como más le apeteciera. El valor de los atributos podía ir entre comillas o no, incluso existían atributos sin valor, es decir, que simplemente había que declararlos y ya está (como el atributo disabled que marcaba un control como deshabilitado). Había etiquetas que necesitaban un contenido, como la mencionada <a> que debía ir acompañada siempre de su correspondiente </a>, y etiquetas que no, como <br>, que idicaban un salto de línea. Además, había navegadores aún más permisivos, de forma que si había etiquetas sin su correspondiente cierre, intentaban deducir dónde debería ir ese cierre y mostraban la página más o menos de forma adecuada. Un ejemplo clásico es el de tablas (<table>) con filas (<tr>) y columnas (<td>) que no se cerraban correctamente. El Internet Explorer intentaba mostrar la tabla (y no lo hacía mal), y el Netscape Navigator no la mostraba si las etiquetas no estaban cerradas correctamente.

A esta situación había que añadirle el que cada compañía añadía nuevas etiquetas y atributos al lenguaje, por su cuenta y riesgo, o interpretaba de formas diferentes la función de éstos. En plena guerra de navegadores, esta situación se convirtió en una auténtica pesadilla para los creadores de páginas Web. Si uno no se andaba con cuidado, una página podía verse muy bien en un navegador, y fatal en otro. Fue una época en la que comenzaban a aparecer los famosos y odiados botones de Optimizado para... (normalmente, para Internet Explorer), que en realidad significaba que si no veías la página con ese navegador en concreto (y en ocasiones, con una versión en concreto), la página se veía totalmente descuadrada, o incluso no se veía. Además, supongo que ante las presiones de jefes que sólo sabían de marketing o de la competencia, los diseñadores se veían obligados a estrujarse las neuronas buscando formas de maquetar una página, que estaba más allá de las posibilidades originales del HTML. Así, aprovechando la flexibilidad que ofrecían las tablas en HTML, en seguida proliferaron los diseños basados en tablas. Celdas vacías e imágenes transparentes que servían como separadores, y tablas dentro de tablas, se convirtieron en la norma de todo diseño visualmente llamativo. Y en una locura de mantener. Un pequeño cambio aparentemente sencillo, podía degenerar en horas y horas de trabajo. Frases del tipo No está mal, pero ¿y si ponemos esto un poco más a la izquierda, y de color verde? eran aterradoras.

Hace ya algunos años, el W3C actualizó el estándar HTML y definió otros nuevos. Podemos resumir los cambios más importantes en dos: evolución del HTML original a un HTML más semántico, y redefinición del HTML en XML. ¿Lo qué? Veamos, antes he hablado de la etiqueta <b>, que ponía un texto en negrita. Existen muchas otras etiquetas para modificar la apariencia del texto, como <font>, que permite cambiar el tipo de letra, tamaño y color, <center>, que centra horizontalmente un elemento, y atributos como bgcolor que permite cambiar el color del fondo, o align que modifica la alineación horizontal de un texto. Utilizando estos elementos, y diversos trucos con tablas, se podía tener mucho control sobre la apariencia final de la página. Pero para ello, había que poner esas etiquetas y atributos en el código HTML de nuestra página. Si deseabamos (o nos encargaban) modificar la apariencia, había que modificar toda la página, en multiples lugares. Y si teníamos varias páginas similares, había que modificarlas todas. Existe un estándar llamado CSS, que define lo que se conoce como hojas de estilo, y que nos permite modificar la apariencia de una página HTML. Podemos especificar los colores, tipos y tamaños de letras, alineación, e incluso el posicionamiento y tamaño de elementos. Y lo mejor es que puede ir en un fichero separado, de forma que en la página HTML simplemente hay que hacer referencia a él. Bien utilizadas, las hojas de estilo nos permiten eliminar todo el código de nuestra página, relacionado con la apariencia, y ponerlo en dicha hoja de estilo. De esta manera, el código HTML de nuestra página contedrá únicamente la información que deseamos mostrar, debidamente estructurada, y no cómo deseamos mostrarla.

Así, existen dos variantes (bueno, en realidad son tres, pero la tercera no viene al caso) de la última versión del lenguaje HTML: Transitional y Strict. En la variante Transitional, se pueden utilizar todas las etiquetas y atributos, pero en la variante Strict, estamos limitados a aquellos que no tengan nada que ver con la apariencia de la página. Ésta apariencia se debe definir en una hoja de estilo. De esta manera, en la variante Strict, no podemos utilizar etiquetas como <font> o <center>, ni atributos como bgcolor. Además, deberíamos limitarnos a utilizar tablas para mostrar tablas, es decir, una serie de datos distribuidos en filas y columnas. Otra consideración adicional es ordenar la información de forma estructurada, sin pensar en la posición final de los elementos. Un ejemplo lo tenéis en esta mismo blog. Veis que la estructura visual consta de una cabecera, dos barras laterales (una con enlaces internos al blog y otra con enlaces externos) y el contenido de los envíos en el centro. Uno puede pensar que en el código HTML está definida la cabecera primero, después la barra lateral izquierda, luego el contenido central, y finalmente la barra derecha, pero no es así. La estructura de la página es: cabecera, contenido, barra lateral izquierda y barra lateral derecha. Es decir, si no existiera una hoja de estilos, leeríais primero los envíos, y después de ellos vendrían todos los enlaces. Un día puedo decidir invertir el orden de colocación de las barras laterales, o decidir ponerlas una encima de otra, como una única barra, o una arriba de forma horizontal y otra a un lado. Y todo ello sin cambiar una coma del código HTML. Sólo debo modificar el código CSS.

Bueno, está claro eso de un HTML semántico, pero ¿qué es eso de XML? El XML es un lenguaje de marcas similar, pero mucho más estructurado, y que permite definir nuestro propio lenguaje de marcas. Concretamente, la reformulación de HTML en XML se denomina XHTML, pero es sólo uno de los muchos lenguajes basados en XML que existen. Para un XML se puede (y se debería) definir un DTD o (mejor aún) un esquema XML, donde se definen las etiquetas, atributos y estructura del lenguaje. Hay que decir que el SGML ya utilizaba DTD, y el HTML está definido en función de ellos, pero por algún motivo nunca se ha prestado demasiada atención a ello. Con el XML, en cambio, han proliferado herramientas diversas para comprobar si un fichero XML cumple la especificación definida en el DTD o en el esquema. Bien, el DTD o el esquema nos dice qué etiquetas se pueden utilizar en un lugar determinado, qué atributos tiene, cuáles son obligatorios, y un largo etc. En XHTML, los nombres de etiquetas y de atributos están definidos en letras minúsculas, con lo que no es correcto utilizar etiquetas como <A> o <TABLE>, por ejemplo. Una característica intrínseca del XML, es que el valor de un atributo debe ir siempre entrecomillado, y que los atributos deben tener siempre un valor. Así, no podemos poner sin más el atributo disabled que mencioné antes, sino que habría que escribir disabled="disabled". Otra característica intrínseca del lenguaje es que toda etiqueta debe ser cerrada. Así, no podemos utilizar la etiqueta <br> sin más, para poner un salto de línea, sino que debemos utilizar <br></br>, o mejor aún, para evitar malinterpretaciones de algunos navegadores, hacer uso de la sintaxis abreviada <br/>, que nos indica que la etiqueta no tiene contenido. Para maximizar la compatibilidad con navegadores antiguos que sólo procesan HTML, se recomienda dejar un espacio justo antes de la barra inclinada, tal que así: <br />. Pero hay que tener en cuenta que aunque un navegador lo entienda, esa expresión no sería realmente HTML correcto, sino XHTML.

En XHTML hay también tres variantes (en su versión 1.0), de las cuales nos interesan la Transitional y la Strict, que tienen las mismas consideraciones que sus homónimas en HTML. Aquí hay que tener en cuenta un detalle en la variante Strict: En HTML existe un atributo muy utilizado llamado name, que se utiliza para dar un nombre a un elemento cualquiera, y así poder ser referenciado desde JavaScript (un lenguaje de programación interpretado, que se puede añadir a una página HTML). En XHTML Strict, ese atributo ha desaparecido (salvo en determinadas etiquetas muy particulares) en favor de otro llamado id, que cumple la misma función, y cuyo valor no puede repetirse en ningún sitio de la página (cosa que no ocurría con el otro atributo, y que podía dar lugar a resultados no deseados).

Todo esto parece muy complicado ¿no? Parece fácil cometer un pequeño error. Cierto, y por eso el W3C tiene dos validadores online para HTML (o XHTML) y CSS, con los que podréis comprobar fácilmente si vuestra página cumple los estándares o no. Y si no los cumple, te dice por qué.

Bien, si habéis conseguido llegar hasta aquí, estáis en condiciones de entender el problema de Blogger. Los blogs que se alojan en Blogger están definidos por una plantilla, que no es más que código HTML con determinadas etiquetas especiales (no HTML) que son sustituidas en el servidor por el texto correspondiente. Así, por ejemplo, la etiqueta <$BlogTitle$> es sustituida por el nombre del blog (en mi caso, la palabra MalaCiencia), y la etiqueta <$BlogItemTitle$>, por el título del envío. Durante el proceso, se incluye en el código generado, de forma automática, el código HTML correspondiente a la barra de Bogger que podéis ver en todos los blogs alojados ahí. Y resulta, que aunque se supone que el código HTML de Blogger es XHTML 1.0 Strict, y las plantillas que te ofrece por defecto cumplen el estándar, el código de la barra de navegación de Blogger tiene algunos errores. Y es algo tan simple como el hecho de incluir en un par de etiquetas, ese atributo llamado name que no se debe utilizar. Esto hace que cualquier página generada por Blogger, no importa los esfuerzos del sufrido creador, no cumplirá completamente el estándar, teniendo al menos 2 fallos. La solución es muy sencilla: en esas dos etiquetas, hay que sustituir el atributo name por un atributo id con el mismo valor. Así de fácil (para los entendidos, diré que el JavaScript seguiría funcionando, lo he comprobado). Pero eso sólo lo pueden hacer los administradores de Blogger.

Existen varias formas de ocultar la barra de Blogger. Pero fijáos bien que he dicho ocultar, no eliminar. Una de las muchas cosas que se pueden hacer con una hoja de estilo, es indicar que determinados elementos no se muestren. Pero con eso, lo único que conseguimos es que la barra no se vea. El código XHTML incorrecto sigue estando ahí.

Además, la barra de Blogger no es el único problema. Los comentarios al envío tampoco son generados como XHTML válido. Como facilidad para los usuarios, Blogger transforma automáticamente los saltos de línea introducidos en la cajita de comentario, en etiquetas <br/>. O casi, ya que por algún despiste por parte de los desarrolladores, lo que se utiliza realmente es el texto <BR/>, cuya presencia hace que no sea ni XHTML ni HTML válido. Es decir, no existe una sola versión de HTML o XHTML donde el la etiqueta <BR/> sea correcta. En este caso, se puede solventar el problema configurando el blog en Blogger para que los comentarios se muestren en una ventana diferente, en vez de en la propia página. Pero es un error importante, que irónicamente se debería resolver de forma muy sencilla.

Las hojas de estilo tampoco se libran. El código HTML de la barra de Blogger, hace referencia a unos ficheros CSS, que tampoco son del todo correctos, por lo que un blog alojado en Blogger tampoco pasaría una validación CSS.

Bueno, y ¿todo esto es importante, o se trata sólo de pajas mentales de los informáticos? Pues sí es importante. Los estándares se hacen para ser utilizados y respetados. Uno de los pilares de la Web es poder acceder a la información, independientemente del navegador, del sistema operativo, e incluso de la máquina (y no estoy pensando sólo en ordenadores). La situación de hace varios años, con diferencias abismales entre el Internet Explorer y el Netscape Navigator, degeneraba en ocasiones en tener que hacer dos versiones de cada página, o en condenar a los usuarios de uno de los navegadores a no poder verlas. ¿Os imagináis que existieran canales de televisión que sólo pudieran ser vistos por una determinada marca de aparato? Afortunadamente, esa etapa parece haber sido superada, aunque hay quien se empeña (tal vez por desconocimiento) en hacer páginas pensando únicamente en un sólo navegador (normalmente Explorer). Si al crear nuestra página, nos ceñimos rígidamente a los estándares del W3C, tendremos bastante seguridad de que se verá en la mayoría de los navegadores. Y si no, siempre podemos excusarnos diciendo que si no se ve bien, es problema del navegador, que no cumple el estándar.

Por otro lado, separar el contenido de la forma de presentarlo, nos ayudará a modificar posteriormente la apariencia de nuestras páginas, o mejor aún, facilitará su proceso por parte de software especializado para discapacitados, como sitnetizadores de voz o lectores braile. O incluso podemos especificar diferentes hojas de estilo, de forma que el usuario escoja cuál utilizar.

Sin duda, podría declarar el código XHTML de este blog como Transitional, en vez de como Strict, y así ya sería código válido. Pero por un lado soy un firme defensor de la separación entre contenido y presentación. Y no sólo en la Web, sino en procesadores de texto como el MS Word o el OpenOffice.org Writer, en los que también puede aplicarse la misma filosofía. Os aseguro que si se hace bien, te ahorra muchos quebraderos de cabeza a la hora de modificar la apariencia de un documento. Así que quiero aportar mi granito de arena para difundir esta forma de hacer las cosas. Además, el código CSS de la barra de Blogger seguiría siendo incorrecto.

viernes, julio 21, 2006

Las misiones Apolo y la conspiranoia

Leo una noticia en el diario 20 Minutos (de hace algunos días), sobre la desaparición de casi todas las grabaciones originales de la llegada del hombre a la Luna. Es una breve reseña con apenas cuatro frases, en las que además se dice que esta noticia podría apoyar la teoría de que la llegada del hombre a la Luna fue un montaje. El mero hecho de que la fuente sea un envío publicado en Slashdot (y reproducido en Barrapunto), y que la información no haya sido contrastada, convertiría la reseña en carnaza para Malaprensa. Pero lo que más me ha llamado la atención es la inmensa cantidad de comentarios que tiene la noticia, de gente que se cree que realmente todo fue un montaje. Algo similar sucede con la noticia más reciente sobre la posible nueva misión a la Luna en 2018.

Lo gracioso de todo (o lo triste) es que muchos de los argumentos que esgrimen los autodenominados apoloescépticos, son fácilmente rebatibles aplicando únicamente la ciencia y el sentido común. Es más, en muchos casos, la supuesta prueba del fraude se convierte de hecho en una prueba que respalda que no fue un montaje.

Empezaré por una de mis favoritas: no aparecen estrellas en ninguna de las fotos. Los defensores del montaje dicen que si en realidad las fotos se hubieran tomado en la Luna, debería estar el cielo lleno de estrellas, ya que al no haber atmósfera, deberían verse aunque fuera de día. Una afirmación de este calibre demuestra un total y absoluto deconocimiento del mundo de la fotografía. En una fotografía no se impresiona absolutamente todo. El resultado final depende de la sensibilidad de la película, la apertura del diafragma y el tiempo de exposición. Si quieres fotografiar un objeto muy iluminado, debes abrir poco el diafragma, y durante poco tiempo. Eso hace que objetos con menos luminosidad no impresionen la película. Si quieres captar precisamente objetos con poca luz, debes abrir más el diafragma y durante más tiempo, o incluso utilizar una película con más sensibilidad. Fotografía de unas cables, con mucha sobreexposición, donde difícilmente se distingue algoPero al hacerlo, aquellos objetos demasiado iluminados, aparecerán sobreexpuestos, y sería imposible reconocerlos. La diferencia de luminosidad entre las estrellas y un objeto iluminado directamente por el sol (y además, blanco, o gris claro) es muy grande. Si quieres captar al astronauta y el suelo lunar con nitidez, no puedes captar las estrellas. Y si pretendes captar las estrellas, el astronauta y el suelo aparecerán sobreexpuestos. ¿Habéis intentado alguna vez fotografiar el cielo nocturno? Es necesario abrir el diafragma durante bastante tiempo, segundos o incluso minutos, para que las estrellas se impresionen en la película. Así que el que no aparezcan estrellas es las fotos es absolutamente lógico. Sería si aparecieran estrellas cuando uno podría sospechar de un montaje.Fotografía de la estación espacial Mir acoplada con el transbordador espacial Atlantis, con el negro del espacio de fondo, sin una sola estrella.

Foto del módulo lunar. Se puede ver la zona de sombra, iluminadaSigamos con otra similar, ya que también tiene que ver con la iluminación. Otro argumento repetido hasta la saciedad es el de la iluminación de las zonas de sombra. En muchas fotografías, podemos ver la zona sombreada del módulo lunar, con algo de ilumunación, suficiente para ver detalles como la placa con la leyenda United States. Los conspiranoicos dicen que eso demuestra que es un montaje, ya que en la Luna sólo hay una fuente de luz, el Sol, y por tanto, las zonas de sombra deberían estar en la oscuridad más absoluta. Bueno, se ve que no han caido en que la propia Luna refleja la luz del Sol. La superficie lunar es de un color gris claro, tirando a blanco, y por tanto refleja mucha luz. ¿Habéis probado a pasear por el campo, lejos de iluminaciones artificiales, a la luz de la luna llena? Si lo hacéis, descubriréis que la luna llena es capaz de iluminar bastante, y podemos ver medianamente bien lo que hay a nuestro alrededor. Y eso que la tenemos a más de 350.000 km de distancia. Imagináos la luz que debe aportar si estás en su superficie. Sin duda, suficiente para iluminar la zona de sombra del módulo lunar. Además, el recubrimiento exterior del módulo lunar estaba hecho de un material altamente reflectante llamado Mylar, precisamente para minimizar en lo posible la absorción de radiación solar, con el consiguiente aumento de temperatura. En esas condiciones, lo extraño sería precisamente que la zona de sombra fuera completamente negra.

Fotografía de una de las misiones Apolo, con el módulo lunar a lo lejos, y una rocas cerca de cámara. Las sombras parecen divergentes.Otro argumento, también relacionado con la iluminación, es que en algunas fotos, las sombras de distintos elementos (astronautas, el módulo, rocas), no son paralelas. Dado que la única fuente de iluminación es el Sol, y además se encuentra muy lejos, las sombras deberían ser paralelas en todo momento. La única forma de que sean divergentes es mediante iluminación artificial. Bueno, sin duda es cierto que con una fuente de iluminación lejana, las sombras son paralelas. Pero hay que tener en cuenta el efecto de la perspectiva. Si los objetos están bastante separados entre sí, con relación a nuestra distancia a ellos, las sombras parecerán divergentes. Es muy sencillo darse cuenta sin más que mirar un tramo recto y largo de una carretera, desde uno de los carriles. Las líneas blancas son paralelas ¿verdad? Pero parecen acercarse entre sí a medida que se alejan de nosotros. Fotografía de una carreteraLo mismo sucede con las sombras. Además, en el caso de la Luna, debemos tener en cuenta que la superficie lunar no es llana y lisa. Hay desniveles y relieves, que pueden alterar todavía más la sombra desde nuestra perspectiva.

Fuera del tema de la iluminación, otro argumento recurrente es la ausencia de un crater o similar, debajo de la tobera del módulo lunar, y el que las patas no estén cubiertas de polvo. Al aterrizar, el chorro de gases expulsado por la tobera tendría que haber desplazado y quemado piedras, así como levantar polvo lunar que luego se depositaría sobre las patas. En ocasiones, se menciona el hecho de que el cohete del módulo lunar tenía una fuerza de empuje máxima, equivalente a 5.000 kg. Bueno, la fuerza máxima de empuje del cohete del módulo es totalmente irrelevante. Yo no meto el coche en el garaje en quinta y con el acelerador a tope, ni escucho música con el volúmen al máximo. En el momento del aterrizaje, la fuerza de empuje del cohete debía ser más o menos igual al peso del módulo en la luna, ya que descendían lentamente. ¿Cuánto pesaba el módulo? Veamos, en la Wikipedia aparece la cifra de algo más de 14 toneladas. Sin embargo, parte de esa masa se debía al combustible, y una parte importante de él se había gastado. Buscando en la web de la NASA, encuentro las especificaciones del Apolo 14, y dice que la masa total del módulo era de 15,264 kg, de los cuales 11,010 kg eran de combustible. Además, hay que tener en cuenta que la gravedad lunar es aproximadamente un a sexta parte de la terrestre. Un objeto de 15 T en la luna, sería atraido con una fuerza equivalente a la de un objeto de 2,5 T en la Tierra. No he encontrado datos sobre la masa real del módulo en el momento de aterrizar, pero sí dos fuentes con respecto al empuje del cohete en el momento del alunizaje (Bad Astronomy y Círculo Escéptico), y ofrecen las cifras del equivalente a unos 1.300 y 1.200 kg. ¿Y eso es mucho? Bueno, para ver si las piedras deberían haberse desplazado mucho o no, realmente lo importante no es la fuerza ejercida sobre el suelo, sino la presión, es decir, la fuerza por unidad de superficie. Es obvio que no tendrá el mismo efecto en el suelo, una tonelada de peso sobre una estrecha superficie de unos pocos centímetros cuadrados, que repartido sobre varios metros cuadrados. Según la Enciclopedia Astronáutica, el diámetro de la tobera era de 137 cm, lo que nos da una superficie de 5,9 1,47 m2. Así, la presión ejercida sería de 220 880 kp/m2, que equivale a 21,6 86,4 milibares. ¿Y eso es mucho o poco? Pues teniendo en cuenta que la presión atmosférica terrestre a nivel del mar es de 1.013 mb, pues va a ser que es poca presión. Además, hay que tener en cuenta que en la Luna no hay atmósfera. ¿Y eso qué quiere decir? pues que los gases expulsados por la tobera se expanden muy rápidamente, enfriándose y disminuyendo su presión en el proceso. Así que es lógico que el suelo de debajo de la tobera no parezca demasiado afectado, ni que se hubiera podido levantar ningún tipo de polvo (que por otro lado, se comportaría de forma diferente a como estamos acostumbrados, ya que en ausencia de aire, no puede permanecer en suspensión). Precisamente, si hubiera una enorme crater debajo, sería una prueba en favor del montaje.

Otro argumento, relacionado con el anterior, es el que dice que las patas del módulo apenas se hunden en la superficie lunar, que se supone cubierta de un fino polvo. Dado el gran peso del módulo lunar, tendrían que estar más hundidas. Volvemos con lo mismo. El módulo lunar no pesaba tanto en la luna. Entre el equivalente a 1.200 y 1.300 kg. Menos que un coche de gama alta, como por ejemplo un BMW M5, que tiene 1.700 kg de masa, o el BMW 745i, con 1.945 kg. Las ruedas de un coche se hunden en la arena, pero lo importante vuelve a ser la distribución del peso sobre una superficie. No he encontrado cifras, pero en las fotografías se puede ver que los extremos de las patas del módulo tienen mucha más superficie de contacto que la rueda de un coche.

En fin, hay muchísimos más argumentos rebatibles, pero creo que con estos os podéis hacer una idea. Para el intersesado en indagar mas sobre el tema, recomiendo los siguientes enlaces:

jueves, julio 20, 2006

El cinturón de asteroides

Fotograma de Érase una vez... el espacio, que muestra una nave atravesando un tupido campo de asteroides.Supongo que la mayoría de la gente habrá oido hablar del cinturón de asteroides. Se trata de una región situada entre las órbitas de Marte y Júpiter, donde hay un gran número de asteriodes (hay catalogados decenas de miles, aunque se cree que pueden haber en total del orden de millones) de diverso tamaño que orbitan alrededor del Sol. Normalmente es representado como una región del espacio saturada de pedruscos, donde sería fácil chocar con uno. Ahora me vienen a la cabeza la serie Érase una vez... el Espacio, y la película Meteoro, pero seguro que hay muchos más ejemplos.

Sin embargo, esta visión tiene poco o nada que ver con la realidad. El cinturón de asteroides, en realidad es una región bastante vacía. Los asteroides están muy separados entre sí, y un vehículo especial podría cruzarlo sin avistar ni uno sólo. De hecho, las sondas espaciales que se han enviado a los planetas exteriores (como las Pioneer, las Voyager, o la reciente Cassini-Huygens) atravesaron el cinturón sin problemas y sin necesidad de esquivar ningún pedrusco.

Para hacernos una idea, calculemos el tamaño del cinturón. Los asteroides se concentran en órbitas situadas entre 2 y 3,25 UA. Ya he explicado en otras ocasiones qué es una UA. Representa la distancia media entre el Sol y la Tierra, y equivale a unos 150 millones de km aproximadamente. Suponiendo que el grosor del cinturón es despreciable, podemos aplicar la conocidísima fórmula que nos permite calcular la superficie de un círculo a partir de su radio: S=π·R2. Pero no estamos calculando la superficie de un círculo ¿no? No, estamos calculando la superficie de una corona circular, que equivale a la diferencia de las superficies de los círculos correspondientes a los dos radios, es decir, S=π·R12-π·R22, donde R1 es el radio exterior, y R2 es el radio interior. Bueno, pues aplicando las matemáticas, me salen unos 460.000 billones de km2. Más de 1.000 veces la superficie del Sol, que a su vez es 11.900 veces mayor que la de la Tierra. Aunque estemos hablando de millones de asteroides, hay muchísimo espacio entre ellos. Si distribuyéramos 10 millones de asteroides de forma uniforme en ese espacio, estarían separados miles de millones de km entre sí a cada uno le correspondería una superficie libre de 46.000 millones de km2, lo que supondría una distancia del orden de algunos miles de km entre sí.

En realidad, los asteroides no se distribuyen de forma uniforme, sino que se agrupan en a determinadas distancias del Sol, evitando ocupar otras. Estas órbitas despobladas se conocen como Huecos de Kirkwood, y sus periodos orbitales (es decir, el tiempo que tardan en dar una vuelta completa al Sol, y que está determinado por su distancia media al Sol) son fracciones simples del periodo orbital de Júpiter. Gráfico de densidad de asteroides según la distancia al SolEsto no es casualidad, ya que esos lugares están en resonancia orbital con Júpiter. Esto quiere decir que un cuerpo situado en esa órbita, tendría de forma cíclica las mismas interacciones gravitatorias con Júpiter, siempre en los mismos puntos de su órbita. En este caso, la resonancia orbital hace que esas órbitas sean inestables, y que un asteroide situado en una de ellas termine alterándola para adquirir una más estable. Los huecos más importantes se encuentran a una distancia del Sol de 2,5 UA (relación 1:3 con la de Júpiter), 2,82 UA (2:5), 2,95 UA (3:7), y 3,27 UA (1:2).

Aún así, en las zonas más pobladas, las distancias entre asteroides sigue siendo enorme. Habría que tener mucha suerte para pasar cerca de un asteroide al atravesár el cinturón. Nada que ver con las aglomeraciones de asteroides que vemos en las series o películas.

miércoles, julio 19, 2006

Lengua y percepción de colores

Hace poco he recibido un correo electrónico (gracias MB) avisándome sobre una noticia aparecida en el diario Qué!. Conociendo la línea de esta publicación, no debería sorprenderme ya nada de lo que ahí se cuente. Bajo el sensacionalista titular Los colores que vemos los determina nuestro idioma, nos cuenta que el hombre percibe el mundo en función del lenguaje, afirmando incluso que sólo somos capaces de percíbir lo que podemos pronunciar, según Jaume Estruch, director de Percepnet. Reproduzco el último párrafo de la noticia, ya que no tiene desperdicio:

Otro caso curioso es el de unos indios norteamericanos que denominan del mismo modo al "mar" y al "cielo". Como consecuencia de ello, este pueblo es incapaz de distinguir el horizonte, un concepto completamente desconocido.

Vaya, vaya. Así que como esos indios no tienen palabras distintas para mar y para cielo, no pueden distinguirlos. Me pregunto yo entonces cómo nosotros podemos distinguir el color del mar del color del cielo, ya que empleamos la misma palabra para él: azul. Bueno, vale, tenemos las expresiones azul marino y azul celeste (y muchos más tonos de azules), así que hagamos un sencillo experimento.

Dibujo que compara el contraste de tres colores. Se puede ver un círculo y un cuadrado de un color indefinido, entre marrón y granate, sobre dos fondos distintos de color violeta, uno más claro y otro más oscuro Aquí reproduzco una imagen de la web de Lighthouse International, que explica el contraste de colores, y cómo su elección es un detalle fundamental si queremos que nuestra web sea legible para personas con deficiencias en la percepción del color. ¿Sois capaces de distinguir los dos violetas del fondo? Sí ¿verdad? Y eso que ambos colores tienen el mismo nombre: violeta. Tal vez alguien con más conocimientos de color pueda darles un nombre distinto, pero para mí los dos son violetas. Es más, ¿de qué color es el círculo y el cuadrado? ¿Podéis nombrarlo? Yo no sería capaz, pero lo distingo perfectamente.

Hagamos otro experimento.Cuatro cuadrados de color, de un tono tirando a amarillo sucio Fijáos en esta otra imagen con cuatro cuadrados. ¿Veis los cuatro colores? ¿Sabríais nombrarlos? Yo no tengo ni idea de cómo llamarlos. Pero los distingo perfectamente. Bueno, hay dos que es algo más dificil (los de la izquierda), pero eso es debido a que se parecen mucho. No tiene nada que ver con el nombre que tengan en castellano, ya que no sé siquiera si tienen nombre. Pero soy capaz de percibirlos. Es decir, puedo percibir colores que no sé nombrar.

Otro ejemplo: ¿de qué color es la piel de una persona de raza blanca? Porque a menos que sea albina o de un pais nórdico, no es blanca. Cuando de pequeño dibujaba cosas, al colorear la piel de alguien, nunca sabía si debía utilizar un naranja, un rosa pálido, o un marrón claro. No sé como llamar ese color, y sin embargo lo conozco muy bien.

¿De dónde vienen esas afirmaciones de que sólo podemos percibir lo que podemos nombrar? Buscando la fuente original de la noticia, llego hasta un artículo de Percepnet, en el que se afirma que un estudio realizado por Paul Kay, del ICSI, demuestra que nuestra capacidad y rapidez en discernir un recuadro coloreado de sus recuadros vecinos dependerá de si sus colores tienen o no nombres distintos, al margen de la distancia cromática a la que se encuentren el uno del otro, pero sólo cuando se encuentran en el campo visual derecho. En realidad, el estudio lo que dice es que los experimentos realizados respaldan la Hipótesis de Whorf en el campo visual derecho, pero no en el izquierdo.

¿La qué? Veamos, la Hipótesis de Whorf (aunque sería más correcto decir de Sapir-Whorf) nos dice que hay una relación entre el lenguaje de una persona y su forma de pensamiento. Existen dos versiones, por llamarlas de alguna forma: la formulación fuerte, según la cual, el lenguaje determina completamente la forma en la que conceptualizamos, memorizamos y clasificamos la realidad que nos rodea; y la formulación debil, según la cual, el lenguaje tiene sólo cierta influencia en lo anterior. Parece ser que no hay evidencias empíricas que respalden la formulación fuerte, y sí hay experimentos que la contradicen. En cambio, existen evidencias que parecen respaldar la formulación débil. Digo parecen, porque hay que tener en cuenta que cuando nos adentramos en el mundo de la psicología y el funcionamiento de nuestro cerebro, pisamos terreno resbaladizo, y no se pueden afirmar las cosas de forma categórica.

Veamos un ejemplo: en la lengua de una tribu india de Nuevo México, llamada zuñi, no tienen palabras diferentes para designar el color amarillo y el naranja. Ambos colores tienen un mismo nombre en esa lengua. A varios zuñi, se les enseñaban objetos amarillos o naranjas. Después de un cierto tiempo, se les pedía que identidicaran qué objeto habían visto, de entre dos iguales, de color amarillo uno y naranja el otro. Los zuñi que sólo hablaban zuñi tenían más dificultad en hacerlo que los zuñi que hablaban inglés. Pero hay que tener en cuenta que los que ocurre es que no memorizan bien el tono exacto de color. Si a un zuñi se le pedía que diferenciara entre ambos colores, mostrados de forma simultánea, lo hacía perfectamente. Por tanto, los percibe correctamente.

Existen explicaciones alternativas a la Hipótesis de Whorf. Tal vez no sea el lenguaje el que influya en la forma de pensamiento, sino al revés. Es decir, puede que a lo largo de su historia, los zuñi nunca hayan tenido necesidad de diferenciar perfectamente entre el amarillo y el naranja, de forma que ambos colores se designan con una misma palabra. Esa misma tradición hace que no le den importancia a tal diferencia, y por tanto, no están acostumbrados a diferenciarlos en su cabeza de forma absoluta. Es decir, pueden diferenciarlos si los ven a la vez, pero no memorizarlos correctamente.

Veamos un ejemplo inverso: los indios del Amazonas tienen muchas palabras distintas para designar a distintos tonos de verde. Nosotros tenemos sólo una: verde, que podemos adornar con algún adjetivo (verde turquesa, verde oscuro, verde pistacho...). Si nos enseñaran un tono de verde muy concreto, y horas después nos pidieran que lo identificáramos entre otros tonos verdes similares, tal vez no podríamos hacerlo. Pero no porque confundamos los tonos, sino porque no recordamos exactamente cuál era el tono que vimos. Es decir, no es que percibamos menos tonos de verde que los indios del Amazonas, sino que no somos capaces de memorizar el tono exacto, seguramente porque en nuestro modo de vida es menos importante diferenciar el tono de verde que si viviésemos rodeados de vegetación.

Podéis hacer vosotros mismos un experimento. Fijáos bien en el este blog. Después, cerrad vuestro navegador, abrid un programa de edición de imágenes (como el Gimp), y con la herramienta de la paleta de colores, intentad reproducir exactamente el tono de verde del cuadro donde está la foto de Kosh, y el azul de la cabecera. Luego, comparad vuestro intento con los colores reales. Habrá quien se haya equivocado mucho, y habrá quien se haya equivocado poco. Pero seguro que todos podéis ver la diferencia. Podeis percibir perfectamente que los colores son distintos.

Veamos otro ejemplo más conocido. Los esquimales tienen muchas palabras para definir el color blanco, y para definir la nieve. Seguro que son capaces de distinguir pequeñas diferencias entre tonos de blanco (de gris claro, más bien) que a nosotros nos pasarían desapercibidas, pero ¿es debido al lenguaje? ¿O es debido a su adaptación a ese medio ambiente, con nieves y hielos perpétuos, y su lenguaje es una consecuencia (y no causa) de ello?

Un ejemplo más. Un niño es capaz de diferenciar los colores antes de aprender a hablar. Somos nosotros los que le decimos cómo se llama un color, y entonces asocia esa palabra al color que ve. Os contaré una anécdota curiosa. Uno de los primeros juguetes de mi hijo fueron unos aros de colores. Habá uno rosa, uno rojo, uno amarillo, uno verde, uno morado, y dos azules (uno oscuro y otro claro). Yo le iba diciendo los colores, y con el tiempo veía que los entendía (aunque aún no hablaba). Pensé cómo explicarle la diferencia entre los dos aros azules, sin tener que decir constantemente azul claro y azul oscuro, pero siempre tenía que recurrir a los adjetivos. Pasó el tiempo y ahora ya habla (con limitaciones). Hace poco me extrañaba que al referirse al color azul, a veces dice aful y a veces afules (sí, con efe), aunque se refiera a un único objeto. Pero resulta que llama azul al azul oscuro, y azules al claro. Parece que se da cuenta de la diferencia entre ambos colores, y decide llamarlos de forma diferente. Según esta experiencia, parece que el lenguaje es consecuencia de nuestra percepción, y no al revés.

En fin, que hay debate sobre si el lenguaje influye o no en nuestros procesos mentales, a la hora de memorizar y clasificar la información. Es decir, no está demostrada ninguna de las dos posibilidades. Y en cualquier caso, sólo se discute sobre la influencia en la forma de abstraer conceptos, no en la percepción en sí. Así que afirmar que nuestro lenguaje determina qué colores somos capaces de ver, es un disparate. El estudio que da pie a la noticia, sólo dice que la Hipótesis de Whorf parece confirmarse en el campo de visión derecho (es decir, lo que vemos con el ojo derecho y es recibido por el hemisferio izquierdo, donde se cree que reside la capacidad del lenguaje).

Y leyendo el estudio, incluso esa afirmación me parece muy aventurada, ya que por un lado los experimentos se realizaron siempre sobre personas de habla inglesa. Y por otro, los colores eran muy parecidos. ¿Cómo se puede saber si la lengua influye o no, si los sujetos del experimento hablan la misma? ¿Cómo saber si los altos tiempos de respuesta al distinguir los colores eran debidos a que tenían el mismo nombre, o a que eran muy similares cromáticamente? Para llegar a esa conclusión, habría que realizar el estudio sobre personas de lenguas distintas (y que los mismos colores utilizados, en algunas lenguas tengan el mismo nombre, y en otras nombre distinto), y comparar los resultados. ¿Os imagináis a Newton o a Galileo experimentando sobre la caida de objetos, utilizando simpre objetos de la misma masa y dejándolos caer desde la misma altura? ¿A qué conclusiones podrían haber llegado?

lunes, julio 17, 2006

Logaritmos y algoritmos

En el envío anterior, al poner la fórmula de la Relación Periodo Luminosidad en una estrella cefeida, no especifiqué que la expresión log(P) se refería al logaritmo decimal de P, ni expliqué qué es un logaritmo. Supuse que todo el mundo lo sabría, ya que es algo que se enseña en el colegio (al menos, se enseñaba en mi época), pero visitando el blog Malaprensa (altamente recomendable), veo que dicha suposición tal vez no fuera acertada. Josu comenta una noticia que trata de la detención de unas personas que se dedicaban a falsificar tarjetas de crédito. En ella (podéis ver el vídeo aquí), al hablar sobre el software que utilizaban, decía:

El programa informático lo había creado uno de los 21 detenidos, un ingeniero de nacionalidad liberiana. Con él descubrían los logaritmos que usa cada banco para crear sus tarjetas y averiguaban los números sin saber el nombre de los titulares. Se inventaban una identidad, y usaban la tarjeta para comprar todo este material a través de Internet

Como bien dice Josu, se refería a algoritmos, cosa que no tiene mucho que ver con un logaritmo, salvo en que una palabra es anagrama de la otra.

¿Qué es un logaritmo? Un logaritmo es la operación inversa a la potenciación (o exponenciación). Supongo que la potenciación si es algo que todo el mundo conoce, pero por si acaso lo explico brevemente. Una potencia es una multiplicación repetida (al igual que una multiplicación es una suma repetida). Si quiero expresar, por ejemplo, 2x2x2x2x2, puedo hacerlo como 25. El 2 es la base, el factor que se multiplica, y el 5 es el exponente, el número de veces que se repite la multiplicación. En este caso, el resultado sería 32 (25=32). Pues bien, el logaritmo es la operación inversa, es decir, el logaritmo de un número es el exponente al que habría que elevar la base para obtener dicho número. En nuestro ejemplo, el logaritmo en base 2 de 32 es 5, es decir, log2(32)=5. Fijaos que no he dicho logaritmo a secas, sino logaritmo en base 2. Lógicamente, si queremos calcular el exponente al que hay que elevar una base para obtener el dato inicial, necesitamos especificar dicha base. Así, no es lo mismo el logaritmo en base 2 que en base 4. Si calculamos ambos sobre el número 256, tenemos que el logaritmo en base 2 es 8, dado que 28=256, y el logaritmo en base 4 es 4, ya que 44=256.

La función logaritmo se representa como logn, siendo n la base. Existen dos excepciones a esta nomenclatura. Una es el logaritmo en base 10, también llamado logaritmo decimal, que se representa simplemente como log. La otra excepción es el logaritmo en base e, también llamado logaritmo natural, o logaritmo neperiano (por John Napier, inventor de los logaritmos, del que podéis conocer más en el blog Historias de la Ciencia, también muy recomendable), que se representa como ln. ¿Base e? Sí, el número e es un número de gran importancia en matemáticas, aunque para hablar de él necesitaría un envío entero (y algún error en algún sitio, como excusa).

¿Y qué es un algoritmo? Pues un algoritmo es un conjunto finito de pasos para la resolución de un problema. Veamos un sencillo ejemplo. A todos nos enseñaron en el colegio a realizar multiplicaciones de números de varias cifras ¿verdad? Para ello poníamos uno encima del otro con el símbolo X a la izquierda y una raya debajo. Entonces multiplicábamos el dígito de la derecha del número de debajo, por el número de arriba, y anotábamos el resultado. Y para ello, lo hacíamos de derecha a izquierda, dígito a dígito, recurriendo a las tablas de multiplicar del 1 al 9 que nos hicieron memorizar de pequeños, y añadiendo las decenas del exceso de 10 de cada multiplicación a la siguiente (es decir, eso de me llevo una). Luego repetíamos el proceso con el siguiente dígito (del número de debajo), desplazando el resultado una posición a la izquierda. Una vez terminadas todas las multiplicaciones, sumabamos los resultados obtenidos, y teníamos el resultado final. Pues bien, esa forma mecánica de proceder, es un algoritmo.

Así que un algoritmo y un logaritmo poco tienen que ver, salvo la similitud de las palabras, y que son cosas de mates (aunque hay quien define la palabra algortimo algoritmo de forma mucho más genérica, sin relación con las matemáticas).

jueves, julio 13, 2006

Érase una vez... el Espacio: Estrellas Cefeidas

El de hoy va a ser un envío diferente, ya que no voy a hablar de malaciencia, sino de buenaciencia. Como ya os comenté hace unas semanas, estoy volviendo a ver una serie mítica de mi infancia: Érasé una vez... el Espacio. A veces me maravilla comprobar detalles que demuestran documentación y estudio a la hora de elaborar los guiones. Fue esa serie la que me enseñó por primera vez que las estrellas mueren, y que nuestro Sol se convertirá en una gigante roja, engullendo los planetas interiores, dentro de miles de millones de años. Pero estoy divagando, así que centrémonos en lo que quería comentar.

Fotograma del espisodio que muestra al cargero Ursus malamente posado sobre un craterEn uno de los episodios (Los Náufragos del Espacio) un carguero espacial aterriza de forma forzosa en un planeta desconocido, tras evacuar a cientos (o miles, no lo sé) de personas de un planeta amenazado por la reciente explosión de una Nova. La pareja protagonista (Pedrito y Kyra) junto con su inseparable robot Metro (o Copito), se dedican a explorar los alrededores. Al anochecer, Metro les dice que duerman tranquilos, que el vigilará mientras observa las cefeidas. Más adelante, informa al resto de los náufragos que gracias al estudio de las cefeidas, ha podido determinar dónde se encuentran.

¿Qué es eso de las cefeidas? Una cefeida es una estrella cuya luminosidad varía de forma periódica y regular, oscilando entre un máximo y un mínimo determinados. Este nombre es debido a la estrella Delta Cefei, considerada como prototipo de este tipo de estrellas (aunque curiosamente no fue la primera en la que se descubrió este comportamiento, sino la segunda). Como he dicho, la variación es periódica y regular, esto es, su luminosisdad aumenta y disminuye de forma rítmica, alcanzando siempre el mismo máximo y el mismo mínimo. El mecanismo de estas variaciones parece ser la expansión y contracción de la estrella. Se cree que contraerse, la estrella se calienta y su luminosidad aumenta. Al alcanzar determinada temperatura, la fuerza de su presión interna supera a la de su gravedad, y la estrella comienza a expandirse, enfiándose en el proceso (y disminuyendo su luminosidad). Llega un momento en el que la estrella se ha enfriado demasiado, y la fuerza de su propia gravedad supera a la de su presión interna, por lo que vuelve a contraerse. Y así sucesivamente.

Pero lo más interesante de estas estrellas es que la magnitud absoluta del máximo de luminosidad, depende de su periodo, y está definida por la llamada Relación Periodo-Luminosidad de la siguente forma: Mv=-2,76·log(P)-1,4, donde Mv es la magnitud absoluta, y P el periodo en días. Como véis, la magnitud absoluta depende única y exclusivamente del periodo de pulsación. De esta forma, midiendo este periodo (y es algo tan simple como observar y apuntar las variaciones de luminosidad), podemos calcular su magnitud absoluta. ¿Y? Como ya comenté hace unos meses, la magnitud absoluta nos dice la luminosidad intrinseca de una estrella. Sin embargo, al observar una estrella, la vemos más o menos luminosa dependiendo no sólo de su magnitud absoluta, sino de su distancia con respecto a nosotros. Cuanto más lejos esté, menos luminosa parecerá. Esto es lo que se conoce como magnitud aparente, y es la luminosidad que podemos medir directamente. Existe otra fórmula que relaciona la magnitud absoluta, la magnitud aparente, y la distancia de la estrella, por lo que a partir de la magnitud absoluta y la magnitud relativa, podemos calcular la distancia. Esto quiere decir que únicamente observando una estrella cefeida, y midiendo su periodo de variación y su magnitud aparente en el máximo de luminosidad, podemos calculas a qué distancia se encuentra de nosotros.

Esta característica de las cefeidas, las hace sumamente interesantes en astronomía, ya que sirven como marcadores de distancia. Serían como los puntos kilométricos de las carreteras, a nivel astronómico. Si somos capaces de calcular la distancia entre una estrella y una cefeida conocida, conoceremos la distancia de aquélla con respecto a nosotros.

Primer plano de MetroImaginad ahora que somos capaces de viajar por el espacio. Una forma de calcular nuestra posición sería utilizando las cefeidas como faros. Cada cefeida tiene su propio periodo de oscilación, por lo que es fácil identificarlas midiendo este periodo. Así que no tenemos más que buscar algunas cefeidas (3 4 como mínimo), identificarlas a partir de su periodo y localizarlas en nuestros mapas, calcular nuestra distancia con respecto a cada una de ellas, y aplicar un poco de trinonometría. Pues bien, eso es lo que hace Metro en la serie, o al menos lo que se supone que debe hacer cuando nos dice que ha averiguado dónde están, gracias al estudio de las cefeidas. Lástima que no se explique algo el proceso, o al menos que se mencione la peculiaridad de las cefeidas y por qué pueden utilizarse para localizar la posición de uno.

Hay un pequeño detalle a tener en cuenta. Los periodos de las cefeidas están comprendidos entre unas horas y varios días (las hay de hasta 100 días), y Metro realiza las observaciones en una noche. O al menos eso parece. Hay que tener suerte para localizar al menos tres cefeidas con periodos de variación de unas pocas horas, para así poder medirlos en una sola noche. Pero es posible.

Nuevos enlaces para descargar la entrevista

Dado que el servidor de Geocities impone una limitación de bytes descargados, Francisco José Súñer Iglesias, administrador del Sitio de Ciencia Ficción, se ha ofrecido amablemente a alojar los ficheros en su servidor (gracias). Aquí los tenéis:

Además, también ha puesto tres M3U para reproducirlos directamente on-line

miércoles, julio 12, 2006

Estados de la materia

Portada de Fantastic Four Vol 1 #232Cambiando de tercio, hoy voy a tocar un género poco habitual en este blog: los cómics de superhéroes. Supongo que todo el mundo tendrá una idea de quiénes son los 4 Fantásticos, aunque sólo sea por la película que se estrenó el año pasado (y que no hace justicia al cómic). Allá por la década de los 80, John Byrne se hizo cargo del guion y el dibujo, y realizó lo que para muchos es una de las mejores etapas de la colección. En su primer número (232), el villano Diablo atacaba al grupo con unos seres artificiales y mágicos, que representaban los cuatro elementos clásicos griegos: aire, agua, fuego y tierra. Como Mister Fantástico es muy listo, se dio cuenta de que para derrotarlos, había que forzar un cambio de estado de la materia en ellos, y entonces desaparecían. Así, la Chica Invisible creó un campo de fuerza alrededor del ser de aire, y lo comprimió hasta licuárlo. Mister Fantástico utilizó unos cables de alta tensión sobre el ser de agua, y lo descompuso en oxígeno e hidrógeno mediante electrólisis. La Cosa arrancó una tubería de agua y dirigió el chorro al ser de tierra, que se deshizo. Quedaba el ser de fuego, y Mister Fantástico dijo con preocupación que los métodos utilizados con sus compañeros no iban a servir con el ser de fuego, ya que el fuego no es un estado de la materia, sino una transición entre ellos. Finalmente, la Antorcha Humana utilizó su llama Nova para consumir todo el oxígeno de alrededor, y el ser de fuego se extinguió.

Obviamente, desde el momento en el que aparece la magia en una historia, no se puede aplicar la ciencia. Pero sí se puede aplicar a las afirmaciones que hace Mister Fantástico, ya que se supone que es uno de los mayores científicos del mundo. Una de ellas es cuando dice que si uno de esos seres cambia su estado de la materia, desaparece. Bien, dado que hay magia de por medio, nos lo creemos. Pero salvo en el caso del ser de aire, ninguna de las otras acciones produce un cambio de estado realmente.

Lo primero que hay que tener claro es qué son los estados de agregación de la materia. En el colegio nos enseñaron que cualquier elemento o compuesto puede existir en 3 estados: sólido, líquido y gaseoso. Para pasar de un estado a otro, deben alcanzarse determinadas condiciones de presión y temperatura. Así, todos sabemos que el agua se congela a 0ºC y hierve a 100ºC (en ambos casos, a 1 atmósfera de presión). También nos insistieron en que, aunque los distintos estados tenían distintas propiedades físicas, la materia seguía siendo químicamente la misma. El ejemplo más utilizado es el agua (otra vez), que podemos encontrar en forma de hielo, agua líquida o vapor de agua. En cualquiera de los tres estados, sigue siendo químicamente agua, es decir, sigue estando formado por moléculas de H2O.

Si comprimimos un gas, estamos aumentando su presión, de forma que superando un determinado valor, se licúa. Así pues, el planteamineto en el caso del ser de aire es correcto. Sin embargo, no sucede lo mismo con el resto.

Si realizamos un proceso de electrólisis sobre el agua, lo que estamos haciendo es descomponer la molécula de agua en sus componentes: hidrógeno y oxígeno (en realidad, se descompone en iones OH- y H+, que posteriormente reaccionan con los electrodos para formar O2 y H2). Y aunque sean gases, no hemos hecho realmente un cambio de estado sobre el agua, ya que el resultado final, no es agua en estado gaseoso. Si Mister Fantástico estaba convencido de que debía provocar un cambio de estado, no habría intentado una electrólisis (otra cosa es que estuviera equivocado, y que el proceso funcionase por otro motivo).

Si mezclamos tierra con agua, tampoco estamos haciendo ningún cambio de estado. Estamos creando una disolución, o más bien, una suspensión. La tierra permanece en estado sólido, aunque dispersada en forma de diminutos granos, mezclados con el agua. Pese a obtener una materia más o menos líquida, no hay cambio de estado. Bueno, La Cosa no es precisamente un lumbreras, así que no tenía por qué saber eso. Pero después de derrotar al ser de tierra, Mister Fantástico seguía diciendo que había que provocar un cambio de estado.

Finalmente, al plantearse el problema de derrotar al ser de fuego, dice que el fuego no es un estado de la materia, sino una transición entre dos estados. Bueno, el fuego no es una transición entre dos estados de la materia. El fuego es el producto de una combustión, y ésta altera químicamente el combustible, ya que se trata de una reacción química de oxidación (combinación con oxígeno) que además genera calor. Un ejemplo muy utilizado es la del carbono, que al mezclarse con oxígeno se convierte en CO2. Nos encontramos ante el mismo caso que la electrólisis: la composición química de los materiales cambia. No estamos pues ante un cambio de estado.

Lo curioso es que, no sólo el fuego no es una transición de estados, sino que en cierta forma es un estado más de la materia. ¿Cómorr? Además de los tres estados que nos enseñaron en el colegio, existen otros dos. Uno es el condensado de Bose-Einstein (que ahora no viene al caso). Pero el que nos interesa es uno al que frecuentemente se le ha llamado el cuarto estado de la materia: el plasma. Al mencionar esta palabra, la mayoría de la gente piensa en televisiones planas, o bien en masas de gas a elevadísimas temperaturas, como las del Sol. Pero el plasma no es más que un gas (generalmente ionizado), cuyas moléculas están mucho más libres que en el estado gaseoso normal, provocando unos comportamientos distintos. Podríamos pensar en el plasma como un estado más allá del gaseoso. Las pantallas de plasma, se llaman así porque hay plasma en su interior. Y las estrellas están formadas por plasma. Pero hay muchos otros tipos de plasma, como los rayos de tormenta, el gas que hay en el interior de un tubo fluorescente, nuestra ionosfera... y sí, el fuego y las llamas.

Ya podéis descargar la entrevista

Pues sí, finalmente he editado el fichero WMA para quedarme exclusivamente con la entrevista, lo he pasado a varios formatos, y lo he subido a un servidor. Gracias a todos por las sugerencias. He incluido el fallo técnico del principio, que os comenté, ya que no deja de ser gracioso que pase precisamente al hablar de un blog sobre errores :-). Es algo más de 7 minutos en total.

He subido dos versiones, con distinta compresión:

Hice también una versión en Ogg Vorbis, para los amantes del software libre, pero el servidor de Geocities no me deja subirlo. Dice que el nombre del fichero no es válido (¿?). Bueno, supongo que todo el mundo podrá reproducir un mp3. Si alguien quiere la versión Ogg Vorbis por algún motivo, que me pase una dirección de correo y se lo mando encantado.

martes, julio 11, 2006

La cola de un cometa

Carátula de El Fin de los Días.Este domingo pusieron en la tele la película El Fin de los Días, en la que Arnold Schwarzenegger se las ve con el mismísimo Satán. Normalmente no tendría mucho sentido hablar de una película de este tipo en este blog, pero al principio hay una escena que merece la pena mencionar. La película comienza con un plano del cielo sobre el Vaticano, en el que vemos la luna llena y un cometa encima de ella, con su larga cola, formando una figura que en un libro antiguo se menciona como El Ojo de Dios. Efectivamente, la cola del cometa se curva sobre la luna como si fuera la ceja de un gran ojo blanco. La imagen es muy bonita, pero totalmente imposible.

¿Por qué? Veamos, un cometa es básicamente un cuerpo compuesto por materiales sólidos y gases congelados, en una órbita muy excéntrica alrededor del Sol. Tan excéntrica que algunos ni siquiera orbitan realmente, sino que siguen una trayectoria hiperbólica alrededor del Sol, y no volvemos a verles. A medida que se acerca al Sol, los distintos materiales congelados se funden y evaporan, siendo lanzados al exterior, y formando lo que se llama coma, que viene a ser una pequeña atmósfera. A medida que se acerca más, la presión de la radiación solar, y el viento solar, empujan la coma, deformándola y formando la cola tan característica de un cometa. ¿Puede la radiación solar empujar algo? Sí, y de hecho es así como funcionan las velas solares, como expliqué hace algún tiempo.

Fijaos que es el viento solar y la radiación solar lo que empuja la coma para formar la cola. Es decir, la fuerza se ejerce en la dirección del Sol al cometa, por lo que la cola estará orientada siempre en dirección contraria al Sol. Mucha gente piensa que la cola es una especie de estela, formada por material que se queda atrás, pero como véis, no es así. Como suele ocurrir, estamos acostumbrados a ver determinados fenómenos que son producidos por el rozamiento del aire, y nos olvidamos que en el vacío del espacio, no hay fricción (que es lo que hace que el humo de los trenes se quede atrás, por ejemplo).

Diagrama que muestra la órbita de un cometa y la orientación y tamaño de sus dos colas, en distintos puntos de aquélla.Estoy hablando de la cola, en singular, pero en realidad se forman dos colas. Una está formada por gases e iones, y es bastante recta. La otra está formada por polvo, y debido a que las partículas tienen más masa, no son empujadas con la misma aceleración que los gases, y por tanto esta segunda cola se curva un poco, debido a su propia inercia, y se situa entre la cola de gases (opuesta al Sol) y la trayectoria del cometa.

Bueno ¿y? No podemos saber dónde está el Sol, así que no sabemos si la orientación de la cola es correcta ¿no? Pues sí sabemos donde está el Sol, gracias a la luna llena. Cuando la luna está llena, estamos viendo su cara visible totalmente iluminada por el Sol. Está siendo iluminada de frente, por decirlo de alguna manera. Por tanto, el sol está detrás de nosotros. Y puesto que desde nuestra perspectiva visual, el cometa está justo encima, la cola debería estar detrás del núcleo, y apenas se podría ver. Es como si miramos un tren de frente: la cabeza del tren nos oculta el resto. Así que nunca podríamos ver una composición cometa-luna como la que aparece en la película.

Breve pero intenso

Los que hayáis podido oír ayer El Ombligo de La Luna, habréis comprobado que la entrevista comenzó bastante más tarde de lo que creía. Fue poco antes de las 2:00. Tal vez sería por la temática del blog, pero casualmente comenzó con un error técnico que hizo que durante un minuto o así no me escucharan en el estudio, aunque yo oía a través del teléfono el programa (y me dedicaba a repetir una y otra vez ¿Me óis? ¿Me oís ahora?).

Fue muy breve, y recapitulando un poco con tranquilidad, he de decir que se me quedaron cosas en el tintero. Pero fue una experiencia interesante (a pesar de estar algo nervioso, ya que nunca había hablado en un programa de radio). Tengo la entrevista (junto con casi una hora de programa) en un fichero WMA, obtenido a través de la propia web de RNE (que ofrece su programación en streaming), y en cuanto lo edite y, tal vez, lo pase a un formato más estándar, lo colgaré en algún sitio y os avisaré. Todavía no he dado con el sofware adecuado (hay muchos que convierten de WMA a otro formato, pero no lo reconocen bien el volcado que hice), así que si tenéis alguna sugerencia, os lo agradeceré.

sábado, julio 08, 2006

MalaCiencia en la radio

Sí, habéis leído bien el título. Este domingo por la noche (aunque debería decir lunes, pues es después de medianoche), me harán una breve entrevista telefónica en el programa El Ombligo de la Luna, para hablar del blog. Se emirá en RNE1, a partir de las 00:00 de la noche del domingo al lunes, aunque la entrevista empezará sobre la 1:15 ó 1:20.

Quién me lo iba a decir, cuando empecé con este blog.

viernes, julio 07, 2006

Detectando planetas

Carátula de El Ataque de los ClonesEncadenando ideas, el final del último envío me ha traído a la memoria una escena de la 5ª película (episodio II) de la saga de La Guerra de las Galaxias: El Ataque de los Clones. En ella, Obi Wan Kenobi busca el planeta Kamino, pero no aparece en los mapas de los Archivos Jedi. Nota sin embargo que donde le había dicho un viejo amigo que se encontraba dicho planeta, las estrellas de alrededor eran atraidas por la gravedad de algún objeto no presente en el mapa. Tras consultar con Yoda, se decide a viajar al punto donde debía estar ese objeto, y se encuentra con el escurridizo planeta Kamino.

Aunque la idea de base es correcta, hay algunos matices a tener en cuenta. Veamos, es cierto que se puede detectar la presencia de un planeta mediante el efecto que produce su campo gravitatorio. Fue así como se descubrió el planeta Neptuno primero, y Plutón después. Tras el descubrimiento de Urano (el primer planeta descubierto que no era conocido en la antiguedad), se vio que los movimientos observados de los planetas no coincidian exactamente con las predicciones de las leyes de Kepler y la Ley de Gravitación Universal de Newton. Así que, o bien estas leyes eran erróneas, o bien existía otro planeta por ahí. Se hicieron los cálculos oportunos y se predijo dónde debería estar ese desconocido planeta. Neptuno fue descubierto en 1846 a menos de un grado de dicha posición. Las observaciones del movimiento de Neptuno no correspondían tampoco con las previsiones, así que debía de haber otro planeta más. Así se descubrió Plutón en 1930, aunque curiosamente, luego resultó que las discrepancias observadas en la órbita de Neptuno eran debidas a un error, no a la presencia de Plutón (que es demasiado pequeño, tanto que hay debate en la comunidad científica sobre si debería considerarse un planeta o no).

Los planetas extrasolares (fuera de nuestro Sistema Solar) también pueden ser detectados por su campo gravitatorio. Aunque tenemos la idea de que en un sistema planetario, los planetas giran alrededor de la estrella, en realidad todos los objetos giran en torno al centro de gravedad del sistema. Lo que ocurre es que como una estrella es inmensamente más masiva que un planeta, el centro de gravedad se encuentra muy cerca de ella, o incluso en su interior (aunque no en el centro). Esto quiere decir que una estrella rodeada de planetas, parecerá oscilar en torno a su posición. Si observamos una estrella así, sabemos que tiene un sistema planetario, y podremos calcular la distribución de sus masas.

Sin embargo, un planeta sólo puede provocar pequeñas oscilaciones a estrellas dentro de su propio sistema planetario. No afectaría en absoluto a estrellas a unos pocos años luz de distancia. Vamos a hacernos una idea de las escalas: En nuestro Sistema Solar, el Sol contiene el 99,86% de la masa del sistema. Sólo el 0,14% restante correspondería al resto. Y de esa nimiedad, el más del 90% corresponden a las masas de Júpiter y Saturno juntos, que son dos gigantes gaseosos. Concretamente, la masa del Sol es unas 330.000 veces mayor que la de la Tierra. Si nuestro planeta fuera una mota de un gramo de masa, el Sol tendría 330 toneladas kilos. Más comparaciones: la distancia entre el Sol y la Tierra es de 150 millones de km, que es lo que se conoce como Unidad Astronómica (UA). Júpiter se encuentra a unas 5,2 UA, y Plutón a 39,5. La estrella más cercana a nuestro Sistema Solar es Próxima Centauri, a unos 4,2 años luz, esto es, unas 270.000 UA. La influencia que pueda tener nuestro planeta sobre Próxima Centauri es nula.

Otra cosa es que estrellas cercanas puedan atraerse entre sí. La fuerza de atracción entre estrellas cercanas es muy pequeña, pero tiene efectos apreciables. Por hacernos una idea, vamos a hacer algunos cálculos utilizando la famosa fórmula de la Ley de Gravitación Universal. La fuerza gravitatoria con la que se atraen Urano y Neptuno en su máximo acercamiento, es unas 11 veces mayor que la existente entre el Sol y Próxima Centauri. Pero si nos vamos a su máximo alejamiento, la fuerza de atracción entre el Sol y Próxima es unas 1,8 veces superior a la existente entre los dos planetas. Vámonos un poco más cerca. La fuerza de atracción entre Marte y la Tierra en su máximo acercamiento es más o menos el doble de la existente entre el Sol y Próxima. En su máximo alejamiento, es casi 11 veces menor.

Fotograma de la película que muestra a Obi Wan en medio de un mapa de estrellas, señalando un punto en élEn la película, se habla constantemente del planeta que falta. Obi Wan muestra a Yoda un mapa tridimensional, y señala un punto entre varias estrellas, más o menos a la misma distancia entre ellas. Si existiese la estrella de Kamino en el mapa, tendría que señalar una en concreto, diciendo que debería haber un planeta en torno a ella. Así que en realidad, lo que se ha borrado del mapa es todo el sistema planetario. En parte, la culpa de este error, la tiene la traducción. En la versión original, Obi Wan menciona que el sistema no aparece en los archivos, lo cual tiene mucho más sentido. Desgraciadamente, en el doblaje al castellano, se habla siempre de un planeta, salvo en una frase de Yoda: De la gravedad, la silueta permanece, pero la estrella y los planetas, desaparecido han.

Aún así, no sólo se trata de un error en el doblaje. Finalmente, Yoda le dice a Obi Wan que en el centro de la atracción gravitatoria encontrará el planeta. Éste se dirige hacia allí y al salir del hiper espacio, se topa con el planeta Kamino. Ahí está R4, en su lugar exacto. Nuestro planeta perdido. dice Obi Wan. En realidad, lo que debería haber en el centro de la atracción gravitatoria, es la estrella que orbita Kamino, no el planeta. Luego habría que buscarlo.Fotoglama de la película, que muestra en unmismo plano al planeta Kamino, el caza Jedi de Obi Wan, y el hiperpropulsor del que se ha desenganchado