Búsqueda

jueves, abril 27, 2006

OpenOffice.org

Ayer, el diario 20 Minutos, dedicó un artículo a la suite ofimática OpenOffice.org. Es muy de agradecer este tipo de artículos que muestran al usuario medio que existe todo un mundo más allá de Microsoft, sobre todo en el ámbito de aplicaciones ofimáticas, pero por desgracia hay algún que otro error, ambiguedad u omisión, que pueden dar al lector que no conozca ese otro mundo, una idea equivocada del mismo.

En primer lugar, un error que realmente no tiene mucha importancia, pero es curioso por el transfondo que tiene. El nombre de la suite no es Open Office, como aparece en muchos sitios, sino OpenOffice.org. ¿Con el .org, como si fuera el nombre de una web? Pues sí. Resulta que el nombre Open Office es una marca registrada (aunque no he sido capaz de encontrar a quién pertenece), así que para evitar problemas legales, el nombre oficial del programa es OpenOffice.org. Es curioso que un nombre como Open Office, que evoca el concepto de software libre (del que hablaré ahora), sea una marca registrada.

En segundo lugar, se hace especial énfasis en que OpenOffice.org es gratuito, e incluso dice (...)Abanderando los programas gratuitos y libres(...) (las negritas están en el original). Sí, OpenOffice.org es gratuito, pero eso no es lo más importante para muchos. OpenOffice.org es software libre. ¿Y eso qué es? Bueno, hay muchos matices, pero a grandes rasgos, un software es libre cuando puede ser utilizado, copiado, estudiado y modificado por cualquiera. Es decir, el usuario es libre de hacer con él lo que le venga en gana. Sin embargo, cuando se dice que un software es gratuito, sólo quiere decir que no se cobra por él. Pueden existir (y existen) programas gratuitos, en los que no se tenga libertad para modificarlos. Esta confusión es bastante habitual, y proviene del inglés, donde la palabra free significa tanto gratis como libre.

Se menciona también que OpenOffice.org puede guardar los documentos en los formatos de Microsoft Office, sin hacer referencia a otros formatos. Y sí, la suite puede guardar los documentos en esos formatos, pero lo más importante es que también los guarda en formato OpenDocument (y por defecto). ¿Y eso qué es? Pues es un estándar definido por la organización OASIS, cuyas especificaciones son públicas. Es decir, cualquiera puede hacer una aplicación que entienda dicho formato. Por el contrario, los formatos de Microsoft Office son privados, es decir, no existe ningún sitio donde uno pueda consultar cómo leer o escribir en dichos formatos. ¿Y eso es importante? Pues sí, porque de esa manera se está facilitando la compatibilidad entre distintos programas similares. Si el formato en el que se guardan los documentos es estándar y abierto, aparecerán aplicaciones distintas que lo entiendan. Así, uno podría utilizar el programa que quisiera para crear sus documentos, sabiendo que el resto de personas los podrán leer sin necesidad de tener que usar exactamente el mismo programa.

Por último, no se hace referencia ninguna al hecho de que existen versiones para distintos sistemas operativos, y no sólo para Windows. Esto es algo también bastante destacable, ya que facilita el intercambio de documentos entre personas que empleen sistemas operativos diferentes (no, no todo es Windows).

No puedo terminar sin recomendaros que lo probéis. En la web oficial en castellano podréis hacerlo. Eso sí, necesitaráis una buena línea de ADSL, ya que el instalador ocupa como unos 75 MB (y a eso hay que sumarle el paquete de idioma en castellano, que son 15 MB más). Pero creo que merece la pena.

martes, abril 25, 2006

La NASA simula la fusión de agujeros negros

Hace unos días se publicó una noticia sobre la simulación de la fusión de dos agujeros negros, realizada por la NASA. Como siempre, leyendo las versiones de 20 Minutos, El Mundo, Terra y demás medios, compruebo que el texto es idéntico, incluyendo los mismos errores, por lo que claramente los redactores se limitaron a copiar el texto de la agencia EFE, sin más. Así vemos cómo el fondo de la noticia se tergiversa:

Hasta ahora, las ecuaciones sobre la Teoría General de la Relatividad de Einstein eran tan complejas, que los ordenadores se bloqueaban.

El problema se resolvió con la supercomputadora del Centro Ames de Investigaciones de la NASA, en el estado de California (EEUU), indicó el comunicado de la NASA.

Leyendo los párrafos anteriores, uno pensaría lógicamente que gracias a la supercomputadora esa, se ha podido realizar la simulación. Pero leyendo la nota de prensa original de la NASA (algo casi obligatorio en noticias de ámbito científico), vemos que la realidad es otra. El éxito de la simulación se debió al método empleado para traducir las ecuaciones en operaciones que un ordenador pueda entender, no el el uso de esa supercomputadora concreta en particular.

Y es que uno no puede sin más introducir ecuaciones en un programa. El cine y la televisión nos han transmitido una idea de lo que es un ordenador, totalmente errónea. El ordenador no es una aparato mágico o inteligente con el que nos comuniquemos utilizando lenguaje natural. Es sólo una máquina capaz de realizar operaciones matemáticas (incluyendo álgebra de Boole) y seguir distintos caminos de ejecución en funcion de los resultados de dichas operaciones. Todas las maravillas que vemos que puede hacer, como navegar por Internet, ayudarnos a redactar un texto, mostrarnos un vídeo, y un largo etc, son debidas al software, es decir a los programas que se ejecutan.

Esos programas pueden estár mejor o peor hechos, tener más o menos errores, ser más o menos eficientes, y por tanto, tener una gran importancia en el resultado final. El encontrar la mejor forma de traducir los conceptos más o menos abstractos que uno quiere utilzar, en instrucciones que un ordenador entienda, es la base de toda la industria del software. Puede que dos programas distintos necesiten distintas capacidades de memoria y proceso, para realizar una misma tarea.

Así que el éxito de la simulación se debe realmente a la forma en la que se ha programado. Sin tener esto claro, el párrafo final de la noticia no tendría ningún sentido:

Esta combinación sin precedente de estabilidad y reproducción, confirmó a los científicos que las simulaciones se ajustaban a las ecuaciones de Einstein, señaló la NASA.

Cualquier persona puede pensar vamos a ver, si la simulación se efectuó utilizando las ecuaciones de Einstein, ¿cómo demonios no se van a ajustar a ellas?. Parece un poco absurdo resaltar eso ¿no? Pero es importante porque como ya he dicho, las ecuaciones no se utilizan directamente. El que los resultados se ajusten a ellas, nos indica que esa traducción al mundo binario se hizo correctamente.

La noticia tiene otro error destacable, y aparece en el siguiente párrafo:

Esas fuerzas gravitacionales son alteraciones del tiempo y el espacio, un concepto de cuarta dimensión que Einstein llamaba espacio-tiempo.

Veamos, todos sabemos que el espacio tiene tres dimensiones ¿no? Alto, ancho y largo, por decirlo de forma simple. Si nos ponemos un poco más científicos (no demasiado, es una de esas cosas que se enseñan en el cole), recordaremos aquellos problemas de física con vectores, y sistemas de referencia que utilizaban tres ejes de cooredanas: X, Y, y Z.

Si intentamos comprender un poco la famosa Relatividad Especial de Einstein, descubriremos que el tiempo y el espacio medido depende de la velocidad del observador y el objeto observado. A todo el mundo le suena algo eso de que a velocidades cercanas a la de la luz, el tiempo transcurre más despacio. A este efecto se le suele llamar dilatación temporal. Pero es que también ocurre algo parecido con el espacio: la contracción de Lorentz. Resulta que la longitud de un objeto (en la misma dirección que el movimiento) disminuye con la velocidad. Y la relación entre la magnitud en reposo y en movimiento, en ambos casos, es la misma: el factor de Lorentz.

Lo mismo sucede con la Relatividad General. Es más o menos conocido el hecho de que el espacio se curva en presencia de cuerpos con masa, y que este efecto es aprecieble con objetos muy masivos, como estrellas, que curvan la trayectoria de la luz. Pero es que también el tiempo se ve afectado, ralentizándose en presencia de un campo gravitatorio.

Todo esto lleva a pensar que el tiempo es una dimensión más (la cuarta), y que tiempo y espacio están intimamente ligados, debiendo utilizarse el término espacio-tiempo para referirnos a ellos en conjunto. Así, vivimos en un universo de cuatro dimensiones.

Una vez entendido esto, resulta evidente el error del párrafo. El espacio-tiempo no es un concepto de cuarta dimensión. Es un concepto de un universo de cuatro dimensiones, en el que el tiempo es la cuarta dimensión.

Esto me recuerda inevitablemente a las famosas ecografías 4D de las que tanto se ha hablado. Físicamente es un nombre correcto, ya que se trata animaciones tridimensionales (es decir, vemos las tres dimensiones espaciales y su variación con el tiempo, que es la cuarta), pero en mi opinión, peca de exagerado. Con este mismo criterio, teniendo en cuenta que una televisión muestra una imagen bidimensional en movimiento, podríamos decir que en realidad muestra imágenes tridimensionales (las dos dimensiones de la pantalla más el tiempo). Así que ya sabéis, si queréis quedaros con alguien, decidle en plan fardón que vuestra tele es 3D.

lunes, abril 24, 2006

Aviones y la rotación de la Tierra

Volvemos a la modalidad de consultorio. Oscar Hierro me ha enviado un correo electrónico con la siguiente pregunta:

Siempre pensé que un trayecto en avión entre dos puntos volando en el mismo sentido de rotación de la Tierra (para hacerlo más sencillo, en trayectoria paralela al Ecuador) tardaría más tiempo en realizarse que si ese mismo vuelo fuera en sentido inverso, es decir, volando en contra del movimiento rotatorio ("a contra corriente"). ¿Qué hay de cierto en ello? A simple vista tiene sentido, pero quizá estoy obviando alguna ley física que lo contradice.

Bueno, en principio, la rotación de la Tierra no debe afectar directamente al vuelo de un avión. Una avión básicamente se propulsa "empujando el aire hacia detrás". Bien mediante hélices, bien mediante reactores, el avión "tira" del aire, por decirlo de alguna manera, y lo "empuja" hacia atrás. Debido a la Tercera Ley de Newton (el famoso Principio de Acción y Reacción), el avión es empujado hacia delante. Es el mismo principio físico que se aplica en un barco o en un coche. El agua o el suelo es empujado hacia detrás por el vehículo, y éste resulta empujado hacia delante.

Así que la velocidad de un avión con respecto al suelo es la velocidad del avión con respecto al aire, más la velocidad del aire con respecto al suelo. Es decir, si suponemos que un avión mantiene la misma velocidad con respecto al aire (básicamente, mantener la misma fuerza de empuje, y suponer que las propiedades del aire circundante no varían), si no hay viento, la velocidad del avión con respecto al suelo será la misma en cualquier dirección. Pero si tenemos viento, el avión irá más deprisa si el viento es a favor, y más despacio si es en contra.

Por tanto, la pregunta que uno debe hacerse es A medida que la Tierra rota ¿se quéda atrás el aire?. Es evidente que en el suelo, y a bajas alturas no. Nuestra experiencia cotidiana nos demuestra que no existe un viento constante de Este a Oeste. ¿Y a la altura a la que viajan los aviones? Podríamos decir también que no. El movimiento de masas de aire en nuestra atmósfera está determinada por multitud de factores, como diferencias de presión, de temperatura... y sí, la rotación terrestre. No olvidemos que la rotación de nuestro planeta es la causa de la conocida fuerza de Coriolis, y que esta fuerza es la que hace que anticiclones y borrascas giren en el sentido en el que lo hacen (y por cierto, contrariamente a la creencia popular, no influye en bañeras y lavabos).

Así que la rotación de la Tierra influye indirectamente en el vuelo de los aviones. Pero he de hacer hincapié en lo de indirectamente. No es algo tan simple como una corriente de aire de Este a Oeste. De hecho, existe una corriente de aire casi en el límite con la estratosfera, llamada jet stream, con vientos de cientos de km/h, cuyo movimiento es precisamente en dirección opuesta sentido opuesto.

jueves, abril 20, 2006

Más sobre unidades de medida: los "por segundo"

Rodrigo Saez me envía un correo electrónico que me avisa sobre una noticia publicada en El Mundo, sobre el descubrimiento de la frecuencia de oscilación entre materia y antimateria de una partícula subatómica, el mesón Bs. ¿Lo qué? Bueno, olvidemos por un momento el apasionante y complejo mundo de la mecánica cuántica, para centrarnos en algo más asequible: las unidades de medida. El párrafo que nos interesa dice:

El experimento, encargado a un total de 600 físicos de todo el mundo y dirigido por el laboratorio Fermilab, en Chicago (Estados Unidos), ha demostrado que esta partícula oscila con una frecuencia de oscilación de 2,8 billones por segundo.

Si buscamos la misma noticia en otros medios, como Terra, vemos que siempre aparece lo de frecuencia de oscilación de 2,8 billones por segundo. ¿Y? Bueno, pues que si esto lo leyera ese profesor de física que todos tuvimos, que te ponía un cero por poner mal las unidades, se llevaría las manos a la cabeza. Y es que eso de por segundo así a secas, no significa nada.

La frecuencia se mide en hercios, que es el número de ciclos (o repeticiones, u oscilaciones, o eventos, o lo que sea) por segundo. Así que se podría decir que la frecuencia de oscilación es de 2,8 billones de hercios, o incluso que la frecuencia es de 2,8 billones de oscilaciones por segundo. Pero no de 2,8 billones por segundo. ¿Billones de qué, por segundo? No es sólo un error desde el punto de vista de la física, sino que también es un error de lenguaje. A una persona de letras debería llamarle la atención, y sentir que falta algo.

Como suele ocurrir en muchos casos, el error original debe de ser cosa de la agencia EFE, ya que en todos los sitios donde he leído la noticia, el texto es practicamente idéntico. Pero eso no disculpa a los redactores de cada medio, porque qué menos que leerte un poco lo que copias, para ver si tiene sentido. Hay otros errores a lo largo del texto que se repiten en todas las ediciones, y que son fácilmente comprobables leyendo la fuente original de la noticia, en la web del Fermilab (como lo de los 600 físicos de todo el mundo, o el decir que el CDF es un experimento). Pero eso se lo dejo a Malaprensa.

miércoles, abril 19, 2006

Google Bombing

Visitando el blog ALT1040, descubro un post en que se cita una entrevista a Teddy Bautista, publicada en el diario La Nueva España, y en la que hace responsable al famosísimo buscador Google, por el google bombing sufrido por la SGAE. ¿El qué? Veamos, si buscáis en Google la palabra ladrones, el primer resultado es la web de la SGAE. Según Teddy Bautista, Google es responsable de ello, lo tacha de fascismo, y lo acusa de escudarse en la impunidad que le permite la ley. La realidad es bien distinta, y unas afirmaciones de este tipo sólo pueden venir del desconocimiento de cómo funciona un buscador.

¿Y cómo funciona? Bueno, no creo que nadie piense que detrás de cada buscador existe un ejército de currantes que se recorre la web y va asignando los téminos de búsqueda a los resultados. Todo eso se hace de forma automatizada. Unos programas llamados web crawlers, recorren de forma metódica y sistemática toda la web, a partir de una lista inicial de direcciones. El funcionamiento es relativamente sencillo: cada página es almacenada según unos criterios, y se visita cada enlace presente, repitiendo el proceso.

¿Qué criterios? Eso depende de cada buscador. Normalmente se indexan todas las páginas encontradas en una enorme base de datos, asociando las direcciones a las palabras presentes en la página. Es razonable pensar que una palabra que se repita varias veces, tenga más peso en el índice que otra que se repita menos. Estos criterios se utilizan para decidir qué páginas aparecen antes que otras en la lista de resultados.

En el caso concreto de Google, se utilizan (entre otros) dos criterios importantes, basados en los enlaces. Por un lado, si una página es enlazada desde otra con un rango alto, esa página sube en el ranking. Esto hace que páginas relativamente desconocidas puedan empezar a aparecer en las primeras posiciones de los resultados, simplemente porque una página muy conocida ha puesto un enlace a ella.

Por otro lado, el motor de Google da importancia al texto del enlace en sí. Es decir, utiliza como palabras clave, no sólo las que aparezcan en la página, si no también las que aparezcan en los enlaces hacia esa página. A veces habréis comprobado que buscando determinadas palabras, aparecen páginas en las que esas palabras que buscáis no existen en la página. Eso es porque alguna otra página tiene una enlace a aquella, con esas palabras como texto. Y no sólo da importancia al texto en sí, sino a un atributo llamado title, que pueden tener los enlaces. Este atributo es el responsable de que en algunos enlaces aparezca un un breve texto flotando (normalmente con fondo amarillo) si dejamos el puntero quieto sobre aquél. Podéis comprobar esto en la barra lateral de este mismo blog, con los enlaces a otras páginas. Si detenéis en puntero sobre el enlace, aparecerá una descripción del sitio. Pues bien, este texto también se utiliza como criterio a la hora de indexar la página.

Este aspecto de Google es que se utiliza para realizar un google bombing. Si desde multitud de sitios se pone una enlace a una página determinada, con un texto determinado en el enlace y en el título, al buscar con Google ese texto, aparecerá la página destino entre las primeras posiciones, lo quiera o no. Y si además las webs participantes están muy arriba en el ranking, el efecto será mucho mayor. Y esto es lo que ha pasado con la palabra ladrones y la SGAE. Debido a los abusos de esta entidad, multitud de internautas han decidido poner en sus páginas, el siguiente enlace: ladrones. Como veréis, el enlace lleva a la página de la SGAE, y si detenéis el puntero sobre el mismo, aparece el texto Ladrones.

Así que el google bombing sufrido por la SGAE, no ha sido causado por Google, sino por una abrumadora cantidad de personas que están en desacuerdo con esta entidad. Posiblemente la plantilla de Google, cuya sede se encuentra en California, ni siquiera sepa qué es eso de la SGAE. Pretender culpar al portal por lo sucedido, es sencillamente absurdo. Sería como culpar a Correos si una persona recibiera cientos de cartas insultantes, o culpar a Telefónica si esa persona recibiera numerosas llamadas de gente que le pone a caldo.

lunes, abril 17, 2006

Iluminación

El viernes pasado, de madrugada, pusieron en la tele la película Pitch Black, de la que ya he hablado en un par de ocasiones. Verla otra vez, aunque fuera sólo parcialmente, me permitió fijarme en un detalle que me había pasado desapercibido anteriormente. Se trata de una escena en la que la chica protagonista se mete en la cueva donde habitan las terribles criaturas que van devorando a los personajes. La cueva está bajo tierra, y tiene una especie de chimeneas por las que entra la luz exterior. En varias tomas, se puede ver perfectamente como algunos haces de luz son paralelos, y otros no.

De todos es sabido que la luz se propaga en línea recta (bueno, o casi, que la Relatividad General tiene algo que decir al respecto). Eso quiere decir que cada fotón que sale desde la fuente de luz, viaja en línea recta hasta que interacciona con algún cuerpo que lo desvía. Esto es algo bastante intuitivo, y que podemos comprobar con una linterna o un foco, u observando cómo las sombras de cualquier objeto siempre van en la misma dirección, en un día soleado. A veces uno puede dudar de que esto sea así, cuando en el exterior, a plena luz del día, vemos luz por todas partes. Pero eso es debido por un lado a la dispersión de la luz que se produce en la atmósfera (y que provoca que el cielo sea azul), y por otro a la reflexión de la luz en todo tipo de objetos. Pero si os encerráis en una habitación oscura, en la que sólo penetre la luz por una pequeña rendija (por ejemplo, con una persiana casi cerrada), veremos que sólo se ilumina una parte de la habitación. Si hay polvo o humo, incluso veremos el haz de luz.

Si la fuente de luz es cercana, como podría ser un foco, objetos situados en distintas posiciones proyectarán sombra en direcciones distintas. Pero todas serán divergentes, y se puede trazar una línea recta entre la sombra, el objeto que la produce, y la fuente de luz. Cuando la fuente de luz está muy alejada de nosotros, como el sol, apenas podemos observar divergencia, y las sombras y haces nos parecen paralelos. Esto es algo que se enseña en el colegio, en las clases de dibujo, y que es fácilmente comprobable si en la habitación oscura mencionada anteriormente, tenemos varias rendijas por las que entre la luz: veremos que los haces son paralelos.

Bueno, en la película hay varios soles ¿no? Tal vez cuando aparecen haces no paralelos sea porque casualmente la inclinación de las chimeneas sólo permitan la entrada de luz de uno de ellos en unas, y del otro en las demás. Pero no es el caso, ya que durante la película vemos que hay dos "tipos" de día: uno con dos soles, y cuya iluminación es anaranjada, y otro con un sol, con una iluminación azulada. En la escena mencionada, el día era uno de los "azulados", por lo que sólo había un sol en el cielo.

Una secuencia muy parecida sucede en Abierto hasta el Amanecer, solo que mucho más exagerado. Al final de la película, los protas abren fuego contra las paredes, provocando muchos agujeros por los que entra la luz del sol. Y vemos multitud de haces en todas direcciones, cruzándose por doquier. Esto es imposible con una única fuente de iluminación, y en la secuencia queda claro que lo que entra es la luz del sol, que va matando a los vampiros.

Lo curioso es que éste es uno de esos casos en los que los que hacen la película, necesariamente saben que es un error, puesto que para rodar una secuencia así, hay que colocar varios focos distintos repartidos por el decorado, siendo imposible hacerlo con luz natural.

martes, abril 11, 2006

Ampliando imágenes (II)

Poco ha durado en la parrilla televisiva la serie Numb3rs. Como suelen hacer los canales de este país, Antena 3 ha quitado la serie sin previo aviso. Una pena, ya que tenía una peculiar mezcla de malaciencia y buenaciencia. Hoy voy a comentar una escena de uno de los últimos episodios que pude ver. Al inicio del mismo, el FBI estaba revisando la grabación de una cámara de seguridad para intentar identificar a unos atracadores. Explicaban que estaban probando un novedoso algoritmo elaborado por el prota matemático, para compensar la pérdida de resolución al ampliar una imagen. El joven genio explicaba que estaba basado en la interpolación, y que se generaban nuevos píxeles utilizando la información de píxeles circundantes.

Al igual que en el episodio del matemático que intentaba demostrar la Hipótesis de Riemann, hay aciertos y fallos. El principal acierto es que se nos muestra (¡por fin!) la problemática de ampliar una imagen, alejándose del tópico de series y películas policiacas en las que en unos instantes se amplía una imagen hasta poder ver al asesino en el reflejo de unas gafas o un ojo, con todo detalle. Ya comenté en un envío anterior, con algún ejemplo gráfico, la imposibilidad de obtener determinado grado de detalle de una imagen, así que simplemente lo resumiré en una frase: falta de resolución. Si amplias una fotografía clásica en papel, llega un momento en que comienzas a ver el grano de la película fotográfica. Si amplías una imagen digital, verás los píxeles que la forman. Se pueden utilizar diversas técnicas para intentar mejorar la imagen, pero el problema de fondo es la falta de información para ello, por lo que cualquier algoritmo a utilizar debe adivinar o inventar en cierta medida la información que falta. Eso es la interpolación.

Así que el comentario del matemático, sobre un algoritmo de interpolación es también acertado, salvo por un detalle: presenta el hecho de utilizar los píxeles circundantes como algo novedoso. Y esto no es así. Cualquier algoritmo de interpolación necesita datos para recrear los que le faltan. Y esos datos son precisamente los procedentes del entorno más o menos cercano. En el caso de una imagen digital, ese entorno es precisamente los píxeles de alrededor al que estamos tratando de restaurar. Todo algoritmo de interpolación lo hace. Dependiendo del mismo, podrá utilizar sólo los más cercanos, o regiones más amplias, o incluso todos los píxeles de la imagen, pero siempre tendrá que basarse en la información proporcionada por el resto de píxeles. Así que el hecho de interpolar a partir de los píxeles circundantes, dista mucho de ser un descubrimiento.

En honor a la completitud, y dado que no lo mencioné en el primer envío sobre este tema, comentaré otra técnica con la que se pueden obtener impresionantes resultados: la deconvolución. ¿Eso qué es? Bueno, en matemáticas existe algo llamado convolución, que básicamente viene a representar una mezcla o superposición de dos funciones. Pensemos en términos de funciones: la información que queremos grabar es una función, pero a ella se superpone ruido (lente desenfocada, movimiento, etc) que sería otra función. Así que lo que realmente queda grabado es la mezcla o convolución de ambas funciones. Pues bien, la deconvolución es precisamente la operación inversa de la convolución. Se trata de obtener una de las funciones originales a partir de la mezcla y la otra función. Parece bastante claro que para poder hacerlo, es necesario conocer la función no deseada, es decir el ruido. Esto es algo que no se puede saber con exactitud, pero se pueden hacer buenas aproximaciones dependiendo de si lo que queramos corregir. Así, aplicaremos distinas funciones si tenemos una imagen desenfocada o una movida, por ejemplo. Y los resultados pueden ser sorprendentes.

Pero no hay que perder de vista que el problema que resuelve la deconvolución es otro distinto: desenfoque, movimiento, distorsión producida por la atmósfera... Pero no puede hacer milagros con la falta de resolución. La pérdida de información es un proceso irreversible. En el mejor de los casos, se puede sintetizar una información parecida a la original, pero nunca podrá recuperarse por completo. Como dije en aquel envío, de donde no hay, no se puede sacar.

lunes, abril 10, 2006

Formación de planetas

Hace unos días apareció en algunos medios, una noticia relativa a un importante descubrimiento sobre cómo se forman los planetas. Sólo he mirado las versiones de El Mundo y de 20 Minutos, y en ambos casos el titular lleva a una idea totalmente equivocada de lo que en realidad se ha descubierto. El Mundo titula su noticia Científicos de EEUU anuncian que los planetas podrían nacer a partir de restos de estrellas muertas, y 20 Minutos la encabeza con Los planetas podrían haber nacido de estrellas muertas. Leyendo los titulares, uno piensa que se ha descubierto precisamente lo que dice el titular: que los planetas se forman a partir de estrellas muertas.

Pero eso no es una novedad. Es algo que ya se creía desde hace bastante tiempo. Hace poco, se explicó en CPI cómo se forman los planetas, así que solamente lo resumiré un poco. Según la teoría del Big Bang, en el principio de los tiempos el universo estaba formado en su mayoría por átomos de hidrógeno (y unos pocos de helio). Sin embargo, los planetas están formados de elementos más pesados: carbono, oxígeno, nitrógeno, silicio, hierro y un largo etc. ¿Cómo se formaron estos elementos? La única posibilidad es que se formaran dentro de estrellas. En efecto, las estrellas no son mas que inmensos reactores de fusión nuclear. Al principio, el hidrógeno se va transformando en helio. Posteriormente, el helio se va transformando en carbono, y así sucesivamente con elementos más pesados, hasta llegar a una reacción que en vez de generar energía, la consume. En ese momento la estrella muere, se contrae, y dependiendo de su masa inicial, explota o no. En caso de que explote, lanzará en todas direcciones parte de su material, que entre otras cosas contiene esos elementos pesados que aparecen en los planetas.

Así que, el que los planetas se forman a partir de restos de estrellas muertas, no es una novedad. El descubrimiento de algo que confirme dicha teoría, sí sería noticia, no la teoría en sí. Pero en realidad, el auténtico descubrimiento va más allá de confirmar esta teoría. La verdadera noticia, el verdadero descubrimiento, es que se ha observado un anillo de material en torno a un púlsar. ¿Qué quiere decir esto, y qué importancia tiene? Veamos, hasta hace poco, se creía que la formación de planetas sólo ocurría alrededor de estrellas muy jóvenes. Las estrellas se forman a partir de nubes de polvo que por atracción gravitatoria se van juntando y comprimiento. No todo el polvo termina formando parte de la estrella, y en ocasiones se forman anillos de este material sin utilizar, en torno a la recién creada estrella. Y a partir de este anillo se forman los planetas.

Ya expliqué hace tiempo lo que es un púlsar. Lo importante es que se trata de uno de los posibles finales de una estrella. Una estrella muerta, para entendernos. El descubrir un anillo circumestelar alrededor de un púlsar quiere decir que la teoría de formación de planetas no es aplicable sólo a estrellas recién nacidas, sino a estrellas moribundas. Y eso es la noticia.

Concretamente, lo que hace este descubrimiento es confirmar algo que se sospechaba desde que en 1992 se descubrieran planetas en torno a un púlsar (de hecho, fueron los primeros planetas extrasolares descubiertos). Dicho descubrimiento podía dar a entender que los planetas se formaban también en torno a estrellas muertas, ya que el paso previo a la formación de un púlsar es una supernova, que habría destruido cualquier planeta existente con anterioridad. Pero podía haber otras causas para la existencia de estos planetas, por lo que era necesario este último descubrimiento (el anillo) para confirmar que, efectivamente, los planetas pueden formarse también alrededor de estrellas muertas, y no sólo alrededor de estrellas recién nacidas.

viernes, abril 07, 2006

No pudo ser

Ayer se revelaron los nombres de los ganadores del concurso Premios 20 Blogs, del diario 20 Minutos. En la categoría de mejor blog de ciencia y tecnología, en la que competía MalaCiencia, resultó ganador Tecnología Obsoleta. Desde aquí, mi enhorabuena. Y no sólo eso, sino que lo recomiendo. Concretamente, uno de los últimos envíos hará brotar alguna lagrimilla a los nostálgicos (o al menos, una sonrisa).

miércoles, abril 05, 2006

Abrir la puerta del coche con el móvil

Éste es otro envío motivado por un correo electrónico, pero esta vez sí que es pura malaciencia. Y de la buena. Alberto Vilches me ha avisado sobre una de esas cadenas de correo, que está empezando a pulular por ahí (a mí aún no me ha llegado). El contenido es el siguiente:

TRUCO PARA LOS MODERNOS CON APERTURA AUTOMÁTICA DE PUERTAS DEL COCHE ESPECIAL MECÁNICOS

¿Sabias esto sobre la el sistema de apertura de tu coche?

¿Se te quedaron las llaves dentro del coche? Solo para coches con mando a distancia.

Si te has dejado las llaves dentro del coche y tienes llaves de repuesto en casa, llama a través de tu móvil a alguien en donde tengas las llaves o a casa. Mantén tu teléfono móvil a unos 30 cm de la puerta de tu vehículo y haz que alguien en casa presione el botón de abrir en el mando a distancia, mientras lo sostiene cerca del teléfono en casa.

Eso hará que se abran las puertas de tu vehículo. No importa lo lejos que te encuentres de casa, basta solo con que alguien en casa active el interruptor del mando de tu coche a través del móvil y podrás abrir la puerta o el maletero.

Yo la verdad todavía no lo he probado, pero dicen que funciona.

¡Uf! Bueno, bueno, bueno. Este texto es digno de pasar a los anales de MalaCiencia. Veamos, la señal que emite un mando a distancia es una onda electromagnética. Los hay que emiten en radiofrecuencia y los hay que emiten infrarrojos, pero en el fondo todo es lo mismo: ondas electromagnéticas, como la luz, las microondas, los rayos gamma, etc. Es decir, fotones viajando a la velocidad de la luz.

Los móviles tienen un micrófono al que hablamos, y un altavoz por el que escuchamos. Los micrófonos captan sonido, y los altavoces emiten sonido. Sólo sonido. ¿Y qué es el sonido? Pues son variaciones de presión del medio en el que se propaga. No hay partículas realmente viajando, sino ondas mecánicas. Y como todos sabemos (nos lo hayan enseñado en el cole o no), viaja bastante más despacio que la luz (supongo que todos hemos contado la diferencia de tiempo entre un rayo y su trueno para calcular la distancia a la que se encuentra una tormenta).

Es decir, una onda electromagnética y una ónda sonora son cosas completamente diferentes. No tienen nada que ver una con la otra. Un micrófono sólo puede captar vibraciones mecánicas, bien producidas en el aire (lo que nos interesa), bien por golpes o rozamientos del aparato (algo a evitar). Por otro lado, un altavoz sólo puede vibrar y hacer vibrar al aire de su alrededor (y por tanto, emitiendo sonido). En estas condiciones, ¿cómo demonios puede transmitirse una señal electromagnética externa al aparato?

Imaginad que en mitad de una llamada, apuntáis el móvil con una linterna. ¿Saldría luz por el altavoz del otro móvil? No ¿verdad?

martes, abril 04, 2006

¿Cuánto dura realmente un año?

Esto empieza a parecerse al consultorio de CPI, ya que hoy voy a resolver otra duda. Y esta es ineludible, pues trata de mi tema favorito, la astronomía, y además me la ha planteado un primo mío (pues sí, el tráfico de influencias está en todas partes). Víctor me plantea lo siguiente:

Te escribo también porque tengo una duda que a lo mejor tiene un hueco en malaciencia. Verás, por lo que sé, los años bisiestos existen porque cada cuatro años acumulamos casi 24 horas de error con respecto a los cuatro años reales cósmicos, digamos. Así que, según eso, pasados 2 años desde el último año bisiesto, deberíamos tener un error de 12 horas con la realidad de la posición de la Tierra con respecto al sol. Así que, en ese momento ¿por qué no es de día por la noche y de noche
por el día?

Bueno, la respuesta rápida puede sorprender a muchos. Sí, tenemos un desfase de casi unas 12 horas tras dos años. Y sí, en realidad, si es de día, hace dos años era de noche, y viceversa. ¿Cómo? Sí, es cierto. Lo que ocurre es que para medir el tiempo utilizamos precisamente fracciones de una rotación completa de nuestro planeta. ¿Una rotación completa? No, en realidad utilizamos fracciones del llamado día solar, que es un poquitín más largo que el día sidéreo. ¿El qué? Esto es algo que comenté en un envío anterior, pero para resumir, basta con pensar que durante todo un día, la Tierra se ha desplazado un poco a lo largo de su órbita, de forma que girando sólo 360º, el Sol estará más atrás que el día anterior. Eso sería el día sidéreo. Si permitimos que pase un poco más de tiempo hasta que la Tierra rote un poco más y el Sol vuelva a estar a la misma altura, habría transcurrido un día solar.

Diagrama explicativo del movimiento de la Tierra y el día sidéreo y solarEsto no es tan confuso como parece si miráis el dibujo de aquí al lado. El tiempo transcurrito entre la posición 1 y la posición 2, es un día sidéreo. El tiempo transcurrido entre la posición 1 y 3, es un día solar. Entre ambos hay casi 4 minutos de diferencia.

Pues bien, una hora es la 24ª parte de un día solar. Y un año no dura un número entero de días solares. Por tanto, exactamente hace dos años, no era la misma hora que ahora. Esta última frase parece un trabalenguas, así que será mejor ver un ejemplo.

Pero antes es fundamental hacerse la siguiente pregunta: ¿Cuánto dura un año? o mejor ¿qué es un año? Bueno, un año es el tiempo que tarda la Tierra en dar la vuelta alrededor del Sol ¿no? Sí, pero ¿cuándo consideramos que ha dado una vuelta completa? Fácil, cuando está exactamente en la misma posición que en la vuelta anterior ¿no? Para ello utilizamos las estrellas como referencia. Esto es lo que se llama año sideral o sidéreo, que dura 365,2564 días (solares).

En un mundo ideal, con esto nos bastaría. Pero en el mundo real tenemos otras cosas a considerar. Por un lado, la órbita terrestre es una elipse que va rotando poco a poco. Es decir, si estamos justo en el punto de nuestra órbita más alejado del Sol (el afelio), un año sidéreo después, no volveremos a estar en es mismo punto, sino un poco antes. El tiempo entre dos pasadas consecutivas por el afelio (o por el perihelio, que es el punto más cercano al Sol) es de 365,25964 días. Esto es lo que se conoce como año anomalístico, y como veis, es un poco más largo que el año sidéreo.

Pero en el fondo, lo que más nos interesa a la hora de construir un calendario son las estaciones. Antaño era fundamental conocer exactamente cuando empezaban y terminaban, ya que determinaban las fechas para sembrar y recolectar diferentes productos agrícolas. Y hoy en día sigue siéndolo, aunque sólo sea por inercia social. El verano debe comenzar el mismo día, año tras año, lo mismo que el invierno. Ya comenté en otro envío, cómo se producen las estaciones, pero lo resumiré aquí. El eje terrestre está inclinado con respecto a la perpendicular al plano de la órbita. En los solsticios, el eje terrestre está contenido en un plano perpendicular al plano de la órbita, es decir, la diferencia de duración entre el día y la noche es máxima. En los equinoccios, el eje terrestre está contenido en un plano tangente a la órbita, es decir, el día y la noche duran lo mismo.

Y como el universo no es perfecto, estas posiciones tampoco se repiten en los mismos puntos de nuestra órbita, tras un año sidéreo. Entre dos equinoccios de primavera consecutivos pasan 365,242199 días, y esto es lo que se llama año trópico. Es a esta definición de año a la que nuestros calendarios deben aproximarse lo más posible, para lo cual se creo el calendario gregoriano (que es una mejora del calendario juliano) en el que los años bisiestos son aquellos años divisibles por 4, excepto los divisibles por 100 pero no por 400 (o sea, 1900 no es bisiesto, pero 2000 sí). Esto nos da una duración media del año de 365,2425 días.

Y ahora, si habéis aguantado hasta este párrafo, vamos con el ejemplo clarificador. Tenemos muy reciente el inicio de la primavera, que por definición ocurre el equinoccio de primavera. Consultando la web del U. S. Naval Observatory, vemos que este año (2006) fue exactamente a las 18:26 del 20 de marzo. ¿Y hace dos años? Pues vemos que el equinoccio de primavera del 2004 (es decir, exactamente dos años trópicos atrás) sucedió a las 6:49 del 20 de marzo. Casi 12 horas de diferencia.

Así que, si estáis leyendo esto de noche, sabed que hace exactamente dos años trópicos, era de día.

lunes, abril 03, 2006

El radio de giro de los coches

El de hoy va a ser otro de esos envíos atípicos que hago de vez en cuando (y ya van...). Hace ya un par de semanas, recibí un correo electrónico de Javier Villanueva que me planteaba una duda muy curiosa:

Ya sé que esto no es un consultorio, y por tanto me puedes mandar a freir espárragos, pero te planteo una cuestión que no acabo de entender del todo y que me pica la curiosidad. ¿Por qué un coche con tracción trasera necesita menos metros de radio para hacer un giro que el mismo coche dotado de tracción delantera?. Lo he leido en alguna parte, no recuerdo exactamente donde, pero desconozco la explicación física del fenómeno.

Bueno, aunque esto no sea un consultorio, nunca rechazaré este tipo de preguntas curiosas, y desde luego, nunca mandaría a alguien con afán de saber, a freír nada :-).

Debo reconocer que no siento especial pasión por el mundo del motor, por lo que ignoraba ese detalle. Pero sí estaba seguro de que, desde un punto de vista físico, la tracción no debía influir en el radio de giro, siempre que los neumáticos no patinasen. Dos vehículos de idéntico tamaño y geometría (misma distancia entre ruedas, ejes, tamaño de ruedas), que orientasen sus ruedas delanteras de idéntica forma, deberían trazar una curva del mismo radio, independientemente de dónde se aplique la fuerza (siempre que no patine, insisto). Así que armado con el Google me puse a investigar, hasta que encontré la respuesta.

La razón por la que un coche con tracción trasera tiene más capacidad de giro que uno con tracción delantera, no se debe a causas físicas, sino a causas técnicas. Veamos, las ruedas responsables de la tracción deben contar con una serie de elementos de los que carecen las ruedas sin tracción, como puede ser el diferencial, que se encarga de repartir el par de giro entre las dos ruedas, pero permitiendo que giren a distinta velocidad, algo que es fundamental a la hora de tomar curvas, pues las ruedas interiores al giro recorren menos distancia que las exteriores. Además, en las ruedas delanteras se situa toda la mecánica relacionada con la dirección. Todos estos elementos ocupan espacio, así que parece lógico imaginar que un coche con tracción delantera tiene mas estorbos junto a las ruedas delanteras, que uno con tracción trasera.

Y ahí está el meollo de la cuestión: el espacio. Un coche con tracción trasera tiene más hueco para el ángulo de las ruedas delanteras, que lógicamente suele ser aprovechado, de forma que son diseñados con más capacidad de giro en ellas. Así que la explicación es en el fondo muy simple. Un coche con tracción trasera tiene menor radio de giro porque sus ruedas delanteras pueden formar un ángulo mayor. Si el ángulo fuera el mismo en ambos coches (y el resto de dimensiones), el radio de giro sería igual.