Búsqueda

Mostrando entradas con la etiqueta saber popular. Mostrar todas las entradas
Mostrando entradas con la etiqueta saber popular. Mostrar todas las entradas

sábado, julio 05, 2014

La velocidad de la luz

La semana pasada, un seguidor de Twitter llamó mi atención sobre una noticia en un periódico online, cuyo titular era «La NASA construye la IXS Enterprise». El artículo haría las delicias de Malaprensa por la manifiesta falsedad del titular (la NASA no está construyendo nada, es un diseño teórico), y desataría la ira de los trekkies (en el texto se da a entender que el motor warp en la ficción es creación de las películas de J. J. Abrams, ignorando el casi medio siglo de historia de la saga creada por Gene Roddenberry), pero a lo que a nosotros nos interesa es la mala ciencia. Y ésta aparece en la siguiente frase: «A grandes rasgos, la velocidad warp es mucho más rápida que la velocidad a la que viaja la luz, y equivale a 299.34 kilómetros por segundo.»

¡Ay, ay! ¿299,34 km/s? Supongo que no es necesario recordar que la velocidad de la luz en el vacío es de aproximadamente 300.000 km/s, es decir, un valor tres órdenes de magnitud mayor, y bastante familiar o fácil de contrastar. La cifra exacta es de 299.792.458 m/s, por lo que no alcanzo a entender de dónde ha salido ese 299,34. No parece que se haya tratado de una errata al confundir el punto con la coma decimal.

Lo que sigue no se si se puede calificar como mala ciencia, os implemente como mala explicación. La verdad es que el texto no deja nada claro de qué se está hablando. Intentaré aclararlo un poco.

La problemática de viajar más rápido que la luz es algo a lo que se le lleva dando vueltas desde hace tiempo. Existe la posibilidad teórica de «hacer trampa» al universo, deformando el espacio tiempo a nuestro alrededor, de forma que se comprima delante nuestro y se expanda detrás. Nuestro vehículo estaría dentro de una burbuja warp, en la cual no se supera la velocidad de la luz en ningún momento, pero al haber disminuido la distancia a recorrer, el viaje nos llevaría mucho menos tiempo. A esto se le llama métrica de Alcubierre (por su creador, Miguel Alcubierre), y de momento es un modelo matemático. No está clara su aplicación real, ya que necesitaría cosas «raras» de las que aún no hay evidencia empírica, como materia exótica, o masas negativas.

En este contexto, el ingeniero y físico Harold G. White ha mejorado este concepto, y ha llegado a diseñar y realizar un experimento real, para ver si es posible crear una burbuja warp, aunque a muy pequeña escala: el interferómetro de campo warp de White–Juday. De momento, los resultados han sido inconcluyentes.

sábado, febrero 02, 2013

Climatización, convección y un tren frío

El de hoy va a ser un post muy peculiar, ya que voy a comentar un caso de mala ciencia aplicada en el mundo real. Lo que podríamos llamar un caso de mala ingeniería (o tal vez, mal uso de un aparato). Uso con mucha frecuencia el transporte ferroviario, concretamente una línea MD de RENFE (servicio de Media Distancia, llamado coloquial e incorrectamente «regional»). Esta servicio lo realizan trenes de la Serie 449, bastante modernos, pero que presentan una peculiaridad incómoda.

Foto de un tren serie 449 de renfe

El interior del tren está climatizado, como cabría esperar, de forma que en verano circula aire frío (a veces demasiado, pero eso es otra historia), y en invierno aire caliente. En las fechas en las que estamos, y teniendo en cuenta que a las horas a las que cojo el tren, la temperatura ambiente puede ser de unos pocos grados, o incluso estar bajo cero, el correcto funcionamiento de la climatización del tren es fundamental. Puede suponer la diferencia entre un viaje agradable, o una tortura. La cuestión es, que siempre que viajo en ese tren, la salida de aire caliente se realiza por el techo. Aunque hay unas rejillas a ras del suelo, y a veces están tibias al tacto, nunca he notado que saliera por ahí aire caliente. Es decir, para calentar el interior del vagón, sale aire caliente por la parte superior del mismo.

¿Y cuál es el problema? Pues la Ley de Charles y el Principio de Arquímedes. Supongo que a todos nos han dicho alguna vez eso de «el aire caliente sube porque pesa menos». Eso es debido a una combinación de las dos leyes mencionadas.

Por un lado, la Ley de Charles nos dice que manteniendo la presión constante, la temperatura y el volumen de un gas ideal son directamente proporcionales. Esto es, si la temperatura aumenta o disminuye, el volumen también aumenta o disminuye. Puesto que la masa no se ve afectada, y recordando que la densidad es el cociente de la masa entre el volumen, resulta que al aumentar la temperatura de un gás, aumenta el volumen, y por tanto, disminuye la densidad. Es decir, el aire caliente es menos denso que el aire frío.

Aquí entra en acción la segunda parte de nuestra ecuación: el Principio de Arquímedes. Todos recordaremos eso de «un cuerpo sumergido en un fluido, recibe un empuje vertical y hacia arriba, igual al peso del volumen del fluido que desaloja». Esto mismo se puede aplicar aunque el cuerpo sea también un fluido. Puesto que el aire caliente es menos denso que el aire frío, para un mismo volumen, el peso del aire caliente es inferior al del frío. Por tanto, el aire frío empujará al aire caliente hacia arriba.

La ascensión del aire caliente es algo que podemos apreciar en multitud de ocasiones. El humo de un cigarrillo, por ejemplo, asciende porque lo hace el aire de alrededor, calentado por la combustión del tabaco. También asciende el aire caliente alrededor de una llama, y por eso nos quemaremos si ponemos la mano encima de una vela encendida, aunque podamos acercar mucho la mano si lo hacemos por un lado. Y es también lo que hace que los globos aerostáticos de aire caliente, puedan volar.

Foto de un tren serie 449 de renfe

Ahora volvamos a nuestro tren. Tenemos una temperatura ambiente muy fría, y queremos calentar el interior de un tren. Pero para ello, inyectamos aire caliente por la zona superior. ¿Qué ocurre? Pues que el aire caliente se queda cerca del techo, mientras que el aire más cercano al suelo sigue frío. El aire en reposo es un mal conductor del calor, por lo que en una distancia relativamente corta (la altura del vagón), podemos encontrar una diferencia de temperaturas considerable. Si te pones de pie, es posible tener la cara colorada del calor, y los pies casi congelados. Nunca he comprobado empíricamente la diferencia de temperatura entre el techo y el suelo (a ver si consigo un termómetro apropiado), pero usando la rigurosa metodología de «a ojo de buen cubero», me atrevería a decir que es de más de 10 ºC.

La forma más adecuada de calentar un recinto, es inyectando el calor cerca del suelo. El aire calentado ascenderá, y el frío descenderá, calentándose a su vez. Es lo que se conoce como convección. Justo al revés que en el tren.

Como he mencionado antes, los vagones tienen unas rejillas a ras del suelo, pero por ahí nunca he notado que saliera aire caliente, más bien lo contrario (a veces, sale aire frío). Así que no sé si el problema es un mal diseño del tren, o un mal uso del climatizador por parte del operador. En cualquier caso, es una molestia considerable para los sufridos viajeros, que además acarrea un coste energético desaprovechado.

jueves, diciembre 20, 2012

El supuesto fin del mundo

Como sabéis, se lleva hablando desde hace tiempo de que los mayas creían que mañana era el fin del mundo. Normalmente no hablo de estas tonterías, ya que no es un problema de mala ciencia, sino de simple sentido común. Pero cuando la cosa va más allá de chistes en la red, campañas publicitarias, y uno ve en las noticias que un multimillonario se ha fabricado un bunker para sobrevivir mañana, entonces empiezo a preocuparme y a perder la esperanza en el género humano.

Veamos. Vamos a pensar un poco. Resulta que unos dicen que hay una profecía maya según la cual el mundo se acaba mañana, 21 de diciembre de 2012. Bien, ¿y? ¿Cómo lo sabían los mayas? ¿Ciencia infusa? ¿Revelación de los dioses? ¿Por qué deberíamos creer con los ojos cerrados en esa profecía?

Pero si leemos un poco, resulta que no, que no existe tal profecía. Lo que pasa es que el calendario maya se termina hoy. Y claro, como no hay más días en su calendario, pues es que el mundo se termina. Eran tan listos que lo sabían, y no malgastaron tiempo en hacer un calendario para después. No importa que muchos otros calendarios (ćomo el gregoriano o el chino) sigan contando los días después de hoy.

¡Ah, no! Esperad, que eso tampoco es cierto. El calendario maya no se termina hoy. Lo que termina es el decimotercero baktún. ¿El qué? Veréis, al igual que en nuestro calendario gregoriano hay varios periodos cíclicos (el día, la semana, el mes, el año, el siglo), el calendario maya (que en realidad eran tres cuentas de tiempo diferentes) también los tiene. El más largo de ellos es el baktún, que consiste en 144.000 días, esto es, unos 394 años aproximadamente. El primer baktún comenzó allá por el 3.114 a.C. y actualmente nos encontramos en el 13º, que comenzó el 18 de septiembre de 1.618. Mañana comenzará el 14º baktún. Y ya. No habrá más consecuencias, igual que no pasa nada cada fin de año de nuestro calendario (salvo muchas juergas y borracheras), ni cada fin de siglo. De hecho, puesto que estamos en el 13º baktún, ya ha habido 12 fines de baktún antes, y no ha pasado nada. El calendario de la pared de mi cocina termina el 31 de diciembre de 2012, pero tengo planes igualmente para el día siguiente.

En fin, perdonadme por comentar sobre algo tan absurdo, pero lo del multimillonario pudo conmigo (espero que haya sido un bulo, error, o maniobra publicitaria).

jueves, mayo 31, 2012

No es Dogma, es Paradigma

Como sabréis, ya que lo he comentado en alguna ocasión, suelo escuchar el programa de divulgación científica Partiendo de Cero, de Onda Cero (a través de su podcast, ya que la emisión es a horas un tanto intempestivas). Durante un par de programas estuvieron hablando de la figura de Santiago Ramón y Cajal, premio Nobel de Medicina y descubridor de la naturaleza de las neuronas: Antes de él, se pensaba que el tejido nervioso era un único elemento, una especia de red continua que se extendía por el cuerpo. Ramón y Cajal afirmó sin embargo que dicho tejido estaba formado por células independientes, y que dentro de cada una, la información viajaba siempre en la misma dirección (concretamente, desde las dentritas a los axones).

En repetidas ocasiones, se hizo referencia a su descubrimiento como dogma. Así, se dijo que Ramón y Cajal estableció un nuevo dogma, que sigue vigente hoy en día. Tal vez alguno considere que soy demasiado purista, y que doy demasiada importancia a la semántica, pero usar el término «dogma» es un error. La ciencia no tiene dogmas, tiene paradigmas.

¿Qué es un dogma? Bueno, veamos qué dice el DRAE al respecto:

1. m. Proposición que se asienta por firme y cierta y como principio innegable de una ciencia.

2. m. Doctrina de Dios revelada por Jesucristo a los hombres y testificada por la Iglesia.

3. m. Fundamento o puntos capitales de todo sistema, ciencia, doctrina o religión.

La primera definición es sí misma una contradicción, a menos que le demos otro significado a la palabra «ciencia». La ciencia no tiene principios innegables. Ni siquiera los principios de la termodinámica lo son (aunque hasta el momento, ningún experimento ha podido contradecirlos). Por supuesto, si una teoría no ha podido ser refutada de forma experimental, explica los fenómenos que observamos, realiza predicciones exactas, y es coherente con el resto de teorías, parece lógico asumir que es cierta, y actuar como si lo fuera. Y si alguien afirma que no lo és, habría que pedirle una evidencia de ello.

La segunda definición alude directamente a los dogmas de fe del Cristianismo, por lo que es obvio que no aplica.

La tercera definición es la más laxa, y podría ser aplicable, si consideramos que un fundamento o un punto capital no es algo innegable e irrefutable. Sin embargo, creo que la mayoría de la gente no usa esta acepción. Cuando hablamos de dogmas, nos refermos a verdades incontestables. Y en ciencia no hay de eso.

Aunque al descubrimiento de Ramón y Cajal se conoce como «doctrina de la neurona», la palabra que necesitamos es «paradigma». En ciencia, un paradigma es un marco o conjunto de teorías, que se toman como ciertas, y sirven de base para desarrollar otras teorías. Así, la mecánica clásica newtoniana, por ejemplo, es un paradigma. El que se acepte un paradigma como algo cierto, no quiere decir que sea un dogma. En cualquier momento, nuevas evidencias empíricas o nuevos razonamientos pueden cuestionar nuestro paradigma, y podrían llegar a cambiarlo. Siguiendo con el ejemplo de la mecánica newtoniana, cuando Einstein desarrolló su teoría de la relatividad, se cambió de paradigma.

Lamentablemente, parece que la RAE va con retraso. En la edición actual del DRAE, encontramos tres acepciones, ninguna de las cuales encaja con lo que he mencionado. Hay que ir al avance de la 23ª edición para encontrar una nueva acepción:

2. m. Teoría cuyo núcleo central se acepta sin cuestionar y que suministra la base y modelo para resolver problemas y avanzar en el conocimiento; p. ej., en la ciencia, las leyes del movimiento y la gravitación de Newton y la teoría de la evolución de Darwin.

Y aún así, hay un matiz que no me acaba de convencer, ya que un paradigma sí que se puede cuestionar. Aunque sólo cuando hay evidencias en su contra, claro, no por el placer de ir contracorriente.

Tal vez alguno piense «eso es hilar demasiado fino» o «este tío se la coge con papel de fumar». Pero creo que un programa de divulgación científica nunca debería calificar una ley, teoría o paradigma científico, como dogma. La ciencia no es dogmática, por mucho que los amantes de las pseudociencias o los que tienen complejo de Galileo [1] lo repitan. Los que sois asiduos a este blog y acostumbráis a leer todos los comentarios, sabréis que más de uno se ha pasado por aquí y acusado a la ciencia de dogmática. Aunque habrá quien lo haga sólo por el placer de «trolear», creo que hay quien lo hace por desconocimiento. Para la mayoría de nosotros, el primer contacto serio con la ciencia se hace en el colegio. Y por lo general (al menos en este país), la enseñanza sí que es bastante dogmática. Te enseñan fórmulas y ecuaciones sin explicarte cómo se llegó a ellas. Así que al final uno termina pensando que la ciencia es un puñado de fórmulas y afirmaciones que alguién inventó porque sí. Y eso es un gran error. Por eso creo que usar la palabra «dogma» en este contexto, transmite una idea muy equivocada.

1. Con «complejo de Galileo» me refiero a la tendencia de algunos de compararse con este personaje, recurriendo a argumentos del estilo «Galileo también contradijo lo establecido, y tenía razón».

jueves, abril 15, 2010

Flotabilidad de los huevos pasados

Imagino que es de todos conocido el clásico método para saber si un huevo es fresco o está algo pasado: se introduce el huevo en un recipiente lleno de agua del grifo, si se hunde, es fresco, y si flota, no lo es. Si preguntáis o buscáis en la red el motivo de este fenómeno, la explicación es siempre la misma: durante el proceso de deterioro del huevo se forman gases en su interior, que lo hacen flotar.

Sin embargo, esta explicación es incompleta, y nunca me satisfizo por completo. ¿Por qué? Bueno, hace tiempo expliqué por qué un cuerpo inmerso en un líquido, flota o se hunde. Para no repetir todo aquí, lo resumiré: si el cuerpo en cuestión tiene más densidad que el líquido, se hunde, y si tiene menos, flota. En el caso concreto de un huevo, si cuando está fresco se hunde, y a medida que se deteriora comienza a flotar, eso quiere decir que la densidad del huevo disminuye. Y la densidad es igual a la masa dividida entre el volumen (d=m/v), por lo que, o bien el huevo disminuye su masa, o bien aumenta su volumen (o ambas cosas).

Y aquí está el problema. Si pensamos que la cáscara es impermeable y rígida, entonces no importa lo que ocurra dentro del huevo, ni el gas que se genere. Si la cáscara es hermética, no hay ningún tipo de intercambio de materia entre el interior y el exterior, por lo que la masa no puede variar. Y si la cáscara es rígida, su volumen permanecerá constante.

Sin embargo, es un hecho que un huevo fresco se hunde y uno podrido flota. Por tanto, al menos una de nuestras hipótesis sobre la cáscara es falsa. O bien la cáscara no es realmente hermética, y el gas se filtra al exterior, perdiendo así masa el huevo, o bien la cáscara no es tan rígida, y el huevo se hincha por la presión de los gases en su interior, aumentando su volumen (o ambas cosas a la vez). ¿Cuál es la explicación correcta?

Pues hasta hace poco, ignoraba la respuesta. Podría haber intentado hacer el seguimiento de un huevo, midiendo su masa y volumen cada día, pero no tengo en casa una báscula con la suficiente sensibilidad, y mi afán de conocimiento no llegaba tan lejos como para gastarme el dinero en una. Con el volumen tenía un problema similar: en principio, basta con llenar un vaso de agua hasta rebosar, colocarlo dentro de un recipiente, sumergir el huevo (con cuidado de no meter los dedos, o estaríamos midiendo el volumen del huevo más el de la parte sumergida de los mismos), y medir el volumen de agua derramada en un vaso medidor de esos que hay en toda cocina. Pero claro, esos vasos tienen una marca cada 5 cl o cosas así, por lo que tampoco tienen la precisión necesaria.

Pero un día, escuchando la sección «Disfruta de la Ciencia», del programa Partiendo de Cero (del que ya os he hablado en más de una ocasión), Cayetano Gutierrez explicó que la cáscara no es totalmente hermética, y que el gas que se forma en el proceso de descomposición del huevo, la atraviesa. Por tanto, la masa disminuye, la densidad disminuye, y el huevo flota.

Bien. Una cosa menos a la que darle vueltas a la cabeza.

miércoles, febrero 03, 2010

Un poco de radiactividad

Estos días es noticia las candidaturas de diferentes ayuntamientos a tener un cementerio nuclear, y las numerosas y enérgicas protestas de gente en contra. Escuchando y leyendo declaraciones, puedo comprobar que hay bastante desconocimiento en general sobre todo lo que rodea la radiactividad, y se asocia inmediatamente a algo muy peligroso y dañino, tanto para el hombre como para el medio ambiente. Y sí, la radiactividad puede ser muy dañina, incluso letal, pero no es una fuerza irresistible que atraviesa todo. Se puede aislar, y de hecho, se hace.

¿Que es la radiactividad? Hace tiempo expliqué un poco qué es y que qué produce la radiactividad, pero no está de más recordarlo. Existen isótopos cuyos núcleos atómicos no son estables, por tener «demasiada energía». La naturaleza tiende siempre a la configuración menos energética, por lo que estos isótopos desprenden energía en forma de radiación electromagnética o partículas subatómicas. Durante este proceso, el núcleo ve modificado su número de protones o neutrones (o ambos). Si como resultado, se modifica el número de neutrones, se convierte en otro isótopo del mismo elemento. Y si se modifica el número de protones, el elemento químico cambia (la transmutación de la materia anhelada por los antiguos alquimistas).

Existen tres tipos de radiación: la radiación alfa, que consiste en núcleos de helio (dos protones y dos neutrones «juntitos»), la radiación beta, que consiste en electrones o positrones, y la radiación gamma, que es radiación electromagnética (es decir, fotones). La radiación alfa es muy energética, pero fácilmente bloqueable. Bastan unas hojas de papel para impedir su paso (pensad que después de todo, aunque ligeros, se trata de núcleos atómicos enteros). La radiación beta es algo más penetrante, pero sólo un poco más. Una lámina de aluminio puede deneterla sin problemas. La radiación gamma ya es harina de otro costal. Es muy penetrante y se necesitan barreras bastante más gruesas, y de materiales muy concretos, como el plomo o el hormigón.

¿Por qué es dañina la radiactividad? Bueno, la radiactividad es dañina porque es ionizante, es decir, es capaz de ionizar átomos. ¿Y eso qué quiere decir? Pues que cuando la radiación atraviesa la materia, puede arrancar electrones de los átomos que la componen, alterando algunas propiedades. Si eso ocurre con átomos que forman parte de una estructura celular, ésta puede resultar dañada. Y dependiendo de dónde esté el daño y de su cantidad, será más o menos perjudicial para el ser vivo afectado.

He mencionado la cantidad, y es que la radiactividad no escapa a la cita atribuida a Paracelso: «todo es veneno, nada es veneno; la diferencia está en la dosis» (o algo así; si alguno conoce la cita exacta, le agradecería que me corrigiera). El cuerpo humano puede soportar pequeñas dosis de radiactividad, y de hecho, las soporta diariamente. Existe radiactividad en la naturaleza, que no tiene nada que ver con la actividad humana ¿Os acordáis del artículo en el que comenté la datación por carbono-14? Todos los seres vivos (incluidos nosotros) tienen una cantidad de carbono-14 formando parte de su estructura, y el carbono-14 es un isótopo radiactivo. Y no es el único que podemos encontrar en la naturaleza.

En otro orden de cosas, el hombre utiliza elementos radiactivos y radiaciones ionizantes, para otros fines además de la energía nuclear, como por ejemplo en el campo de la medicina. Los famosos rayos X que se utilizan para realizar radiografías, es radiación ionizante. Y precisamente por eso el paciente se queda solo en la sala, en el momento de la irradiación (una única dosis no es dañina, pero una exposición diaria es otra cosa). La radioterapia utilizada en tratamientos para el cáncer consiste precisamente en matar los tejidos afectados mediante radiación ionizante (pudiendo utilizarse material radiactivo, dependiendo del tipo de tratamiento). Y hay métodos de diagnóstico que consisten en inyectar directamente un isótopo radiactivo en el paciente, que luego es fácilmente detectable desde el exterior, proporcionando información de «por dónde va». Por supuesto, todos estos elementos son manipulados con las debidas precauciones, y las salas donde se utilizan están convenientemente apantalladas.

Antes he mencionado que los isótopos radiactivos lo son porque sus núcleos tienen demasiada energía, y deben liberarla. ¿Qué ocurre cuando ya han emitido esa energía que les sobra? Todos los isótopos radiactivos, al emitir radiación se convierten en otros (recordad que el número de protones y neutrones del núcleo se ve alterado), que pueden ser radiactivos o no. Pero si es radiactivo tendrá que ir decayendo a su vez en otro. Finalmente, todo material radiactivo termina decayendo (directa o indirectamente) a isótopos estables no radiactivos. Existe un concepto llamado periodo de semidesintegración, llamado también semivida, que es intrínseco a cada isótopo radiactivo. Nos dice cuánto tiempo pasa hasta que la mitad del material ha decaído en otro isótopo diferente. Cuanto mayor sea el periodo de semidesintegración, más duradero será el material radiactivo, y cuanto menor sea, antes desaparecerá. Fijaos que todos los materiales radiactivos terminan desintegrándose con el tiempo, precisamente porque sus núcleos son inestables. No ocurre así con los elementos no radiactivos, que pueden durar indefinidamente.

Bueno, una vez hemos asimilado todo esto, vayamos el punto de la polémica: los residuos nucleares y su almacenamiento. En una central nuclear se fisionan elementos radiactivos (por lo general, uranio) para obtener energía. Para ello, el combustible nuclear se dispone en una serie de varillas que se intoducen en el reactor. Durante el proceso, se producen entre otras cosas, otros elementos radiactivos. Una varilla «gastada» contiene dichos elementos, además de parte del combustible nuclear original, que no se ha fisionado. Por otro lado, hay partes del reactor, herramientas y otros utensilios, que tras tanta exposición a la radiación, terminan por volverse algo radiactivos (no porque la radiactividad sea algo «contagioso», sino porque algunos núcleos atómicos, al absorber la radiación, sufren el proceso inverso, adquieren energía y se vuelven inestables). Y no sólo una central nuclear produce residuos radiactivos, sino que un hospital también puede generarlos, como hemos visto.

Los residuos radiactivos se dividen en tres grupos, según su emisión de radiación y su periodo de semidesintegración: de baja actividad, de media actividad y de alta actividad, siendo estos últimos los más peligrosos. Todos estos residuos deben ubicarse en un lugar seguro hasta que decaigan en elementos no radiactivos, y para eso están los vulgarmente llamados cementerios nucleares.

Las expresiones «desechos nucleares» y «cementerio nuclear» evocan algún tipo de bidón metálico lleno de un líquido brillante, que se vierte de cualquier forma en algún lugar condenado. Puede que hace unas décadas esta visión no estuviera demasiado alejada de la realidad, pero a día de hoy, el tratamiento de estos residuos es bien distinto. Precisamente, la misión de estos «cementerios» es almacenar estos residuos de forma que no causen daño al hombre y al medio ambiente en general. Hay dos tipos de estos almacenes: superficiales, para residuos de baja y media actividad, y profundos, para los de alta actividad. Estos almacenes no son simples naves industriales donde se amontonan los resiuduos, sino que están formados por paredes muy gruesas de hormigon, que impiden la salida de la radiación.

Los residuos en sí, también se recubren de hormigón para minimizar la radiación que alcanza el exterior (no olvidéis que se transportan de alguna manera hasta que llegan a su almacenamiento). Y así recubiertos, se introducen en el almacém, que proporciona aún más aislamiento. Si se toman todas las medidas necesarias, la radiactividad en el exterior del cementerio nuclear no debería ser superior a la radiactividad natural.

Con esto no quiero pintarlo todo de rosa. Los materiales radiactivos pueden llegar a ser muy peligrosos, pero precisamente por eso, se toman enormes medidas de seguridad en su uso. Y si se cumplen, no debería haber ningún problema.

miércoles, enero 13, 2010

El solsticio de invierno

He tenido abandonado el blog durante estas fiestas (que espero lo hayáis pasado bien), pero tras esta pausa navideña volvemos a la carga. Y con un tema que tiene que ver mucho con ello: el solsticio de invierno. El lunes 21 de diciembre (ya del año pasado, claro) se publicó en el diario gratuito ADN una carta de un lector, que podéis ver escaneada aquí mismo. Reproduzco la primera frase:

El 21 de diciembre es uno de los días más especiales, no sólo porque es la noche más larga del año, sino también porque se celebra el solsticio de invierno, momento en que la tierra se encuentra más distante del Sol.

La noche más larga. El 21 de diciembre es uno de los días más especiales, no sólo porque es la noche más larga del año, sino también porque se celebra el solsticio de invierno, momento en que la tierra se encuentra más distante del Sol. Entre las 12 y unos minutos, se reciben bendiciones especiales; entre ellas el denominado espíritu de la Navidad. Cuentan que éste tiene la misión de traer cada fin de año abundancia, paz, amor, unión, fraternidad, armonía, opulencia, prosperidad y bienestar a toda la humanidad. Feliz Navidad.

En una sola frase se cometen dos errores, uno garrafal y otro más sutil. No sé si es necesario comentar el gordo, ya que creo que todos sabéis que los solsticios y los equinoccios, y por tanto las estaciones, nada tienen que ver con la distancia de la Tierra al Sol, sino con la inclinación del eje terrestre. Es algo que ya expliqué en más de una ocasión. De hecho, mientras nosotros estamos ahora en invierno, en el hemisferio sur es verano.

El otro error es más sutil, pero imagino que consecuencia del anterior. Al decir que el día 21 no sólo es la noche más larga, sino también el solsticio, se da a entender que ambas cosas (la noche más larga y el solsticio) son sucesos independientes, que coinciden el mismo día por algún tipo de casualidad. Y no es así. El que la noche sea la más larga del año (y el día el más corto) es una consecuencia del solsticio. Ambos sucesos son inseparables. Pero claro, si uno cree que el solsticio es el día en que la Tierra está más lejos del Sol (en realidad, eso es el afelio), el que se produzca el mismo día que la noche más larga parece una coincidencia.

Insisto en que no se trata de un artículo redactado por algún periodista del diario, sino de una carta de un lector. Sin embargo, creo que debería haberse incluido una nota señalando el error (a modo de respuesta del periódico), o directamente escoger alguna otra carta de mensaje navideño similar.

martes, noviembre 03, 2009

Gamas de colores

Si recordáis, hace varios meses escribí sobre los colores primarios, y comenté los distintos modelos en los que se parte de tres colores para conseguir todos los demás. Ahí daba a entender que el modelo RGB (donde los primarios son rojo, verde y azul) era el más correcto, el más «natural», puesto que los conos de nuestros ojos nuestros ojos (esos receptores sensibles al color, ¿recordáis?) tienen picos de sensibilidad en el rojo, verde y azul.

Pero resulta que no es exactamente así (gracias Guille, por hacérmelo notar). Los picos de sensibilidad están en las longitudes de onda en torno a los 560 nanómetros para los conos «rojos», 530 nm para los «verdes», y 430 nm para los «azules». Y si miramos a qué color corresponde cada longitud de onda, veremos que la longitud de onda de 560 nm corresponde a un verde amarillento, la de 530 nm a un verde «más verde» y la de 430 nm a un azul violáceo. Por tanto el modelo RGB no se eligió por ser el más «cercano» a la realidad fisiológica de nuestros ojos, sino por otros motivos.

¿Y por qué no usar los colores a los que los conos son sensibles? Pues porque para crear una gama cromática lo más amplia posible, hay que utilizar como primarios, colores bastante «separados» entre sí. Fijáos que los picos de sensibilidad de los conos verdes y rojos (ya sabemos que no son esos los colores, pero vamos a llamarlos así) están muy próximos entre sí. Si usáramos como primario un verde amarillento en vez de un rojo ¿cómo obtendríamos el rojo? Recordad que con el modelo RGB no se puede reproducir con fidelidad el violeta, precisamente porque está «más allá» que el azul (nuestro primario de más baja longitud de onda).

Vamos a verlo de forma más gráfica con un diagrama. Junto a estas líneas, veréis un diagrama de cromacidad, sacado de Wikimedia Commons. ¿El qué? Para explicarlo de forma sencilla, y sin meternos en detalles, es un diagrama de dos dimensiones que nos muestra la variedad cromática que nuestros ojos pueden percibir. ¿Qué representa cada eje de coordenadas? Pues no se trata de ninguna magnitud física, sino de unas funciones matemáticas aplicadas a las respuestas de nuestros conos. La idea es que represente todos los colores de la misma luminosidad. Para entederlo un poco mejor, distintos tonos de grises tienen la misma cromacidad, pero diferente luminosidad (es algo parecido a la luminancia y crominancia que mencioné una vez, relativo a las señales de video).

Bueno, vamos a lo que vamos. Como veis, el diagrama en cuestión tiene una forma que recuerda a la punta de un zapato. El contorno curvilineo corresponde a los colores espectrales, es decir, los colores formados por una única longitud de onda. Los colores del arco iris vamos. Al ver el gráfico, hay que entender que no es una representación fidedigna de la realidad, entre otras cosas, porque ni vuestros monitores, ni el formato de la imagen, pueden reproducir correctamente toda la gama de colores.

Si elegimos tres colores como primarios, y los ubicamos en el diagrama, tendremos tres puntos. Si unimos esos tres puntos, habremos dibujado un triángulo. Pues bien, con esos primarios que hemos elegido, sólo podemos reproducir los colores que estén dentro del triángulo. Una vez entendido esto es fácil ver que lo que interesa es elegir como primarios, tres colores muy separados entre sí, ya que cuanto más separados estén, más área abarcará el triángulo. También es fácil ver que elijamos los colores que elijamos, nunca podremos reproducir toda la gama de colores percibible a partir de tres primarios, porque la gama completa es una figura que no corresponde a un triángulo. Siempre quedará alguna zona que nuestro triángulo no cubrirá.

Supongo que ahora os haréis dos preguntas, a las que no tengo respuesta: ¿Por qué usar el azul como primario, en vez de el violeta (que está más cerca del borde del diagrama)? ¿Por qué limitarnos a tres primarios? Sólo puedo suponer que por una mezcla de razones técnicas, tecnológicas y económicas.

jueves, enero 29, 2009

Colores primarios

Imagino que la mayoría de vosotros conocéis el concepto de color primario y color secundario. En el colegio nos enseñaron que un color secundario se puede obtener a partir de la mezcla de dos primarios. Sin embargo, en muchos casos esa enseñanza se impartió de forma incompleta. Si os preguntara cuáles son los tres colores primarios, estoy seguro de que muchos de vosotros responderíais sin dudar, que son el rojo, el amarillo y el azul. También estoy seguro de que algunos otros responderíais que son el rojo, el verde y el azul. Y seguro que habrá quien conteste que «depende». Los de este último grupo ya imaginarán de qué voy a hablar.

Cuando yo iba al colegio (no sé cómo estará la cosa ahora), el único contacto que teníamos con los colores era en la asignatura de dibujo. Ahí nos explicaban que existían tres colores primarios: el rojo, el amarillo y el azul. El resto de colores se podía obtener mezclando esos tres. Si mezclábamos azul y amarillo, por ejemplo, obteníamos verde; y esto es algo que cualquiera puede comprobar con lápices de colores, ceras o pintura. Sin embargo, cualquiera que haya utilizado algún software de dibujo o retoque fotográfico, y haya accedido a la herramienta para seleccionar colores, habrá comprobado que todos los colores se puede obtener mezclando rojo, verde y azul. Es decir, son los colores primarios. El amarillo, sin embargo, sería un color secundario, ya que se obtiene combinando el rojo y el verde. Y lo mismo dirá quien tenga relación con el mundo audiovisual.

¿Qué ocurre aquí? ¿Cuáles son realmente los colores primarios? Para responder a esta pregunta, hay que recordar qué es el color, y cómo lo percibimos. Como sabéis, la luz visible corresponde a una parte del espectro electromagnético. Ya expliqué en alguna ocasión que cada color corresponde a un intervalo de frecuencias muy concreto. De menor a mayor frecuencia, encontramos el rojo, naranja, amarillo, verde, azul y violeta: los colores del arco iris (sí, he omitido el añil; tal vez algún día hable de eso). Nuestros ojos son unos sensores de luz, que reaccionan dependiendo de la intensidad y la frecuencia de la misma, convirtiendo los estímulos luminosos en información, que es enviada al cerebro para su proceso.

Pero resulta que nuestro ojo no es un espectroscopio con demasiada resolución en lo que a frecuencias se refiere. La detección del color la realizan unas células llamadas conos, que reaccionan ante determinado rango de frecuencias. Y resulta que sólo tenemos tres tipos de conos, que reaccionan ante el rojo, el verde y el azul. Entonces ¿cómo vemos los demás colores? Bueno, cuando decimos que un cono reacciona sólo ante un color, estamos exagerando un poco. Los conos reaccionan ante un rango más amplio de frecuencias, pero tienen una respuesta máxima en una frecuencia determinada. Así, los conos «rojos», no sólo reaccionan ante la luz roja, sino también ante la naranja y amarilla, aunque en menor medida. Lo mismo ocurre con los otros dos tipos de conos, y el resto de colores. Cuando llega luz amarilla a nuestro ojo, los conos rojos y verdes se excitan, y nuestro cerebro interpreta esa combinación como correspondiente al amarillo.

Esto tiene como consecuencia algo muy interesante. Si a nuestros ojos llega una combinación de luz roja y verde, ambos tipos de conos se excitan, y nuestro cerebro lo interpretará como amarillo, pese a que no estamos recibiendo nada en el rango de frecuencias correspondiente al amarillo. Es decir, no somos capaces de distinguir entre luz amarilla y una mezcla adecuada de luz roja y verde, aunque sean cosas completamente diferentes. Es por esto que podemos engañar a nuestros ojos (y por tanto, a nuestro cerebro), y generar toda la gama cromática que podemos percibir (o casi; ya lo veremos), utilizando únicamente mezclas de luz roja, verde y azul (obviamente, variando sus intensidades para generar los distintos colores). Por eso se les llama colores primarios. Y de hecho, así es como funciona una televisión o un monitor de ordenador. La pantalla está dividida en diminutos puntitos, que sólo pueden emitir luz roja, verde o azul.

Detengámonos un momento para estudiar la mezcla de colores, y descubrir algo interesante. Como he dicho, combinando luz roja y verde, percibimos amarillo. Mezclando luz verde y azul, percibimos un azul celeste o aguamarino, denominado cian. Mezclando luz roja y azul, percibimos lo que llamamos magenta. Y he aquí lo curioso, y es que el magenta no corresponde a ningún color espectral, es decir, un rango de frecuencias concreto (como ocurre con el amarillo, por ejemplo). Fijáos que es una especie de violeta rojizo (rosado, más bien). Estaría entre el rojo y el violeta. Pero estos colores son los extremos del espectro visible, y el magenta no corresponde a ninguna frecuencia entre estos extremos. Es un color «inventado» por el cerebro, y al hacer de transición entre el violeta y el rojo, nos permite organizar los colores en lo que se denomina rueda o círculo cromático. Sin este color, no podríamos «cerrar» el abanico de colores, y tendríamos una «recta cromática» en vez de un círculo.

Y hablando del violeta ¿Cómo lo percibimos si nuestro cono receptor de más alta frecuencia está en el azul? ¿Cómo lo obtenemos combinando los colores primarios mencionados? Bueno, cuando mencioné que mezclando luz roja, verde y azul, podíamos obtener toda la gama cromática percibible, añadí un «casi». El violeta espectral, es decir, el violeta que corresponde a determinado rango de frecuencias del espectro, el violeta «de verdad», para entendernos, no es reproducible mediante este sistema. Y esto será una sorpresa, pero implica necesariamente que el violeta no es exactamente reproducible en una televisión o pantalla de ordenador. Podemos aproximarnos mucho, pero no obtener el tono exacto.

¿Y qué pasa con lo que nos enseñaron en el colegio? ¿Acaso no es empíricamente comprobable que mezclando pintura amarilla y azul obtenemos verde? Bueno, fijáos que siempre hemos estado hablando de luz. Al mezclar luces de colores diferentes, estamos añadiendo componentes de diferente frecuencia. Un objeto que no emite luz por sí mismo, es visible porque refleja la luz que recibe de otro sitio (bueno, y porque bloquea la luz que pueda tener detrás). Cuando vemos un objeto de color rojo, lo que ocurre es que sólo refleja la luz roja, y absorbe las demás. Si mezclamos pigmentos de distintos colores, el resultado final será un pigmento que refleje mayoritariamente aquellas frecuencias que ya reflejaban los pigmentos originales. Así, una pintura que refleja la luz verde y la azul, la percibimos como cian. Un pigmento que refleja la luz roja y la verde, lo percibimos como amarillo. Si los mezclamos, obtenemos uno que sólo refleja la luz verde. Fijáos que en vez de añadir componentes, los estamos «restando». Así, tenemos que el rojo, verde y azul son colores primarios aditivos (pues al combinarlos, las frecuencias se «suman»), mientras que el cian, magenta y amarillo son colores primarios sustractivos (puesto que al combinarlos, las frecuencias se «restan»). En una mezcla aditiva, el color resultante es más luminoso, mientras que en una mezcla sustractiva, el resultado es más oscuro (algo lógico, pues estamos añadiendo luz en el primer caso, y quitándola en el segundo). Otra forma de denominarlos, es mediante las siglas de los nombres de los colores en inglés. Así, al modelo de mezcla aditiva se le denomina RGB (Red, Green, Blue), y al de mezcla sustractiva se le denomina CMY (Cyan, Magenta, Yellow), aunque en el mundo de la impresión a color, se denomina CMYK, ya que se le añade el negro (la K, es de key, por motivos históricos, o bien de black; no lo sé a ciencia cierta), puesto que obtener el negro a partir de la mezcla de pigmentos no ofrece resultados óptimos (y es un color muy usado en impresión).

¡Hey! Un momento. Si los colores primarios sustractivos son cian, magenta y amarillo ¿qué pasa con lo que nos enseñan en el colegio? ¿Está mal? Pues aunque pueda sorprender a muchos, en cierta forma sí. El modelo RYB, que es como se le denomina (¿imagináis por qué?) se basa en teorías del color del siglo XVIII, y hoy se sabe que es incorrecto. Sin embargo, imagino que por inercia social, y porque sirve para obtener una gran gama de colores, se sigue utilizando actualmente en pintura, y es el que se enseña en el colegio.

Resumamos un poco, para no perdernos. Tenemos tres modelos diferentes de combinación de colores (y por tanto, tres grupos de colores primarios): el modelo aditivo o RGB, utilizado en informática, vídeo e iluminación; el modelo sustractivo o CMYK, utilizado en impresión; y el modelo clásico o RYB, utilizado en pintura.

Tras toda esta parrafada (otra vez demasiado larga, prometo enmendarme), no puedo evitar una reflexión, que tiene un poco que ver con el último artículo (en realidad con los comentarios, más que con el artículo en sí). Hemos visto que percibimos la mezcla de luz roja y verde como luz amarilla. Percibimos de igual forma dos realidades diferentes, lo que corrobora la idea de que el mundo que percibimos no corresponde necesariamente con el mundo real. Pero ahora preguntaos ¿cómo sabemos que existe esta diferencia, si nuestra vista no es capaz de distinguir los dos casos? Pues gracias a la ciencia. La ciencia nos permite entre otras cosas, construir aparatos para superar las limitaciones de nuestros sentidos (sabemos que la materia está formada por átomos, aunque no podamos verlos). Nos permite también contrastar nuestra concepción del mundo con la realidad (mediante la experimentación, elemento fundamental del método científico). Así pues, aunque nuestra percepción del mundo no corresponde necesariamente con la realidad del mundo, la ciencia nos acerca hacia esa realidad.

Actualizacion (24/08/2009): Uno de vosotros (gracias Guille) me ha hecho ver que el cono «rojo», en realidad es más sensible al amarillo (algo verdoso), por lo que el modelo RGB es igual de «incorrecto» que el RYB. En realidad, cualquier modelo con tres colores primarios nunca abarcará todos los colores perceptibles por el ojo. Citando a Guille, «estamos planteando un triángulo en una superficie que no es triangular». Espero ampliar esta problemática en una futura entrada.

lunes, diciembre 22, 2008

Lotería de Navidad

Últimamente parece que el universo conspira contra mí para impedirme actualizar el blog, pero uno es suficientemente tenaz, y esperar a que el universo se descuide. Así que aquí estoy de nuevo.

Mientras suena en la tele los inconfudibles «cantos» de los niños del Colegio de San Ildefonso, no puedo evitar recordar las supersticiones de mucha gente a la hora de comprar un décimo de la Lotería de Navidad, o las supuestas probabilidades con que nos han bombardeado los informativos.

Así, mucha gente es reacia a comprar números demasiado altos o demasiado bajos, o números con varios dígitos iguales, o números capicuas, o en general, cualquier número al que consideren «feo» (expresión escuchada infinidad de veces). Para rematar, los informativos de televisión nos repiten constantemente unas estadísticas de las cuales deducen que hay números o terminaciones con más probabilidad que otros.

Y la realidad es que, a menos que los bombos y las bolitas estén trucados, todos los números tienen las mismas probabilidades de salir. Tanto el 35.862 como el 11.111 están en el bombo, y se supone que todas las bolitas pesan lo mismo y tienen el mismo tamaño.

El evitar determinados números, es algo puramente psicológico. Hay tendencia a creer que en un sorteo, o en tiradas de dados, o en cualquier otro experimento consistene en la repetición del mismo suceso aleatorio, los resultados deben ser diferentes y uniformemente distribuidos. En el caso de la lotería (o la ONCE, por ejemplo), hay tendencia a pensar que los números «medianos» tienen más probabilidad de salir que los «extremos» (como el 1 ó el 99.999) Y eso no es asi. Al tirar un dado, por ejemplo, la probabilidad de que salga un número concreto es de 1 entre 6 (1/6). No es más probable el 3 que el 1. Y eso es así independientemente de que haya tirado el dado antes. Si jugando al parchís he sacado dos 6 consecutivos, la probabilidad de que me salga un tercer 6 (y volver a casa con la última ficha movida) es la misma de que me salga un 5, por ejemplo. Ó un 1. Ó un 4. Lo que es uniforme es la probabilidad (1/6 para todos los números), no el resultado.

Esta idea está muy bien explicada en un episodio de la serie Numb3rs. En el episodio en cuestión, el genio matemático le pide a su hermano y sus compañeros del FBI, que se dispongan en el despacho de forma aleatoria. Al hacerlo, resulta que se colocan más o menos equiespaciados. Entonces el matemático les explica que no se han colocado de forma aleatoria, sino que deliberadamente han buscado una distribución uniforme por la sala, y que en un suceso realmente aleatorio, habría «vacíos» y «aglomeraciones» de personas. Volviendo al ejemplo del parchís (o de cualquier juego donde se lancen dados), seguro que habréis experimentado cómo en determinados momentos, parece que hay numeros que siempre salen, o que nunca lo hacen (¿quién no ha sufrido en el parchís, el no sacar el primer 5 para salir durante turnos y turnos?).

Las estadísticas sobre terminaciones merecen una mención especial. Los días previos al sorteo, se nos ha repetido muchas veces las terminaciones que más y menos han salido a lo largo de la historia del mismo, concluyendo así que hay terminaciones con más probabilidad de salir que otras. Pero esto no es necesariamente así. Es cierto que ante la repetición del mismo suceso aleatorio, a medida que aumenta el número de repeticiones, la distribución de los resultados se aproxima más a la distribución de probabilidad. Así, si tiramos 100 veces una moneda al aire, seguramente veamos que han salido aproximadamente 50 caras y 50 cruces. Insisto en lo de aproximadamente, ya que también podría ser que hubieramos sacado 52 caras y 48 cruces. Ó 55 y 45. Esto es lo que se conoce como ley de los grandes números. Pero lo que nos dice la ley es que a medida que aumentamos el numero de repeticiones del suceso, la distribución de resultados se aproxima más a la distribución de probabilidad. No nos dice que sea igual.

En el caso concreto de la Lotería de Navidad, el número de sorteos a lo largo de la historia creo que anda en torno a los 200 (no llega). Uno esperaría que la ocurrencia de cada terminación fuera de 10% cada una, puesto que esa es su probabilidad, pero no tiene por qué ser exactamente así. 200 no parece un número demasiado elevado de repeticiones, y una terminación ha podido aparecer más veces que otra, por puro azar, sin implicar que sea más probable. Esas estadísticas, por tanto, sólo deben tomarse como curiosidad.

jueves, abril 03, 2008

Espejismos

Esta semana, pusieron un episodio de CSI (repetido, y del que comenté algo en otra ocasión), en el que los protas descubren un BMW en el desierto, y Grissom se permite hacer comentario jocoso sobre si sería un espejismo. Bueno, era una broma, pero eso me recordó muchas otras referencias a espejismos, confundiéndolos con alucinaciones. Así, en el cómic Tintín en el país del oro negro, los ineptos Hernández y Fernández se pierden en el desierto, y sufren varios «espejismos» en forma de oasis, palmeras y ciudades. Seguro que vosotros podréis aportar más referencias a historias en los que los protagonistas dicen ver un espejismo, cuando en realidad se trata de una alucinación.

Fotografía de un espejismo en una carretera

Y es que un espejismo no es ver una ciudad o un bosque inexistente. Se trata de un fenómeno óptico muy concreto, producido por la refracción de la luz, y que hace que veamos objetos reflejados en el suelo como si fuera un espejo (y de ahí, el nombre «espejismo»), proporcionando la ilusión de la existencia de agua en el terreno. Como he dicho, se trata de un fenómeno óptico, y por tanto, puede ser captado por las cámaras. No tiene nada que ver con que la excesiva insolación y deshidratación altere nuestra percepción de las cosas.

Para poder observar un espejismo, no es necesario estar en el desierto. Basta cualquier terreno más o menos llano y que retenga el calor, y un día caluroso. En estas condiciones, la temperatura del suelo es bastante superior a la del ambiente. El aire que está en contacto con el suelo, se toma calor de éste y eleva su temperatura. Este aire calienta a su vez al que tiene encima, y así sucesivamente, formándose una serie de capas de aire de distinta temperatura, siendo la más caliente la más cercana al suelo. El aire caliente es menos denso que el frío, y aunque esto hace que el aire caliente se eleve y el frío descienda, la constante cesión de calor del suelo al aire hace que el gradiente térmico se mantenga.

Dibujo que muestra cómo se dobla un rayo de luz procedente del cielo, al atravesar capas de aire de distinta temperatura, de forma que llega a un hombre desde el suelo

Así que tenemos varias capas de aire sobre el suelo, de distinta densidad. Resulta que el índice de refracción de la luz depende de la densidad del medio, por lo que a medida que la luz atraviesa las distintas capas de aire, se desvía. Si la luz incide con el ángulo adecuado, las sucesivas refracciones debidas a las distintas capas de aire, hace que el efecto global sea una reflexión. Y eso es lo que nosotros vemos: un reflejo. Además, debido a que el aire está en movimiento (el aire caliente sube y el frío baja), la densidad del aire oscila localmente, provocando que la imagen reflejada no sea perfecta, sino que parezca temblar y deformarse, como si se reflejara en una superficie líquida. Por eso parece que vemos agua.

Como he comentado antes, no hace falta irse al desierto para ver un espejismo. Cualquiera que haya viajado por carretera un día caluroso, habrá visto varios. El asfalto se calienta mucho con el sol, y es fácil ver espejismos, incluso en días de temperatura moderada. Parecen un gran charco en la carretera, que desaparece cuando nos acercamos.

viernes, marzo 28, 2008

Las misiones Apolo

En al artículo sobre Mundo Anillo, al explicar los pequeños detalles de una órbita, me vino a la memoria una consulta que me hicieron hace tiempo, sobre cómo pudieron las misiones Apolo regresar de la Luna, teniendo en cuenta la inmensa cantidad de combustible necesaria para la ida, y el minúsculo tamaño de la cápsula para la vuelta (donde no podía caber demasiado combustible). En otras ocasiones, he oído o leído comentarios acerca del tema, mencionando la enorme cantidad de energía necesaria para «escapar» de la gravedad terrestre. Y sí, hay que gastar mucho combustible en todo el proceso, pero no tanto como uno podría pensar.

Lo primero que hay que tener muy claro es que la masa es un parámetro a minimizar a toda costa. El mantra a repetir es: «la masa es nuestra enemiga». Debido a la Segunda Ley de Newton, cuanta más masa, más fuerza necesitamos para proporcionar la misma aceleración. Eso quiere decir que necesitamos más combustible. Pero al añadir combustible, estamos incrementando todavía más la masa total del vehículo. Es más, en el espacio no hay aire, por lo que debemos cargar también con nuestro propio oxidante para quemar el combustible. Esto se traduce en más masa, y por tanto, más combustible y oxidante, que hace más pesado nuestro aparato... En fin, la pescadilla que se muerde la cola. Vemos por tanto que un pequeño incremento en la masa útil (lo que queremos transportar) se traduce en un incremento importante en la masa total del aparato (combustible, oxidante, y el propio contenedor de ambos). Por tanto, en un viaje de estas características, no hay que dudar en deshacerse de lo que no nos es útil, aunque eso suponga abandonar cosas para siempre en medio del espacio. Es más barato volver a fabricarlo de nuevo para otro viaje, que traerlo de vuelta para reutilizarlo.

Fijaos que podemos pensar al revés: a medida que consumimos nuestro combustible, la masa total disminuye, por lo que necesitamos menos combustible.

Esquema detallado del Saturno V y la nave Apolo

Para las misiones Apolo se utilizó el descomunal cohete Saturno V, que supongo muchos habréis visto en fotos o en documentales. Su masa total antes del despegue era de 3.000 toneladas. Era un cohete de tres etapas, de forma que a medida que se utilizaba cada etapa, ésta se desprendía (recordad, hay que librarse de lo que ya no nos sirve). Solo la primera etapa, con 2.200 toneladas, superaba en masa a la actual lanzadera espacial (unas 2.000 toneladas). Ésta era la que iniciaba el ascenso, y situaba el vehículo en una trayectoria suborbital, hasta una altura de 62 km.

La segunda etapa, de unas 480 toneladas, continuaba impulsando el cohete hasta casi ponerlo en órbita. Terminado su trabajo, se desprendía (como todo).

La tercera etapa, de ya «sólo» 120 toneladas, colocaba el vehículo en una órbita baja, a unos 165 km de la superficie terrestre. Su misión no terminaba ahí, por lo que se mantenía ensamblada mientras el vehículo daba algunas vueltas a la Tierra. Fijáos que llegados a este punto, hemos reducido la masa total de nuestro vehículo a más o menos la 25ª parte (nos hemos quedado con un 4% de la que teníamos al inicio), y lo hemos colocado en órbita.

Ahora viene lo que diferencia un viaje a la Luna de los demás: la maniobra denominada TLI (de TransLunar Injection, es decir, inyección translunar; un nombre muy original), en la que la tercera etapa del Saturno V impulsa nuestro vehículo hacia la Luna. Y en este punto es donde suele haber confusión. Uno podría pensar que hay que alcanzar la velocidad de escape para abandonar definitivamente la Tierra, pero no es así. Si hicieramos eso, pasaríamos de largo. La Luna también está en órbita alrededor de la Tierra. Muy lejos, sí, pero en órbita. Así que lo único que tenemos que hacer es aumentar la altura de nuestra órbita, hasta alcanzar la de la Luna. Pero eso no quiere decir que nuestra nueva órbita deba ser más o menos circular, a la altura de la Luna. Recordad que las órbitas son elipses, por lo que lo único que necesitamos es aumentar la altura del apogeo (máximo alejamiento) sin necesidad de variar la del perigeo (máximo acercamiento). Así que lo que hace realmente la tercera etapa es variar considerablemente la excentricidad de nuestra órbita, de forma que el apogeo intersecte con la Luna (bueno, no exactamente, que no queremos estrellarnos con ella), adquiriendo una órbita muy excéntrica. Y como en el espacio no hay rozamiento, una vez establecida la trayectoria, no necesitamos propulsarlo constantemente. Así que podemos deshacernos de la tercera etapa.

Llegados a este punto, nuestro vehículo consta de dos componentes: el módulo de mando y servicio (CSM, por Command/Service Module), que es la famosa cápsula cilíndrica terminada en cono, que habréis visto en muchas fotos, y el módulo lunar (LM, por Lunar Module), que es el cacharro con patas que aluniza. El CSM tenía una masa de unas 30,3 toneladas, y el LM de unas 14,7. Es decir, unas 45 en total; hemos aligerado mucho el vehículo. El CSM y el LM iban separados dentro del Saturno V, por lo que aprovechamos este momento para acoplarlos. El CSM gira 180º y se acopla por el morro al LM (cuando digo por el morro, me refiero a que el acoplamiento se hace en el morro del CSM, no que se hace por la cara).

Uno de los argumentos de los «apoloescépticos» es que un viaje así era imposible con la tecnología de la época, dado los cálculos que hay que hacer, y teniendo en cuenta que entonces no se podía miniaturizar un ordenador lo suficiente como para llevarlo a bordo. Bueno, precisamente por eso, porque se preveía que los cálculos podían tener un pequeño error, durante el trayecto a la Luna se tomaban medidas constantemente, y se comparaba la trayectoria real con la calculada. Si la diferencia no era aceptable, los propios astronautas corregían la trayectoria con los propulsores del CSM. Y precisamente porque la nave no tenía ordenador, todos los cálculos y decisiones se hacían en Houston.

Una vez nos acercamos a la Luna, debido a que nuestra trayectoria ha sido bien calculada (y posiblemente, corregida), la propia gravedad de aquélla nos «atrapará». Aún así, hay que ayudar un poco, pues la velocidad de la nave es demasiado elevada. Así que usamos el propulsor de CSM para frenar, y entrar en órbita alrededor de la Luna.

Fotografía del CSM del Apolo 15

Bueno, ya casi hemos llegado. El LM es el único que aluniza, mientras que el CSM se queda en órbita. Como no es cuestión de dejar nuestro billete de vuelta desatendido, uno de los tres astronautas se tiene que quedar en él, y aguantarse las ganas de pisar la Luna. Los otros dos afortunados, se meten el el LM, que se separa del CSM, y disminuye su velocidad para «caer» hacia la Luna. Como no queremos estrellarnos, el LM utiliza su propulsor para posarse suavemente sobre nuestro satélite.

Ya hemos hecho una hazaña histórica. Pero ahora hay que volver a casa. Siguendo la filosofía de dejar lo que ya no nos sirve, no todo el LM despega. Sólo lo hace el llamado módulo de ascenso, que tiene su propio propulsor, y una masa de 4,5 toneladas (y recordar que en la superficie de la Luna, la gravedad es 1/6 de la terrestre). Todo lo demás (la patas del LM y su propulsor, el cochecito, etc), se deja allí abandonado. El módulo de ascenso debe ponerse en órbita, y reencontrarse con el CSM. Pero entre la poca masa que tiene, y la poca gravedad de la Luna, no se necesita demasiado combustible para ello. Una vez acoplados otra vez, los astronautas vuelven al CSM, y el módulo de ascenso ya no nos sirve, así que... ¿lo adivináis?

La vuelta a la Tierra es más económica, en términos de combustible. Nuestra nave sólo tiene 30 toneladas, y ya está en órbita. Pero además, una vez nos alejamos un poco de la Luna y disminuimos nuestra velocidad (con respecto a la Tierra), la propia gravedad Terrestre nos ayuda en nuestro viaje. Prácticamente, lo único que hacemos es «caer» hacia la Tierra (siguiendo una trayectoria elíptica, eso sí). Nuevamente, durante todo el viaje, monitorizamos nuestra posición, y hacemos las correciones oportunas.

Dibujo de la reentrada del módulo de mando

Ya casi hemos llegado. El módulo de mando y servicio, está formado en realidad por dos partes: el módulo de mando, y el módulo de servicio (sí, ya sé, no se rompieron la cabeza poniendo nombres). El módulo de mando es la famosa y pequeña cápsula cónica que todos conoceréis, y donde están los astronautas. El módulo de servicio ya no es necesario, y por tanto lo desprendemos y lo abandonamos. El módulo de mando apenas tiene propulsión. La justa para maniobrar un poco. Teniendo en cuenta la enorme velocidad a la que viajamos ¿cómo hacemos para frenar? Fácil: la atmósfera se encarga de ello. Todos sabemos que la resistencia del aire se opone al movimiento, por lo que sólo tenemos que dejar que haga su trabajo. El problema es que debido a la velocidad, se alcanzan temperaturas muy altas. El módulo de mando debe estar especialmente diseñado para la reentrada, y además realizar la operación con un determinado ángulo. De lo contrario, sería un desastre.

Fotografía del amerizaje del módulo de mando del Apolo 17

Queda un pequeño detalle. Nuestra nave ha aminorado su velocidad, pero sigue cayendo. Para posarnos gracilmente sobre la superficie terrestre (en realidad, sobre el mar), volvemos a aprovecharnos de la atmósfera, con un invento sobradamente probado: el paracaidas. De esta forma, la presencia de atmósfera nos permite realizar la última etapa del viaje sin gastar un sólo litro de combustible.

Como veis, la mayor parte del combustible se gasta en realidad en el inicio del viaje, siendo el consumo cada vez menor, hasta ser realmente pequeño en la vuelta.

Para terminar, os dejo un interesante enlace de la web de la NASA: una animación Flash que explica muy bien todo el viaje, y los componentes del cohete y la nave.

jueves, enero 24, 2008

Baterías y el efecto memoria

Cuando nos compramos un teléfono móvil, un ordenador portátil, una cámara digital o cualquier aparato con una batería recargable, inevitablemente el vendedor nos da el mismo consejo: hay que descargar totalmente la batería antes de cada recarga. Y como nos lo dice el que nos vende el aparato, pues le creemos. Y sin embargo, esto no es del todo cierto.

Antes de explicar por qué, vamos a ver un poco por encima cómo funciona una batería química y recargable. Una batería está compuesta por lo que se denominan células. Una célula consiste básicamente en un recipiente con dos materiales en su interior (electrodos), separados físicamente por otro material que permite contacto eléctrico entre ellos (electrolito). Las reacciones químicas de su interior producen un exceso de electrones en un electrodo (el polo negativo), y una ausencia de ellos en el otro (el polo positivo). Si unimos ambos extremos mediante un circuito, los electrones circularán desde el polo negativo al positivo, y tendremos una corriente eléctrica. En algunos casos, las reacciones son reversibles aplicando una corriente externa en sentido opuesto. Tenemos entonces una célula recargable, que podemos cargar y descargar varias veces.

Una pila pequeña de toda la vida (las típicas AA o AAA) está formada por una sóla célula (y además, muchas son no recargables). Sin embargo, las baterías de los dispositivos que he mencionado al principio, están formadas por más de una célula.

Básicamente existen tres tipos de baterías comercializadas para estos aparatos: de niquel-cadmio (Ni-Cd), de niquel-hidruro metálico (Ni-MH) y de iones de Litio (Li-Ion). Cada una de ellas tiene características diferentes, debido precisamente a su composición y reacciones químicas que se producen.

Las baterías Ni-Cd son las más antiguas de las tres. Tienen el llamado efecto memoria, que es la causa de que se recomiende descargar completamente la batería. Este efecto consiste en que la batería parece «recordar» el nivel de carga que tenía cuando se comienza a recargar, de forma que al utilizarse nuevamente, sólo se descarga hasta dicho nivel, disminuyendo obviamente su tiempo de uso. Sin embargo, esto no sucede cada vez que se carga una batería que no ha sido descargada totalmente. Para que aparezca el efecto memoria, la batería debe descargarse varias veces consecutivas hasta un mismo nivel (por ejemplo, al 50% de su carga). Aún así, es recomendable hacer descargas completas con cierta frecuencia, pero teniendo en cuenta que no es necesario hacerlo todas las veces (eso puede incluso acortar la vida de las baterías).

Y cuando digo descargar totalmente, no me refiero a quitarle hasta el último electrón, sino descargarla con su uso normal. Como he comentado antes, una batería tiene varias células. En un mundo ideal, las células serían totalmente idénticas, con idéntica carga, y se descargarían al mismo ritmo. Pero en el mundo real, es normal que alguna célula se descargue antes que otra. Si una célula es completamente descargada, sus vecinas aún tienen carga, y se sigue extrayendo corriente, la célula descargada se ve atravesada por la corriente de sus vecinas, deteriorándose. Si la célula queda inutilizada, habremos perdido su capacidad de carga, y por tanto, la batería en su totalidad tendrá menos capacidad.

Afortunadamente, los circuitos de los aparatos alimentados por estas baterías, están diseñados para evitar esto. Aunque las células mantienen más o menos el mismo voltaje exterior, a medida que se descargan, inevitablemente disminuye algo. En el caso de que una célula se descarge completamente, el voltaje total de la batería disminuye de forma más apreciable, por lo que se puede interrumpir el circuito al detectar un nivel de voltaje por debajo de determinado valor, deteniendo la descarga. Pero si utilizamos algún otro medio para descargarla, como conectándola a un simple circuito casero con una pequeña resistencia (una bombilla o un LED, para así saber si sigue circulando corriente o no), puede producirse el efecto antes mencionado, dañando nuestra batería. Por eso es preferible descargarla con el uso normal del aparato. Fijáos que en este caso, la batería perderá capacidad, y un usuario podría pensar que no la descarga lo suficiente en cada ciclo, cuando en realidad es justo al contrario.

De hecho, la causa física del efecto memoria, es la formación de unos cristales que hacen que el voltaje de algunas células disminuyan bruscamente antes de descargarse del todo. La circuitería externa detectará la caída de voltaje, y considerará que la batería se ha descargado, interrumpiendo el circuito.

Las baterías Ni-MH son más modernas que las Ni-Cd, y aunque también sufren el efecto memoria, este es menor. Lo dicho para las Ni-Cd es igualmente aplicable para estas.

Las baterías Li-Ion son las más modernas, y estas sí que no sufren el efecto memoria. Es más, el agotar estas baterías de forma completa antes de cada recarga, puede acortar su vida útil, por lo que lejos de ser una práctica recomendable, es algo que hay que evitar. Eso no quiere decir que no se pueda «apurar» la batería. De hecho, es conveniente descargarla completamente de vez en cuando (una vez al mes, por ejemplo).

Una cosa de la que no nos suele avisar el vendedor, y que es dañino para las baterías, es la sobrecarga. Uno puede pensar que cargando la batería más tiempo del necesario, se puede «ganar carga extra». Sin embargo, las sobrecargas continuadas también dañan nuestra batería, formando otra vez esos cristales en su interior, y produciendo el dichoso efecto memoria. Si el cargador es bueno, puede interrumpir la carga al detectar que la batería está completamente cargada, y evitar este problema.

¿Cómo sé qué batería utiliza mi aparato? Normalmente deberían venir en la propia batería, o en el manual (ese que nunca leemos). Así, si la batería es de Li-Ion (cada vez más usadas), no intentéis descargarla siempre hasta el final.

Para los curiosos y hambrientos de saber, os dejo una lista de enlaces sobre el tema:

lunes, diciembre 05, 2005

HAARP y la conspiranoia

Hace poco recibí un correo electrónico de Waterparties, hablándome del HAARP, de la polémica que arrastra, y de los conspiranoicos que ven en él un arma secreta de EEUU. Para el que no haya oído hablar de él, el HAARP (High Frequency Active Auroral Research Program) es un proyecto que pretende entender mejor los mecanismos que rigen la ionosfera, y sus aplicaciones civiles y militares, como mejorar las comunicaciones o permitir que los radares puedan "ver" más allá del horizonte. Para ello, se ha construido un enorme array de 180 antenas capaces de funcionar como una sola, y emitir hasta casi 4 GW de potencia. La idea es emitir pulsos de radiación electromagnética y ver qué ocurre en la ionosfera. Esta capa de la atmósfera terrestre es muy interesante y útil ya que refleja cierto rango de frecuencias de radiación electromagnética, incluido el utilizado para determinadas transmisiones de radio, lo que permite que éstas puedan llegar al otro lado del planeta.Foto aérea de la instalación del HAARP

Este proyecto ha desatado polémicas y críricas, y si bien algunas de ellas tienen su lógica, otras son totalmente disparatadas. Uno puede creer que no es buena idea jugar con la ionosfera de esa manera, ya que la simple actividad industrial del hombre parece estar cambiando nuestro medio ambiente. Por otro lado, según la wikipedia, la potencia total por cm2 de las emisiones electromagnéticas del HAARP en la ionosfera, es decenas de miles de veces menor que la recibida por la radiación solar, e incluso centenas de veces menor que las variaciones naturales de ésta. Sin embargo podemos pensar en varios ejemplos en los que una pequeña variación de algo, se traduce en una inmensa variación del resultado final. Es por tanto, un tema abierto al debate.

Hay otras afirmaciones que simplemente son fantasiosas, aceptadas únicamente por los amantes de conspiraciones ocultas. Algunas de ellas son que el HAARP puede utilizarse para controlar el clima, calentar areas enteras con microondas, derribar transbordadores espaciales, producir terremotos, despertar volcanes, o incluso, control mental. Casi todas ellas pueden desmentirse simplemente con algunos datos técnicos del HAARP: las antenas son fijas (no se pueden orientar), pueden emitir entre 2,8 y 10 MHz, y la potencia máxima es de algo menos de 4 GW. El detalle más importante es que las antenas no son orientables. Esto elimina prácticamente la posibilidad de "apuntarlas" hacia algún blanco que no esté justo encima.

Otro hecho importante es el rango de frecuencias. Una de las supuestas posilidades del HAARP es emitir una radiación de microondas como la de los hornos, para calentar extensas zonas y matar a todos sus habitantes. Pero la frecuencia utilizada por un horno microondas y que calienta las moléculas de agua, es de 2,45 GHz (2.450 MHz). Muy por encima de los 10 MHz.

La teoría del control mental se basa en que existe una frecuencia que aparentemente afecta al hipotálamo del cerebro, y es común a todos los mamíferos: 7,8 Hz. Nuevamente, esta frecuencia está totalmente fuera del rango del HAARP: 2,8 MHz de frecuencia mínima (2.800.000 Hz).

Bueno, un conspiranóico nos dirá que el rango de frecuencia del HAARP puede ser diferente, que las antenas sí se pueden orientar, y que el gobierno de EEUU nos miente al respecto. Pero aún así, por pura física, esas dos teorías no son posibles:

Por un lado, la ionosfera no refleja toda la radiación electromagnética. La máxima frecuencia que puede reflejar es de 225 MHz, y sólo de forma esporádica, bajo determinadas circunstancias atmosféricas. Normalmente, el límite está en 30 MHz. Una emisión de 2,45 GHz simplemente atravesaría la ionosfera y se perdería en el espacio.

Por otro lado, como ya comenté hace tiempo al hablar de comunicaciones y submarinos, para emitir de forma eficiente una onda electromagnética, la antena debe tener una longitud de la mitad de la longitud de onda de la señal. Los 7,8 Hz corresponden a unos 38.500 km de longitud de onda, por lo que la antena debería medir unos 19.250 km. ¡Más del diámetro de la Tierra! Vale, es verdad que también comenté que para emitir señales de ELF (extremadamente baja frecuencia) se utilizan otras técnicas, en las que se entierran enormes electrodos separados decenas de kilómetros, y tal vez se podría ocultar su existencia. Pero en ese caso, no tenemos ningún tipo de "direccionalidad". La señal se emitiría en todas direcciones y afectaría a todo el planeta (a tan baja frecuencia, puede atravesar miles de Km de roca sin problemas). Si no se puede dirigir la supuesta señal de "control mental", no veo la utilidad de ello, a menos que seas un megalómano que quiera dominar el mundo entero, y te pongas algún tipo de casco o armadura para protegerte tú mismo (y el Doctor Muerte es sólo un personaje de ficción).

Luego tenemos la dudosa relación entre alteraciones de la ionosfera y la aparición de terremotos o volcanes. ¿Qué tiene que ver una cosa con la otra? Los terremotos y volcanes tienen que ver con los movimentos de placas tectónicas y corrientes del manto. ¿Cómo puede influir la atmósfera en ello? Tal vez, y muy pillado por los pelos, uno podría alegar que las ondas electromagnéticas pueden alterar el comportamiento de minerales con alto contenido en hierro (que es afectado por un campo electromagnético, como todos sabemos), pero tenemos el problema de hacer penetrar dicha radiación bajo tierra.

Esto es sólo a grandes rasgos. Si entramos en alguna página que nos previene de lo terrible del HAARP, encontraremos más detalles, también erróneos. Por ejemplo, extraigo una cita de argemto.com.ar:

(...) puede emitir poderosas ondas de alta y baja frecuencia con cargas electromagnéticas hacia la ionosfera, esta capa de la atmósfera actúa como un espejo, devolviéndolas a la superficie terrestre convertidas en las ondas más bajas del espectro electromagnético. Esto causa que se caliente y se haga un agujero no menor de 50 km de diámetro en ésta.

Primero, la ionosfera no baja la frecuencia de las ondas que refleja de esa manera, hasta las "más bajas del espectro electromagnético". Las refleja con la misma frecuencia. Segundo, la afirmación del agujero de 50 km en la ionosfera es totalmente gratuita. Como ya he dicho más arriba, la potencia máxima del HAARP es muchísimo menor que las variaciones naturales de la radiación recibida por el sol.

En fin, terminaré con un dato interesante: el HAARP no es el único proyecto en este sentido. En Europa tenemos uno en Noruega (de potencia similar), y en Rusia tienen otro (de menos potencia, sólo llega a los 300 MW). ¿Por qué no le preocupan a nadie?

miércoles, noviembre 30, 2005

Apagando un ordenador

Hace tiempo cayó en mis manos un correo electrónico con anécdotas graciosas de un chaval que se encargaba de mantener un aula de informática en una universidad. En una de ellas contaba que un alumno se le acercó y le dijo que había cerrado el Windows, había apagado el PC, y al volverlo a encender le aparecía un mensaje que ponía "Ahora puede apagar su ordenador" (estamos hablando del Windows 95, y de la época en la que los PCs no se apagaban automáticamente). Lo había apagado y encendido varias veces y siempre pasaba lo mismo. Ante la perplejidad del chaval, fueron a comprobarlo:

—Mira, mira, lo apago y...
—Eso es el monitor.
—...
Pantalla de cierre de Windows 95, que indicaba al usuario que ya podía apagar el ordenador

Vale, muy gracioso, pero ¿y esto a qué viene? os preguntaréis. Bueno, uno siempre tiene la duda de si estas anécdotas son verídicas o son leyendas urbanas. Parece difícil de creer que haya gente que no sepa distinguir entre apagar el ordenador y apagar el monitor (sobre todo en una universidad). Pues resulta que sí, que hay gente así: los que hacen series y películas.

En la serie Motivos Personales, es bastante habitual ver cómo un personaje enciende o apaga el ordenador, pulsando únicamente el botón del monitor. Y esto canta especialmente en el momento del encendido, ya que tras pulsar el botón, aparece inmediatamente el escritorio del Windows, sin secuencia de arranque ni nada.

Carátula de la película Nadie Conoce a Nadie.También ocurre lo mismo en la película Nadie Conoce a Nadie, en una escena en la que Eduardo Noriega "enciende" el ordenador de su compañero. En realidad lo que hace es encender el monitor. Por cierto que esta película muestra una visión totalmente falsa y falaz de los juegos de rol, y aunque esto no tenga nada que ver con mala ciencia (más bien, "mala cultura"), como antiguo jugador del Dungeons & Dragons, es algo que tengo que revindicar (y de paso, recomendar este artículo).

Uno no sabe si es que los que ruedan la escena no tienen ni idea de ordenadores, o creen que es el espectador el no sabe y no se va a dar cuenta. Pero lo cierto es que este tipo de secuencias abundan en el cine y la televisión. Hace unos años tal vez pudiese justificarse el desconocimiento de algo tan básico por la mayoría de la gente, pero hoy es casi imperdonable.

jueves, noviembre 24, 2005

Más sobre probabilidades y ruletas

Esta misma semana reproduje un correo que recibí, sobre un supuesto método para ganar a la ruleta. Los comentarios del envío me han recordado un episodio de la serie Los Serrano (¿quién decía que aquí no se hablaba de series españolas?). En el episodio en cuestión, el inseparable trío Resines-Bonilla-Fiti conoce a un inspector de Hacienda que resulta que es un experto en teoría de la probabilidad. Ni cortos ni perezosos se lo llevan a un casino, donde arrasan en la ruleta. En la última jugada, como no podía ser de otra forma (en las series convencionales hay que volver al status quo inicial), apuestan todo a un color (rojo o negro, no me acuerdo) y pierden.

Foto cenital del plato de una ruletaUn auténtico experto en probabilidades sabría que da igual el número al que apueste, ya que cualquier número tiene las mismas probabilidades de salir. Hay gente que tiene la creencia de que la probabilidad de que salga un número depende de los números anteriores. Y no es así. La ruleta no tiene memoria. La probabilidad de que salga un número es siempre la misma: 1 entre 37 (o 1 entre 38 en las ruletas americanas con doble cero). Si sale un 6, por ejemplo, la probabilidad de que en la siguiente tirada salga otra vez un 6 es la misma que antes. Y la misma de que salga un 7. Y la misma de que salga un 29.

Cualquier persona con un mínimo conocimiento de cálculo probabilístico lo sabe, y eso son cosas que se enseñan (o enseñaban en mi época) en el colegio. No digamos ya un supuesto experto. Y la escena en la que pierden todo es simplemente ridícula. Aunque un color tuviese más posibilidades que el otro de salir (cosa que no debe ocurrir en una ruleta bien equilibrada), nunca existe la certeza. Y además tenemos el famoso cero, que ni es rojo ni negro, y tiene una probabilidad de 1 entre 37 de salir (como todos los números).

Las únicas posibilidades de que las probabilidades sean distintas es con una ruleta en malas condiciones o un croupier metódico.

En el primer caso, es posible que el plato de la ruleta esté algo inclinado, o que algunas casillas estén más desgastadas que otras, o que tenga cualquier otro defecto físico que provoque que haya números que salgan más que otros. Pero los casinos se cuidan mucho de tener sus ruletas en perfecto estado, y comprobar que todos los números salen más o menos con la misma probabilidad (digo más o menos, porque por pura matemática, es imposible tener la certeza absoluta con un número finito de jugadas).

En el caso de un croupier muy metódico, que siempre gira la ruleta y lanza la bola de la misma forma, el recorrido de la bola (rebotes incluídos) será bastante parecido en cada jugada.

Pero en ambos casos, hay que realizar un estudio previo muy metódico, apuntando los números que salen junto con la posición inicial de la ruleta, y ver si hay algunos números que salen más que otros. Eso supone estar horas mirando y apuntando, sin apostar nada. Y aún así, seguramente la diferencia no será muy grande. Habría que hacer muchas apuestas de poco dinero para, tal vez, sacar una pequeña ganancia cada noche. Y si el casino se da cuenta, seguramente reajustará la ruleta, y tus cálculos anteriores ya no servirán para nada.

Hay una frase atribuída a Einstein que dice así: "La única forma de ganar dinero en la ruleta, es robarlo de la mesa". Y así será mientras no seamos capaces de medir la velocidad y peso de la bola, la velocidad de la ruleta, coeficientes de rozamiento y elasticidad diversos, y demás magnitudes físicas, y realizar los cálculos necesarios, todo en los pocos segundos que transcurren entre que el croupier lanza la bola hasta que dice "no va más".

lunes, noviembre 21, 2005

Probabilidades y ruletas de casinos

Hace unos días recibí un correo electrónico de Josema Vinau hablándome de un método bastante conocido para ganar a la ruleta, pero que aplicando las matemáticas de forma implacable, demuestra no ser en realidad tan bueno. Como está tan bien explicado, he decidido reproducirlo aquí:

Te escribo para contarte lo que no se si llega a ser un caso de malaciencia o simplemente un caso de malasmatematicas. Lo que definitivamente es, es un mito muy difundido y que muchos casinos online utilizan en para atraer incautos a traves de correos spam.

El caso es que el otro día viendo un episodio de la serie Las Vegas, que trata de la vida en un casino, había una conversación entre dos amigos en la que uno le preguntaba al otro por su método para jugar a la ruleta. El amigo le contestaba que utilizaba el truco de apostar el doble que en la apuesta anterior. Éste, que resulta ser un metodo muy difundido, es en realidad muy poco practico para intentar "romper la banca".

Para aquellos que no hayan oido hablar de este metodo, lo explicaré brevemente. Consiste en apostar solamente al rojo y al negro. En la ruleta, si aciertas el color ganas el doble de lo apostado, y si lo fallas, lógicamente pierdes tu apuesta. El caso es que el metodo consiste en hacer una apuesta inicial. Si se gana, pues has ganado tu apuesta inicial, y si se pierde, tendremos que jugar otra vez apostando el doble de la apuesta anterior hasta que ganemos. Al final, siempre se ganara la apuesta inicial, y por lo tanto, y siempre segun los defensores del metodo, es una forma facil y segura de ganar dinero. Y esto es cierto, al menos sobre el papel, pero cuando pensamos un poco mas acerca del método resulta que no lo es tanto.

El truco está en que en la vida real disponemos de dinero limitado, esto es, cuando tú vas al casino a jugar no llevas infinitos euros, lo que hace que solo puedas doblar tu apuesta anterior un numero dado de veces.

Imaginemos que vamos al casino con 31 euros, y que la apuesta inicial es de 1 euro. Imaginemos que perdemos, por lo que hemos de apostar 2 euros en la segunda, 4 en la tercera, 8 en la cuarta, 16 en la quinta y? ¡uy! ¡nos quedamos sin dinero para seguir doblando nuestra apuesta! Resulta que hemos perdido 1+2+4+8+16=31 euros debido a este detalle. O sea, que con el dinero que fuímos al casino tan solo somos capaces de aguantar 5 apuestas perdidas, y si se da este caso perdemos 31 euros.

Claro, pero los defensores del metodo dicen que es muy poco probable que perdamos 5 veces seguidas, y lo es, pero no tanto como dicen. Logicamente, perderemos 5 veces seguidas 1 vez de cada 2 elevado a 5, que es una vez de cada 32, mientras que las otras 31 veces ganaremos. Recordemos que el método dice que cada vez que ganamos, nuestras ganancias son la apuesta inicial, es decir 31 veces 1 euro. Pero ahora vemos que cada vez que perdemos nuestras perdidas son tambien 2 elevado a 5 menos 1, lo que es exactamente 31 euros. Esto hace que ni ganemos ni perdamos.

Pero aqui vienen los defensores del método a decirnos que lo que podemos hacer es ir al casino no con 31 euros, sino con 1023 (para simplificar cálculos). Así podremos aguantar muchas más apuestas, reduciendo exponenciamente la posibilidad de quedarnos sin dinero. Y efectivamente, esto es cierto, asi reduciremos la posibilidad exponencialmente, pero tambien aumentaremos las perdidas exponencialmente. Podeis comprobarlo vosotros mismos, pero veréis que al final si vamos con 1023 euros podemos aguantar 10 apuestas. Ganaremos 1023 de cada 1024 apuestas, ganando 1 euro en cada una de ellas. Perderemos una apuesta de cada 1024, perdiendo 1023 euros.

Es más, estos cálculos son independientes de la apuesta inicial. Si aumentamos la apuesta inicial lo unico que haremos sera reducir el numero de apuestas que podemos soportar, y no incrementaremos ni un céntimo nuestras perdidas o ganancias.

Todo esto es válido, claro está, si jugamos un número elevado de veces, es decir, si intentamos ?romper la banca?.

Pero entonces, si uno ni gana ni pierde, tampoco lo hace la banca? ¿donde esta entonces el beneficio del juego? Pues resulta que no todas las casillas son rojas o negras. Hay una casilla que es el cero, que basicamente significa que todo el mundo pierde y la banca se queda con todo. Es más, en la ruleta de los casinos estadounidenses hay otra casilla ?doble cero? con el mismo significado. Es aqui donde la banca hace negocio, y por supuesto, donde la banca gana, el resto de los jugadores pierden.

Por ultimo me gustaria decir que en los casinos es muy típica la norma de poner un límite al dinero apostado en una jugada, asi como el mínimo dinero de la apuesta, lo que limita el número de partidas que puedes perder. De nuevo en el ejemplo de los casinos estadounidenses, el mínimo y máximo en las apuestas limitan a un máximo de 5 partidas perdidas.

Bueno, pues eso es todo, que me gustaria que la moraleja de esto es que no se crean lo que los correos spam de casino online cuentan, incluso si parece matematicamente correcto.

Gracias Josema. Correos de este tipo siempre serán bienvenidos.

jueves, noviembre 17, 2005

Hornos microondas

Siempre que escribo una entrada en este blog, busco referencias en la Wikipedia para incluír enlaces en el texto, y de paso confirmar cosas que creo saber y aprender las que ignoro. Ayer, al buscar información sobre las microondas, hornos y la molécula de agua, leí algo que me cayó como un jarro de agua fría: "El calentamiento por microondas es a veces explicado incorrectamente como la resonancia de las moléculas de agua (...)" (esto es una traducción, ya que el texto está en la versión en inglés de la Wikipedia). ¿Cómo? No puede ser, pensé. Fue en la universidad, en una clase de la asignatura "Campos Electromagnéticos", donde el profesor nos dio esa explicación. Yo mismo lo hice en un envío anterior que hablaba de la película The Core.

Como es lógico, he buscado otras fuentes para asegurarme, y es cierto. El calentamiento de alimentos no tiene que ver con la resonancia de la molécula de agua.

Es cierto que la molécula de agua es bipolar (dicho de forma sencilla, que tiene un "lado" con carga eléctrica positiva y otro con carga eléctrica negativa). Es cierto también que en presencia de un campo electromagnético, una molécula bipolar (como el agua) se reorienta ("gira" podriamos decir) siguiendo las variaciones de dicho campo. No es menos cierto que con la frecuencia de 2,45 GHz, el agua se caliente con este efecto. Y es verdad que los alimentos se calientan por su alto contenido en agua.

Pero la frecuencia de resonancia de la molécula de agua no es de 2,45 GHz. De hecho, es distinta según el estado en que se encuentre, y no sólo hablo de los estados de la materia (sólido, líquido y gaseoso), sino que no es lo mismo que esté en un vaso que dentro de la carne. Si los hornos funcionaran exactamente a la frecuencia de resonancia del agua (si fuera única), el agua absorbería muy rápidamente las microondas, de forma que sólo se calentaría la parte exterior del alimento, y la parte interior quedaría fría.

Esto es fácil de entender si pensamos en un principio básico de la física: la conservación de la energía. A la frecuencia de resonancia, las moléculas de agua se moverían muchísimo. Esto significa que se calientan mucho. El calor es energía, y eso quiere decir que el agua absorbería gran parte de la energía de las microondas. El exterior del alimento (lo primero que encuentran las microondas) absorbería casi toda la energía, y al interior no le llegaría nada.

Además, a 2,45 GHz no sólo el agua se calienta. Afecta también a las grasas, azúcares, y a determinados plásticos y cerámicas (aunque en mucha menor medida que al agua). Por eso algunos recipientes de plástico se deforman, o algunos platos o jarras se calientan demasiado y queman.

¿Por qué 2,45 GHz? Bueno, por varias razones. Por un lado, es una frecuencia en la que el agua se calienta bastante, pero sin absorber demasiado rápido las microondas, por lo que pueden llegar al interior de la comida, e incluso atravesarla completamente, rebotar en la pared del horno, y dar una "segunda pasada".

Por otro lado, es una frecuencia que se encontraba lejos de las utilizadas entonces para comunicaciones, y así se evitaban interferencias. El que los hornos utilicen exactamente la misma frecuencia se debe precisamente a un acuerdo para evitar "contaminar" el resto del espectro electromagnético.

Aunque eso era antes. Algunas variantes de la especificación IEEE 802.11, que define el estándar Wi-Fi (tan de moda ahora), utilizan una banda que incluye esa frecuencia, precisamente porque está disponible y se puede utilizar sin permiso. Eso hace que un horno microondas pueda causar interferencias en una red Wi-Fi cercana cuando está encendido.

Siempre es desconcertante descubrir que algo que creías cierto, no lo es.