Búsqueda

Mostrando entradas con la etiqueta mecánica cuántica. Mostrar todas las entradas
Mostrando entradas con la etiqueta mecánica cuántica. Mostrar todas las entradas

miércoles, febrero 29, 2012

Otra vez con los neutrinos: cuando la mala ciencia y la mala prensa se unen

¿Os acordáis de los famosos neutrinos de hace unos meses, que parecían viajar más rápido que la luz? Bueno, parece que se han descubierto dos posibles causas que podrían haber alterado el resultado final, aunque aún necesitan confirmarlo. Sin embargo, eso no impide a los medios de comunicación hacer afirmaciones categóricas, básicamente diciendo que todo fue un error por culpa de un cable suelto. Gracias a un tweet de Shora (a la que algunos conoceréis por el blog Med Tempus) he llegado a una entrada de Amazings donde reproducen la versión del ¿informativo? de Antena 3. Vedlo, por favor:

¿Por dónde empezar? Imagino que por el principio. Nada más comenzar, al referirse al neutrino, se dice literalmente:

Lo bautizaron como la partícula de Dios y afirmaron que podía viajar más rápido que la luz.

Bueno, esto es lo que se conoce normalmente como «oír campanas y no saber dónde» o también «mezclar churras con merinas».

Veamos, el apelativo «partícula de Dios» nunca se ha aplicado al neutrino, sino al también famoso (por otro motivo) bosón de Higgs. Estas dos partículas no tienen nada que ver, salvo el hecho de ser partículas elementales. Para empezar, el neutrino es una partícula bien conocida y observada desde hace décadas, mientras que el bosón de Higgs aún no se ha observado (de momento, su existencia es una hipótesis). El neutrino tiene una masa pequeñísima, incluso en el contexto del mundo subatómico. De hecho, durante un tiempo se creyó que no tenía masa, como el fotón. Por el contrario, la masa estimada del bosón de Higgs es enorme, mayor que la de un átomo de hierro. Además, el neutrino es un fermión, es decir, una partícula que forma parte de la materia (como el electrón), mientras que el bosón de Higgs, como su nombre indica, es un bosón, es decir, una partícula mediadora de interacciones (como el fotón). En caso de existir, el bosón de Higgs sería el responsable de la existencia de la masa (concretamente, la masa inercial, es decir, la cualidad de la materia de oponer resistencia a las variaciones de movimiento).

Seguimos. Un poco más adelante se oye la siguiente perla:

Lo dijo Albert Einstein hace 107 años: Nada puede viajar más rápido que la luz, ya que hacerlo significaría ir hacia el pasado, y así lo dejó plasmado en su teoría de la relatividad.

Bueno, el motivo de que nada con masa real mayor que cero (no olvidemos este importante matiz) pueda superar la velocidad de la luz, no tiene nada que ver con viajes en el tiempo. Resulta que al aumentar la velocidad de un cuerpo, su masa parece aumentar también (nuevamente, hay cosas que matizar). Esto implica que para obtener la misma aceleración, necesitamos ejercer una fuerza mayor, y por tanto, necesitamos aportar más energía que antes. A velocidades cercanas a la de la luz, un pequeño incremento de velocidad, necesita una enorme aportación de energía. Si quisiéramos acelerar un objeto hasta alcanzar la velocidad de la luz, necesitaríamos una cantidad infinita de energía.

Lo del tiempo sin duda viene por la famosa dilatación temporal. Para un objeto en movimiento, el tiempo transcurre más despacio que para uno en reposo (aunque nuevamente habría que matizar un poco las cosas). Cuanto mayor es la velocidad, más lentamente transcurre el tiempo, llegando a detenerse al alcanzar la velocidad de la luz. Extrapolando, uno puede llegar a la conclusión de que si viajara más rápido que la luz (que no es posible), el tiempo transcurriría hacia atrás. Lo cierto es que en las ecuaciones de la relatividad especial, si calculamos dicho tiempo nos sale la raíz cuadrada de un número negativo. No es exactamente lo mismo, y de hecho, nadie puede estar seguro ni siquiera de si tiene sentido físico un tiempo imaginario.

Otro detalle destacable, aunque tal algunos consideren que es hilar demassiado fino, es el mostrar un par de veces en el vídeo, la conocidísima fórmula E=mc2. Sí, es la fórmula más conocida de Einstein, y sí, forma parte de la relatividad especial. Pero esa fórmula lo que muestra es la equivalencia entre masa y energía. Masa y energía son aspectos diferentes de una misma cosa, de forma que la masa puede transformarse en energía y viceversa. No es algo que tenga mucho que ver con el que la velocidad de la luz sea un límite insuperable.

Lo que sigue podría considerarse más mala prensa que mala ciencia, pero con permiso de Josu, comentaré varios errores más. Antes de continuar, hay que tener claras algunas cosas del experimento de los neutrinos. El experimento recibe el nombre de OPERA (Oscillation Project with Emulsion-Racking Apparatus), y es una colaboración entre el CERN (en Suiza) y el LNGS (Laboratori Nazionali del Gran Sasso, en Italia). El experimento consiste básicamente en que el CERN produce un haz de neutrinos que dirige hacia el LNGS, donde es analizado. Para ello, el CERN utiliza el SPS (Super Proton Synchrotron), que es uno de los aceleradores de partículas que tiene el CERN. El fin del experimento no es saber si los neutrinos violan la relatividad, sino estudiar la oscilación de neutrinos, que es un fenómeno mediante el cual los neutrinos cambian. Hay tres tipos de neutrinos, electrónico, muónico y tauónico, y cualquiera de ellos puede transformarse de un tipo a otro, de forma espontánea (es algo que comenté hace tiempo, por otro motivo). Es decir, y para que quede claro, el LHC (el famoso acelerador del CERN que, según algunos, iba a destruir el mundo) no tiene nada que ver con el experimento de los neutrinos.

Una vez aclarado esto, sigamos. Se menciona en dos ocasiones la «euforia» de los científicos con el descubrimiento, e incluso se muestra un vídeo con unos señores aplaudiendo felices. Bien, esto es una falsedad. No hubo tal euforia, y eso es algo muy sencillo de comprobar, revisando las noticias publicadas en su momento. Se habla de sopresa, de descubrimiento inesperado, de escepticismo y necesidad de revisión, e incluso algunos medios se atreven a mencionar que es un hallazgo «incómodo» (de hecho, este último detalle lo comenté en su día). El vídeo de los científicos aplaudiendo no corresponde en absoluto al OPERA (el experimento de los neutrinos, recordad), sino al llamado LHC First Beam, esto es, la primera vez que un haz de partículas circuló por el LHC, el 10 de septiembre de 2008. De hecho, si os fijáis bien, cuando la cámara muestra unas pantallas antes de los aplausos, se puede ver parcialmente el cartel con la leyenda «LHC first beam». Es decir, el video no corresponde en absoluto con lo que se está contando.

Se menciona también que debido al descubimiento, «empezó a hablarse de dar respuesta a los enigmas del universo», y nos ponen el fragmento de unas declaraciones de un hombre que habla en inglés. La traducción que oímos es la siguiente: «En 2012 podremos responder a la definitiva pregunta de Shakespeare sobre ser o no ser». Bien, este caballero es Rolf-Dieter Heuer, director general del CERN, y de lo que está hablando en realidad es del bosón de Higgs, a raiz de un experimento que proporcionaba indicios de su existencia, allá por diciembre de 2011. Esta partícula sí que tiene que ver con «los enigmas del universo», aunque esa forma de expresarse me parece demasiado «mística». Prefiero decir que saber si existe o no de esta partícula nos ayudará a comprender mejor el universo. Pero recordad, estamos hablando del bosón de Higgs. Nada que ver con los neutrinos. Otra vez, se mezclan churras con merinas.

Pero es que, además, la declaración de Heuer está fragmentada y fuera de contexto. Si veis el vídeo original en la web del canal de noticias KRQE, podréis escuchar lo que dice en realidad:

There are some intriguing fluctuations. However, we still need that data of the year 2012 to make a definite answer on the Shakespeare's question of the Higgs boson: To be or not to be.

Hay algunas fluctuaciones interesantes. Sin embargo, todavía necesitamos esos datos del año 2012 para dar una respuesta definitiva a la pregunta de Shakespeare sobre el bosón de Higgs: Ser o no ser.

La cosa cambia mucho ¿verdad?

Seguimos. La noticia abre con las siguientes frases:

Un cable suelto da al traste con el experimento que cuestionaba la teoría de la relatividad de Einstein. El descubrimiento de los científicos que avanzaron que los neutrinos eran más rápidos que la luz, pudo ser consecuencia de una chapuza.

Un poco más adelante, continua con algo parecido.

Los científicos han pasado de euforia a una sonora decepción. Han reconocido que todo fue un error de cálculo. La culpa fue de un cable suelto.

Y cerca del final, escuchamos lo siguiente:

Pues va a ser que no. En este comunicado el Centro de Investigación Nuclear CERN de Ginebra ha reconocido hoy que todo fue un error debido a una mala conexión de un cable de fibra óptica, que ha hecho inútiles todos sus experimentos.

Aparte del hecho de que el tono general es de burla, se está proporcionando información falsa. Si vais a la web del CERN, no encontraréis tal declaración. Ni siquiera si buscáis en la sección de notas de prensa. Eso es porque el CERN no ha dicho nada semejante. El comunicado hay que buscarlo en la web del OPERA, y en ningún momento asegura que hubo un error debido a un cable suelto o a una mala conexión (que son cosas diferentes, por cierto). Lo que dice el comunicado es que han encontrado dos problemas que podrían haber afectado al resultado, y que uno de ellos está relacionado con una conexión de fibra óptica. Fijaos en el condicional, y fijaos en la expresión «está relacionado con una conexión». Todavía no saben realmente qué ha ocurrido, y si el resultado es fiable o no. Aunque todo parece apuntar a algún error, en realidad aún no están seguros (bueno, el personal del OPERA no; parece que el redactor de Antena 3 sí que lo tiene muy claro). Por cierto que en caso de descubrirse el error, eso no invalidaría en absoluto todos los experimentos del CERN o del OPERA. Sólo la medición de la velocidad de los neutrinos.

Finalmente, la frase que cierra el vídeo es igualmente falsa y tendenciosa:

Al final 27 km de túneles, una construcción de 1.700 millones de € y 1.500 millones anuales de presupuesto para 2.000 científicos de 24 países, no han podido superar esto, el cerebro de un genio: Albert Einstein.

Bien, las cifras que exponen (al igual que las imágenes que acompañan) son del LHC. Nuevamente meten a este acelerador en algo que no tiene nada que ver. Para el OPERA se usa, como ya he dicho, el SPS (bastante más pequeño), por lo que el coste del LHC es irrelevante (por cierto, que el dato sobre el presupuesto anual, parecido al coste de construcción, me chirría un poco ¿alguien puede aportar algo luz sobre el asunto?). Además, como ya he dicho, la misión del OPERA no es comprobar si Einstein se había equivocado o no, sino estudiar un fenómeno diferente.

Por otro lado, expresiones como el «cerebro de un genio», dan a entender una idea equivocada sobre cómo se desarrolló la relatividad. Einstein, sin duda era una persona extremadamente inteligente, pero no se levantó un día y se le ocurrió la relatividad, así sin más. A Einstein se le puede aplicar la frase atribuida a Newton «Si he logrado ver más lejos, ha sido porque he subido a hombros de gigantes». Los gigantes sobre los que se apoyó Einstein fueron entre otros James Maxwell, en cuyas famosas ecuaciones aparece la velocidad de la luz en el vacío como una constante, Abraham Michelson y Edward Morley, cuyo experimento aportó la evidencia empírica de que la velocidad de la luz es la misma para cualquier observador, y Hendrik Lorentz, cuya transformada matemática nos dice cómo varía el espacio, el tiempo y la masa (relativista) con la velocidad. Con esto no quiero quitarle mérito a Einstein. No creo que nadie pueda dudar de que era un genio. Pero no conviene perder de vista que sin el trabajo anterior de estos otros científicos, no hubiera podido desarrollar la relatividad (ni siquiera se le habría ocurrido hacerlo), y que si no hubiera sido Einstein, tarde o temprano, la habría desarrollado algún otro científico brillante. La ciencia avanza así: ladrillo sobre ladrillo.

Pero lo peor de la frase es el mensaje que transmite: «mirad todo el dinero que se han gastado estos, y no han sido más listos que un sólo hombre». Tal vez yo sea muy retorcido o pesimista, pero esa es la impresión que me ha dado. Y me parece un insulto a los científicos que trabajan en el OPERA (o a los del LHC, ya que la noticia confunde constantemente ambas cosas).

viernes, noviembre 11, 2011

Fringe: Atravesando la materia sólida

Hoy le toca otra vez a Fringe. Hay que decir que la mala ciencia no es tan brutal como en otros episodios que he visto, pero creo que es especialmente interesante ya que se trata de algo cuya explicación en la ficción parece plausible, y habrá gente a la que si le preguntaran, no sabría decir por qué no es posible lo que vemos en la serie.

Bueno, en el episodio en cuestión, unos tipos utilizan un aparato extraño (cuya fabricación es objeto de la trama de otro episodio anterior) que hace que la materia sólida pueda ser atravesada. Así, los malos lo utilizan para atravesar las paredes de las cámaras de seguridad de varios bancos, y robar unos artefactos. El científico loco protagonista, Walter Bishop (me encanta este personaje), lo explica recordando que la materia sólida no es tan sólida en realidad: está formada por átomos, entre los que hay espacio. El aparato hace vibrar la materia, de forma que los átomos de un cuerpo sólido puedan pasar entre los del otro cuerpo. Hace una analogía con un soldadito de jugete que se hunde en un vaso relleno de arroz crudo.

Todos sabemos que la materia está constituida por átomos. Y supongo que varios habréis leído que el espacio entre átomos en relativamente grande comparado con el tamaño del propio átomo. Además, el átomo está formado a su vez por partículas. El espacio que hay entre el núcleo atómico y los electrones, es también bastante considerable (comparado con el tamaño del núcleo, claro). La materia, ciertamente, es en su mayor parte espacio vacío. Así que cabe preguntarse ¿por qué entonces parece tan sólida (en el caso de cuerpos en estado sólido claro)? Es obvio que por mucho que empujemos contra una pared, no vamos a conseguir que nuestros átomos pasen entre los de la pared. Vemos y tocamos objetos que no parecen huecos en absoluto. De hecho, en el colegio nos enseñaron el concepto de la impenetrabilidad de los cuerpos (mente limpia, por favor), que nos dice que dos objetos no pueden ocupar el mismo espacio al mismo tiempo. ¿Por qué?

La respuesta corta es: por la fuerza electromagnética.

La respuesta larga es realmente larga, y requiere adentrarnos en la propia naturaleza de la materia. Así que voy a intentar simplificar bastante.

Como sabéis, el núcleo de un átomo está formado por protones, que son particulas con carga eléctrica positiva, y neutrones, que son partículas sin carga eléctrica. Alrededor del núcleo (y relativamente lejos) tenemos a los electrones, que son partículas con carga eléctrica negativa. Como electrones y protones tienen distinto signo, se atraen, de forma que los electrones permanecen alrededor del núcleo, sin «escaparse».

La carga eléctrica de un protón tiene la misma magnitud que la de un electrón (pero de distinto signo, no lo olvidemos), y un átomo tiene tantos protones como electrones, por lo que «visto desde lejos», un átomo es eléctricamente neutro. Pero la «corteza» de todo átomo está formada por partículas con carga del mismo signo, por lo que los átomos no pueden acercarse entre sí tanto como queramos. Si los acercamos mucho, para intentar que se atraviesen mutuamente, llega un momento en el que la fuerza electromagnética de repulsión entre los electrones más externos de cada átomo, nos lo impide. Así que ya tenemos una barrera. Además, aunque superáramos esa repulsión, los propios núcleos atómicos se repelerían también al acercarse, al tener todos el mismo signo. Así que no podemos «entremezclar» dos átomos, así por las buenas.

En las clases de química del colegio nos enseñaron que los electrones de un átomo se distribuían en capas. Además, nos enseñaron también que la última capa suele estar «incompleta» (salvo en el caso de los gases nobles), de forma que los átomos tienden a unirse y formar moléculas o estructuras mayores, compartiendo sus electrones más externos para «completar» esa capa. Así, por un lado, aprendimos el concepto de electronegatividad, que nos indica cómo tiene un átomo de «sujetos» a sus electrones. Un átomo con baja electronegatividad, pierde fácilmente sus electrones más externos, y un átomo con alta electronegatividad, «roba» con facilidad los electrones de su vecino. Por otro lado, en el cole estudiamos el concepto de valencia (que levante la mano el que hiciera un chiste fácil, en clase), y aprendimos que había tres tipos de enlaces: metálico, covalente e iónico.

Un enlace iónico se produce entre átomos de electronegatividad muy diferente. Los electrones de la capa más externa «saltan» del átomo de menos electronegatividad al de más. Al hacerlo, ambos átomos se convierten en iones: uno con más electrones de la cuenta, y otro con menos. Como ya no son eléctricamente neutros, y tienen cargas opuestas, se atraen.

Un enlace metálico se produce entre átomos de baja electronegatividad. Los electrones de la capa más externa «se escapan» y quedan por ahí sueltos. Los átomos quedan cargados positivamente, y los electrones forman una nube que mantiene esos átomos unidos (nuevamente, por atracción eléctrica, al ser los átomos y la nube de distinto signo).

Finalmente, el enlace covalente es un poco más difícil de explicar en estos términos tan sencillos. Los átomos se unen para compartir electrones de su capa externa. Podemos pensar que estos electrones compartidos hacen un papel similar al de la nube de electrones del enlace metálico: están entre los átomos de la molécula, y los atraen, al quedar «un poco cargados positivamente» (pido perdón a químicos y físicos por la excesiva simplificación).

Las moléculas a su vez se mantienen unidas, también debido a la interacción electromagnética. Hace tiempo expliqué el caso particular del puente de hidrógeno en el agua, que es bastante sencillo de entender. Básicamente, ocurre cuando una molécula está formada por hidrógeno y átomos más electronegativos que él. Éstos átomos más electronegativos, al atraer más los electrones compartidos que los de hidrógeno, hacen que la carga eléctrica de la molécula, aunque sea globalmente neutra, se reparta de forma desigual en la misma, teniendo así zonas donde hay más carga eléctrica negativa (los átomos más electronegativos), y zonas donde hay más carga poritiva (los átomos de hidrógeno). Esto hace que las moléculas se atraigan por los «lados» de cargas opuestas, y se mantengan juntas.

Este tipo de enlace no es el único, pero el resto de fuerzas intermoleculares tiene un origen similar: atracción eléctromagnética entre las mismas, al no estar los electrones uniformemente distribuidos, y crear zonas con acumulación de cargas negativas y zonas con acumulación de cargas positivas.

Cuando decimos que los átomos y moléculas están «unidos», en realidad queremos decir que están muy cerca uno del otro, y tienden a quedarse así. Las fuerzas electromagnéticas de los enlaces atraen los átomos, pero recordad que al principio expliqué que los átomos se repelen también si se acercan demasiado. Así que los átomos enlazados están «juntos pero no revueltos», manteniendo un equilibrio entre la atracción y repulsión. Esta situación de equilibrio es similar a la de un muelle: si lo estiras, aparecerá una fuerza que tenderá a comprimirlo nuevamente; y si lo comprimes, aparecerá otra fuerza que tenderá a estirarlo. En ambos casos, las fuerzas que aparecen tienden a devolverlo a esa posición de equilibrio.

Así que la materia se mantiene unida por la interacción electromagnética. Cuando empujamos contra una pared, nuestras manos no se hunden porque las fuerzas electromagnéticas mantienen los átomos en su sitio, impidiendo que los de nuestras manos pasen entre los «huecos» de la pared. Si aplicamos suficiente fuerza, terminaremos rompiendo los enlaces entre moléculas, que se traduce en una ruptura física del cuerpo en cuestión. Es lo que ocurre cuando rasgamos una hoja de papel, o derribamos un tabique, por ejemplo. Pero claro, eso no tiene nada que ver con lo que vemos en la serie.

viernes, octubre 07, 2011

A propósito de los neutrinos

Os imagino a todos enterados de las noticias sobre el experimento que ha detectado neutrinos moviéndose a una velocidad superior a la de la luz. Es uno de esos casos raros en los que una noticia de ciencia acapara bastante atención. Y como suele ocurrir, los medios cometen varios errores al respecto. Hay excepciones, naturalmente, y algunas en algún periódico generalista, lo que no está nada mal. Pero la tónica general ha sido la difusión de información errónea, que se puede resumir en los que voy a mencionar a continuación.

El error más grave (afortunadamente, no es el más extendido), se puede resumir más o menos así: «se han descubierto una nueva partícula, el neutrino, que viaja más rápido que la luz». Y va a ser que no. El neutrino no es una partícula nueva, desconocida hasta ese momento. Si hasta se menciona en una pelí de catástrofes y todo (de forma aberrante, pero esa es otra historia). Esta partícula se observó por primera vez en 1956, aunque fue postulado con anterioridad, en 1930. Es decir, los científicos llevan varias décadas conociendo al neutrino.

Además, como imaginaréis, el viajar más rápido que la luz no es una propiedad intrínseca del neutrino, como parece darse a entender. De hecho, todos los neutrinos observados hasta ahora, se desplazaban más lentamente que la luz. La noticia consiste precisamente en que se han observado unos neutrinos que se han desplazado más rápido.

Un segundo error es el que se suele mostrar de forma sensacionalista, con titulares estilo «Einstein se equivocó», o «La Relatividad se derrumba». En casi todos los medios, se menciona que la Teoría de la Relatividad nos dice que nada puede desplazarse más rápido que la luz, y eso no es del todo exacto. La Relatividad nos dice que la velocidad de la luz en el vacío es una constante absoluta, independiente del observador. Es decir, no importa si estoy parado, o viajo en una nave espacial al 99% de la velocidad de la luz. Si mido la velocidad de propagación de la luz o de una onda de radio, voy a obtener el mismo valor en ambos escenarios. Esto trae como consecuencia unas transformaciones a aplicar cuando pasamos de un sistema de referencia a otro. Así, tenemos los conocidos efectos de la dilatación del tiempo, la contracción del espacio, el aumento de la masa (esto no es del todo exacto, pero dejémoslo así) y la relatividad de la simultaneidad.

Lo que nos impide alcanzar la velocidad de la luz es lo siguente: Para aumentar la velocidad de un objeto cualquiera, hay que ejercer una fuerza. La aceleración que recibe el objeto es el cociente de la fuerza entre la masa. Por tanto, cuanto más masa tenga un objeto, menos aceleración obtienes con una misma fuerza. O al reves, más fuerza necesitas para una aceleración determinada. Según la relatividad, la masa aumenta con la velocidad (insisto que no es del todo exacto, pero a efectos prácticos, es como si así ocurriera), por lo que la fuerza debe ser cada vez mayor si queremos mantener la aceleración. Este crecimiento se hace de forma que a velocidades pequeñas (y comparado con la luz, hasta una velocidad orbital es pequeña), este efecto apenas se nota. Pero a velocidades cercanas a la de la luz, la diferencia es cada vez mayor, de forma que con una fuerza enorme, sólo obtenemos una minúscula aceleración. Matemáticamente, la masa sería infinita a la velocidad de la luz, por lo que nunca podríamos alcanzarla.

¿Quiere decir esto que nada puede viajar a la velocidad de la luz? No, y de hecho, los fotones lo hacen, obviamente. Lo que nos dice la Relatividado es que no podemos acelerar un objeto con masa, hasta la velocidad de la luz. Los fotones no tienen masa, y pueden viajar a dicha velocidad. Es más, no podrían viajar a otra velocidad en el vacío. No podemos frenarlos y acelerarlos. Entonces ¿pueden existir objetos que viajen más rápido que la luz? Pues si en las ecuaciones utilizamos como masa un número imaginario, es decir, una raiz cuadrada de un número negativo, resulta que sí. Es más, en este caso, lo que no podríamos hacer es frenar el objeto hasta alcanzar la velocidad de la luz. Siempre tendría que ir más deprisa. Si una partícula, en el momento de su creación, viajara más rápido que la luz, no habría problemas. Estas hipotéticas partículas incluso tienen un nombre: taquiones

¿Tiene sentido físico una masa imaginaria? Pues no lo sé. Pero lo importante es que la Relatividad no impide que un objeto pueda viajar más rápido que la luz. Lo que establece es una especie de barrera infranqueable entre tres mundos: el de los taquiones, el de los fotones, y el del resto de partículas. Así que no se puede decir que la Relatividad se haya derrumbado, o demostrado errónea, o cosas similares, ya que el fenómeno observado, no parece contradecir la misma.

Hay otro punto que quiero considerar, aunque tal vez alguno piense que es demasiado sutil, y no lo considere un error. Hay titulares que expresan el descubrimiento como un ataque a la física, algo peligroso o transgresor, y cosas así. Vamos, como si el hacer un descubrimiento nuevo fuera un problema. Y no es así en absoluto. El que un experimento contradiga una teoría física, no debe ser motivo de preocupación, sino de excitación. Contrariamente a lo que piensan algunos, la ciencia no es un conjunto de dogmas de fe, que si contradices te arriesgas a ser quemado en la hoguera. Es justo lo contrario. Con cada nuevo descubrimiento, la ciencia avanza. Si se descubre que una teoría no es correcta, se investiga y se amplía. Cada error descubierto es un pequeño paso adelante.

Pero eso sí: cuando aparece un experimento que contradice una teoría bien establecida (y ya hemos visto que no es necesariamente el caso), hay que estar muy seguros, verificarlo, repetirlo varias veces, y confirmar los hechos. Y eso es lo que se está haciendo ahora. Sólo cuando se tenga la certeza de que la velocidad obtenida es correcta, y cuando se haya repetido el experimento varias veces, podremos gritar de alegría por haber detectado los primeros taquiones (o por tener la primera prueba experimental de la existencia de más de 4 dimensiones, como plantean algunos). El tiempo lo dirá.

viernes, febrero 25, 2011

El Barco

Hace unas semanas se estrenó con gran bombo una nueva serie nacional: El Barco. Alguno de vosotros ya me envió en su día un correo avisándome sobre el punto de partida del argumento. A saber, un accidente en un acelerador de partículas provoca la creación de un pequeño agujero negro, de forma que toda la tierra emergida se hunde, dejando a nuestros protagonistas como únicos supervivientes del planeta, navegando sobre una Tierra completamente cubierta por el océano. No recuerdo que en la serie se mencionara explicitamente, pero dado que sí se indica que el accidente ocurre en Ginebra, parece evidente que se refieren al famoso LHC del CERN, del que tanto se habló en su día. Como recordaréis, algunas voces se alzaron contra el acelerador, diciendo que podría destruir la Tierra, y esta serie se basa en una de las supuestas amenazas del LHC: la creación de un agujero negro.

Antes de empezar, os recomiendo encarecidamente que leáis la entrada «Falacias – El LHC puede destruir la Tierra» del extraordinario blog El Tamiz. Ahí podréis leer por qué las alarmas apocalípticas de algunos no tienen ningún fundamento, así que no voy a repetir lo mismo aquí. Más bien me centraré en algunos detalles sobre la explicación que dan en la serie. Os dejo un fragmento del episodio 3, donde la científica explica al resto de la tripulación lo que ha ocurrido

Bueno, lo que más llama la atención es que digan que en el acelerador se creo antimateria, añadiendo: «es lo que vulgarmente conocemos como agujero negro». No hombre, no. La antimateria y los agujeros negros no tienen absolutamente nada que ver.

Hace tiempo expliqué qué era la antimateria. Resumiendo un poco, por cada partícula subatómica existe una antipartícula, con las mismas propiedades, solo que algunas de ellas tienen signo contrario. Los casos más fáciles de entender son los positrones (antielectrones) y los antiprotones, que tienen igual masa que sus contrapartidas, y carga eléctrica de signo contrario (el positrón es positivo y el antiprotón negativo). Pero las partículas sin carga eléctrica, como los neutrones o neutrinos, también tienen su correspondiente antipartícula (antineutrón y antineutrino, respectivamente). Entonces comenté también que una de las características de la antimateria, es que se aniquila en contacto con la materia, liberando una enorme cantidad de energía (concretamente, la indicada por la famosa ecuación E=mc2). También mencioné que la creación de antimateria en un acelerador de partículas no es nada extraordinario, y es algo que ocurre rutinariamente.

También expliqué en su día qué es un agujero negro. Resumiendo también, se trata simplemente de un objeto muy denso. Tanto, que podemos acercarnos a él hasta un punto en el que la gravedad es tan intensa que la velocidad de escape supera a la de la luz (recordad que la gravedad es directamente proporcional a la masa e inversamente proporcional al cuadrado de la distancia). Como veis, la antimateria y los agujeros negros son conceptos diferentes.

Ni la antimateria ni un agujero negro creado en un acelerador de partículas suponen peligro alguno. La cantidad de materia y antimateria que se aniquila es minúscula (unas cuantas partículas subatómicas), y la energía que libera dicha aniquilación es la misma que la que se utilizó para generar la materia y antimateria en primer lugar (menos, en realidad, ya que las máquinas no son 100% eficientes). Y un agujero negro subatómico, aún en el caso de que perdurara (en realidad, desaparecería instantes después de su formación, debido a la radiación de Hawking), apenas interactuaría con la materia.

El mundo subatómico está prácticamente hueco. Las distancias entre partículas son enormes, comparadas con su tamaño. Cuando comenté los neutrinos mutantes de la película 2012, vimos que estas partículas apenas interactuaban con la materia porque la distancia efectiva de la interacción débil era muy pequeña. La distancia a la que un agujero negro subatómico hace sentir su presencia gravitatoria de forma efectiva, es aún menor.

Vamos a hacer algunos números. La distancia máxima a la que la interacción nuclear débil es efectiva es de unos 10-18 metros. Esto quiere decir que para que un neutrino interaccione con otra partícula, debe acercarse como mínimo a esa distancia. Vamos a suponer que creamos un agujero negro comprimiendo un núcleo de uranio-238, que tiene 92 protones y 146 neutrones. He elegido deliberadamente un núcleo extremadamente pesado, por ponerme en el caso un agujero negro muy masivo (subatómicamente hablando, claro). El radio de Schwarzschild (el radio del horizonte de sucesos) de un agujero negro con esa masa sería de casi 6·10-52 metros (y he redondeado hacia arriba). Es decir, es miles de quintillones de veces menor que la distancia máxima de la interacción débil. Vale que no es necesario que una partícula se acerque al horizonte de sucesos para que sea atraida por la gravedad, pero la descomunal diferencia de órdenes de magnitud nos indica que la interacción de un agujero negro subatómico con la materia, es mucho menor que la de los neutrinos (que ya vimos que es muy, pero que muy pequeña).

Bien, sigamos. Vamos a suponer que el agujero negro es mucho más masivo de lo que jamás se podría obtener en un acelerador de partículas. La doctora nos dice que el agujero negro «engulló masa tectónica, provocando el corrimiento de las placas», y que «los continentes fueron cayendo uno a uno, como si fuera un dominó, quedando sepultados por los océanos».

La tecónica de placas es algo de lo que también hablé un poco hace tiempo, pero vamos a recordar lo más básico: La corteza terrestre está dividida en placas tectónicas que «flotan» sobre el manto. Todos los bordes de estas placas siempre están en contacto, de forma que no hay partes del manto al descubierto. El grosor de las placas no es uniforme, y por eso hay partes de tierra emergida (donde el grosor de la placa es elevado) y partes sumergidas en el océano (donde el grosor es menor). Hay zonas de contacto donde las placas se separan y se genera nueva corteza (el manto que sube y se enfría), y hay otras donde las placas se acercan, y parte de la corteza se «arruga» hacia arriba formando cordilleras, y parte se hunde en el manto.

Si la cantidad de masa oceánica es la misma, para que un continente quede sumergido, toda esa masa terrestre debe hundirse un poco en el manto de alguna forma, bien porque la placa entera se hunda, bien porque se deforme (como una membrana elástica) y sólo la zona continental lo haga. Así que se supone que el agujero negro provoca el hundimiento de los continentes, y la pregunta es ¿cómo puede hacerlo desde la superficie? Uno podría pensar que al absorber la materia a su alrededor, el agujero negro se hunde y llega hasta el núcleo, donde sigue absorbiendo materia, y haciendo que las placas tecónicas se hundan un poco (y para eso, insisto, tendría que ser muy muy masivo).

Pero no es el caso, ya que mientras la científica nos explica lo que ocurre, se nos muestra al espectador una vista de la Tierra, donde una especie de onda con origen en algún punto entre Francia y Suiza, se expande por el globo. La referencia a que los continentes eran afectados uno a uno como en un dominó, nos indica tambien que sea cual sea el mecanismo concreto, actuaba en la superficie (o al menos, en la corteza). Aun creyéndonos que el agujero pudiera hundir parte de la placa donde está Europa, ¿por qué se hunden las demás? Imaginad que estáis en un estanque con nenúfares, todos muy juntos, y empujáis uno de ellos hacia a abajo. ¿Se hundiría el resto?

Bueno, un sólo monólogo que ha dado para mucho.

viernes, septiembre 24, 2010

2012: Neutrinos

Carátula de 2012

Por fin he tenido ocasión de ver la película 2012, que tanto me habéis recomendado (no por la película en sí, sino por su mala ciencia, claro). Pero no, no supera a The Core (es muy difícil, ya que el listón está muy alto). De momento, en este post me voy a centrar en el origen de la catástrofe: los neutrinos.

Al principio de la peli, vemos como un geólogo llega a una instalación subterránea, donde se encuentra con un astrofísico y le cuenta que debido a una erupción solar, el flujo de neutrinos procedente del Sol se ha duplicado. Es astrofísico le recuerda que los neutrinos apenas interactuan con la materia, pero éstos deben haber mutado en alguna nueva clase de partícula, y están calentando el nucleo terrestre. Ante la incredulidad del geólogo, le enseñan un tanque lleno de agua, que penetra a gran profundidad, con el líquido en ebullición.

He de decir que los primeros minutos me sorprendieron, pues hay bastante buena ciencia en ellos. Es cierto que los neutrinos son partículas elementales que apenas interactuan con la materia. Billones de ellos nos atraviesan cada segundo y no nos damos cuenta. Para que os hagáis una idea, es grosor que debería tener una pared de plomo, para detener la mitad de los neutrinos que la atraviesen, sería de ¡un año-luz! ¿Podéis imaginar algo semejante?

¿Cómo se pueden detectar entonces? Bueno, afortunadamente, «apenas interactuan con la materia» no es lo mismo que «no interactuan en absoluto». Dado que el número de ellos que nos atraviesan es tan elevado, si tenemos un objeto suficientemente grande, algún neutrino interactuará con él en un tiempo razonable. Por lo general se usan inmensos tanques con algún líquido que produzca algún efecto medible al ineractuar con neutrinos. Por ejemplo, en el caso del agua, si un neutrino golpea un electrón, éste adquiere una velocidad muy alta, superior a la de la luz en ese medio (ojo, menor que la velocidad de la luz en el vacío), de forma que emite luz (fenómeno conocido como radiación de Cherenkov). Como los rayos cósmicos producen el mismo efecto, estos tanques se colocan bajo tierra, a gran profundidad. Los rayos cósmicos no llegan ahí abajo, pero la mayoría de los neutrinos sí (apenas interactuan con la materia, ¿recordáis?). En la peli, el laboratorio donde detectan el fenónemo está bajo tierra, a unos 3 km de profundidad, lo que es coherente con la detección real de neutrinos.

También es cierto que el Sol es un emisor de neutrinos. Como he comentado muchas veces, en el interior de una estrella se producen reacciones nucleares que convierten el hidrógeno en helio. Como parte del proceso, algunos protones se transforman en neutrones, y en esa reacción se emite un neutrino. Como los neutrinos apenas interactúan con la materia, la mayoría de ellos llegan a la superficie sin problemas, donde continúan su camino.

Un comienzo con buena ciencia, que inmediatamente se derrumba cuando dicen que los neutrinos han «mutado», y que están calentando el interior de la Tierra, actuando como microondas. Bueno, las partículas elementales no mutan, al menos no en el sentido en el que se suele emplear la palabra, y que está relacionado con la biología. Si nos ponemos puristas y acudimos al diccionario, una mutación es simplemente un cambio (si bien, es muy extraño que un científico use la palabra «mutar» para expresar un cambio en una partícula).

¿Puede una partícula elemental cambiar? Sí. Algunas partículas son inestables, y sufren una desintegración. Pondré un ejemplo familiar, aunque no se trate de una partícula elemental: el neutrón, si no forma parte de un núcleo atómico, es inestable, con una vida media de algo menos de 15 minutos, y se desintegra en un protón, un electrón y un antineutrino. Si nos restringimos a partículas elementales, podemos pensar en el muón, con una vida media bastante más corta (un par de microsegundos), y que se desintegra (habitualmente) en un electrón, un neutrino y un antineutrino.

Los neutrinos son partículas estables, como los electrones o los fotones, y no se desintegran. Sin embargo, sí que pueden experimentar un cambio. Veréis, durante todo este rato he estado hablando de neutrinos, así sin más, pero resulta que hay tres tipos de neutrinos: el neutrino electrónico, el neutrino muónico y el neutrino tauónico (los nombres provienen de sus tres partículas asociadas: el electrón, el muón, y el tauón), cada uno de ellos con su propia antipartícula. Un neutrino puede cambiar de un tipo a otro, de forma espontánea, fenómeno conocido como oscilación de neutrinos. Sin embargo, los tres tipos de neutrinos tienen en común su casi nula interacción con la materia.

Vemos que no hay ninguna forma conocida en la que unos neutrinos puedan transformarse así sin más en alguna otra partícula, que produzca los efectos que vemos en la peli. Pero ¿no se trata de eso? ¿de que descubren un fenómeno nuevo y desconocido? Sí, pero si entendéis por qué los neutrinos interactuan tan poco con la materia, veréis que aunque ciertamente nos queda mucho por descubrir en el mundo de la mecánica cuántica, el que un neutrino se transforme de esa manera no parece plausible.

En el universo existen únicamente cuátro tipo de interacciones: la gravedad, el electromagnetismo, la interacción nuclear fuerte y la interacción nuclear débil. Sí, sólo 4. El neutrino sólo es afectado por la gravedad y la interacción nuclear débil, y si en el mundo cuántico la gravedad tiene poca relevancia, menos la tendrá en el caso del neutrino, con su minúscula masa en comparación con el resto de partículas. Así que sólo tenemos la interacción nuclear débil. Vale ¿y? Bueno, pues que la distancia a la que esta interacción puede actuar de forma efectiva, es muy muy pequeña.

Como sabéis, la gravedad y el electromagnetismo tienen un rango infinito, si bien, dependiendo de las masas o cargas involucradas, podemos despreciar sus efectos a partir de cierta distancia. A distancias subatómicas, el efecto del electromagnetismo siempre es relevante. Podemos decir que es la interacción electromagnética la que mantiene los electrones alrededor del núcleo, y la que mantiene los átomos y moléculas en su sitio. Además, esta interacción es la que nos permite ver, pues los fotones, aunque no tienen carga eléctrica, sí que se ven afectados por la interacción electromagnética (de hecho, podemos decir que son la interacción electromagnética), «rebotando» en la capa de electrones de los átomos de los objetos que vemos, para ir a nuestros ojos.

La interacción fuerte tiene un alcance muy pequeño, del orden del tamaño de un núcleo atómico. Es precisamente esta fuerza la que mantiene a los protones y neutrones bien juntitos en el núcleo, pese a que la interacción electromagnética ejerce una fuerza de repulsión enorme entre los protones (recordad que los protones tienen carga eléctrica). Para que partículas libres interaccionen entre sí con la interacción fuerte, deben acercarse bastante.

Pero el rango de la interacción débil es mucho menor. Unas mil veces menor que el tamaño de un núcleo atómico. Para que unas partículas sueltas interaccionen entre sí con la interacción débil, tienen que acercarse muchísimo más. Podemos decir que practicamente tendrían que «chocar de frente». Y la materia está prácticamente hueca. La distancia entre los electrones y el núcleo de un átomo es enorme, comparados con su tamaño (unas 100.000 veces el tamaño del núcleo). Y la distancia entre átomos es mayor aún. Una partícula que sólo se vea afectada por la interacción débil, atravesaría átomos sin problemas, ya que la probabilidad de colisionar directamente con otra partícula, es muy pequeña. Y por eso los neutrinos apenas interaccionan con la materia.

miércoles, junio 30, 2010

Star Trek: Transportadores

Ya que el último post fue sobre la última peli de Star Trek, voy a mencionar una tecnología omnipresente en las series y películas Trek, pero que nunca podría funcionar tal y como nos lo plantean: el teletransporte. Como curiosidad, el transportador (como lo llaman en la serie) apareció por cuestiones de presupuesto y logística a la hora de rodar la serie. Es mucho más sencillo hacer que la gente aparezca y desaparezca (con algún efecto especial resultón), que construir maquetas y decorados para que una lanzadera o el propio Enterprise aterrizara (que era la idea original). Lo gracioso es que a los pocos episodios, ya tenían listo un decorado para la lanzadera, por lo que empezaron a usarla también en sus desplazamientos.

Imagen de «La Nueva Generación» que muestra a los protagonistas teleportándose en el transportador del Enterprise

Bueno, a lo que vamos. El funcionamiento del transportador es el siguiente: se escanea de alguna forma el objeto o persona a transportar, obteniendo la información de todas y cada una de sus partículas, se desintegra el objeto, se transmite la información a otro sitio, y allí se reconstruye todo, de alguna forma.

A los que os suene algo eso del Principio de Indeterminación de Heisenberg, os habréis dado cuenta de uno de los problemas. Sencillamente no podemos obtener toda la información de todas las partículas que forman un objeto. El principio de incertidumbre nos lo impide, y si no podemos obtener toda la información, lo que se reconstruya en el destino no será una copia idéntica de lo que había en el origen. Tal vez haya quien piense que se trate de una limitación temporal, debido a nuestra tecnología actual, pero como comenté en un par de ocasiones, la indeterminación no es debida a nuestra forma de medir el estado de una partícula, sino a que la propia naturaleza es intrínsecamente «borrosa».

En el universo Trek, se supone que este problema es resuelto por un artilugio llamado «compensador de Heisenberg» que supuestamente permite saltarnos esa limitación. Pero no es más que un artificio de guion, tan irrealizable como una máquina de movimiento perpetuo (como Data).

¿Y el teletransporte cuántico? ¿No es algo que ya se ha experimentado? ¿No se puede hacer algo con eso? Pues no. La teleportación cuántica es algo complejo y largo de explicar, así que en vez de intentarlo, os mandaré directamente a un artículo de la web El Tamiz, donde lo explica de forma muy sencilla. Aunque tal vez sea recomendable que antes leáis todos los artículos anteriores de su serie Cuántica sin fórmulas (hace que la mecánica cuántica parezca fácil). Para los que no tengan tiempo, lo resumiré muy brevemente diciendo que la teleportación cuántica lo que «teleporta» es la información de una partícula a otra, que estan ligadas mediante entrelazamiento cuántico, lo que implica que en algún momento anterior, dichas partículas estaban juntas y fueron tratadas de manera deliberada para entrelazarlas. Eso quiere decir que si queremos aplicar la teleportación cuántica para transportar objetos, debemos tener en el destino un conjunto de partículas (bastante grande, ya lo veremos más adelante) que previamente han sido entrelazadas con otras que tengamos en el origen. Teniendo en cuenta que en la serie y las pelis, el teletransporte se puede hacer a y desde lugares que no cuentan con una sala de transporte (como la superficie de un planeta a explorar), parece evidente que la teleportación cuántica no es aplicable.

Imagen de «La Nueva Generación» que muestra a Data y Scotty con una bebida verde en la cantina del Enterprise

Vayamos a otro punto. En el universo Trek, no se transporta la materia, sino sólo la información. Esto queda patente en las constantes referencias a los «patrones» almacenados en el transportador, que pueden usarse desde improvisado salvavidas (como en el episodio de La Nueva Generación en el que el Scotty de la Serie Original es descubiento «conservado» en la memoria de un transportador), hasta como cura de enfermedades incurables (como en el episodio tambien de LNG en la que la doctora Pulanski contrae un virus envejecedor, y es restaurada con el transportador, que guardaba una «versión» de ella anterior a su infección). Hagámonos la siguiente pregunta ¿cuánto ocupa esa información?

Bueno, lo primero que habría que preguntarse es cuántas partículas tiene un cuerpo humano por termino medio. Si recordáis las clases de química del colegio, os sonará el Número de Avogadro y el concepto de mol. ¿No? Bueno, un mol es la cantidad de una sustancia que contiene tantos átomos o moléculas como el número de Avogardro, que es aproximadamente 6,022·1023. ¿Y cuánto es un mol? Pues cogéis el peso atómico del átomo o molécula en unidades de masa atómica, y cambiáis la unidad por gramos. Es decir, un mol de carbono serían 12g (la masa de un átomo de carbono-12 es de 12u), y uno de agua serían 18g (la molécula de agua tiene dos átomos de hidrógeno de 1u, y un átomo de oxígeno de 16u). Fijáos que unos pocos gramos de carbono o agua (constituyentes mayoritarios de nuestro cuerpo) tienen del orden de 1023 componentes (átomos o moléculas). En la web del Jefferson Lab hay una estimación del número de átomos y moléculas de una persona de 70 kg, y es la friolera de 7·1027. Una cifra de 27 ceros. Imaginemos que usamos sólo un bit para almacenar la información de una molécula (algo claramente insuficiente). Necesitaríamos 7.000 Yottabits. ¿Lo cualo? El prefijo yotta indica un factor de 1024, por lo que un Yottabit es un billón de Terabits (y recordad que un Terabit son 1.000 Gigabits). Así que necesitamos almacenar 7.000 billones de Terabits. Además, necesitamos transmitir esa información de forma casi instantánea, y sin pérdidas, a su destino. Y eso que hemos supuesto un sólo bit por molécula, algo que como he dicho, es muy insuficiente.

Bien, hemos visto la imposibilidad de escanear un objeto a nivel subatómico y el problema de almacenar y transmitir dicha información. Ahora vayamos con la desintegración en el origen y la materialización en el destino. ¿Cómo hacerlo? Tal vez pueda parecer fácil desintegrar un objeto (aunque aún no sepamos cómo hacerlo), pero pensad en la materialización. Hay que «ensamblar» nuevamente el cuerpo, partícula a partícula, átomo a átomo. Y podemos fantasear con alguna tecnología que lo haga en la sala de transporte, pero ¿cómo hacerlo fuera de ella? Recordad que el trasportador se usa muchas veces (casi siempre, en realidad), para ir y venir desde la nave a la superficie de un planeta, donde no hay ningún artefacto que nos reconstruya o nos desintegre.

Otra pregunta que habría que hacerse es qué ocurre con las partículas a la hora de desintegrar el cuerpo, y de dónde se sacan para reintegrarlo. ¿Se convierte toda la masa en energía y viceversa? ¿Se transmuta la materia en otra (como aire) y viceversa? En el primer caso, aplicando la famosa ecuación de Einstein que relaciona masa y energía, E=m·c2, 70 kg de materia serían 6,3·1018 julios, algo equivalente una detonación de miles de megatones. Esa energía se desprendería en la desintegración, y sería necesaria en la reintegración. Con la segunda opción, habría menos energía en juego, pero necesitaríamos reacciones nucleares para transmutar la materia.

Finalmente, voy a terminar con una cuestión filosófica. Ciertamente, se sale fuera de la temática del blog, pero es algo que siempre me he preguntado. Si te desintegran y luego reconstruyen tu cuerpo en otro lugar, ¿eres realmente tú el que aparece en el destino? ¿Te has teleportado o te han asesinado y creado un doble tuyo? Pensad en qué ocurriría si en el origen no se desintegra el cuerpo y sigue vivo. Tu no te habrías movido, pero habría un doble tuyo por ahí ¿no? ¿Y si en ese momento, para intentar arreglar las cosas, te pegan un tiro? ¿Sigues pensando que te has teleportado?

jueves, mayo 28, 2009

Los Increíbles: Energía del punto cero

En varias ocasiones he comentado una secuencia de una película o serie de animación como ejemplo de buena ciencia. Me gusta el contraste de mostrar un acierto científico en un supuesto «género menor e infantil» (como podéis suponer por las comillas, no estoy de acuerdo con esta definición). Pero esta vez no es el caso. Sí, ya sé que Los Increibles además de una peli de animación, es de superhéroes, pero ya sabéis que eso nunca ha sido un impedimento para mí. Y para evitar malentendidos, aviso que me parece una película genial.

Bueno, en la película, el villano megalómano que debe aparecer en toda historia tópica de superhéroes (o superespías, ya que también hay mucha inspiración en las películas antiguas de James Bond), es un tipo llamado Síndrome, que utiliza como arma un traje inventado por él, capaz de lanzar rayos, generar campos de fuerza, y cosas así. ¿Y de dónde saca el traje la energía necesaria? Pues en vez de llevar una enorme batería a la espalda, utiliza la energía del punto cero.

¿Qué es la energía del punto cero? Sin complicarnos demasiado, es la energía más baja que un sistema puede poseer, o dicho de otro modo, es la energía residual de un sistema, una vez se le ha extraido toda la energía posible. Fijáos que por definición, la energía del punto cero no se puede extraer ni utilizar. Si podemos extraer más energía, entonces no hemos llegado al punto cero.

Lo interesante es que la energía del punto cero, no es cero (si no, no habría mucho de lo que hablar, y sería una perogrullada decir que no se puede extraer). ¿Cómo es esto? Una forma de verlo sin necesidad de ecuaciones complicadas, es teniendo en cuenta la naturaleza dual de la materia: todas las partículas elementales son partículas y ondas. Puede que a algunos os suene eso de la dualidad onda-corpúsculo de la luz. Pues bien, eso no sólo se aplica a los fotones, sino a todas las partículas, incluidos electrones, protones y neutrones, que como imagino sabéis, forman los átomos. Es decir, toda la materia que vemos a nuestro alrededor, en realidad está formada por partículas que también son ondas. Una onda, debe «ondear», por decirlo de alguna forma: vibra, oscila, ondula, es decir, tiene una frecuencia de oscilación. Y todo oscilador tiene una energía asociada a dicha frecuencia (podemos pensar que sería como la energía cinética debida al movimiento de la oscilación). La única forma de que la energía sea nula, es que su frecuencia sea cero, es decir que no oscile. Pero una onda que no oscila, no es una onda. Y las partículas son ondas.

Si os duele la cabeza, tras leer lo anterior, otra forma de verlo es recordando el Principio de Indeterminación de Heisenberg. Como expliqué hace algún tiempo, este principio nos dice (simplificando un poco) que no podemos determinar con toda la precisión que queramos y de forma simultánea, la posición y velocidad de una partícula. Es decir, cuanto más determimada esté la posición, más indeterminada estará la velocidad, y viceversa. Esta indeterminación es muy pequeña, e inapreciable en el mundo macroscópico (no podemos utilizarla como excusa cuando rozamos el coche al aparcar), pero en el mundo subatómico es de gran importancia. Hay un detalle sutil pero fundamental sobre este principio: no nos está diciendo que no podamos conocer con precisión absoluta (es decir, indeterminación cero) la velocidad o la posición. Podemos tener indeterminación cero en una de las dos magnitudes, pero en ese caso, tendremos indeterminación infinita en la otra.

Una vez aclarado esto, pensemos en un átomo. Los electrones se mueven alrededor de él, y por tanto, poseen energía cinética. ¿Qué ocurriría si pudiéramos extraer toda la energía de un electrón? Pues que estaría quieto, lo que implicaría que conocemos con absoluta determinación su velocidad: cero. Pero eso quiere decir que su posición estaría infinitamente indeterminada, es decir, podría estar cerca del átomo, o en el otro extremo del universo. Pero eso no puede ser. Sabemos que el electrón está en un entorno cercano del átomo. Su posición no está infinitamente indeterminada, por lo que su velocidad nunca puede estar absolutamente determinada. Así que su velocidad nunca podrá ser cero. Siempre tendrá algo de movimiento, y por tanto algo de energía.

Los más avispados estaréis pensando que estas dos explicaciones que os he dado, no justifican realmente que exista una energía residual no nula, sino más bien que nunca se podrá alcanzar una energía nula (que no es lo mismo). De hecho, la explicación que recurre al principio de indeterminación, es utilizada también en algunos textos para entender el por qué de la Tercera Ley de la Termodinámica, esto es, que no se puede alcanzar el cero absoluto de temperatura. Bueno, llegados a este punto sólo puedo recurrir al «las complicadas ecuaciones de la mecánica cuántica, dicen que es así». Según estas ecuaciones, aunque consiguieramos que la temperatura de un cuerpo descendiera hasta el cero absoluto (que no se puede), las partículas seguirían moviéndose.

El hecho de que en el estado más bajo posible de energía, siga habiendo energía, ha dado nuevas alas a los buscadores de máquinas de movimiento perpetuo, o de energía gratuita. ¿Y si pudiéramos usar esa energía? Pues no, no se puede, porque como ya he mencionado varias veces, la energía del punto cero, es la energía más baja posible de un sistema. Por definición, no podemos extraerla.

No quisiera terminar sin mencionar que, teniendo en cuenta el humor y referencias frikis de la película, es probable que los guionistas fueran perfectamente conscientes de la imposibilidad de utilizar la energía del punto cero, y fuera simplemente un guiño, una broma, una sutil crítica a los que creen que pueden aprovechar esta energía.

viernes, enero 23, 2009

¿Y tú qué sabes?

Hace tiempo recibí algún que otro correo, comentándome la película documental titulada «¿Y tú qué sabes?». Por fin me he decidido a verla, pero debo confesar que no he podido terminarla. Básicamente utilizan algunas ideas sobre filosofía, mecánica cuántica y el funcionamiento del cerebro, para convencerle a uno de que la realidad es una creación del cerebro, y podemos modificarla. Para ello, muchas veces recurren a razonamientos que sólo pueden calificarse como falaces: se parte de una premisa para obtener una conclusión, sin que medie un razonamiento lógico entre ellos.

Como no he visto la película en su totalidad, habrá quien piense que no debo opinar sobre la misma. Pero voy a comentar únicamente lo que he visto. Si resulta que en algún momento posterior de la peli, se rebate lo mencionado al principio de ella, agradecé que alguien lo comente.

Antes de poner de manifiesto la «mala ciencia», quisiera comentar algunos puntos positivos de la peli, que los tiene. Se menciona el famoso mito de la caverna de Platón, que ciertamente es interesante. Todo lo que conocemos del mundo que nos rodea, es información percibida por nuestros sentidos. En este sentido, no podemos saber si vivimos en el mundo real, o todo es una ilusión de nuestros sentidos. ¿Quién no ha visto Matrix? No es la única ni la primera en tratar este tema, pero seguramente es la más conocida.

También se hace una explicación sencilla y entendible de algunos aspectos de la mecánica cuántica, mediante la metáfora de una cancha de baloncesto «mágica». Así, se expone el concepto de superposición cuántica, y se menciona el hecho de que a nivel subatómico, no hay contacto físico. Cuando tocamos un objeto con la mano, en realidad ninguno de nuestros átomos toca ningún átomo del objeto.

Y ahora vayamos al grano. Se menciona el problema que comenté hace una semana del colapso de a función de onda mediante la observación. Recapitulemos: la función de onda es nuestra herramienta matemática para modelar el estado de un sistema de partículas subatómicas. Pero este modelo no nos proporciona un único estado, sino múltiples estados, con distintas probabilidades. Pese a todo, cuando se realiza una observación del sistema, éste aparece ante nosotros con un único estado, de todos los posibles. A esto se le llama colapso de la función de onda. Según el documental, es la «conciencia» del observador lo que provoca este colapso. Antes, el sistema existía en varios estados, pero nuestra conciencia lo ha modificado, forzándole a estar en un único estado. Y como nuestra conciencia es la responsable, eso quiere decir que podemos alterar la realidad, e incluso podríamos llegar a hacerlo voluntariamente.

Veamos, el colapso de la función de onda es algo que de momento tiene varias interpretaciones. Como comenté en el envío de la semana pasada, puede que la superposición de estados se deba a la limitación de nuestro modelo, o que sólo podemos determinar probabilidades en un universo no determinista, o que ciertamente haya multiples estados que se colapsen al interactuar con un sistema externo (el observador). Pero en este último caso, la propuesta de que la causa del colapso de onda sea la «conciencia» del observador, independientemente de que suene más a metafísica que a física, creo que es fácilmente rebatible. Cuando se realiza una observación de un sistema de partículas subatómicas, en realidad no hay una persona consciente «mirando» directamente el experimento. Imaginad, por ejemplo, los experimentos en un acelerador de partículas. ¿Creéis que los datos los toma un señor asomandose por un ventanuco y observando el experimento con sus propios ojos? Más bien no ¿verdad? Las mediciones las realizan diversos aparatos detectores, cuyos datos son registrados y posteriormente analizados por ordenadores. El observador es una máquina. Y a menos que queramos otorgar conciencia a esas máquinas, la propuesta no se sostiene.

Antes de que alguien mencione al gato de Schrödinger como argumento, explicaré que la supuesta paradoja no es tal. Se trata únicamente de un experimento imaginario y pedagógico, sobre lo «rara» que puede ser la mecánica cuántica. Para el que no haya oído hablar del gato, lo resumiré rápidamente. Tenemos una caja cerrada, con un gato dentro (inicialmente vivo), una botella cerrada con gas venenoso, un dispositivo que abre o rompe la botella, un detector de partículas y un único átomo de algún elemento radiactivo. Este átomo, tiene una probabilidad de desintegrarse durante un periodo de tiempo, del 50%. Y al desinterarse, emite una partícula. Si el detector de partículas detecta esa partícula, abre o rompe la botella, liberando el gas, y matando al pobre gato. Según la superposición cuántica, el átomo está en ambos estados a la vez, por lo que el sistema completo está en dos estados a la vez, y el gato, no está ni vivo ni muerto, sino ambas cosas a la vez. Sólo cuando abrimos la caja, al realizar la observación, la fucnión de onda se colapsa y aparece un único estado, revelando si el gato está vivo o muerto. ¿Extraño? ¿Paradójico? Realmente no. El detector de partículas realiza mediciones. Es el observador que colapsa la función de onda. Así que, independientemente de que no lo sepamos hasta que abramos la caja, el gato o está vivo, o está muerto. Y podemos afirmar de que hay un 50% de probabilidades de que esté vivo y otro 50% de que esté muerto.

En la película se mencionan un par de estudios (bueno, imagino que más, pero como ya digo, no la vi entera), que se supone demuestran la idea de que nuestra mente crea la realidad que nos rodea. En uno de ellos, se examinaba el cerebro de varios sujetos con un escaner. Resulta que al experimentar algo, se activaban ciertas regiones del cerebro, y luego, al pedir que recordasen esa experiencia, se activaban las mismas regiones. Así que sacan como conclusión que el cerebro no es capaz de diferenciar entre lo que experimentamos en el momento, y lo que recordamos.

Bueno, no soy neurólogo, pero imagino que no es descabellado pensar que esa coincidencia se debe a que lo que recordamos, lo hemos memorizado previamente. Y que esas zonas deben tener que ver con el funcionamiento de nuestra memoria. Como informático, no puedo evitar pensar en el funcionamiento de un disco duro. Al grabar un fichero, el disco gira y los cabezales se desplazan, modificando el magnetismo de un sector (o sectores) concretos del disco. Al recuperar el fichero, el disco gira y los cabezales se desplazan, detectando el magnetismo de los mismos sectores donde habíamos guardado el fichero (lógico ¿no?). ¿Significa esto que un disco duro no es capaz de diferenciar entre lecturas y escrituras?

Por otro lado, la afirmación de que el cerebro no es capaz de distinguir entre la experiencia del momento y el recuerdo, es algo fácilmente rebatible de forma empírica. ¿Hay alguien leyendo esto que no sepa distinguir entre un recuerdo y lo que está experimentando en ese momento? Realicemos un sencillo experimento. Recordad alguna apetitosda comida que hayáis realizado (en mi caso, unos huevos fritos con chorizo y patatas al montón). Evocad su recuerdo con todo detalle. Relajáos y deteneos a recordarlo completamente. El sabor, el olor, la textura, la sensación de la comida siendo tragada... ¿Os habéis saciado? ¿O más bien os ha entrado hambre, como a mí (ahora mataría por unos huevos fritos con chorizo...)?

El otro estudio se refiere a un experimento realizado en Washington DC. Parece ser que seleccionaron a 4.000 personas para que meditasen durante ese tiempo, dando como resultado una disminución de crimenes en un 25%. Bueno, seguro que hay otras explicaciones, como el efecto mariposa en un sistema tan complejo y caótico como una ciudad, o el simple azar (habría que repetir el experimento varias veces, para asegurar una relación). Pero es que según he podido comprobar en algunos sitios ([1] y [2]) esa disminución de un 25% nunca ocurrió. Es más, parece ser que el año en cuestión fue especialmente «delictivo» en Washington DC.

Durante la película se nos dice varias veces que la realidad la crea nuestro cerebro, y que podríamos crearla a nuestro antojo, pero que estamos condicionados desde pequeños para recrear la misma realidad cada mañana. No sé vosotros, pero la evidencia empírica de la que dispongo me dice que eso no es así. Recuerdo como anécdota graciosa, que de pequeño intentaba mover objetos con «La Fuerza», y no lo conseguía (cosas de niños, claro, pero se supone que es cuando uno está menos condicionado). Además, si creara la misma realidad cada mañana, no habría imprevistos en mi vida. No se retrasaría el tren un día sin motivo. No tropezaría con un adoquín. No encendería la tele para ver mi serie favorita y descubrir que han hecho contraprogramación y han puesto algo que no me gusta nada. No recibiría malas noticias. Y sólo estoy mencionando pequeños inconvenientes. Hay gente por ahí con problemas realmente graves. Hay hambre, guerras, enfermedades... ¿la gente que sufre estos males lo hace porque quiere?

Esta afirmación tiene además un problema: no es falsable. Desde el momento en el que se dice que no creamos la realidad a nuestro gusto porque estamos condicionados, cualquier experimento que hagamos que contradiga la teoría, siempre tendrá como contestación que ha fracasado porque estamos condicionados. Y una teoría no falsable, por definición, no es una teoría científica. Fijáos además que si alguna vez, un experimento parece concordar con la teoría, será un éxito y una demostración de su validez (aunque sea por puro azar), mientras que el resto de experimentos que la contradicen, será por culpa de nuestro condicionamiento. Tenemos una forma de mostrar los aciertos como demostraciones, y los fracasos también.

Me está quedando un artículo demasiado extenso (y encima sin imágenes, que animen un poco la cosa), pero no quiero terminar sin comentar otra cosa que creo contradice la base de todo el asunto. Nos cuentan una historia (leyenda, más bien, ya que el propio narrador dice algo así como «me gusta creer que es cierta») sobre los indígenas americanos y la llegada de los conquistadores españoles. Según esta historia, los indígenas no podían ver los navíos que se acercaban, puesto que nunca habían visto un barco, y no formaba parte de su conocimiento. Sólo el chamán de la tribu era capaz de percibir algo extraño en el agua, y tras días de observación, al asimilar la nueva información, pudo ver los barcos. Entonces lo comunicó al resto de la tribu, y como confiaban en el chamán, también pudieron ver los barcos.

Creo que es evidente la falsedad de esta historia. Cualquiera de nosotros se ha enfrentado a lo largo de su vida a algo desconocido o nunca visto, y seguramente no era «invisible» para él. Y cualquiera puede comprobarlo fácilmente. Pedid a algún amigo que os enseñe algún objeto que no sepáis qué es (bueno, puede que no sea tan fácil encontrar algo así), y que os lo enseñe. Estoy seguro de que por muy desconocido que sea, lo veréis. Y es que una característica así (no poder percibir lo desconocido) es una lacra evolutiva tan grande que de ser cierto, hace mucho que nos habríamos extinguido. Imaginad que aparece un depredador nuevo, y que no podemos verlo. Malo ¿verdad?

Y como he dicho antes, la misma idea contradice lo demás. Si los barcos aparecieron ante los indígenas, y era algo tan desconocido para ellos que no podían percibirlo, entonces ciertamente no los crearon ellos. No podemos crear la realidad cotidiana a nuestro antojo.

Bueno, no sé cuantos habréis podido llegar hasta aquí. Demasiado largo, pero no he podido acortarlo.

viernes, enero 16, 2009

Stargate SG-1: determinismo científico

El de hoy es uno de esos pocos envíos en los que no comentaré un error o gazapo, sino un acierto. Otra vez se trata de la serie televisiva Stargate SG-1, concretamente en uno de los últimos episodios de la sexta temporada.

Resulta que uno de los personajes (que no mencionaré, ya podría ser un spoiler) comienza a tener breves visiones del momentos del futuro (no, no, esto no es la buena ciencia que voy a comentar, claro). La cosa se pone interesante cuando en una ocasión, al intentar prevenir un hecho futuro, lo que hace es provocarlo (argumento clásico de la ciencia ficción, que me encanta). El personaje se agobia, y se pone a filosofar con la Mayor Carter sobre el futuro y si está determinado o se puede alterar (para redondear la cosa, visitaban un planeta en el que los habitantes tenían una profecía que encajaba con ellos). Ella le menciona que según la «física newtoniana», si se conoce la posición y velocidad de todas las partículas del universo en cualquier momento, se puede predecir su comportamiento futuro, hasta el final de los tiempos. Pero luego añade que la mecánica cuántica tiró por los suelos esa idea, le explica el Principio de Indeterminación de Heisenberg (bastante bien, por cierto), y concluye que sólo se puede hablar de probabilidades. El personaje (cuyo nombre sigo sin mencionar) se alivia un poco pensando que entonces, sí que puede cambiar el futuro que ve en sus visiones.

Bueno, salvando el hecho de que el determinismo no aparece sólo en la mecánica clásica newtoniana, sino en todas (o casi todas) las ramas de la física, la reflexión que hace y la forma de exponerlo es acertada (aunque la conclusión final es discutible). Hasta el desarrollo de la mecánica cuántica, toda la evidencia empírica corroboraba el determinismo científico. Esto quiere decir que si uno pudiera conocer todas las leyes físicas que rigen el comportamiento del universo, y el estado completo del mismo en un momento dado, se podría predecir su evolución a todos los niveles, y hasta cualquier momento del futuro (lo que incluiría, por ejemplo, predecir los números premiados de la lotería o las decisiones de una persona).

Obviamente, aunque conociéramos todas las leyes existentes (que no las conocemos), es imposible conocer el estado completo del universo, átomo a átomo, partícula a partícula, por lo que nunca podremos aplicar completamente esta idea. Pero este concepto es fundamental para el método científico: Si en un determinado fenómeno, experimento u observación, la predicción teórica no concuerda con la observación realizada, o bien tenemos datos erróneos o incompletos, o bien estamos utilizando una ley errónea o incompleta. Así, cuando los astrónomos comprobaron que el movimiento de Urano no se ajustaba del todo a las leyes de Newton, dedujeron que había algún otro planeta desconocido por ahí, influyendo con su gravedad. Y así se descubrió Neptuno. Teníamos datos incompletos. En el otro extremo, cuando tampoco el movimiento de Mercurio se ajustaba a la teoría newtoniana, resultó que era la teoría la que estaba mal, y hubo que esperar a la relatividad general de Einstein para explicar dicho movimiento.

Pero llegó la mecánica cuántica, e introdujo indeterminación y aleatoriedad en nuestra concepción determinista del universo. Ya hablé en una ocasión del Principio de Indeterminación de Heisenberg, que nos dice básicamente que no podemos conocer con toda la precisión que queramos, la posición y velocidad de una partícula. Cuanto más determinemos una de las variables, más indeterminada estará la otra. Así que á lo más que podemos aspirar es a conocer regiones del espacio y rangos de velocidad, donde la probabilidad de que la partícula se encuentre ahí sea alta. A demás, a esta complicación se le añade el hecho de que el efecto observador es muy importante en la mecánica cuántica, dado el pequeño tamaño de los objetos de estudio. Para conocer el estado de una partícula, debemos hacer que interaccione con otra, y por tanto, estaremos modificando su estado original. Para ilustrar esto, imaginad que queremos medir la temperatura de un objeto de masa similar al termómetro que usemos. Si la diferencia de temperatura entre nuestro objeto de estudio y el termómetro es muy elevada, una vez se hayan igualado las temperaturas, el objeto habrá perdido o ganado una cantidad muy importante de calor, con respecto a la que tenía originalmente. Imaginemos un caso extremo en el que queramos medir la temperatura de un único copo de nieve con un termómetro. Si el termómetro tiene la temperatura de nuestra mano, en cuanto lo pongamos en contacto con el copo, se derretirá.

Para modelar el mundo subatómico, se utiliza lo que se conoce como función de onda, que tiene una matemática bastante complicada. Olvidáos del familiar espacio tridimensional (o cuatridimensional, no nos olvidemos del tiempo). Aquí se trata con más dimensiones. Olvidaos de las partículas. Aquí se trata con cosas que son mezcla de partículas y ondas. Y olvidaos de conocer el estado concreto de una partícula en un momento dado. En nuestro modelo matemático, las cosas tienen probabilidades y varios estados simultáneos. Y lo curioso es que pese a todo esto, la evolución de la función de onda es determinista, hasta el momento en el que se realiza una observación, y obtenemos un resultado concreto de los muchos posibles que nos indica nuestro modelo. Esta peculiaridad de la mecánica cuántica, denominada colapso de la función de onda, puede interpretarse de muchas formas.

Podemos pensar que simplemente nuestro modelo no es del todo correcto, o que hay datos que no estamos teniendo en cuenta, de forma que esta aparente aleatoriedad refleja los errores de nuestra teoría. Ante esta reflexión hay que tener en cuenta que la mecánica cuántica ha demostrado su validez permitiéndonos diseñar y fabricar dispositivos semiconductores basados en silicio, que son la base de la electrónica moderna, si la cual no serían posibles los ordenadores actuales, ni Internet, ni este blog que leéis ahora. Pero también la mecánica clásica nos permitió comprender los movimientos planetarios, y resulta que no es del todo correcta. Una teoría incorrecta puede servir, si nos proporciona una aproximación suficiente, dentro de su ámbito de aplicación. De hecho, la mecánica clásica se sigue utilizando siempre que no descendamos al mundo subatómico, aceleremos hasta velocidades relativistas, o nos acerquemos demasiado a enormes masas. Y hoy en día, sabemos que la relatividad general y la mecánica cuántica son incompatibles. Necesariamente, una de las dos es errónea. ¿Cuál? ¿Sólo una de ellas o las dos? Aún no lo sabemos.

Podemos pensar también que el problema es la observación. Para medir las propiedades de las partículas, las alteramos, y eso nos da un margen de error bastante amplio, que no podemos reducir. Y claro, sin medida, no podemos saber el valor de la propiedad que necesitamos conocer. Fijaos que en estos dos casos, el universo sigue siendo determinista. Lo único que ocurre es que nuestro conocimiento es limitado.

Pero podemos pensar también que hay una aleatoriedad intrínseca en la naturaleza, y que lo más que podemos hacer es acotar el margen de resultados y calcular probabilidades. Esto eliminaría de un plumazo el determinismo científico. También podemos pensar cosas mas extrañas, como que realmente las partículas tienen múltiples existencias simultáneas, pero que nuestra observación hace que conviertan en una sola (de forma incontrolada).

En resumen, desde el punto de vista de la existencia o no de determinismo, las interpretaciones de la mecánica cuántica pueden resumirse en dos:

Dios no juega a los dados. —Albert Einstein.

Dios no sólo juega a los dados, sino que a veces los lanza donde no se pueden ver. —Stephen Hawking.

Una última reflexión: independientemente de que el mundo subatómico sea determinista o no, el mundo macroscópico sí lo es. Siguendo con las metáforas de los dados, el resultado de un lanzamiento es impredecible. Sólo podemos decir que la probabilidad de cada uno de los 6 resultados posibles, es de 1/6. Pero si lanzamos 6 billones de dados, podemos asegurar que cada uno de los 6 resultados posibles, aparecerá en aproximadamente un billón de dados.

Actualización: Me han hecho notar que la mecánica cuántica y la relatividad general no son realmente incompatibles. Podéis leer un artículo al respecto en el excelente y recién descubierto blog El Tamiz. Os recomiendo especialmente la serie Relatividad sin Fórmulas (sólo relatividad especial) y Cuántica sin Fórmulas. Hasta un niño entendería cómo lo explica.

viernes, octubre 24, 2008

Todas las cosas tienen su final

No, no, tranquilos. No me estoy despidiendo. Resulta que esta semana, al llevar a mi preciosa nena al pediatra, en la sala de espera había un ejemplar de la conocida revista «Muy Interesante» (septiembre de este año), y en su portada aparecía como titular principal, algo así como «Ya se sabe cómo acabará todo» (cito de memoria, tal vez no sea exacto). Me sorprendí mucho, ya que hasta donde yo sé, aún no se conoce cómo será el fin del universo. De hecho, se barajan tres posibles finales: el Big Crunch, donde la gravedad terminará frenando la expansión del universo, y lo contraerá hasta que se colapse sobre sí mismo, como en un Big Bang marcha atrás; el Big Rip, donde la energía oscura acelerará cada vez más la expansión, venciendo las cuatro fuerzas fundamentales, deshaciendo galaxias, sistemas planetarios, hasta la propia materia, quedando una inmensa nube de partículas elementales; y la muerte térmica, inevitable por culpa de la implacable Segunda Ley de la Termodinámica, de forma que si el universo no termina por algún otro motivo, lo hará de esa forma.

Así que busqué el artículo, para ver si se había realizado algún nuevo descubrimiento sobre el tema, y resulta que no. De hecho, en el artículo se exponían diferentes finales para tres cosas: la humanidad, la Tierra (nuestro Sol, más bien), y el propio Universo. En los tres casos hay varios posibles finales, y así se explicaba en el artículo, por lo que el titular era totalmente falso. Esto sería más bien un caso de mala prensa (titular engañoso), pero en el propio artículo se mencionaban una serie de cosas que sí entran dentro de mala ciencia.

Al hablar de los posibles finales de la vida humana, se comenzaba mencionando una idea propuesta por un filósofo (no recuerdo el nombre), para calcular la probabilidad de que la humanidad se extinga en determinado intervalo de tiempo. Así, se exponía un experimento mental como analogía, en el que se tiene una caja llena de bolas numeradas (comenzando por 1 y de forma secuencial, de forma que el número más alto coincide con el total de bolas). No sabemos si en la caja hay 10 bolas o 10 millones. Pero si sacamos una bola al azar, y resulta que tiene el número 7, es mucho más probable que haya 10 bolas en la caja, que 10 millones, y dicha probabilidad se puede calcular. Una vez planteado esto, se explicaba que en el mundo real, el número de la bola extraida sería el total de nacimientos que ha habido desde el inicio de la especie humana, y aplicando las mismas matemáticas, se puede calcular cuál es el número máximo de nacimientos (bolas) más probable.

Pero esa analogía tiene una trampa. Si consideramos que cada nacimiento es una bola numerada, entonces no estamos extrayendo una bola al azar. Lo que estamos haciendo es extraer las bolas una a una, por orden. Volviendo al experimento, las 5 primeras bolas serán por narices, las que van numeradas del 1 al 5, y eso no me dice nada en absoluto de si es más probable que haya 10 ó 10 millones de bolas. De hecho, si utilizamos el razonamiento que nos plantean, al sacar las primeras bolas, el cálculo nos dirá que lo más probable es que en la caja haya pocas bolas; y a medida que vamos sacando más y más, nuestros cálculos aumentarán cada vez más el número total de bolas de la caja. Y al sacar las últimas bolas, pensaremos que quedan muchísimas más todavía. En fin, que no me parece en absoluto una forma válida de calcular la fecha de la posible extinción de la especie humana.

Lo curioso es que se proponían diversos finales, todos ellos destructivos, como impactos de meteoritos, pandemias mortales, guerras con armas de destrucción masiva (aunque dado que sobrevivimos a la Guerra Fría, creo que este es el menos probable, pese a nuestro belicismo), etc. No se proponía algo tan simple (y común, si no, la vida seguría igual que hace millones de años), como el que nuestra especie evolucionara, adaptándose a los cambios del ecosistema, hasta que ya no seamos homo sapiens, sino otra cosa. Bueno, se mencionaba el calentamiento global, pero también de forma catastrófica, y que provocaría extinciones en masa, no como un cambio al que las especies se adaptaran.

En el apartado dedicado a explicar los posibles finales del universo, se hace también una introducción desafortunada: así, se menciona que los antiguos griegos tenían razón al pensar que el universo estaba formado de cuatro elementos fundamentales, puesto que así ocurre en realidad: materia, energía, materia oscura y energía oscura.

Bueno, pues va a ser que no. Los griegos pensaban que todas las cosas estaban hechas de una combinación de aire, agua, tierra y fuego. Y sí, son cuatro, pero hasta ahí el parecido. Además, la materia oscura no es un «algo» diferente de la materia. La materia oscura es materia, con la única característica de que no emite radiación electromagnética (como luz) detectable por nosotros, pero que se sabe que existe por sus efectos gravitatorios. Y aunque aún no se sabe con seguridad qué es la materia oscura, los planetas entrarían perfectamente en dicha definición. El único problema de la materia oscura es saber qué es exactamente, y por qué está ahí. Pero es materia.

Por otro lado, ni materia ni energía (la energía oscura aún no se sabe muy bien lo que es, así que la dejaremos de lado) son componentes fundamentales del universo. Estos componentes son las partículas elementales, que forman tanto la materia como la energía. Sí, la energía también. Recordemos, por ejemplo, que la radiación electromagnética está formada por fotones. Estas partículas elementales son los componentes fundamentales del universo (y son más de cuatro).

viernes, septiembre 26, 2008

El LHC y el Big Bang

Bueno, ya estoy de vuelta tras mi pequeño retiro forzoso. Ya iré contestando poco a poco a los correos y comentarios que hay por ahí pendientes. Pero lo primero, es actualizar este vuestro blog. Y hoy lo haré con un tema que ha estado dando vueltas un tiempo, y que recientemente a vuelto a ser noticia debido a su inaguración. Me refiero al nuevo e inmenso acelerador de partículas de CERN, el Large Hadron Collider (Gran Colisionador de Hadrones), o LHC para los amigos.

No, aunque decepcionaré a algunos, no voy a hablar sobre la polémica de si podría destruir el mundo, sino de algo mucho más simple. En los medios de comunicación, al dar la noticia de que se había «inagurado» (que su construcción se ha completado y se ha realizado la primera prueba), se han referido a él como «la máquina del Big Bang», y han mencionado cosas como que se pretente recrear el Big Bang, o cosas similares. Esto puede llevar a pensar a uno que se va a realizar la creación de un nuevo universo, o algo así. En realidad, lo que se pretende es reproducir las condiciones que había en el universo, en los instantes posteriores al Big Bang (a muy pequeña escala, por supuesto). Y cuando digo instantes, no me refiero a unos pocos segundos, sino a órdenes de magnitud mucho menores, por debajo incluso del nanosegundo (10-9 segundos) o del picosegundo (10-12 segundos).

¿Cómo y qué significa esto? Bueno, todo el mundo tiene más o menos en mente lo de la gran explosión con la que comenzó el universo. Pero la Teoría del Big Bang no es sólo eso, sino que describe cómo fue evolucionando el universo primigenio. La ciencia no puede (y tal vez nunca pueda) explicar el instante inicial del Universo, ni qué había antes (sobre todo porque el tiempo forma parte del universo, y antes no existía; citando a Stephen Hawking, «es como preguntarse qué hay más al norte del Polo Norte. Es una pregunta sin sentido»). Se parte de que en su origen, el universo era un punto inmensamente denso y caliente (imagináos todo el universo actual concentrado en un puntito). Lo que ocurrió durante los primeros 10-43 segundos de existencia del universo es bastante especulativo. De hecho, según la mecánica cuántica actual, ése es el intervalo de tiempo más pequeño que puede ser medido (y no por cuestiones técnicas, sino por la naturaleza cuántica del universo), denominado tiempo de Plank. Así que tal vez no tenga sentido siquiera preguntarse qué ocurrió en ese intervalo. Sería como buscar qué hay entre dos fotogramas consecutivos de una película.

En esos primeros instantes, sólo había energía. A medida que el universo se expandía y enfriaba, aparecieron las primeras partículas elementales: quarks y leptones (como electrones y neutrinos). Posteriormente los quarks se juntaron para constituir hadrones (como protones y neutrones). Todo esto, ocurre antes de que concluya el primer segundo del universo. Posteriormente, durante los primeros 3 minutos de existencia, protones y neutrones se juntan, formando núcleos atómicos (principalmente de hidrógeno y helio). Sólo son núcleos. Los átomos se forman después (recordad, el núcleo recubierto por una corteza de electrones), durante los siguientes miles de años.

Esto en cuanto a la materia. Otro asunto interesante es lo que ocurre con las interacciones fundamentales. Veréis, en el universo existen cuatro fuerzas o interacciones fundamentales: la gravedad, el electromagnetismo, la interacción nuclear fuerte, y la interacción nuclear débil. No es necesario que explique qué es la gravedad y el electromagnetismo. La interacción nuclear fuerte es la que existe entre los quarks, que los mantiene unidos para formar hadrones, y además mantiene unidos los protones y neutrones del núcleo atómico, superando la fuerza repulsora electromagnética entre los protones (que tienen carga eléctrica). La interacción nuclear débil aparece entre quarks y leptones, y tiene que ver entre otras cosas, con ciertos tipos de desintegración.

La cuestión es que se piensa que estas cuatro interacciones, son en realidad aspectos distintos de una sola. Sería algo similar a lo que sucedió con el electromagnetismo. Antes del siglo XIX, se pensaba que la electricidad y el magnetismo eran cosas totalmente diferentes. Teníamos cargas eléctricas, que se atraían o repelían, y teníamos polos magnéticos, que también se atraían y repelían. Pero se comenzaron a observar fenómenos que sugerían que ambas interacciones estaban relacionadas de algún modo (por ejemplo, una carga eléctrica en movimiento, genera un campo magnético). Finalmente se descubrió que la electricidad y el magnetismo eran aspectos diferentes de una misma interacción, a la que se denominó electromagnetismo (sí, un nombre muy obvio). Con las cuatro interacciones fundamentales sucede lo mismo, aunque la unificación sólo se aprecia a muy altas energías, como las existentes en los primeros instantes del universo. Así, se piensa que inicialmente existía una única interacción. Primero fue la gravedad la que se separó, después la interacción nuclear fuerte, y finalmente la interacción nuclear débil y el electromagnetismo. Hay evidencia experimental que corrobora la unicidad de electromagnetismo e interacción nuclear débil (llamada también con un nombre obvio: electrodébil). Pero en el resto de casos, sólo está la teoría (y en el caso de la gravedad es más complicado, e incluso puede que esa interacción sí que sea algo diferente de las demás; pero eso es otra historia).

Supongo que muchos os preguntaréis ¿cómo se puede saber todo esto? Bueno, no penséis que todo son especulaciones de unos locos con mucha imaginación. En ciencia, las teorías deben surgir de la observación o de otras teorías comprobadas. Así, se puede predecir la existencia de partículas elementales que sólo aparecen en condiciones de muy alta energía, como la presente en esos instantes iniciales del universo. Si conseguimos concentrar la suficiente energía en un punto concreto (básicamente, lanzando partículas elementales a gran velocidad y en sentidos contrarios, para que choquen entre sí), podremos «imitar» de forma muy localizada parte de las condiciones de esa época, y comprobar si esas partículas teorizadas (y otras cosas) aparecen o no, y así corroborar o descartar teorías. Y cuanta más energía consigamos concentrar, más temprana es la época que podemos reproducir.

Y eso es lo que hace el LHC. Concretamente, lo que hace es lanzar prototones para que colisionen entre sí. De ahí el nombre de Gran Colisionador de Hadrones (el protón es un hadrón).

Actualización: Más información en Rompiendo partículas (LHC), del blog Ciencia aficción.

jueves, octubre 18, 2007

El Mundo Perdido: Interferencia del observador y el Principio de Indeterminación

Hace unas semanas pusieron en la tele la película El Mundo Perdido: Parque Jurásico, conocida secuela de la conocidísima Parque Jurásico. Al principio de la peli, cuando los protas llegan a Isla Sorna, el matemático (Jeff Goldblum) y su novia (Julianne Moore) mantienen una conversación que me llamó la atención. Ella explica que tienen la misión de observar y documentar el comportamiento de los dinosaurios, sin interferir en ellos, a lo que él responde que es físicamente imposible, ya que el Principio de Indeterminación de Heisenberg dice que cualquier observación de un fenómeno, lo modifica. Bien, el matemático está cometiendo un error muy común, que es confundir el Principio de Indeterminación de la mecánica cuántica, con un principio más general de toda ciencia experimental.

Veamos, es cierto que la observación de un fenómeno o experimento, puede alterar su resultado. Un ejemplo muy sencillo es la medición de la corriente eléctrica o la diferencia de potencial, en un circuito. Para medir cualquiera de estas dos magnitudes, debemos conectar un amperímetro (para la corriente) o un voltímetro (para la diferencia de potencial) al circuito en cuestión, y al hacerlo, necesariamente estamos alterándolo. Un buen aparato bien calibrado, puede minimizar este efecto hasta hacerlo casi despreciable, pero existe. Dependiendo del experimento, la alteración puede ser más o menos importante, o inexsistente (el observar una estrella situada a años luz, difícilmente puede interferir en su evolución).

En el caso de observación de comportamiento de animales o humanos, la alteración puede ser tan significativa que arroje resultados totalmente erróneos. Un caso muy conocido es el del experimento de Hawthorne, en el que se intentó estudiar cómo afectan diferentes condiciones ambientales en el rendimiento de un grupo de trabajadoras, y que Omalaled explica muy bien en Historias de la Ciencia.

Sin embargo, esto no tiene nada que ver con el Principio de Indeterminación de Heisenberg. Dicho principio nos dice básicamente que no podemos conocer con toda la precisión que queramos, la posición y momento lineal (o cantidad de movimiento) de una partícula, de forma simultánea. Y este principio sólo es apreciable en el mundo de la mecánica cuántica. Puesto que la cantidad de movimiento es el producto de la masa por la velocidad, y la masa es constante, en ocasiones se simplifica y se habla únicamente de posición y velocidad (en el sentido vectorial, es decir, incluyendo la dirección y sentido). Si vamos un poco más al detalle, lo que nos dice dicho principio es que el producto de la desviación estandar de dichas variables (posición y momento lineal) es mayor o igual que la constante de Planck (ℎ) dividida entre 4·π (Δx·Δp≥ℎ/4π). Esto quiere decir que cuanta más precisión tengamos en la medida de la posición, menos precisión tendremos en la medida del momento lineal, y viceversa.

Fijáos que no se habla de modificación o alteración de la partícula que medimos. Simplemente se nos limita la precisión que podemos alcanzar. En ocasiones, para explicar este principio tan anti-intuitivo, se recurre a analogías que hacen alusión a procesos de medida que alteran otras variables. Así, es común la explicación que nos dice que para «ver» un electrón, un fotón debe golpearle, alterando su trayectoria. Pero el Principio de Indeterminación no tiene nada que ver con las limitaciones de nuestros instrumentos o procesos de medida, sino que es una cualidad innata de la materia, debido a la dualidad onda-partícula del mundo subatómico.

¿Cómo es esto? Veréis, cuando descendemos hasta el mundo subatómico, las cosas son muy diferentes de lo que la experiencia cotidiana nos tiene acostumbrados. Cuando nos explican que un átomo está formado por un núcleo de protones y neutrones, con electrones dando vueltas alrededor, inmediatamente pensamos en pequeñas bolitas apelotonadas, con otras pequeñas bolitas orbitando alrededor en trayectorias bien definidas. Pero la realidad es muy diferente. Las partículas subatómicas no son partículas tal y como las entendemos normalmente, sino que son una «mezcla» de onda y partícula. No son ni ondas ni partículas, sino ambas cosas a la vez. Se comportan como ondas y como partículas, y tienen cualidades de ambas. Así, los electrones tienen frecuencia y longitud de onda, y las ondas electromagnéticas están formadas por partículas llamadas fotones. En nuestra mente, podemos llegar a imaginar una «bolita», moviéndose siguiendo una trayectoria senoidal, pero seguiremos estando alejados de la compleja realidad.

Bueno, vale, pero ¿qué tiene que ver esto con el Principio de Indeterminación? Bien, para entenderlo un poco vamos a utilizar la abstracción de la bolita moviéndose de forma ondulatoria. Así que imaginemos nuestra pequeña bolita, siguiendo esa trayectoria senoidal, donde la amplitud de la onda es bastante mayor que el tamaño de nuestra bolita. ¿Qué ocurriría si observásemos la bolita durante un periodo de tiempo muy inferior a un ciclo completo? Pues que la bolita se habría movido poco, y tendríamos bastante idea de dónde está, Sin embargo, al haberla pillado en medio de un ciclo, no podemos precisar demasiado hacia dónde va la onda. ¿Por qué? Bueno, imaginemos que la observamos cuando está en una cresta o en un valle. Es fácil ver que la dirección de la onda senoidal coincide con la trayectoria de la partícula en ese momento. Pero ¿Y si la pillamos cuando está subiendo o bajando? En este caso, la dirección de la onda no coincidirá con la de la partícula. Si no sabemos en qué momento hemos observado la partícula, deberemos añadir un margen de error considerable en nuestra medición de la dirección.

Si observamos nuestra bolita durante un periodo de tiempo superior a un ciclo, no tendremos problemas en averiguar cuál es la dirección de la onda. Sin embargo, nuestra bolita se ha movido mucho, y no podemos determinar exactamente dónde estaba en el momento de la medición. Es más, es que ni siquiera tiene mucho sentido plantearselo, puesto que sabemos que la bolita ha cambiado de posición durante la observación.

Insisto en que este pequeño experimento mental es sólo una forma de intentar comprender el Principio de Indeterminación, de forma sencilla. No intentéis extraer otras conclusiones de él. La realidad de la mecánica cuántica es mucho más compleja.

Otra forma de entender el Principio de Indeterminación, y además con experimentos prácticos (si tenéis altavoces), nos la dio hace tiempo Hairanakh en su blog, en tres entregas: El principio de incertidumbre en la música, El experimento de los dos tonos, y El principio de incertidumbre en matemáticas (bueno, en realidad son cuatro, pero la primera es muy introductoria).

Resumiendo, el Principio de Incertidumbre no tiene nada que ver con el «efecto observador». Aun en el caso de que tengamos instrumentos de medida que no interfieran en absoluto, y de precisión infinita, nuestra medición tendría una precisión limitada debido a la propia naturaleza de lo que estamos midiendo.