Rayos X, cuantización de la Energía y la constante de Planck

Hay productos que utilizan los rayos X para hacernos la vida un poco mejor y más divertida como las gafas de rayos X para ver debajo de la ropa de otras personas y también muchos superhéroes los utilizan para acabar con los supervillanos, como los médicos y radiólogos que los utilizan para atacar o diagnosticar enfermedades, pero, ¿qué son los rayos X? En esta entrada quiero aclarar que son en realidad los misteriosos rayos X y como gracias a ellos se demuestra que la energía está cuantizada y como, utilizándolos se calcula, de manera precisa el valor de la constante de Planck. Para esto último voy a utilizar unas pocas fórmulas matemáticas, pero tranquilos que son pocas y fáciles. Antes de nada un poco de historia. En 1895, Wilhelm Konrad Röntgen trabajaba en Würzburg, Alemania, en un campo de investigación relativamente nuevo, los rayos catódicos. Usando un tubo de rayos catódicos, en concreto un tubo de Hittorf-Crook, que estaba envuelto en papel negro observó que sobre un papel indicador de platinocianuro de bario, que estaba al lado, apareció una línea transversal sobre el papel cuando hacía pasar una corriente a través del tubo. Esta línea sobre el papel indicador le resultó extraña. Por un lado, según el estado de la investigación de aquella época, el efecto sólo se podía deber a la radiación de la luz, pero por otro lado, era imposible que la luz proviniera del tubo ya que el papel negro que envolvía el tubo no dejaba pasar ninguna luz. Röntgen bautizó a aquella radiación como rayos X ya que no sabía a que se debían. Casi dos meses más tarde ya había preparado una comunicación anunciando estos resultados e incluso adjuntó una serie de fotografías que se han hecho famosas, como la de la mano de su esposa Anna Bertha Röntgen. Mano mujer Roentgen

Radiografía de la mano de Anna Bertha Röntgen

Röntgen no pudo dar una explicación a los rayos X, pero ahora sabemos lo que son. El tubo de rayos catódicos tiene dos electrodos en sus extremos. Uno de ellos, el cátodo, se calienta hasta que emita electrones y a través de una diferencia de potencial eléctrico de varias decenas de miles de voltios, los electrones son acelerados hasta el electrodo que se encuentra en el otro extremo del tubo, el ánodo. Cuando los electrones golpean el ánodo se observa un espectro continuo de radiación electromagnética que tiene unas longitudes de onda del orden de 1×10-10 m. Lo que en realidad ocurre en el ánodo es que el electrón pasa cerca del núcleo de un átomo del material del ánodo, con lo cual es desviado por el campo eléctrico del núcleo desacelerándose y por lo tanto emitiendo radiación (un fotón), ya que cuando una partícula cargada se acelera o desacelera, es decir cambia su velocidad con respecto al tiempo, emite radiación. No todos los electrones se desaceleran de la misma manera, es decir, no todos tienen la misma desaceleración ya que no todos pasan a la misma distancia del núcleo y al no sentir la misma intensidad del campo eléctrico, no adquieren la misma desaceleración. Debido a esto aparece el espectro continuo de radiación. Un valor diferente por cada electrón, y como hay muchos, el espectro aparece como continuo. continuo copia

Espectro continuo de rayos X

Sin embargo, ocurre un fenómeno curioso. Para cada valor de la diferencia de potencial que se aplique entre los electrodos del tubo de rayos catódicos, aparece una longitud de onda mínima, o longitud de onda de corte, en el espectro continuo de radiación, es decir, una longitud de onda por debajo de la cual no se emite radiación. Este hecho, no se pudo explicar teniendo en cuenta lo que se conocía de física clásica. Llegamos ahora a la segunda parte del título de esta entrada: la cuantización de la energía. A finales del siglo XIX, se conocía experimentalmente que la densidad de energía a una temperatura en un intervalo de frecuencias variaba de tal manera que a frecuencias bajas los cuerpos emitían una cantidad de energía que aumentaba según aumentaba la frecuencia hasta que se alcanzaba una cantidad máxima para luego volver a decrecer según seguía aumentando la frecuencia. Rayleigh y Jeans intentaron explicar esta distribución de densidad de energía pero utilizando la física de aquella época, sólo podían explicar que la energía emitida aumentaba continuamente y esto estaba en contra de las observaciones. A este hecho se le llamó catástrofe ultravioleta. Max Planck propuso que la energía estaba cuantizada, es decir eran paquetes muy pequeños de energía a los que se llamó cuantos donde cada paquete tenía una energía que era proporcional a la frecuencia. Matemáticamente esto se escribe como E= hυ, siendo h la constante de Planck. Utilizando esta aproximación, se solucionaba el problema de Rayleigh y Jeans y la distribución de la densidad de energía encajaba con lo observado experimentalmente. 220px-Wiens

Energía emitida en función de la longitud de onda a diferentes temperaturas

Volviendo a los rayos X, la energía cinética (energía de movimiento) de los electrones vendrá dada por la carga de los mismos, que llamaremos e, y por la diferencia de potencial que los acelera, que llamaremos V por lo que tendremos:

E=eV

En el caso en el que el electrón es totalmente frenado después de interaccionar con el núcleo y teniendo en cuenta que la energía ni se crea ni se destruye, es decir, la energía que llevaba el electrón antes de interaccionar con el núcleo (E=eV) es igual a la que se lleva el fotón al frenarse (desacelerarse) el electrón (E=hυ), tendremos:

eV=hυ

Despejando υ y sabiendo que la velocidad de la luz c es igual a la frecuencia multiplicado por la longitud de onda (c=υλ) obtenemos: λ=hc/eV Es decir, obtenemos una longitud de onda de corte para cada diferencia de potencial. Aquí vemos que algo que no podía explicar la física clásica, se puede explicar utilizando la cuantización de la energía, o lo que es lo mismo, la física cuántica.

En la última fórmula vemos que aparece la constante de Planck.

Ahora vamos a por la última parte del título de la entrada: la constante de Planck. La velocidad de la luz y la carga del electrón tiene unos valores que son muy conocidos y constantes (c=300000 km/s y e=1,602×10-19C). Cuando usamos un tubo de rayos catódicos para generar rayos X, utilizamos una diferencia de potencial que es fija. Si para esa diferencia de potencial dibujamos el espectro continuo de los rayos X que se generan, podemos observar cuál es la longitud de onda de corte, por lo que una vez conocido este valor, podemos meter todos los valores en la ecuación y determinar el valor de la constante de Planck:

h=6,626×10-34Js

El valor de h calculado con este método es muy preciso debido a la precisión con que se pueden conocer el resto de los parámetros de la ecuación.

¿A que las matemáticas de esta entrada no han sido tan dolorosas?

Referencias:

Marie Curie y su tiempo. José Manuel Sanchez Ron

Anna Bertha Roentgen (1832-1919): La mujer detrás del hombre. Daniela García P., Cristián García P. Revista Chilena de Radiología Vol II Nº4, año 2005; 1979-1981

Física Cuántica. Carlos Sanchez del Río (Coordinador) http://es.wikipedia.org/wiki/Catástrofe_ultravioleta

El color de las cosas

¿De qué color son las cosas? Y si estamos en una habitación completamente oscura ¿de qué color son? Vamos a ponernos en otra situación. Estamos en una habitación completamente oscura en la que hay una serie de objetos que no hemos visto nunca ¿de qué color son? ¿tienen algún color? La respuesta a la primera pregunta es difícil de contestar ya que, si nunca hemos visto un objeto, lo único que podemos hacer es imaginar de que color puede ser. La segunda puede llegar a ser una pregunta un poco filosófica, pero en mi opinión si tiene color y de hecho el mismo que todos los objetos de la habitación: negro. Si tienen otro color no sabría decirlo. Pero no quiero hablar de Filosofía, sino de Física, en concreto de la interacción entre materia y radiación.

Cualquier cosa que veamos, toquemos, respiremos,… está hecha de átomos y los átomos están compuestos de un núcleo, protones y neutrones, y de una capa externa de electrones (aquí hablo un poco  más de la composición de los átomos). Son precisamente los electrones los encargados de “dar” color a las cosas. Pero no pueden hacerlo por si solos, necesitan de la ayuda energética que suministran los fotones, es decir, la luz.

Ya en 1911, Rutherford publicó su modelo atómico en el que proponía que los electrones estaban girando en órbitas alrededor del núcleo de manera similar a como lo hacen los planetas alrededor del Sol. Sin embargo, existía el problema de que al girar de esta manera, los electrones emiten radiación y por lo tanto perderían energía hasta caer al núcleo, con lo que los átomos no serían estables. En 1913, el danés Niels Bohr, apoyándose en esta idea junto con la hipótesis cuántica de Max Planck, propuso que los electrones si orbitarían alrededor del núcleo en órbitas circulares, que es el contenido del primer postulado del modelo de Bohr, pero no todas las órbitas serían posibles, es decir, los electrones sólo tienen permitido orbitar en ciertas órbitas que están cuantizadas. Esto es conocido como el segundo postulado del modelo atómico de Bohr que dice que “No toda órbita para el electrón está permitida, tan solo se puede encontrar en órbitas cuyo radio cumpla que el momento angular del electrón sea un múltiplo entero de h/2π, donde h es la constante de Planck. En estas órbitas el electrón no emitiría radiación y por lo tanto sería el átomo sería estable.

Pero entonces, ¿está el electrón siempre en esa misma órbita, al igual que los planetas están siempre en la suya? Para que un planeta esté siempre en su órbita, se tiene que cumplir que no haya ninguna perturbación que lo saque de ella, es decir que no haya nada que le suministre energía y lo empuje fuera de su órbita como podría ser un gran meteorito que colisionara contra el planeta, y aun así puede que haya meteoritos que no suministren la suficiente energía como para sacar al planeta de la órbita. En el caso de los electrones sucede lo mismo, siempre que no haya una perturbación de energía suficientemente alta como para hacer saltar al electrón de su órbita, éste permanecerá en ella. ¿Qué tipo de perturbación puede hacer sacar al electrón de su órbita? Pues aquí ya encontramos la relación con el color de las cosas. Esta perturbación es la luz, o más concretamente los fotones de la luz. Los fotones tienen una determinada energía que depende de su longitud de onda, es decir del color de la luz. Si la luz tiene poca energía, su longitud de onda estará cerca del color rojo y si tiene mucha energía, su longitud de onda estará cerca del color azul.

Cuando el fotón choca contra el electrón en su órbita estable, le suministra una energía que hace que salte a otra órbita. Pero no puede ser cualquier órbita, tiene que ser una que cumpla el segundo postulado de Bohr, es decir esté cuantizada.

310px-Bohr-atom-PAR

El electrón en la nueva órbita no puede permanecer para siempre si no se le sigue suministrando energía, por lo tanto volverá a saltar a su órbita inicial. El problema es que la órbita inicial tenía menos energía que la final, por lo que para volver a esa órbita tiene que desprenderse de la energía sobrante para ello emite un nuevo fotón cuya energía es la diferencia de las energías de las órbitas inicial y final. Ese nuevo fotón tendrá una longitud de onda que depende de la energía y por lo tanto tendrá un color determinado. Es precisamente ese fotón el que llega a nuestros ojos y nos hace que veamos las cosas de un cierto color. Ese color depende de la diferencia de energía entre las órbitas entre la que saltó el electrón.

¿De dónde proviene el fotón inicial que hace saltar a los electrones? Por ejemplo de la luz del sol, de las bombillas, de un fuego encendido,… Es por eso que en la oscuridad no vemos el color de las cosas, porque al no haber luz, “no hay” fotones que hagan saltar al electrón de su órbita (aunque hay fotones llegando continuamente e incidiendo sobre los electrones, sólo que no tienen la energía suficiente como para hacer que el electrón salte a una órbita que haga que emita otro fotón de un color, por ejemplo verde, que llegue a nuestros ojos.

He de decir, que he utilizado el concepto de órbita tal y como lo definió Bohr, es decir, asemejándolo a una órbita de un planeta, aunque la realidad es siempre más compleja y debería haber hablado de niveles de energía o incluso haber empleado una terminología más cuántica y más rigurosa, pero probablemente nadie habría pasado del primer párrafo.

logo-carnaval-fisica

Esta entrada participa en la edición XLIX del Carnaval de Física que organiza en esta ocasión El Zombie de Schrödinger

Referencias

El modelo atómico de Bohr – Wikipedia

Un vistazo rápido al Modelo Estándar de Física de Partículas

Si alguien ha visto la serie The Big Bang Theory, probablemente se haya fijado en que prácticamente cada vez que Sheldon, Leonard, Raj o Howard están en la universidad aparece el siguiente poster (o uno muy similar) colgado en alguna de las paredes de los pasillos.

Standard Model Particles and their interactions

El modelo estándar de partículas fundamentales y sus interacciones

Esta imagen representa todo lo que conocemos, y que se ha podido verificar experimentalmente, sobre la estructura de la materia de la que estamos hechos nosotros y todo lo que hasta ahora hemos observado en el universo, con el nivel de precisión que podemos alcanzar utilizando los instrumentos que tenemos.

Vamos intentar desgranar la imagen poco a poco.

Atomo

Estructura interna del átomo

Prácticamente todos sabemos que los átomos tienen dos partes: la corteza en la que se encuentran los electrones y el núcleo que se compone de protones y neutrones. Los electrones tienen carga eléctrica negativa y son los responsables de, por ejemplo, conducir la electricidad (cuándo están libres) o hacer que las cosas tengan un color u otro (debido a los saltos que dan los electrones entre los diferentes niveles de energía posibles del átomo, pero esa es otra historia). Los protones tienen carga eléctrica positiva y en número es la misma que la de los electrones, por lo que tenemos que en condiciones normales el átomo es eléctricamente neutro. Los neutrones no tienen carga eléctrica, es decir, son neutros.

Los electrones son partículas fundamentales en si mismas, no se pueden descomponer en otras partículas más elementales, pero los protones y los neutrones si que pueden romperse en otras partículas más pequeñas. Estas partículas son los quarks, en concreto dos de los seis que existen, el quark up y el quark down. El protón se compone de dos quarks up y un down y el neutrón de dos down y un up.

Desde hace unos años (de hecho bastantes), se está proponiendo a nivel teórico que los quarks y los electrones no son partículas puntuales, sino que en realidad son pequeñas cuerdas de energía que están vibrando y que dependiendo del modo que vibren dan como resultado las propiedades de los quarks o de los electrones (y de otras partículas que veremos después también). Sin embargo, esta teoría todavía no se ha comprobado experimentalmente y de hecho está más allá del modelo estándar del que estamos hablando.

Los electrones, así como sus primos más pesados conocidos como muones y taus o sus primos más ligeros los neutrinos, son conocidos como leptones y junto con los quarks estas partículas son denominadas fermiones. Reciben este nombre porque su comportamiento obedece la estadística de Fermi-Dirac y por lo tanto verifican el principio de exclusión de Pauli que viene a decir que no puede haber dos fermiones con todos sus números cuánticos idénticos (para entenderlo, recomiendo esta entrada de El zombi de Schrödinger que hace una analogía con urinarios y es de las mejores explicaciones, a la vez que muy divertida, del principio de exclusión)

Hay que remarcar que cada fermión tiene asociada una antipartícula, que es la misma pero con la carga opuesta. Por ejemplo la antipartícula del electrón es el positrón (que es distinto del protón, no confundirlo) y la antipartícula del quark up es el antiquak up. Las antipartículas se representan con el mismo símbolo que la partícula pero con una barra arriba.

Fermiones

Fermiones y sus propiedades

Cada leptón grande, es decir, el electrón, el muón y el tau, tiene un primo pequeño. Así el electrón tiene un neutrino electrónico, el muón un neutrino muónico y el tau un neutrino tau. Como se puede ver en la tabla anterior la única diferencia entre el electrón, el muón y el tau es la masa, que va creciendo. Todos tienen carga eléctrica negativa. Los neutrinos en cambio no tienen carga y tienen una masa muy pequeña (pero tienen y es una de las razones por la que se dice que los neutrinos cambian de sabor, es decir cuando salen, por ejemplo, del sol salen en forma de neutrinos electrónicos pero cuando los detectamos en la tierra, vemos que llegan menos neutrinos electrónicos de los que deberían, porque durante el viaje han cambiado de sabor y se han convertido en neutrinos muónicos o tau).

Antes hemos hablado de dos tipos de quarks, el up y el down, que son los que forman los protones y los neutrones, pero también tenemos los quarks charm, strange, top y bottom. Los nombres que tienen se debe a que los físicos, aunque no lo parezca son gente divertida y les gusta poner nombres raros a estas cosas, aunque casi todo el mundo los llama simplemente u, d, c, s, t y b.

Los quarks c, s, t y b no forman parte de la materia ordinaria por si mismos, sino que son resultado de colisiones de alta energía entre otras partículas (por ejemplo dos protones como hacen en el LHC y sobre todo gracias a la famosa ecuación de Einstein E = mc2) o en desintegraciones nucleares.

Una de las peculiaridades que tienen los quarks es que nunca se encuentran solos en la naturaleza, sino que siempre están agrupados, como en el caso del protón y del neutrón. Además de las partículas que forman los núcleos atómicos, también se pueden encontrar agrupados formando otras partículas.

Bariones

Unos cuantos bariones

Los bariones se componen de tres quarks o tres antiquarks. En este último caso se denominan antibariones.

Los mesones se componen de dos quarks y obligatoriamente uno es un quark y el otro un antiquark.

Mesones

Unos cuantos mesones

Por otro lado tenemos los bosones.

Bosones_juntos

Bosones

Se llaman bosones porque, al contrario que los fermiones, éstos obedecen la estadística de Bose-Einstein que dice que pueden existir en el mismo estado cuántico muchas bosones al mismo tiempo (recordad que en el caso de los fermiones sólo podía haber dos en el mismo estado cuántico). Algunos bosones tienen la peculiaridad de que son los portadores de las fuerzas fundamentales de la naturaleza, es decir, cada vez que ocurre una interacción entre dos partículas, lo que realmente ocurre es que intercambian un bosón. Estas fuerzas son el electromagnetismo, la fuerza débil y la fuerza fuerte (vienen a continuación). Existe otro bosón, aunque sólo a nivel teórico, conocido como el gravitón que sería el responsable de la fuerza gravitatoria. La fuerza gravitatoria no está explicada por el modelo estándar y por lo tanto el gravitón, no forma parte del mismo.

Estas fuerzas o interacciones están representadas a continuación.

Interacciones

Interacciones fundamentales

La fuerza débil es la responsable de las desintegraciones radiactivas, es decir, que una partícula se convierta en otra a través de la emisión de una o más partículas adicionales. Esta interacción es mediada por los bosones W+, W- y Z0. Estos bosones tienen la particularidad de que tienen masa, al contrario que el resto de bosones.

La fuerza fuerte hace que los quarks que componen los núcleos atómicos se mantengan unidos y no se rompan espontáneamente. El bosón encargado de hacer esto es el gluón.

La fuerza electromagnética es la que más conocemos todos, ya que se compone de la fuerza eléctrica y la fuerza magnética (en realidad es una única fuerza que se manifiesta de dos maneras diferentes, de ahí que reciba el nombre de fuerza electromagnética). El bosón portador de esta fuerza es el fotón. Nuestra experiencia diaria se basa principalmente en sufrir los efectos de esta fuerza y cada vez que vemos la luz, sentimos calor, calentamos la comida en el microondas, etc., lo que estamos haciendo es interaccionar con fotones de diversas energías.

Cómo hemos mencionado antes, las partículas interaccionan entre si y lo hacen constantemente.

Decaimientos

Interacciones entre partículas

En la imagen de la izquierda se representa como un neutrón se desintegra para dar un protón, un electrón y un antineutrino electrónico. Esta desintegración es conocida como desintegración beta.

En la imagen central se muestra la colisión entre un electrón y un positrón que da lugar a una desintegración de materia en energía pura, otra vez a través de la ecuación de Einstein E=mc2. La energía se convierte, por la misma ecuación, otra vez en otras partículas diferentes. En este caso se forma un mesón B0 y un antimesón B0.

Por último, en la imagen de la derecha aparece la colisión de dos protones (como los que ocurren en el LHC del CERN) para dar lugar a dos bosones Z0 y varios hadrones, es decir, varias partículas compuestas de diferentes quarks (mesones y bariones).

Estas no son las únicas interacciones que pueden tener lugar, hay muchas más y siguen unas determinadas reglas de conservación (por ejemplo, conservación de energía, conservación de momento, etc.), pero son un buen ejemplo

A nivel matemático, el modelo estándar es bastante complicado y difícil de entender, pero al nivel de partículas fundamentales que lo componen y sus interacciones es más sencillo y cabe en un poster que se puede colgar en la pared de cualquier pasillo universitario.

Referencias

The Particle Adventure

El inicio de la investigación en rayos cósmicos

Todo en la vida tiene un principio, y la ciencia y todas sus ramas no son menos. Tal es el caso de la investigación en rayos cósmicos, pero ¿qué son los rayos cósmicos? Explicado de una manera sencilla, son partículas subatómicas, mas pequeñas que los átomos como pueden ser los propios componentes del átomo tales como los protones, que vienen del espacio exterior y que se mueven a velocidades próximas a la velocidad de la luz.

 Victor Hess

Victor Hess

Estudiando la radiactividad a principios del siglo XX se descubrió que cuando se colocaba un electroscopio, que son unos dispositivos para determinar si un cuerpo tiene carga eléctrica (no nula) y su signo (carga positiva o carga negativa), cerca de una fuente radiactiva el aire se ionizaba, es decir los átomos y moléculas del aire adquirían una carga eléctrica. Si se colocaba el electroscopio lejos de la fuente radiactiva, se descubrió que el aire también estaba ionizado, por lo que se pensó que se debía a la existencia de fuentes de radiactividad natural en la superficie o el interior de la tierra y que esta ionización debía disminuir con la altura.

 Electroscopio

Funcionamiento de un electroscopio

En 1910 el físico austriaco Victor Hess, se subió a la torre Eiffel de París cargado con un electroscopio para intentar determinar cuál era la altura a la que la ionización se hacía despreciable o nula. El resultado fue sorprendente, ya que en lugar de disminuir la ionización, ésta aumentaba. Como cualquier resultado científico ha de estar acompañado de múltiples evidencias y soportado por varios experimentos realizados, a ser posible, en diferentes condiciones, Hess repitió su experimento ¡a 5000 metros de altura! Para ello, en 1912, se subió a un globo, pero esta vez acompañado de una cámara de ionización.

Una cámara de ionización básicamente es un instrumento en el cual hay un gas entre dos placas metálicas a las cuales se les aplica un voltaje. Cuándo el gas de su interior se ioniza debido a, por ejemplo, el impacto de un rayo cósmico, los iones generados se desplazan hacia una de las placas metálicas debido al voltaje aplicado, de manera que se crea una corriente eléctrica que se puede medir.

Los resultados que obtuvo Hess fueron los mismos que los que obtuvo en la torre Eiffel, por lo que llegó a la conclusión de que la radiación causante de la ionización no venía de abajo, sino de arriba. El nombre de rayos cósmicos, no es de esa época, sino de 1932 cuando Robert Millikan denominó de esta manera a la radiación que provenía del espacio exterior ya que pensaba que se trataba de rayos gamma que era la radiación electromagnética más penetrante conocida, aunque más tarde se descubriría que no era radiación electromagnética sino partículas con masa en su mayor parte.

Desde el descubrimiento de Hess, la historia de los rayos cósmicos ha avanzado mucho hasta hoy.

Dimitri Skobelzyn utilizó la cámara de niebla para detectar las primeras trazas de productos de rayos cósmicos en 1929, al igual que hiciera Carl Anderson en 1932 para detectar el positrón, que es la anti-partícula del electrón, es decir, una partícula que es idéntica al electrón pero con carga positiva (pero no es el protón, ya que este aunque tiene carga positiva tiene una masa casi 2000 veces superior a la del electrón).

Mas tarde en 1938, Pierre Auger, habiendo colocado detectores en varios puntos distantes de los Alpes, detectó que la llegada de partículas a ambos detectores era simultánea, con lo que dedujo que el impacto de partículas de alta energía en las capas altas de la atmósfera generaba unas cascadas de partículas secundarias.

 particle shower

 Cascada de partículas generada en la atmósfera por el impacto de un rayo cósmico

Actualmente los detectores que se usan para estudiar rayos cósmicos son más complejos y debido a que la intensidad de las partículas que vienen del espacio es mayor a alturas mayores, la mayoría de los experimentos se colocan en montañas y zonas elevadas como es el caso del observatorio Pierre Auger en la Pampa Amarilla en Argentina con unas alturas medias sobre el nivel del mar de 1400 m o el experimento MAGIC en el Observatorio del Roque de los Muchachos de la Isla de la Palma en las Islas Canarias.

MAGIC

Telescopios del Experimento MAGIC en el Roque de los Muchachos

Nuestros detectores están incluso en el espacio, como el Espectrometro Magnético Alpha, más conocido como AMS-02 que está instalado en la Estación Espacial Internacional y que tiene como objetivo tomar medidas de la antimateria de los rayos cósmicos para buscar evidencias de materia oscura.

carnaval de la fisicaEsta entrada participa en la XLVII Edición del Carnaval de la Física, que organiza en esta ocasión el blog Pero esa es otra historia y debe ser contada en otra ocasión que administra Unnuncuadio

Referencias

Arqueros F. Rayos Cósmicos: Las Partículas más Energéticas de la Naturaleza. Revista “A Distancia (UNED), 1994.

http://visitantes.auger.org.ar/index.php/historia/historia-de-los-rayos-cosmicos.html

http://www.biografiasyvidas.com/biografia/h/hess_victor.htm

¿Miedo a las matemáticas? ¿Por qué?

Si no recuerdo mal, 2 x 3 = 5 + 1, ¿no es así? Os preguntaréis que representa. Pues bien, no dejan de ser una igualdad, ecuación o churro matemático donde la palabra clave es “matemático”. Ahora bien, ¿que diferencia hay con las siguientes ecuaciones matemáticas?

Maxwell Equations

Ecuaciones de Maxwell: no pasa un día sin que las escriba en algún sitio sólo por placer. (Nota: a efectos prácticos el punto significa lo mismo que la x, es decir multiplicación, sólo que en el primer caso la multiplicación es escalar y en el segundo vectorial, pero ahora mismo eso nos da igual)

Dan un poco de miedo, ¿no?

Vamos a hacer lo siguiente, si en la ecuación 2 x 3 = 5 + 1, sustituimos el 2 por la letra A, el 3 por la letra B, el 5 por C, el 1 por D, podemos escribirlo como

A x B = C + D

Ahora volvemos a las ecuaciones de Maxwell y nos fijamos en la última. ¿Hay alguna diferencia? Aparte de las flechas encima de las letras, del triangulo invertido y de la división de algo que parece un 6 reflejado en un espejo, si nos fijamos bien, se parece a nuestro algo multiplicado por otro algo que es igual a otro algo más sumado a otro algo, y como esa multiplicación y suma de algos hemos dicho que era 2 x 3 = 5 + 1, llegamos a la conclusión (al menos yo) de que las ecuaciones de Maxwell tampoco dan tanto miedo como podíamos pensar al principio, no es más que sumas y multiplicaciones que todos sabemos desde pequeños.

En realidad, las ecuaciones de Maxwell, aparte de ser preciosas, si que dan un poco de miedo, sobre todo cuando tienes que resolverlas en un examen en el que tienes un tiempo limitado y has estudiado más bien poco, pero no es por ahí por donde quiero ir.

Entre las personas hay una especie de terror generalizado hacia las matemáticas, y demasiadas veces se suele escuchar eso de que si son difíciles (que lo son), que no sirven para nada (¡mentira!) y que para que necesito yo aprender matemáticas si lo único que necesito es saber sumar y multiplicar los precios en los supermercados (si sabes sumar y restar, ya sabes leer las ecuaciones de Maxwell, y sí, sirven para mucho)

Aunque en algunos casos las matemáticas sean difíciles, lo que no es cierto es afirmar que no sirvan para nada. Las ecuaciones de Maxwell (recordad, 4 ecuaciones que son sumas y multiplicaciones) ¡son en realidad una explicación de todo lo que vemos! Explican por que la luz es como es, explican toda la electricidad que usamos a diario desde que nos levantamos hasta que nos acostamos, explican porque cuando estamos sentados, a pesar de que la fuerza de la gravedad tire de nosotros hacia el suelo, no atravesamos la silla y nos caemos, explican porqué los imanes se atraen y los motores de nuestros frigoríficos y lavadoras funcionan, explican… en fin, no voy a seguir porque entonces no termino esta entrada.

Aunque haya puesto como ejemplo las ecuaciones de Maxwell (sólo porque son mis ecuaciones preferidas), la utilidad no se limita sólo a ellas. Podría haber empezado con algo más sencillo como la famosa ecuación de Einstein E = mc2, haciendo la similitud con la ecuación 1.53×1016 = 0,51 x (3×108)2 y decir que 1.53×1016 es E, 0,51 es m y 3×108 es c, que no es otra cosa que la energía del electrón en reposo en unidades de MeV (mega electronvoltios), la masa del electrón en MeV y la velocidad de la luz en metros por segundo, pero es que ya he escrito sobre ella aquí y no quería repetirme.

Aún así las matemáticas son fundamentales en cualquier momento de nuestras vidas, por ejemplo las siguientes ecuaciones:

vientogeostrofico2

vientogeostrófico1

Ecuaciones de la aproximación de viento geostrófico

representan la aproximación de viento geostrófico, que explican el sentido de giro antihorario de los anticiclones y sentido de giro horario de las borrascas (en el hemisferio norte, en el sur los sentidos son opuestos. Y que conste que he usado los términos anticiclones y borrascas porque es lo que dicen la televisión, lo correcto sería decir sistemas de altas y bajas presiones) y también como son capaces los meteorólogos de determinar la dirección del viento a partir de los mapas de isobaras (es fácil, como regla nemotécnica se dice que el viento siempre se mueve en el sentido en el que deja las bajas presiones a la izquierda).

Pero no termina todo aquí hay muchos más ejemplos fuera del mundo de la física o las ciencias naturales, por ejemplo, en economía, la ecuación

economia

Ecuación del cambio de valor del dinero

representa el cambio de valor del dinero cuando se conoce los índices de precios al principio y al final del periodo que se esté considerando.

Incluso en medicina, las ecuaciones

Modelo SIR 1Modelo SIR 2

Modelo SIR 3

Modelo SIR de desarrollo de una enfermedad en el tiempo

representan el modelo SIR que indica como una enfermedad se desarrolla a lo largo del tiempo.

Y hay muchísimos ejemplos más en los cuales no nos fijamos y que dan resultados que utilizamos a diario.

Las matemáticas son inmensamente útiles, es más, sin matemáticas, todavía viviríamos prácticamente en cuevas (los egipcios ya utilizaban las matemáticas para construir pirámides e incluso para la agricultura y desde entonces ha pasado mucho tiempo). Y si, son difíciles. Y si no, fijaos en el lagrangiano (bonita palabra) del Modelo Estándar de Física de Partículas, que explica todas las fuerzas que sentimos excepto la gravedad (fuerza electromagnética, es decir incluye mis queridas ecuaciones de Maxwell, fuerza débil, que explica las desintegraciones nucleares y la radiactividad y la fuerza fuerte, que explica por qué los nucleos atómicos son como son) y básicamente como es el mundo que nos rodea. A ver cuantas sumas y multiplicaciones como las del principio sois capaces de ver…

Lagrangiana del Modelo Estandar de Física de Partículas

Lagrangiana del Modelo Estandar de Física de Partículas

Referencias:

How to write Maxwell’s Equations on a T-Shirt

http://es.wikipedia.org/wiki/Viento_geostrófico

Luis E. Rivero. La medición del valor del dinero

http://es.wikipedia.org/wiki/Modelaje_matemático_de_epidemias

The Standard Higgs. Richard Ruiz. Quantum Diaries. http://www.quantumdiaries.org/author/richard-ruiz/

Galaxias, distancias y la expansión del Universo

Cuando miramos al cielo en una noche oscura, lejos de las luces de la ciudad, podemos ver tantas estrellas que nos podemos llegar a sentir abrumados por la cantidad. Cuando miramos a determinadas zonas del cielo, podemos llegar a ver una banda casi continua de polvo, parecida al rastro que dejaría alguien que fuera derramando una botella de leche. Ese rastro de leche es nuestra Galaxia, la Vía Láctea. Sin embargo, la Vía Láctea no abarca todo lo que existe, el Universo se extiende más allá de nuestro hogar galáctico.

La Vía Láctea es una de entre las cientos de miles de millones de galaxias que nos acompañan, cada una de las cuales es un enorme conjunto de sistemas estelares por derecho propio.

Desde la Tierra, a simple vista y dependiendo de la región del cielo que estemos observando, podemos ver fácilmente tres galaxias. Es el Grupo Local, que incluye la Vía Láctea, la Gran Nube de Magallanes y la Pequeña Nube de Magallanes. El tercer miembro del trío es la galaxia de Andrómeda en la constelación homónima.

Imagen guardada con los ajustes integrados.

Las nubes de Magallanes y la Vía Láctea

En el siglo XVIII, el francés Charles Messier, que era un cazador de cometas, escrutaba el cielo con su telescopio (de menos de 20 cm de diámetro) hasta que observaba una mancha borrosa. Cuando encontraba alguna, anotaba su posición en un mapa estelar de la época. A la noche siguiente volvía a apuntar el telescopio al mismo sitio para ver si la mancha seguía allí. Si se había movido era un cometa, si no, era otra cosa. En esa época,  estas manchas eran conocidas como nebulosas, palabra que deriva del latín y que significa “niebla” o “nube”. En 1774, Messier había catalogado 45 junto con sus coordenadas celestes y en 1784 su catálogo ya incluía 103 objetos.

Un músico de origen alemán, William Herschel, que dedicó la segunda mitad de su vida a construir grandes telescopios, junto con su hermana Caroline, apuntó sus instrumentos hacia los objetos que había descubierto Messier y dada la “potencia” de su telescopio (4 veces mayor que el de Messier) llegó a descubrir en siete años hasta 2000 objetos.

Con este catálogo, Herschel intentó construir un mapa celeste que incluyera todos estos objetos. Del estudio de las nebulosas, Herschel propuso que si la Vía Láctea se observara desde una distancia suficientemente grande, ésta parecería una nebulosa en si misma.

Al ser la potencia del telescopio de Herschel mayor que la del de Messier, éste pudo resolver las manchas borrosas en cúmulos de estrellas, algunos de los cuales pasaron a denominarse cúmulos globulares. En la década de 1840, William Parsons empezó a construir un telescopio de 16 m de largo con un espejo de 2 m de diámetro que superaba en tamaño al mayor de Herschel.

Parsons dirigió su telescopio hacia uno de los objetos del catálogo de Messier, en concreto M51, y su sorpresa fue inmensa cuando vio una estructura espiral, que más tarde recibiría el nombre de galaxia del Remolino debido a esta característica. No pudo distinguir estrellas individuales en su interior, pero descubrió otras nebulosas con la misma forma espiral.

Processed with MaxIm DL

M51. Galaxia del Remolino

Llegados a este punto surgió la pregunta: ¿pertenecían estas nebulosas a la Vía Láctea? Para responderla sería necesario saber el tamaño de la Vía Láctea y la distancia a las nebulosas.

Poco antes de este descubrimiento, los astrónomos ya conocían el método de la paralaje para medir distancias a estrellas cercanas, pero debido a las distancias enormes a las que se encontraban las nebulosas este método no era de gran utilidad. Tras el desarrollo inicial de las técnicas en espectroscopia, el astrónomo inglés William Huggins apuntó en 1867 su telescopio equipado con un espectroscopio a la estrella más brillante a simple vista, Sirio y aplicando la teoría del efecto Doppler desarrollada por el austriaco Christian Doppler 20 años antes encontró un ligero desplazamiento al rojo en las líneas espectrales de la estrella. Calculó que se alejaba a unos 50 km/s en la línea de observación. Asimismo, calculó la velocidad de recesión o aproximación de un gran número de estrellas. Fue sólo el comienzo del uso de la técnica del efecto Doppler en las medidas astronómicas. Años más tarde se encontraría la manera de emplear este método para el cálculo de distancias.

A principios del siglo XX, el observatorio del Harvard College realizaba tediosas observaciones estelares a partir de placas fotográficas y espectroscópicas. El trabajo era realizado por mujeres, las cuales, eran consideradas en aquella época, en un alarde de machismo, más idóneas para el trabajo pesado y repetitivo de medir y realizar  los cálculos, además de cobrar menos que los hombres. Muchas de estas mujeres realizaron contribuciones importantes, pero entre todas ellas destacó Henrietta Swan Leavitt.

Leavitt

Henrietta Swan Leavitt

En una serie de placas fotográficas de la Pequeña Nube de Magallanes, Leavitt observó multitud de estrellas que variaban su brillo periódicamente debido a que “pulsan”, es decir, se expanden y se contraen regularmente. Estas estrellas son conocidas como variables cefeidas, ya que la primera que se descubrió lleva el nombre de Delta Cefeo en la constelación del mismo nombre.

Leavitt compiló más de mil variables en la Pequeña Nube de Magallanes y al menos 16 aparecían en varias placas fotográficas, lo cual le permitió calcular sus periodos. Descubrió que las estrellas eran más brillantes cuanto más largos eran sus periodos y determinó que el periodo y el brillo máximo estaban relacionados y que se podía establecer gráficamente la relación entre periodo y luminosidad, es decir, Leavitt había relacionado la magnitud aparente de las estrellas variables con una medida que no dependía de la distancia a la estrella: el cambio de brillo. Leavitt había descubierto una conexión entre el periodo y su magnitud absoluta, es decir, su magnitud real.

Al estar estas estrellas en la misma región de la Pequeña Nube de Magallanes se podía asumir que estaban todas a casi la misma distancia de la Tierra.

La diferencia entre magnitud absoluta de las cefeidas de la Pequeña Nube de Magallanes y su magnitud aparente se podría usar entonces para calcular la distancia a la estrella usando la ley del cuadrado inverso: Una estrella, como cualquier fuente de luz, mostrará sólo una cuarta parte de su brillo si se dobla su distancia al observador, una dieciseisava parte si se cuadruplica, etc.

Como la relación que descubrió Leavitt se aplica a las cefeidas en general, el hecho de poder determinar la magnitud absoluta de una permitiría deducir la magnitud absoluta de las demás y se podría usar la escala periodo-luminosidad para hallar la magnitud absoluta de cualquier estrella variable del tipo cefeida, y con ella la distancia a la estrella.

El problema era crear un patrón de distancias a partir del comportamiento de las cefeidas ya que la cefeida más cercana era demasiado  lejana como para medir su distancia con el método de la paralaje.

Leavitt fue apartada de sus tareas ya que el jefe del observatorio creía que su trabajo era recoger datos y no hacer cálculos, pero Ejnar Hertzsprung, en el observatorio cerca de Berlín, recogió el testigo.

Hertzsprung estudió los movimientos propios, movimientos en el espacio de la estrella y nuestro Sol, de trece cefeidas cercanas al sol y usando técnicas estadísticas calculó la distancia “media” para las cefeidas locales, así como una magnitud aparente “media”. Con estos valores pudo calcular una magnitud absoluta “media” para una cefeida de periodo “medio”.

Quizá fueran muchas “medias”, pero lo que Hertzsprung hizo a continuación fue elegir una cerfeida de la Pequeña Nube de Magallanes con el mismo periodo que su estrella “media”. Comparó el brillo fotográfico de la cefeida de la Nube con la magnitud absoluta que debía tener y calculó su distancia: 3000 años-luz. Esta distancia ponía a la Pequeña Nube de Magallanes en el interior de la Vía Láctea. Se cree que fue un error tipográfico y que la distancia debía ser de 30000 años-luz. Aún así esta distancia era muy inferior a la real.

¿Por qué esta discrepancia? En realidad se trató de un error experimental. Las cefeidas de la Pequeña Nube de Magallanes habían sido fotografiadas con placas sensibles a la luz azul, mientras que para las cefeidas locales se usaron placas sensibles a la luz roja. Esto daba una diferencia en el brillo aparente que hacía que las cefeidas de la Pequeña Nube de Magallanes parecieran más brillantes y por lo tanto más próximas.

El astrónomo norteamericano Harlow Shapley supo comprender el significado  astronómico que tenían las variables cefeidas. Trabajando en el observatorio de Monte Wilson en los Ángeles, con el telescopio de 1,5 m, Shapley estudió los cúmulos globulares y descubrió que también había cefeidas en ellos. Usando la técnica de Hertzsprung, y refinándola, determinó la distancia a los cúmulos que resultó ser de entre 50000 y 220000 años-luz. Se creía que los cúmulos formaban parte de la Vía Láctea, pero también se creía que la Vía Láctea tenía sólo unos 30000 años-luz de diámetro, por lo que el tamaño debía ser mayor que el que se pensaba. Shapley calculó un diámetro de 300000 años luz estando el centro de la Vía Láctea en la dirección de la constelación de Sagitario.

Los astrónomos tomaron este resultado con cautela, en parte porque consideraban todavía como poco fiable el método de Hertzsprung.

Al mismo tiempo se estaban apuntando los telescopios hacia las nebulosas espirales y muchos astrónomos sugirieron que eran galaxias comparables a la Vía Láctea repletas de estrellas ya que cuando la luz era pasada a través de un espectroscopio se parecía a la de las estrellas, no a la de una nube de gas.

En 1912, Vesto Slipher, en el observatorio Lowell observó detalladamente la galaxia espiral que se encontraba en la constelación de Andrómeda y pudo medir su desplazamiento Doppler. El valor que encontró sorprendió a todo el mundo: se estaba acercando a 300 km/s. Más adelante, Slipher observó otras 15 galaxias espirales más y descubrió que 13 de ellas se estaban alejando de la Tierra, incluso con velocidades superiores a la que se estaba acercando Andrómeda.

andromeda

M31. Galaxia de Andrómeda

En 1919, después de haber recibido formación como abogado y tras realizar un doctorado en astronomía y volver de la guerra, Edwin Hubble empezó a tratar de clasificar las nebulosas. Utilizando el nuevo telescopio de 2,5 m de Monte Wilson, esperaba resolver estrellas en las galaxias espirales, en concreto en Andrómeda. Hubble centró su atención en unos puntos de luz conocidos como novas, estrellas que sufren erupciones recurrentes de materia que hace que cambien su luminosidad (no confundir con supernovas que es la explosión de las estrellas completas).

A través de la comparación de placas fotográficas que mostraban la misma zona del cielo, lo que inicialmente creyó que era una nova, se dio cuenta de que una estrella aumentaba y disminuía periódicamente su brillo ¡No se trataba de una nova, sino de una cefeida!

VAR_Hubble

Placa en la que Hubble anotó que se trataba de una variable cefeida y no de una nova

Usando las técnica de Hertzsrpung, mejorada por Shapley, calculó la distancia a Andrómeda y obtuvo un valor de 900000 años-luz, que era superior al tamaño de la Vía Láctea de Shapley. ¡Andrómeda era una galaxia por si misma!

Al encontrar cefeidas en galaxias espirales, Hubble hizo que el tamaño del Universo conocido aumentara considerablemente. Hubble usó las cefeidas para desarrollar indicadores de distancias para galaxias, al igual que hizo Shapley para los cúmulos globulares.

Mientras esto ocurría en Monte Wilson, en Lowell, Slipher seguía midiendo desplazamientos Doppler de galaxias espirales, incluidas aquellas a las que Hubble aplicó su técnica para calcular la distancia.

Milton Humason entró a formar parte de la plantilla de Monte Wilson para trabajar como ayudante a través de su suegro y cuando una noche el operador del telescopio enfermó, paso a ocupar su puesto, y lo hizo con tal destreza que desde entonces ocupó el puesto del operador y de asistente de Hubble de manera permanente. Humason adquirió suficiente información sobre más desplazamientos Doppler al rojo de más galaxias. Hubble reunión todos esos datos para establecer una conexión entre los desplazamientos al rojo y las distancias. La conexión era sencilla: salvo las galaxias más cercanas, cuanto más lejos estaba una galaxia, más rápido se alejaba. El ritmo al que se alejaba es conocido actualmente por el nombre de constante de Hubble.

Aunque lo valores que Shapley o Hubble hallaron en su época eran muy burdos, actualmente se ha mejorado la precisión en la medida y ahora sabemos que la Vía Láctea tiene un diámetro de 100000 años-luz y que la galaxia de Andrómeda está a 2,5 millones de años-luz. Aunque los valores sean ligeramente distintos, lo importante es recordar que el esfuerzo por entender el universo hizo que se desarrollaran técnicas y métodos de observación que, aún hoy en día, están utilizando los astrónomos y astrofísicos modernos.

Como dijo Hubble:

“Con el incremento de las distancias nuestro conocimiento se desvanece, y se desvanece rápidamente, hasta que en el último e impreciso horizonte buscamos entre fantasmales errores de observaciones puntos de referencia que apenas son más sustanciales. La búsqueda continuará. El ansia es más antigua que la historia. Nunca resulta satisfecha, y nunca podrá ser reprimida”

Referencias:

Galaxias. Time Life Folio

Astrofísica. Manuel Rego, María José Fernández

Un mundo desordenado

Hoy me he levantado con ganas de liarla, voy a aumentar la entropía para poner un poco de desorden en el trabajo y voy a mandar un correo de esos que… espera un momento, ¿entropía? ¿pero que palabra es esa? ¡Deja de inventarte palabras que para eso están los de letras!

En realidad no me estoy inventando ninguna palabra, aunque si puede que la esté empleando mal, pero vamos a empezar por el principio, no sea que aumentemos más la entropía :o)

En nuestro día a día estamos acostumbrados a encontrarnos con situaciones que ocurren en un determinado sentido y no en otro. Cuando un huevo se cae de la mesa, vemos que se rompe y tenemos que limpiar el suelo. En ningún momento vemos como el huevo, se recompone y vuelve por si solo a la mesa, cosa que estaría bien para evitar el tener que limpiar el suelo. Este es el ejemplo clásico (siempre he querido ponerlo como ejemplo) pero hay muchos otros, como cuando abrimos una lata de refresco y vemos que el gas se escapa, nunca vemos como vuelve al interior de la lata, cuando ponemos un cubito de hielo en un vaso y éste se funde nunca se vuelve a convertir en cubito, o cuando en un ordenador con sistema operativo Windows te aparece el mensaje de “ha ocurrido un error inesperado y el programa se cerrará”, nunca se vuelve a abrir el sólo y puede incluso que tengas que tirar el ordenador y buscar otro sistema operativo más fiable.

Todos estos procesos son denominados procesos irreversibles, es decir sólo pueden progresar en un cierto sentido, o lo que es lo mismo, evolucionan sólo en un sentido.

A mediados del siglo XIX, Rudolf Julius Emmanuel Clausius, Clausius para los que nos complicó la vida en las clases de Termodinámica, se propuso encontrar una magnitud que cuantificara la tendencia de los sistemas a realizar un cambio determinado y que verificara en que sentido se realizaba es cambio. Ya que era alemán se lo ocurrió introducir la palabra griega  ετυροπη que significa evolución, y que ha llegado hasta nuestros días como entropía y que representamos con la letra S. La entropía, como magnitud Física, es una medida de la capacidad para que se realice el cambio, tal y como Clausius pretendía. Es una propiedad intrínseca de la materia y su magnitud depende únicamente de la naturaleza del cuerpo considerado y del estado en que se encuentre.

Pongamos un ejemplo más sencillo de entender que el del huevo que se cae, y para ello vamos a considerar un experimento clásico, a la vez que sencillo, que es conocido con el nombre de experimento de Joule o expansión libre.

Experimento de Joule o expansión libre

Experimento de Joule o expansión libre

En este experimento Joule, introdujo un gas en un recinto que estaba unido a otro recinto en el que se había hecho un vacío. El sistema completo está aislado del exterior por lo que no puede intercambiar ningún tipo de energía en forma de calor. Los dos recintos están separados por una válvula cerrada. Cuando la válvula se abre el gas se expande hacia el recinto que está vacío hasta ocupar el volumen total de los dos recintos. Si ahora nos ponemos a esperar hasta que el gas vuelve a estar en el recinto inicial y en el otro se queda el vacío también, puede que perdamos el tiempo y nos hagamos viejos, porque es el proceso de expansión es irreversible. ¿Qué ha pasado aquí? Lo más obvio es que el gas que antes ocupaba un volumen pequeño, llamémosle V1, ahora ha pasado a ocupar un volumen mayor V2. Si calculásemos matemáticamente la entropía del sistema de recintos más los alrededores (recordemos que el sistema está aislado y no intercambia energía en forma de calor), veríamos que si restamos la entropía que había antes de abrir la válvula y la entropía que hay después, esta diferencia es mayor que cero, es decir la entropía ha aumentado.

Lo mismo ocurre en el caso del huevo que se cae, la entropía del universo (entendido este como el huevo más la mesa, más el suelo, más el aire entre la mesa y el suelo) aumenta.

En este punto y sin haber escrito todavía ninguna fórmula, me parece que no ha quedado claro que es la entropía. Y no es para menos porque la entropía es una de las ideas de la ciencia que más difícil ha sido de comprender por muchos estudiantes, y puede que por muchos profesores que la intentan explicar, así que si la habéis entendido, ¡por favor explicádmela!

Vamos a darle un poco la vuelta. Hasta ahora hemos estado en el mundo macroscópico, pero nos vamos a meter en la nave de El Chip Prodigioso para irnos al mundo microscópico a ver si nos aclaramos. Una vez nos han miniaturizado hasta ser del tamaño de una molécula de gas, nos metemos en el recinto que contiene el gas del experimento de Joule y esperamos a que abran la válvula. Mientras esperamos, como estamos aburridos, contamos las moléculas de gas que hay en el recinto y vemos, que como el recinto es muy pequeño y el gas es caro, Joule sólo ha podido comprar 10 moléculas. Ahora se abre la válvula. ¿Qué es lo que vemos? Empezamos viendo que una molécula se va al recinto en el que había un vacío, luego se va otra, luego nos vamos nosotros y detrás se vienen las demás menos una. Una vez estamos en el otro recinto, de repente vemos que una molécula se vuelve al recinto inicial, después otra y todas las demás quedándonos solos. Pero por poco tiempo, porque un rato después tres moléculas vuelven a hacernos compañía hasta que una de ellas decide volverse al otro recinto… podría seguir así, pero me estoy cansando de escribir, así que imaginaos como sigue.

¿Qué es lo que ha pasado aquí? Hemos dicho que el experimento de Joule ponía de manifiesto la irreversibilidad del proceso, pero a escala microscópica hemos estado muy cerca que el proceso fuera reversible, es decir, de que todas las moléculas volvieran al recinto inicial (hemos faltado nosotros). ¿Cómo puede ser eso? A nivel macroscópico hay muchas cosas que no vemos y que se nos escapan. A nivel microscópico existe una probabilidad de que todas las partículas estén en el mismo estado, que disminuye según aumenta el número de partículas, es decir el número de estados posibles aumenta (para no liarnos, y aunque NO es del todo cierto, vamos a asimilar el concepto de estado a estar en un recinto o en otro). A medida que el número de estados posibles aumenta, también aumenta el desorden del sistema, es decir como cada molécula está en un estado diferente, estará haciendo lo que le venga en gana sin tener en cuenta a las demás, aumentando el desorden del sistema. La entropía, a nivel microscópico depende de este número de estados posibles distintos, por lo que a mayor número de estados, mayor entropía. Pero como hemos dicho a mayor número de estados, mayor desorden y por lo tanto concluimos que la entropía es una medida del desorden del sistema.

Aunque la entropía viene de la palabra griega evolución, si que la estaba utilizando bien al principio ya que tiene que ver con el desorden, y como mande el correo que tengo en la cabeza, ¡voy a poner todo patas arriba!

Referencias

Paul A. Tipler. Física. Editorial Reverte.

José Aguilar Peris. Curso de Termodinámica. Alhambra Longman

El modelo atómico de Rutherford

En el 100º aniversario del modelo atómico de Bohr, vamos a hablar, por supuesto, del modelo atómico de… ¡Rutherford! No es que Bohr me caiga mal, sino que siempre he sentido más simpatía por la Física experimental que por la teórica, y da la casualidad de que el modelo atómico de Rutherford estaba basado directamente en los resultados experimentales del propio Rutherford y de su equipo, mientras que Bohr (sin quitarle ningún mérito) cogió los problemas de unos y de otros, los combinó, les añadió un toque cuántico y después de darle unas cuantas pensadas y (seguro que) muchas noches sin dormir presentó su modelo al mundo.

Ernest Rutherford nació en 1871 en Nueva Zelanda y después de graduarse en el Canterbury College de Christchurch en su país natal, se trasladó a Cambridge primero y a Montreal después, para luego volver a cruzar el Atlántico para recalar en Manchester y terminar en Cambridge de nuevo dirigiendo el prestigioso laboratorio Cavendish sucediendo a J.J. Thomson, con quien había empezado a trabajar durante su primera estancia en Cambridge.  Fue durante su estancia en Manchester donde desarrolló su modelo atómico con la importante colaboración de otros dos grandes experimentador, Hans Geiger, cuyo apellido da nombre a el famoso contador de partículas y Ernest Marsden.

Antes de entrar con el modelo atómico de Rutherford, es necesario empezar con un modelo atómico previo, el modelo de Thomson (si, el mismo de antes). La verdad es que podríamos ir hacia atrás mucho más en el tiempo, y hacia delante también, para analizar la evolución histórica del modelo atómico, pero no quiero que dejéis de leer todavía.

J.J. Thomson, fue entre otras muchas cosas, el descubridor del electrón y el primero que midió la relación carga-masa del electrón usando un tubo de rayos catódicos. Podéis leer más sobre el experimento de Thomson en esta genial entrada de El zombi de Schrödinger. En cuanto al modelo atómico, Thomson propuso que los electrones estaban en (cita textual) “una esfera de electrización uniforme positiva que produce una fuerza atractiva radial en cada corpúsculo proporcional a su distancia al centro de la esfera”. Donde pone corpúsculo, léase electrón que es la denominación que Thomson utilizaba en aquella época. En resumen, Thomson proponía como modelo atómico, lo que se ha llegado a conocer como, un pastel de pasas siendo los electrones las pasas del pastel. Este modelo funcionaba bien con el átomo de hidrógeno con un solo electrón o incluso con elementos de dos o tres electrones, pero cuando se pasaba a elementos más complejos, con mayor número de electrones, la cosa se complicaba un poco ya que había que colocar los electrones de manera que estuvieran en equilibrio electrostático con la “esfera de electrización uniforme” y el propio Thomson admitía que a partir de “siete u ocho electrones” había que hacer malabarismos para colocar los electrones para que el átomo fuera estable y encontrar la distribución de equilibrio “era demasiado complicado para el cálculo”.

Casi debería haber llamado a la entrada el modelo atómico de Thomson… pero aquí vamos con Rutherford. Mientras Rutherford estaba en Montreal, ya se había llegado a comprender cual era la naturaleza de las radiaciones α, β y γ o se tenían indicios muy claros de cual era su naturaleza. Cuando llegó a Manchester, la suerte le sonrió al encontrarse a Geiger allí, el cual sería fundamental para el establecimiento de su modelo. Rutherford y Geiger se centraron en la investigación de las partículas α y su uso en diversos experimentos. Uno de los primeros resultados de esa investigación fue el desarrollo de un método “eléctrico” para contar las partículas que emitían las sustancias radiactivas. Veinte años más tarde, Geiger junto con Müller mejorarían el método eléctrico de conteo dando lugar al famoso contador geiger. Anteriormente el conteo de partículas se realizaba de una manera más tradicional. Se ponía una pantalla de sulfuro de zinc fosforescente delante de la fuente de partículas y se contaban uno a uno los destellos que se producían. Sin embargo este método no era del todo fiable, ya que dependía, entre otras cosas, de la paciencia del observador. Investigaciones paralelas como la de Erich Regener en la Universidad de Berlín mejorarían las técnicas de conteo en una pantalla de sulfuro de zinc, hasta tal punto que los resultados obtenidos no diferían de los de aquel contador geiger primitivo, por lo que Rutherford abandonó su método eléctrico y volvió a contar destellos a ojo.

A raíz del buen trabajo que estaba realizando Geiger, Rutherford lo ascendió de manera que ahora podría tener a su cargo a estudiantes para formar en técnicas de radiactividad. Así fue como, en el curso académico 1908-1909, Ernest Marsden empezó a colaborar con Geiger y Rutherford. El experimento en el que trabajaron trataba sobre la difusión de partículas α cuando atravesaban finas láminas de aluminio, oro y otros elementos. Para ello colocaban una lámina de aluminio u oro entre la pantalla de sulfuro de zinc y el tubo por el cual salían las partículas α. Los chicos de Rutherford se dieron cuenta que la dispersión de las partículas α que pasaban a través de las láminas era importante. Gran parte del número de partículas atravesaba la lámina en la dirección inicial del movimiento, pero muchas otras eran desviadas en un ángulo muy grande o incluso rebotaban hacia atrás.

Cuando Geiger y Marsden informaron a Rutherford de este resultado, y dado que no le gustaba el modelo de pastel de pasas, se dio cuenta de que las medidas no se ajustaban a lo que se esperaba del modelo de Thomson, ya que si la carga positiva se distribuía uniformemente (parte del pastel) la interacción entre la carga eléctrica y la carga interna del átomo no sería lo suficientemente fuerte como para desviar la partícula un ángulo grande o incluso hacer que rebotara. Sólo se podía explicar si la carga positiva estaba en una zona muy pequeña en el centro del átomo estando los electrones a una distancia considerable del centro.

Sin embargo, a pesar de que Geiger y Marsden publicaron el resultado del experimento en 1909, Rutherford no publicó el modelo atómico definitivo hasta dos años más tarde, en 1911. En esta publicación explicaba, el por qué de los resultados de Geiger y Marsden. Para explicar la dispersión y modelar el átomo, Rutherford tuvo que buscar una fórmula matemática que explicara el resultado. Cuentan las malas lenguas que a Rutherford, como a otros experimentadores, le gustaban las matemáticas menos que a un filólogo, así que para solucionar el problema tuvo que recurrir a un joven matemático llamado R. H. Fowler, el cual sería luego su yerno.

Cuando se estudió el movimiento de los electrones alrededor del núcleo positivo en este modelo, se dieron cuenta de que es inestable ya que cuando los electrones giran alrededor del núcleo, emiten energía, por lo que poco a poco, debido a la pérdida de energía, terminarían cayendo al núcleo. Pero entonces hace 100 años apareció Bohr le aplicó la hipótesis cuántica y… pero eso es otra historia.

Esta entrada participa en el XLV edición del Carnaval de la Física, alojado en esta ocasión por Cuantos y Cuerdas

Referencias:

Sanchez Ron, J.M., Historia de la Física Cuántica. I. El periodo fundacional (1860-1926)

Gamow, George, Biografía de la Física

Thomson, Joseph J., Electricidad y Materia

http://es.wikipedia.org/wiki/Ernest_Rutherford

Las Lecturas de Feynman de Física

feynman_postcard

Richard Phillips Feynman nació el 11 de Mayo de 1918 en Nueva York (USA) y murió el 15 de Febrero de 1988 en Los Ángeles (USA). En 1965 recibió el premio Nobel de Física, junto con Sin-Itiro Tomonaga y Julian Swinger “por su trabajo fundamental en electrodinámica cuántica con profundas consecuencias para la Física de las partículas elementales”.  El trabajo de Richard P. Feynman en el campo de la física contribuyó a que generaciones posteriores tuvieran algunas de las herramientas más importantes, y útiles, de las que han dispuesto los físicos de partículas para el entendimiento de las partículas en si mismas y de las interacciones entre ellas: Los diagramas de Feynman.

Mucho se ha escrito sobre Feynman, tanto de su obra, como de su vida personal. Además de su trabajo en Física, Feynman tuvo una vida personal excitante. Anécdotas como las relacionadas con sus viajes a Brasil y su afición a tocar los bongos o la relación con su primera mujer, incluida la muerte de esta, han dado mucho que hablar. Hasta se hizo una película sobre esta historia. También se ha criticado que la vida privada de Feynman saliera a la luz, máxime cuando su contribución a la Física fue tan amplia y profunda. A pesar de su contribución a la Física y de su interesante vida personal, Feynman contribuyó enormemente a la divulgación científica a través de diversas conferencias como, por ejemplo, las Messenger Lectures que impartió en la Universidad de Cornell en 1964 en las que abordaba aspectos de la física como la ley de la gravedad o los grandes principios de conservación, o las conferencias que impartió en UCLA sobre electrodinámica cuántica para un público con escasos, o nulos, conocimientos de Física.

Aunque me gustaría escribir una entrada (o varias) sobre diagramas de Feynman para no físicos o incluso sobre integrales de camino o electrodinámica cuántica, no es mi intención en este momento. Mi objetivo en este momento es presentar las clases que impartió en 1961 y 1962 en Caltech a los alumnos de los primeros cursos de la Universidad. El motivo es que recientemente Caltech y The Feynman Lectures Website han reeditado dichas clases en formato HTML y han corregido más de 800 erratas con respecto a versiones previas. Lo interesante de esta versión es que anteriormente las figuras y gráficos, así como el texto y ecuaciones, se leían con dificultad, pero ahora, gracias al uso de lenguajes de edición como LaTeX, la presentación ha sido mejorada.

En el momento de escribir esta entrada, se ha reeditado únicamente el primer volumen de las clases que contienen las correspondientes clases de mecánica, radiación y calor. Creo, y es una opinión personal, que ningún estudiante de Física, debería terminar la carrera sin haber consultado o incluso estudiado en detalle, las Lecturas de Feynman.

Aquí os dejo el enlace a The Feynman Lectures on Physics para que disfrutéis de las clases.

Es más, cualquier persona interesada en la física debería “echarles un vistazo” alguna vez en su vida. Eso si, es muy probable que no entendiera nada… pero aún así son muy interesantes e ilustrativas.  En cualquier caso, si las Lecturas de Feynman no son asequibles, desde un punto de vista físico y matemático a todos los públicos, lo que si es asequible es cualquiera de los libros en los que se reproducen sus conferencias divulgativas o sobre su vida, y aquí si que recomiendo que todos los que tengan interés en la Física, y aquellos que no lo tienen, empleen unas cuántas horas de su vida en leerlos. ¡Os aseguro que no os vais a arrepentir!

Referencias:

The Nobel Price in Physics 1965. Richard P. Feynman – Facts http://www.nobelprize.org/nobel_prizes/physics/laureates/1965/feynman-facts.html

Richard P. Feynman. Electrodinámica Cuántica.

Richard P. Feynman. El carácter de la ley física.

Richard P. Feynman. Seis Piezas Fñaciles: La Física explicada por un genio.

Richard P. Feynman. ¿Qué te importa lo que piensen los demás?

Richard P. Feynman. Surely you’re joking Mr. Feynman.

Comienza el Dark Energy Survey

El pasado 31 de Agosto comenzó la andadura del Dark Energy Survey (DES). En realidad ya había comenzado a través del desarrollo de la cámara, las diferentes medidas para calibrarla y las pruebas necesarias para hacer que lo que se estaba desarrollando fuera realmente útil para la ciencia y no simplemente algo que tomara fotos bonitas del cielo.

El DES pretende escudriñar el universo observable con la Dark Energy Camera (DECam) o cámara de energía oscura. Esta cámara está instalada en el telescopio Blanco en Chile (Chile es un sitio fantástico para las observaciones Astronómicas y Astrofísicas) y durante alrededor de 100 noches cada año durante 5 años hará observaciones de millones de galaxias y miles de supernovas para averiguar si la luz, que partió su viaje hace miles de millones de años, nos da información sobre por qué el universo se está expandiendo de manera acelerada. El objetivo final es determinar, a partir de las medidas de la luz capturada por la DECam, si la expansión acelerada del Universo se debe a la misteriosa energía oscura, lo cual nos ayudaría a entender qué es realmente, o si es necesario cambiar nuestros conceptos sobre la gravedad.

La DECam está diseñada para tomar medidas del universo observable, que en pocas palabras es la parte del universo que podemos “ver” desde la tierra. Al utilizar el verbo “ver”, no me refiero a todo aquello que vemos cuando miramos al cielo nocturno, sino a todo aquello que podemos observar cuando la luz de un objeto estelar llega a alguno de los detectores y cámaras que somos capaces de desarrollar los seres humanos. El que un detector sea muy sensible, no quiere decir que podamos observar todo lo que existe en el universo, ya que la luz tiene que haber tenido tiempo de llegar desde un punto remoto en el universo hasta nosotros y, como todos sabemos, la luz viaja a una velocidad constante y finita (300.000 km/s).

La DECam es una cámara fotográfica que en concepto es como las que prácticamente todos tenemos, sin embargo está preparada para la detección de objetos pequeños y/o distantes cuya luz ha estado viajando durante muchos años en un universo en expansión y por lo tanto está desplazada al rojo. Al desplazarse al rojo, la luz deja de estar en el rango de longitudes de onda del visible, que es el que captamos con nuestras cámaras y se desplaza a longitudes de onda más largas en el rojo o en infrarrojo. La DECam contiene unos 62 detectores, que en conjunto hacen que la cámara tenga alrededor de 500 Megapíxeles (a ver cuando Apple o Samsung se animan y ponen una cámara de estas en sus teléfonos) sensibles a estas longitudes de onda desplazadas al rojo.

El objetivo del DES es averiguar si el universo se está expandiendo de forma acelerada, es decir, si las galaxias que se están alejando de nosotros lo están haciendo de manera acelerada y no con una velocidad constante. En 1998 observaciones de supernovas del tipo Ia indicaron que el universo se estaba expandiendo de forma acelerada, lo cual llevó a los científicos que realizaron estas observaciones a ganar el premio Nobel de Física en 2011.

Uno de los modelos más aceptados que intentan explicar esta expansión acelerada del universo es el que postula la existencia de una energía oscura, que es una forma de energía que llena todo el espacio y que se cree que forma el 68% del universo (el 32% restante lo forman la materia oscura con un 27% y la materia ordinaria de la que todos estamos hechos con un 5%). Actualmente se cree que la energía oscura podría ser de dos formas, una energía constante que llena el espacio de manera homogénea o un campo escalar cuya densidad de energía varía en el tiempo y en el espacio.

El DES pretende determinar si la expansión acelerada del universo se debe a la energía oscura. Si los resultados del DES fueran negativos, habría que replantearse nuestros conceptos sobre la gravedad y el universo. Por suerte, aunque Newton y Einstein no estén ya entre nosotros, tenemos muchos jóvenes físicos que perfectamente pueden suplir la ausencia de estos dos genios.

¡Mucha suerte al equipo del Dark Energy Survey!

Referencias:

http://darkenergydetectives.org/2013/09/03/360000-minutes-how-do-you-measure-the-sky/