La Primera Ley de Newton y la seguridad

Todos los cuerpos perseveran en su estado de reposo o de movimiento uniforme en línea recta, salvo que se vean forzados a cambiar ese estado por fuerzas impresas

Así redactó Sir Isaac Newton su Primera Ley. Una ley que, de lo sencilla que es, muchos no la comprenden y no consideran.

Sir Isaac Newton

No voy a explicar esta ley. Para eso os recomiendo el vídeo en el que Mientras en Físicas la explica. Pero si voy a hablar de algo relacionado con esta ley y que muy pocos tenemos en cuenta al viajar, sobre todo en tren.

Suponed que vais a hacer un viaje en tren. Os gusta ir sentados al lado de la ventanilla para ir viendo el paisaje, pero, ¿qué asiento elegiríais? ¿Uno que vaya mirando en el sentido de avance del tren o uno que vaya de espaldas?

Viendo las caras que ponen algunos cuando les toca un asiento que mire en sentido contrario, lo más probable es que a la gran mayoría de los que viajamos nos guste ir mirando hacia adelante. Cuando hacemos esto nunca se nos pasa por la cabeza que vayamos a sufrir un frenazo brusco o una colisión frontal.

Vamos a ver qué pasa cuando viajamos en tren, mirando hacia adelante, y hay un frenazo brusco siguiendo el enunciado de la Primera Ley de Newton:

Estamos en un movimiento uniforme en línea recta. Es decir, no estamos sometidos a ninguna fuerza. En ese momento, nosotros, que vamos sentados mirando hacia adelante, nos estamos moviendo uniformemente en línea recta. Aunque estemos sentados nos estamos moviendo ya que nos movemos con el tren.

El tren frena bruscamente, pero según la Primera Ley, nosotros perseveramos en nuestro movimiento uniforme en línea recta hasta que nos veamos forzados a cambiar nuestro estado por fuerzas impresas, como por ejemplo el asiento de delante.

¿Veis ya lo que ha pasado? El tren se ha parado y nosotros hemos seguido moviéndonos, por lo que, en el mejor de los casos, solo nos hemos dado un golpe con el asiento de delante.

¿Y si hubiéramos viajado en un asiento mirando en sentido contrario al avance del tren? Hubiera pasado casi lo mismo, salvo que en este caso el asiento a nuestra espalda habría ejercido una fuerza que habría hecho que la fuerza impresa (el frenazo del tren) hubiera sido menor y probablemente el daño que hubiéramos sufrido hubiera sido menor también.

Este mismo argumento explica por qué se dice que las sillas para llevar bebes en el coche han de ir siempre colocadas en sentido contrario a la marcha del coche.

La próxima vez que te toque un asiento que mire en sentido contrario al avance del tren no pongas mala cara. La Física también garantiza nuestra seguridad y a veces algo tan sencillo como la Primera Ley de Newton puede salvar muchas vidas si nos preocupamos en entenderla un poco más.

Ciencia y Ciencia Ficción: Alcubierre y Shatner

El espacio: la última frontera. Estos son los viajes de la nave estelar «Enterprise», en una misión que durará cinco años, dedicada a la exploración de mundos desconocidos, al descubrimiento de nuevas vidas y nuevas civilizaciones, hasta alcanzar lugares donde nadie ha podido llegar.

La teoría de la relatividad especial de Einstein postula que la velocidad de la luz (c = 300 000 km/s) es independiente del estado del movimiento del observador y del estado de movimiento de la fuente que emite la luz. Debido a esto, dos observadores que se encuentren en dos sistemas de referencia inerciales diferentes, moviéndose a velocidades diferentes, deben de medir siempre la misma velocidad para la luz, aunque dicha fuente esté viajando a velocidades próximas a la de la luz (que por otra parte, siempre emitiría luz a la velocidad c). Esta teoría tiene consecuencias importantes ya que, para empezar, nada puede ir más rápido que la luz. Al medir la posición o el momento temporal en el que un evento tiene lugar, ambos observadores no medirán la misma posición en el espacio, ni observarán que dicho evento ocurre en el mismo instante de tiempo. La conclusión es que el tiempo pasa a ser considerado una coordenada de la misma categoría que las coordenadas espaciales, que tiene implicaciones físicas palpables. El espacio y el tiempo por separado, pasan a ser considerados como una “sábana” denominada espaciotiempo.

Lo anterior ocurre en ausencia de aceleraciones (de ahí lo de sistema de referencia inercial). ¿Qué ocurre si introducimos una aceleración como la de la gravedad? Einstein también se ocupó de ello y, al considerar la gravedad, el espaciotiempo se comporta como una sábana que se curva en presencia de la materia y energía.

La existencia de esta sábana tiene implicaciones importantes en cuanto a la velocidad a la que nos podríamos mover. La velocidad de la luz no se puede superar sobre la sábana, pero ¿qué pasaría si moviéramos la sábana a la velocidad que queramos mientras dejamos el cuerpo no se mueve o se mueve sólo a velocidades cercanas a la de la luz?

USS Enterprise

USS Enterprise (NCC-1701) (Fuente: Reddit)

Estamos a bordo de la nave USS Enterprise (NCC-1701), un crucero de batalla de la clase Constitución de la Flota Estelar de la Federación Unida de Planetas y construida en el año 2245. Tras varias misiones exploratorias, siendo la más importante de cinco años de duración, comandada por el capitán James T. Kirk, en la que se ha establecido contacto con los romulanos, la nave USS Enterprise es llevada a los Astilleros de San Francisco situados en órbita terrestre para sufrir una serie de mejoras. Una de estas mejoras es introducirle unos motores de impulso Warp…

Star_Trek_William_Shatner

William Shatner en el papel de James T. Kirk (Fuente: Wikimedia Commons)

Vamos a dar un salto hacia atrás en el tiempo. Vamos a una época que tuvo lugar muchos años antes de que la USS Enterprise entrara en contacto con los romulanos y que fuera equipada con el motor de impulso Warp.

El físico teórico mexicano Miguel Alcubierre, nació en Ciudad de México el 28 de Marzo de 1964. Estudió Física en la Universidad Autónoma de México (UNAM) y consiguió su doctorado en 1994 en la Universidad de Cardiff en Gales.

Miguel_alcubierre

Miguel Alcubierre (Fuente: Wikimedia Commons)

Alcubierre es un físico teórico de los buenos, de esos que gustan pasar las tardes disfrutando de los capítulos de Star Trek, ya sea de la serie original o de la Nueva Generación. Mientras veía Star Trek, a Alcubierre se le ocurrió que podía estudiar la física de los motores Warp de manera que pudiera desarrollar una teoría que permitiera los viajes espaciales, a una velocidad mayor que la de la luz, y permitir así la existencia de los motores Warp de Star Trek. Dicho y hecho. Se puso a trabajar y desarrolló la métrica de Alcubierre.

¿Qué es la métrica de Alcubierre? En pocas palabras, es una métrica cuya función es curvar el espaciotiempo alrededor de un punto, creando una burbuja alrededor del mismo, donde se distorsiona el espaciotiempo de manera que lo expande detrás suyo y lo acerca por delante. De esta manera el punto se aleja del origen y se acerca a su destino a velocidades tan altas como se quiera. Este es precisamente el funcionamiento de los motores Warp.

Esto, que pudiera ser físicamente cuestionable, sí es realizable desde un punto de vista matemático en el marco de la teoría de la relatividad general de Einstein.

A raíz de esta investigación de Alcubierre, y dado que era un trekkie en toda regla, él y el capitán James Kirk, esto… William Shatner entablaron correspondencia (por qué no la entabló con Gene Roddenberry, director y productor de Star Trek, no se conoce). En esta correspondencia, Alcubierre, intentó explicar a Shatner la física detrás de la métrica que había desarrollado y el funcionamiento de los motores de impulso Warp.

Pero llegó un momento en el que Scotty no podía dar más potencia…

En uno de los correos de Alcubierre a Shatner, éste llego a decir:

“Cuando distorsionas el espaciotiempo, hay que pagar un precio. En la vida real no puedes deformar el espaciotiempo de la manera que quieres. La forma que toma el espaciotiempo se debe a la distribución de masa y energía. Para conseguir el efecto ‘warp’ necesitas un tipo de materia extremadamente extraña llamada ‘energía negativa’”

Alcubierre había dado en el clavo. Había conseguido transmitir a Shatner que la realidad de los motores Warp estaba lejos de ser conseguida.

Curvar el espaciotiempo cuesta una cantidad inmensa de energía. Pongamos por ejemplo el Sol. En el curso de un eclipse de Sol podemos ver las estrellas que se encuentran detrás de él, y las vemos porque su trayectoria se curva ligeramente. Sabemos que el Sol tiene una cantidad de materia y energía enorme comparada con nuestros parámetros diarios, pero esa cantidad sólo da para curvar la trayectoria ligeramente. Una curvatura tal que se pudiera utilizar para crear un efecto Warp, necesitaría de muchísimos más soles que los que podemos contar, es más, en palabras de Alcubierre “mucha más energía de la que ha emitido el Sol desde que nació hace aproximadamente 4500 millones de años”.

Para conseguir la energía necesaria para crear el efecto Warp se necesitaría conseguir energía negativa. Esta energía produce una repulsión gravitatoria en lugar de atractiva.

Hasta ahora, no se ha descubierto tal energía negativa. Y no se descubrirá en el corto plazo. Sin embargo, los físicos de partículas y los físicos de astropartículas siguen buscando pruebas de esta y otras formas de energía y materia. Puede que no la estén buscando con el objetivo de demostrar la teoría de Alcubierre, pero ¿no suena bien que se investigue en buscar algo tan misterioso y fascinante?

Nota final: La relatividad general de Einstein es una teoría incompleta debido a que todavía no se ha logrado crear una teoría cuántica de la gravedad. El hecho de que la teoría de Alcubierre necesite de una energía negativa, pone más aun en relieve la necesidad de lograr una teoría cuántica de la gravedad y poner a prueba dicha métrica.

Spock

Paz y prosperidad

Nota adicional: Gracias a los comentarios de Reyes Zambrano (@MReyesZam) que sabe más de relatividad especial que yo, he actualizado el primer párrafo de la entrada, ya que había cometido algunos errores en cuanto a la formulación de los postulados de la relatividad especial.

Referencias:

I’m Working On That: A Trek From Science Fiction To Science Fact. William Shatner (Información extraída de Google Books)

Más rápido que la luz. Cuando Einstein multa por exceso de velocidad. Mario Herrero-Valea. Revista Naukas #3

Podcast La Fábrica de la Ciencia. Albert Einstein: padre de la física contemporánea, con Reyes Zambrano. Programa 126.

Podcast CoffeBreak Ep28: Alcubierre: Viajes hiperlumínicos y máquinas del tiempo; ¿Construcciones alienígenas?; Marte (The Martian) Part I

Física, química y la vida en el universo

La vida se basa en la existencia de un número de elementos químicos. Todos, y todo, estamos hechos de elementos químicos. ¿De donde vienen estos elementos? Pues aunque a muchos les moleste, no vienen de un laboratorio de un científico loco jugando a ser Dios, sino del propio universo. Más concretamente, vienen de las estrellas.

En el universo primigenio, se formaron los primeros átomos de Hidrógeno y Helio. El Hidrógeno y el Helio por si solos no pueden dar lugar a la vida, se necesitan átomos mas complejos. Cuando se empezaron a formar las estrellas, debido a la atracción gravitatoria de esos elementos primigenios, se empezaron a formar elementos más pesados y complejos en su interior gracias a las reacciones nucleares. Cuando las primeras estrellas empezaron a morir, expulsaron al medio interestelar esos nuevos elementos recién formados, que a su vez, fueron el combustible de nuevas estrellas.

Sin embargo, esas la abundancia de esos elementos complejos no era suficiente, todavía, como para dar lugar a la vida, así que hubo que esperar a que la segunda generación de estrellas se formara y muriera para que expulsara más elementos pesados al medio interestelar.

Este razonamiento nos lleva a que la aparición de la vida, desde el inicio de universo, requiriera un tiempo muy largo, del orden de miles de millones de años. Durante este tiempo el universo se fue llenando de elementos pesados y, al mismo tiempo, fue expandiéndose, llevando estos elementos a todos los lugares del universo.

¿Qué hubiera pasado si las condiciones físicas del universo hubieran sido diferentes?

Fuente: NASA, ESA, the GOODS Team, and M. Giavalisco (University of Massachusetts, Amherst)

Fuente: NASA, ESA, the GOODS Team, and M. Giavalisco (University of Massachusetts, Amherst)

Los primeros átomos se agruparon entre sí para formar las primeras estrellas debido a la gravedad. La fuerza de la gravedad depende de una constante llamada constante de la gravitación. Si esta constante hubiera tenido un valor más pequeño del que realmente tiene el universo se hubiera expandido demasiado rápido y el hidrógeno no habría tenido tiempo de atraerse gravitacionalmente y no se habrían formado las estrellas, ni las galaxias. Si la constante hubiera sido mayor, el universo no habría tenido tiempo de expandirse, llenando todo con los elementos pesados creados en las estrellas y se habría contraído dando lugar a la muerte del universo.

La vida está formada por moléculas, que son la unión de varios átomos. Esta unión se realiza mediante un enlace químico en el que participan los electrones de los átomos. Los electrones tienen un carga eléctrica concreta, y todos tienen la misma carga. Si la carga fuera menor o mayor de la que es, los enlaces serían menos o más fuertes, con lo que las moléculas serían inestables en el primer caso y no existirían, o demasiado rígidas en el segundo caso con lo que las reacciones químicas no serían tan versátiles como realmente son.

La fusión de los átomos en el núcleo depende de la constante de interacción débil. Si el valor de esta constante fuera menor, la fusión sería más lenta y la aparición elementos pesados y complejos habría tardado mucho más. Si el valor fuera mayor, la fusión habría sido más rápida las estrellas habrían vivido mucho menos tiempo, no habiendo dado tiempo a fusionar elementos pesados.

Como vemos, la existencia de la vida que conocemos en nuestro universo requiere de unas condiciones físicas muy precisas.

Con estas condiciones tenemos galaxias, que están pobladas con cientos de miles de millones de estrellas. ¿Pueden todas estas estrellas tener planetas alrededor que alberguen vida? La respuesta es no, ya que también se necesitan unas condiciones físicas adecuadas.

En primer lugar, la estrella no debe ser demasiado grande ni demasiado pequeña (comparada con nuestro Sol). Las estrellas muy grandes queman su combustible nuclear demasiado rápido antes de morir y no daría tiempo a formar planetas que puedan desarrollar vida a su alrededor. Si la estrella es demasiado pequeña, no se genera la suficiente radiación como para calentar los planetas, salvo que éstos estén demasiado cerca de la estrella.

Esto último presenta otro problema: acoplamiento de marea. En este caso su periodo orbital alrededor de la estrella se sincronizaría con su periodo de rotación y, por lo tanto, el planeta siempre mostraría la misma cara a la estrella. Esta cara estaría muy caliente y la superficie del planeta estaría abrasada sin dejar lugar a la vida y la otra cara estaría helada, sin posibilidad de generar vida.

Si la estrella en cuestión se encuentra en un lugar donde existen muchas estrellas cercanas a su alrededor, la cantidad de radiación del resto de estrellas sería muy alta por lo que la vida en el planeta estaría irradiada en exceso y sería abrasada. Por este motivo la existencia de vida en sistemas estelares múltiples es muy poco probable. Además, cuantas más estrellas alrededor, mayores son las probabilidades de tener una explosión de supernova en el vecindario.

Esto nos lleva a que el lugar más apropiado para la existencia de la vida alrededor de una estrella en una galaxia es en un lugar alejado del centro de la galaxia, donde la densidad estelar es menor y la influencia de la radiación emitida por el agujero central es también menor. Pero no conviene estar en el borde de la galaxia. La gravedad del centro galáctico habrá atraído hacia si gran parte de los elementos pesados y esta zona exterior tendrá pocos elementos que puedan dar lugar a la formación de estrellas y planetas adecuados para albergar vida.

En cuanto a la existencia de la vida se refiere, el universo en el que vivimos puede parecer caprichoso. Las condiciones físicas y químicas que presenta son muy particulares ya que la vida no existiría tal y como la conocemos si estas condiciones fueran diferentes.

Referencias

Materia y materialismo. David Jou. Ediciones de Pasado y Presente. 2015

Breve introducción a los aceleradores de partículas

Los aceleradores de partículas son dispositivos en los que mediante la aplicación de campos eléctricos y magnéticos se le suministra una energía a la partícula que se pretende acelerar con el propósito de conseguir diversos objetivos, que van desde la pura investigación de la estructura de la materia que compone el universo hasta las aplicaciones médicas o industriales.

El uso de partículas para la investigación de la estructura de la materia se empleaba mucho antes de que los aceleradores de partículas existieran. En este periodo pre-aceleradores, Rutherford utilizó fuentes de Radio y Thorio para obtener partículas alfa que dirigía hacia un objetivo. Con estas partículas alfa, Rutherford demostró la existencia de un núcleo cargado positivamente en el interior de los átomos. También utilizó partículas alfa para producir la primera reacción nuclear de manera artificial.

Sin embargo, la energía utilizando las partículas alfa de este modo no era suficiente para investigar en profundidad la materia. Se necesitaban energías superiores.

A comienzos del siglo XX se utilizaban tubos de vacío a los que se les aplicaba una diferencia de potencial entre los extremos. A continuación se inyectaban electrones en el tubo y eran acelerados debido a esa diferencia de potencial. Con estos dispositivos, se producían los rayos X. Pero el objetivo era vencer la barrera culombiana del núcleo recién descubierto por Rutherford, así como seguir produciendo reacciones nucleares artificiales, y para ello se necesitaban energías todavía más altas.

En 1932, Cockroft y Walton consiguieron acelerar protones a 400 keV usando un multiplicador de voltaje diseñado por ellos. Los protones acelerados así los utilizaron para bombardear Litio y obtener Helio (Li + p -> 2He). A partir de aquí, comenzó la era de los aceleradores de partículas. En los años 50 del siglo XX, el principal uso de los aceleradores era estudiar la estructura del núcleo atómico, es decir, se utilizaron los aceleradores como un microscopio, ya que según de Broglie las partículas tienen una longitud de onda asociada λ = h/p=hc/E. Por lo que a mayor energía E, menor longitud de onda λ y las partículas pueden penetrar mejor en el interior del núcleo. Por ejemplo para energías de 1 GeV, la longitud de onda asociada es 10-13 cm, que es el diámetro del protón y por lo tanto, se necesitan energías superiores a 1 GeV para poder estudiar la estructura interna del núcleo.

Cockcroft-Walton_accelerator_Clarendon_Lab_Oxford

Multiplicador de voltaje de Cockcroft & Walton. Fuente

Además en investigación en física de partículas, estas han de ser creadas a partir de la energía propia de la colisión de dos partículas aceleradas, según Einstein (E=mc2). Si consideramos la masa del protón, la energía en reposo usando la ecuación de Einstein es aproximadamente de 1 GeV, por lo que esta energía nos da un umbral para la creación de partículas en colisiones protón-protón.

El multiplicador de voltaje de Cockroft y Walton era capaz de conseguir grandes voltajes, e incluso introduciendo mejoras se podían conseguir diferencias de potencial aún mayores, pero pronto alcanzaba su nivel de saturación en el que para conseguir grandes energías para acelerar las partículas era necesario aumentar el tamaño del dispositivo de manera excesiva. Para ello se empezó a desarrollar otro tipo de aceleradores basados en corriente continua (DC, por direct current).

En los aceleradores de DC, la unidad que genera el alto voltaje se conecta a un tubo rectilíneo en el que las partículas son aceleradas en un solo paso a través del tubo. Ejemplos de aceleradores de DC son el acelerador de Van de Graaf o el acelerador electrostático tipo tándem. Estos aceleradores alcanzaban la saturación por debajo de energías de 1 GeV. Por lo tanto, estos aceleradores no son útiles para el estudio en física de partículas, pero sí para estudios de física nuclear y aceleración de iones. Algunos de estos aceleradores también se utilizan en la industria y en aplicaciones médicas.

VanderGraaf

Aceleradores de Van der Graaf. Fuente

Para seguir avanzando en investigación en física de partículas, se necesitaban energías mayores. Por ello se empezaron a desarrollar equipos que aceleraban las partículas a través de cavidades usando aceleración por radiofrecuencia (RF). Con esta tecnología se pudieron desarrollar dos tipos de aceleradores de RF: los lineales y los cíclicos o circulares.

Los aceleradores lineales tienen una geometría rectilínea al igual que los aceleradores de DC, pero al contrario que éstos, utilizan una aceleración en varios pasos, a través de la aplicación de campos eléctricos que alternan su polaridad entre sucesivas cavidades separadas entre sí. De este modo, cuando la partícula pasa de cavidad a cavidad a través del espacio entre ellas, se va encontrando potenciales eléctricos alternos que las aceleran en cada paso. Estos aceleradores son más conocidos como LINACs (Linear Accelerators)

En otros casos, se utilizan cavidades de radiofrecuencia cuadripolares, de manera que al mismo tiempo que se consigue una aceleración del haz de partículas al paso por la cavidad, también se consigue enfocar el haz. Esto es útil cuando se quiere hacer colisionar el haz contra un objetivo o contra otro haz, cosa que sucede en prácticamente todas las aplicaciones de los aceleradores de partículas.

LINAC-RFQ

Izquierda: Principo de construcción de un acelerador lineal según Ising y Wideröe. Fuente. Derecha: cavidades de radiofrecuencia cuadriculares. Fuente

Los aceleradores circulares o cíclicos utilizan las cavidades de radiofrecuencia para acelerar los haces de partículas, de la misma manera que los aceleradores lineales, pero a su vez emplean campos magnéticos para curvar la trayectoria de los haces y mantenerlos confinados en la trayectoria circular.

El primer acelerador circular, el ciclotrón, utilizaba una frecuencia fija de giro. Este acelerador también utiliza un campo magnético fijo en la dirección perpendicular al plano de giro del haz. Este acelerador fue desarrollado por Ernest Lawrence (más información sobre Lawrence y su ciclotrón aquí y aquí).

Cyclotron_with_glowing_beam

Vista de un ciclotrón. Fuente

Uno de los problemas del ciclotrón es que el campo magnético perpendicular al plano de giro pierde intensidad en los extremos. Además debido al aumento de masa de las partículas por efectos relativistas, el diámetro de estos aceleradores estába limitado a 1 m. Por ello, en 1945, se desarrolló el sincrociclotrón que aplicaba una frecuencia variable para compensar el aumento de masa por efectos relativistas y la pérdida de intensidad del campo magnético. De esta manera, se podían conseguir energías máximas muy superiores al ciclotrón.

Sincrociclotrón

Sincrociclotrón. Fuente

En 1952, se desarrolló el primer sincrotrón (Cosmotrón) en el que en lugar de tener un gran imán para mantener la curvatura de los haces de partículas, se utiliza un anillo de potentes imanes que curva las partículas a su paso. Además la intensidad del campo magnético de los imanes se puede variar, de manera que a cada paso del haz por el imán el campo magnético se hace más intenso para compensar la energía que ha ganado en el paso anterior por la cavidad de radiofrecuencia. Los sincrotrones se utilizan en combinación con aceleradores lineales que actúan como inyectores de los haces de partículas.

tevatron_homepage_graphic

Un sincrotrón, el Tevatrón de Fermilab. Fuente

Además, en un sincrotrón se utilizan varios tipos de imanes. Así, los imanes dipolares curvan las trayectorias y los cuadripolares enfocan el haz para hacerlo cada vez más estrecho, y evitar que las partículas se dispersen y choquen contra las paredes de los imanes causando daño.

Finalmente, con el desarrollo de la superconductividad, se ha conseguido desarrollar cavidades de radiofrecuencia superconductoras así como electroimanes superconductores. Esto ha dado pie a poder alcanzar aceleraciones muy superiores, al mismo tiempo que poder curvar las trayectorias más amplias que suceden al alcanzar energías mayores, como es el caso del LHC que recientemente ha empezado su run II alcanzando energías de colisión en el centro de masas de 13 TeV.

Esta entrada participa en la edición del LXII Carnaval de la Física que es albergado en esta ocasión en el blog La Aventura de la Ciencia de Daniel Martín Reina

Referencias

CERN Accelerator School – General Accelerator Physics Proceedings. Vol. I. 3-14 Septiembre 1984

De la energía nuclear de fisión (3): El proceso de fisión

Seguimos con nuestra serie sobre la energía nuclear de fisión. Tras haber hablado del combustible utilizado para generar energía y de su transporte a las instalaciones nucleares hoy vamos a hablar del proceso de fisión propiamente dicho.

A modo de rápido recordatorio, los átomos se componen de un núcleo que contiene protones (con carga eléctrica positiva) y neutrones (sin carga eléctrica) rodeado de capas de electrones (con carga eléctrica negativa). El número de protones y electrones es el mismo e igual, cuando el núcleo es estable, al número de neutrones. Sin embargo, cuando el número de neutrones es diferente hace que el núcleo sea inestable y se desintegre. También existen núcleos estables o inestables que pueden absorber neutrones y volverse, por lo tanto, inestables y desintegrarse. Aquí estamos entendiendo la desintegración como el proceso por el cual un átomo de un elemento de alto número atómico, se divide en dos átomos con un número atómico inferior. A este proceso se le conoce como fisión nuclear.

309px-Nuclear_fission

Fisión nuclear (Fuente: Wikimedia Commons)

El 235U que se utiliza como combustible nuclear es muy útil para este propósito porque:

  • Absorbe fácilmente neutrones, con lo cual se vuelve inestable (se convierte en 236U).
  • El 236U tiene un alta probabilidad de fisionarse.
  • La fisión del 236U libera energía en forma de calor que se utiliza para generar vapor de agua que a su vez se utiliza para generar electricidad.
  • La fisión del 236U libera dos o tres neutrones adicionales que pueden colisionar con otros átomos de 235U y así mantener una reacción en cadena.

Para que se produzca la absorción del neutrón por parte del 235U, el neutrón ha de moverse despacio, por que así se incrementa la sección eficaz, el “tamaño” del núcleo en relación al neutrón.

Con el objetivo de frenar a los neutrones, el combustible, las vainas de zircaloy con pastillas de dióxido de uranio en su interior, están introducidas en agua que a su vez se utiliza como refrigerante para extraer el calor generado en las reacciones de fisión a través de la formación de vapor que es utilizado para generar la electricidad. El proceso de frenado de los neutrones se conoce como termalización o moderación.

320px-Rbmk_fuel_rods_holder

Soporte de las vainas de combustible (Fuente: Wikimedia Commons)

La fisión, como hemos dicho, genera calor, pero se genera muy poco en cada fisión por lo que para generar energía debemos de producir trillones de fisiones por segundo, para elevar la temperatura del agua. Estos trillones de reacciones se producen gracias a la presencia de muchos átomos de 235U en el núcleo del reactor y a que por cada fisión se liberan neutrones que mantienen la reacción en cadena. Cuando por cada reacción de fisión que se produce, vuelve a tener lugar otra fisión por un neutrón liberado, se dice que el reactor ha alcanzado la criticidad y la reacción en cadena se mantiene.

Pero, ¿qué ocurre con los neutrones que no se utilizan para nuevas reacciones de fisión? Si se quedaran en el interior de núcleo del reactor, podrían provocar la fisión de nuevos núcleos de 235U y la reacción dejaría de ser controlada con lo que se correría el riesgo de que el reactor explotara, de hecho esta reacción incontrolada es la que se utiliza en las bombas atómicas. Por ello se utilizan venenos neutrónicos que pueden ser los propios elementos estructurales de la vasija del reactor, los propios productos de la fisión o elementos del refrigerante, con lo cual no son controlables por el operador del reactor o elementos introducidos ad hoc como es boro disuelto en el refrigerante o barras de control. Cuando se añade más boro o se insertan las barras de control, se disminuye el número de reacciones de fisión y cuando se extraen, se aumentan.

Control rods

Barras de control (Fuente: http://emilms.fema.gov/IS3/FEMA_IS/is03/REM0402110.htm)

Los productos de fisión suelen ser extremadamente radiactivos por lo que en el diseño de la central nuclear en general y de la vasija del reactor en particular, se ha de tener en cuenta este hecho y establecer blindajes que eviten la emisión de estos productos al exterior.

Aunque la generación de electricidad se lleva a cabo de manera diferente en los distintos tipos de centrales nucleares, el proceso de fisión que produce el calor es el mismo en todos los casos. En las siguientes entradas hablaremos de los tipos más importantes de centrales nucleares que existen.

Referencias

Física Cuántica. Carlos Sánchez del Río (Coordinador). Pirámide

Nuclear Regulatory Commission

La Física en las Ciencias Sociales: Ettore Majorana

Tradicionalmente ha existido una separación entre las ciencias naturales y las ciencias sociales. Normalmente, si alguien se especializa en un campo de las ciencias naturales, se aleja por completo de las ciencias sociales y viceversa. El conocimiento adquirido en un campo deja de ser, por tanto, aplicado al otro campo. En principio, puede parecer que esta separación es natural, ya que puede llegar a ser complicado aplicar, por ejemplo, la Física cuántica, que trata de los componentes del mundo muy pequeños, a la economía, que en pocas palabras consiste en el estudio del dinero y sus movimientos.

Sin embargo en un mundo cada vez más interdisciplinario, el beneficio que se puede obtener en la aplicación de las ciencias naturales en las ciencias sociales o viceversa puede ser inmenso.

Tal es el caso, un tanto desconocido, de un gran físico italiano de la primera mitad del siglo XX: Ettore Majorana.

Vida de Ettore Majorana

Nacido en 1906 en Catania, ciudad de la isla italiana de Sicilia, inició sus estudios, quizá influido por una familia compuesta de abogados, políticos e ingenieros, en la Escuela de Ingeniería de la Universidad de Roma.

Ettore_Majorana

Ettore Majorana (Fuente: Wikimedia Commons)

Por aquel entonces, en dicha universidad la enseñanza era eminentemente práctica y ciertos alumnos, que gustaban de la especulación teórica, se fueron alejando de esta manera de enseñar y acercándose cada vez más al Instituto de Física de Roma situado en la Vía Panisperma, en el que daba clases el gran Enrico Fermi. Uno de los estudiantes que cambió de Escuela fue Emilio Segrè (también fue uno de los grandes físicos de esa época), también Siciliano y amigo de la infancia de Ettore.

Siendo Ettore otro de esos estudiantes hastiados de la enseñanza práctica de la ingeniería, cuando Segrè le ofreció la oportunidad de visitar el Instituto de Física y conocer a Fermi pronto aceptó la invitación, quedando tan encantado con las enseñanzas que se impartían allí que finalmente abandonó la ingeniería y empezó a estudiar física bajo el auspicio de Fermi, que además fue el director de su tesis doctoral, la cual leyó el 6 de Julio de 1929 y que llevaba por título “Sulla mecánica dei nuclei radioattivi”.

En la Vía Panisperma, Ettore pronto impresionó a sus compañeros, ganándose el apelativo de “Il Grande Inquisitore” por su gran espíritu crítico que aplicaba no sólo a su trabajo, sino al de todos, ya fueran compañeros directos o pertenecientes a otra institución científica.

Ragazzi_di_via_Panisperna

Los chicos de la Via Panisperma. De izquierda a derecha: Oscar D’Agostino, Emilio Segrè,  Edoardo Amaldi, Franco Rasetti y Enrico Fermi (Fuente: Wikimedia Commons)

En cuanto a su personalidad también fue una persona de alto interés para sus compañeros, ya que parecía que se dedicaba a la física como un hobby en lugar de como profesión. Cuenta Edoardo Amaldi (otro físico que siguió los pasos de Segrè y Majorana al pasar del Instituto de Ingeniería al Instituto de Física), en la biografía que escribió sobre Majorana “La vita e l’opera di Ettore Majorana”, diversas anécdotas sobre su vida, como aquella en la que habiendo recibido el número del “Comptes Rendus” en el que Frederic Joliot e Irène Curie publicaron sus notas sobre la radiación incidente descubierta por Bethe y Becker, comentó “No han entendido nada, se trata probablemente de protones de retroceso producidos por una partícula neutra pesada”.

A partir de aquí, y tras el descubrimiento del neutrón por Chadwick, Majorana comenzó a elaborar una teoría del núcleo ligero compuesto de protones y neutrones. Tras comentar esta teoría a Fermi, éste le pidió que la publicara, pero se negó. Majorana, a pesar de haber hecho grandes contribuciones a la física, publicó en muy pocas ocasiones debido a una enorme reticencia a hacerlo, quizá debido a que nunca estaba satisfecho del todo con su propio trabajo y deseaba mayor perfección o quizá debido a lo que los demás pudieran opinar sobre su trabajo. Solamente publicó diez artículos (siendo el último artículo publicado de manera póstuma), de los cuales nueve fueron escritos en italiano y uno en alemán, siendo el italiano un idioma que no se encontraba muy extendido en la comunidad científica internacional.

Tras la publicación por Heisenberg en 1932 de un artículo clave para entender las fuerzas de intercambio de coordenadas espaciales y de spin, muchos en la Vía Panisperma, incluido Fermi, pensaron que el trabajo que Majorana se negó a publicar contenía la misma teoría y que por lo tanto había entendido el problema mucho antes de Heisenberg y se podría haber adelantado en la publicación. Tras esto, lo animaron a publicar el artículo, pero opinaba que Heisenberg ya lo había dicho todo, y mucho más, y que no merecía la pena. Tras intentar persuadirlo de la publicación, Fermi consiguió convencerlo para que fuera durante unos meses al extranjero, Leipzig y Copenhague, viaje que realizó con la ayuda de una beca del Consejo Nacional de Investigación a comienzos de 1933.

A su vuelta a Roma, Ettore comenzó a ausentarse del Instituto de Física cada vez más, hasta el punto de que pasaba largas temporadas fuera de él. Permanecía en casa dedicando un número extraordinariamente elevado de horas al estudio, en las cuales comenzó a interesarse por la economía política, la vida política y además aumentó su interés por la filosofía, más concretamente por el pensamiento de Schopenhauer. Se pensó que durante ese tiempo, se había mantenido ajeno a la física, pero documentos hallados en los últimos años, han demostrado que no fue así, ya que, por ejemplo, se ofreció a dar cursos gratuitos sobre física en el Instituto de Física de Roma que, sin embargo, no tuvieron lugar.

En 1937 volvió a sentir un interés renovado en la física teórica y desde el Instituto de Física le convencen de que publique un artículo que tenía guardado desde 1932, en el que matizaba las ideas de Paul Dirac sobre antipartículas titulado “Teoria simmetrica dell’elettrone e del positrone” y que posteriormente se convertiría en un artículo de referencia, cuya aplicación a la investigación, desde el punto de vista experimental, está todavía de actualidad.

Tras dicha publicación, Fermi y sus compañeros le animan a presentarse a un examen para obtener una plaza de profesor de física teórica en la Universidad de Palermo, pero duda. Finalmente, sin contárselo a nadie, decide optar a la plaza de la Universidad de Palermo y la consigue. Aquí llegamos a otro ejemplo de poder y presiones en el ámbito político. El senador Giovanni Gentile previendo que el hecho de que Majorana consiguiera la plaza de Palermo fuera una competencia para su hijo Giovanni Gentile Jr., presiona al entonces presidente del Consejo de Ministros de Italia Benito Mussolini para que nombre a Majorana como catedrático de Física Teórica de la Universidad de Nápoles.

Majorana se incorpora el 13 de enero de 1938 a su catedra en Nápoles y desempeña sus funciones de manera normal, pero dos meses más tarde, el 25 de Marzo, envía una carta al director del Instituto de Física de Nápoles diciendo que deja las clases y que recordará a todos los profesores y estudiantes del Instituto “al menos hasta las once de la noche de hoy, y posiblemente incluso más tarde…”. Sin embargo, al día siguiente envía un telegrama pidiendo que olvide la carta y al mismo tiempo envía otra carta indicando que “el mar le ha rechazado”, pero que no quiere volver a las clases.

La policía es movilizada para buscar a Ettore, alertados por sus amigos y familiares, y encuentran a un testigo que dice haberlo visto el 26 de Marzo por la noche en un barco de Palermo a Nápoles.

590px-Annuncio_scomparsa_Majorana

Cartel de búsqueda de Ettore Majorana (Fuente: Wikimedia Commons)

Nada más se supo de su persona. Todavía queda la duda de si se suicidó (nunca se encontró su cuerpo) o si se ocultó en algún lugar.

El décimo artículo

Como se ha mencionado, Majorana, sólo escribió diez artículos. El décimo fue encontrado por uno de sus hermanos entre los papeles que Ettore tenía guardados.

Dicho artículo, escrito en italiano, fue publicado en 1942 en la revista internacional italiana Scientia1 gracias a uno de los amigos de Ettore, cuyo nombre ya nos ha aparecido con anterioridad, Giovanni Gentile Jr.

El hecho de que el artículo fuera escrito en italiano puede que fuera una de las razones por las que no llegó a una gran audiencia, pero también fue porque en dicho artículo daba su punto de vista, el punto de vista de un físico, sobre el valor de las leyes estadísticas en la física y en las ciencias sociales, de ahí el título del artículo “Il valore delle leggi statistiche nella fisica e nelle scienze social2”.

En la nota que acompañaba a la publicación en Scientia, escrita por Gentile Jr., se podía leer lo siguiente:

Este artículo de ETTORE MAJORANA – el gran físico teórico de la Universidad de Nápoles desaparecido el 25 de Marzo de 1938 – fue originalmente escrito para una revista de sociología. No fue publicada quizás debido a la reticencia que tenía el autor hacia la interacción con otros. Reticencia que le llevó con demasiada frecuencia a guardar importantes artículos en un cajón. Este artículo ha sido conservado por el dedicado cuidado de su hermano y presentado aquí no sólo por el interés intrínseco del tema sino sobre todo porque nos muestra uno de los aspectos de la rica personalidad de MAJORANA que tanto impresionaba a la gente que le conocía. Un pensador con un agudo sentido de la realidad y con una mente extremadamente crítica que no escéptica. Toma aquí una clara posición con respecto al debatido problema del valor estadístico de las leyes básicas de la física. Este aspecto, considerado por muchos académicos un defecto similar a la carga que el indeterminismo presenta en la evolución de la naturaleza es, de hecho, para MAJORANA una razón para reclamar la importancia intrínseca del método estadístico. Hasta ahora este método se ha aplicado sólo a las ciencias sociales y en la nueva interpretación de las leyes físicas recupera su significado original. GIOVANNI GENTILE jr., 19423

Estudios recientes han demostrado que Majorana escribió el artículo por petición. Fue su tío Giuseppe Majorana, profesor de Economía en la Universidad de Catania, con intereses en la investigación en estadística aplicada y teórica, quien le solicitó por carta en 1936 que escribiera el artículo con motivo de su jubilación como profesor.

En este artículo, Majorana reflexiona sobre el comportamiento estadístico de los fenómenos físicos y como se pudieran parecer a los comportamientos propios de las ciencias sociales y del comportamiento humano.

Desde el punto de vista físico, Majorana defiende que hay aspectos característicos de la mecánica cuántica que la diferencian enormemente de la mecánica clásica:

No existen en la naturaleza leyes que expresen una sucesión fatal de fenómenos; también las últimas leyes relacionadas con los fenómenos elementales (sistemas atómicos) tienen carácter estadístico, permitiendo establecer solamente la probabilidad de que una medición verificada en un sistema preparado de un modo determinado dé un cierto resultado, y esto cualesquiera que sean los medios de que disponemos para determinar con la mayor exactitud posible el estado inicial del sistema. Estas leyes estadísticas indican una falta real de determinismo, y no tienen nada en común con las leyes estadísticas clásicas, en las cuales la incertidumbre de los resultados deriva de la renuncia voluntaria por razones prácticas a indagar los aspectos particulares de las condiciones iniciales de los sistemas físicos.

Actualmente, En las ciencias sociales se considera que las leyes estadísticas son necesarias para el modelado de comportamientos. Sin embargo, tanto en las ciencias naturales como en las sociales, esto no siempre ha sido así. Majorana pone de relieve que la naturaleza estadística de los fenómenos que ocurren en las ciencias naturales, como muestra la mecánica cuántica, sugiere que estas mismas leyes estadísticas sean aplicadas al modelado de los comportamientos sociales y económicos. Uno de los ejemplos más claros de aplicación de esta aproximación es el modelo de Black-Scholes para la valoración de opciones, utilizado en el ámbito financiero4.

Dicho artículo también da muestras de como su interés por la filosofía tiene su resultado en la comprensión del mundo que le rodea en función de los resultados físicos de la naturaleza:

El determinismo, que no deja ningún sitio a la libertad humana y obliga a considerar como ilusorios en su finalidad aparente todos los fenómenos de la vida, presenta una causa de debilidad real. Esta es una irremediable e inmediata contradicción con los datos más evidentes de nuestra consciencia.

A pesar de su poca contribución escrita, las grandes aportaciones de Ettore Majorana a la física son incuestionables. Además, el valor de su último artículo hizo cambiar la visión que hasta entonces se tenía de las ciencias sociales a través de su relación con las ciencias naturales y la naturaleza de las leyes estadísticas, haciendo que desde otras disciplinas distintas a la física se reflexionara sobre el papel que dichas leyes juegan en los mecanismos sociales y económicos.

La triste desaparición de Ettore Majorana dejó un vacío los científicos que dedican su vida a la comprensión de los fenómenos de la naturaleza pero, como todo gran científico, su legado sigue siendo importante incluso después de su muerte.

Notas

  1. La web de la revista Scientia es http://www.scientiajournal.org/
  2. La primera traducción del artículo original al inglés se debe a Rosario Nunzio Mantegna del Dipartimento di Física e Tecnologie Relative de la Università de Palermo, realizado en 2005. La única traducción que he encontrado en castellano se debe a Ramón F. Reboiras y C. Allones Pérez del Departamento de Sociología y Ciencia Política y de la Administración de la Universidad de Santiago, realizado en 2004.
  3. Traducción propia del inglés.
  4. Se puede encontrar más información sobre el modelo de Black-Scholes en, por ejemplo, Wikipedia http://en.wikipedia.org/wiki/Black%E2%80%93Scholes_model

Para saber más

Sobre la vida y desaparición de Ettore Majorana se ha escrito mucho y existen muchas entradas en blogs que son interesantes, por ejemplo El misterio Majorana en La ciencia de tu vida

Una de los campos de investigación experimental abiertos actualmente es descubrir si los neutrinos son su propia antipartícula, es decir, si son partículas de Majorana, ya que fue él quien lo predijo. En el blog Faster than Light que Juan José Gómez Cadenas tiene alojado en Jot Down Cultural Magazine, habla sobre este asunto en la entrada Paisaje sin neutrinos (III), decíamos ayer… Nadie mejor que Juan José para explicarlo, ya que lidera el experimento NEXT que  investiga si, efectivamente, el neutrino es su propia antipartícula.

Referencias

Allones Pérez. Majorana: Materiales para una biografía. EMPIRIA. Revista de Metodología de Ciencias Sociales. Nº 7, 2004, pp. 183-209

Ettore Majorana, El valor de las leyes estadísticas en la física y en las ciencias sociales. Traducción de Ramón F. Reboiras y C. Allones Pérez, EMPIRIA. Revista de Metodología de Ciencias Sociales. Nº 7, 2004

Rosario Nunzio Mantegna. The tenth article of Ettore Majorana, 2006. arXiv: physics/0608279v1 [physics.hist-ph]

Rosario Nunzio Mantegna. Majorana’s article on “The value of statistical laws in physics and social sciences”, 2006. PoS (EMC2006) 011

Rosario Nunzio Mantegna. Sicily and the development of Econophysics: the pioneering work of Ettore Majorana and the Econophysics Workshop in Palermo, 2014. arXiv:1409.0789v1 [physics.hist-ph]

Los 6 preceptos de la nanociencia

Cuando se oye la palabra nanociencia o nanotecnología, a muchos les viene a la cabeza los laboratorios secretos de un científico loco controlados por los gobiernos en los que se desarrollan robots muy, pero que muy pequeños para inyectárnoslos en la sangre cuando vamos a vacunarnos para así controlarnos desde dentro. Es decir la miniaturización de estructuras macroscópicas hasta niveles insospechados.

La nanociencia investiga las propiedades físicas, químicas o biológicas de estructuras a nivel atómico, molecular o macrocomolecular, o lo que es lo mismo, las estructuras que tienen un tamaño de entre 1 y 100 nanómetros. Un nanómetro equivale a 10-9 m o 0,000000001 m.

El estudio de la nanociencia y el desarrollo de nanotecnología lleva asociadas muchas ventajas para nosotros como por ejemplo el uso de desarrollo medicamentos encapsulados en moléculas que liberen su componente activo solamente donde se necesita, evitando así un efecto indeseado. Esto es así en el caso del tratamiento de pacientes con cáncer, ya que se podría hacer llegar el tratamiento sólo a las zonas afectadas por el tumor en lugar de depositar su efecto sobre todos los tejidos. Otro ejemplo es el estudio de materiales cuyas propiedades conductoras de la electricidad sean mucho mejores o incluso conseguir nuevos métodos para transmitir información a través de materiales en las que al menos una de sus dimensiones está en dentro de la escala nanométrica.

Quizá el ejemplo más famoso de un material desarrollado a partir de la nanociencia sea el grafeno. De hecho, Andre Geim y Konstantin Novoselov recibieron en 2010 el premio Nobel de Física por sus experimentos con el grafeno.

800px-Graphen

Representación artística del grafeno (Fuente: Wikimedia Commons)

A la hora de obtener materiales a nivel nanométrico una de las principales bazas es el uso de técnicas propias de la ciencia química, ya que se pueden utilizar las propiedades que tienen los átomos y las moléculas para unirse por si solas para crear dichas estructuras nanométricas.

Pero la pregunta que surge aquí es si el hecho de miniaturizar estructuras macroscópicas hasta llegar a escalas nanométricas se puede considerar como nanociencia o nanotecnología. La respuesta es no. De hecho, no todo es nanociencia y existen seis principios o preceptos sobre lo que es esta rama emergente de la ciencia.

Primer precepto: Construir de manera ascendente

Esto implica que miniaturizar, es decir, reducir el tamaño de algo, no es nanociencia. Al contrario, utilizar los ladrillos fundamentales, es decir, átomos y moléculas y, a partir de ahí, utilizar sus propiedades para construir estructuras de tamaño nanométrico que puedan realizar determinadas funciones, sí es nanociencia.

Segundo precepto: Cooperación

Esto no trata de que diversas instituciones cooperen entre si para el desarrollo de nanoestructuras, que también es importante, sino del desarrollo de diferentes nanoestructuras con funcionalidades distintas que cooperen entre si, para dar lugar a nanodispositivos más complejos y con funcionalidades mejoradas.

Tercer precepto: Simplicidad

Lo bueno, si es simple, dos veces bueno (o algo así decía el refrán). Simplificar los problemas a los que los desarrollos nanotecnológicos se enfrentan, de manera que sólo se utilicen las leyes científicas necesarias es indispensable, para evitar complejidades innecesarias.

Cuarto precepto: Originalidad

Volvemos al ejemplo del robot del principio. Se evita desarrollar cosas que ya existen y simplemente reducirlos de tamaño. Lo que se buscan son estructuras diferentes. Reducir la escala tiene muchas más implicaciones que las que podemos creer, como por ejemplo el hecho de que el volumen depende de una longitud al cubo y la superficie de una longitud al cuadrado, haciendo la reducción de escala inviable. Por ello, es necesario ser original en los desarrollos.

Quinto Precepto: Interdisciplinariedad

Antes hemos dicho que la cooperación entre instituciones también es importante, pero lo es aún más la cooperación entre diferentes ramas de la ciencia. Por ello la cooperación entre biólogos, químicos, físicos e, incluso, ingenieros es mucho más que necesaria. En la nanociencia, el hecho de que un investigador sea físico o químico o biólogo puro, no aporta mucho ya que se va a enfrentar con problemas que será incapaz de solucionar si no abre su campo de conocimiento.

Sexto Precepto: Observación de la naturaleza

La naturaleza nos ofrece muchos ejemplos de nanotecnología. Sin ir más lejos, las moléculas que componen nuestros tejidos y órganos, y como están organizadas e interactúan entre si, son el mejor ejemplo de nanotecnología. Si las observamos y las estudiamos, nuestros desarrollos serán mucho más innovadores, eficientes y mejorarán nuestras vidas.

Es complicado encontrar ejemplos en los que se sigan todos estos preceptos simultáneamente, pero para eso está la ciencia y los investigadores, para conseguir desarrollos que sigan estos preceptos utilizando las leyes que nos ha impuesto la naturaleza.

La idea de esta entrada surge de la lectura de uno de los últimos libros que he leído, “El nanomundo en tus manos. Las claves de la nanociencia y la tecnología” de José Ángel Martín-Gago, Carlos Briones, Elena Casero y Pedro A. Serena. Si tenéis interés en aprender más sobre este fantástico (nano)mundo, y tenéis la ocasión, os lo recomiendo.

carnaval_qu_mia

Esta entrada participa en el XXXVIII Carnaval de la Química alojado en el blog Pero eso es otra historia… de @Ununcuadio

Referencias

The Nobel Prize in Physics 2010″. Nobelprize.org. Nobel Media AB 2014. Web. 14 Aug 2014.

El nanomundo en tus manos. Las claves de la nanociencia y la tecnología. José Ángel Martín-Gago, Carlos Briones, Elena Casero y Pedro A. Serena. Editorial Planeta S.A. Junio 2014

Más sabores

El zoo de partículas subatómicas ha ido creciendo a lo largo de los años desde el descubrimiento del electrón, como uno de los constituyentes fundamentales de los átomos. Al principio, el descubrimiento de estas nuevas partículas ocurría de manera casual mediante el uso de primitivos aceleradores de partículas o por el estudio de rayos cósmicos, es decir, de las partículas de alta energía que inciden en la atmósfera, provenientes del espacio, donde colisionan con los átomos del aire y producen otras partículas. No existía un modelo teórico que pudiera predecir la existencia de esas partículas, así que todo llegaba por sorpresa.

Un ejemplo de ello ocurrió en 1936 cuando Carl Anderson y Seth Neddermeyer, por entonces en Caltech, estaban estudiando los rayos cósmicos usando una cámara de niebla a la que aplicaban un campo magnético y encontraron trazas de unas partículas que se curvaban de manera ligeramente diferente a como lo hacían los electrones. Estaba claro que por su curvatura tenían carga negativa, pero su radio de curvatura era mayor que el de los electrones. Se asumió que esta nueva partícula tenía la misma carga que el electrón, por lo que para conseguir que el radio de curvatura fuera mayor, esta partícula tenía que tener una masa mayor que la del electrón, considerando partículas a la misma velocidad. Se comparó también el radio de curvatura con el de las trazas de protones (aunque estos tuvieran carga positiva) y se vio que el radio de la nueva partícula era menor que el de éstos, por lo que su masa tenía que ser menor que la de los protones.

La existencia de esta nueva partícula añadió una complejidad adicional al zoo de partículas que empezaba a aparecer en esa época. Inicialmente se llamó mesotrón e incluso se llegó a pensar que era la partícula mediadora de la fuerza fuerte que había predicho Yukawa, por lo que se le cambió el nombre a mesón mu. Tras el descubrimiento del pión (o mesón pi) y otros mesones (un mesón es una partícula compuesta de dos quarks y que tiene spin entero), se vio que el mesón mu no tenía las mismas propiedades que los mesones, es decir, no interaccionaban con la fuerza nuclear fuerte. Además, se descubrió que los mesones mu se desintegraban en neutrinos y antineutrinos. A partir de entonces se le volvió a cambiar el nombre por muón ya que así se alejaba del concepto de mesón al que se le había asociado anteriormente.

muon_neutrino-4e7cb2b-intro

 

Neutrino muónico (Fuente: Particle Zoo)

La aparición de neutrinos y antineutrinos planteaba una cuestión importante. ¿Son los mismos neutrinos que los asociados a los electrones en la desintegración beta? Estaba claro que se tenía que continuar con la tarea iniciada por Reines y Cowan como cazadores de neutrinos e intentar solucionar el misterio.

Una buena manera de estudiar la naturaleza de los neutrinos asociados a los muones es a través del estudio de la reacción π → μ ν. El problema era que, para obtener piones en cantidades suficientes como para llevar a cabo la investigación, son necesarias energías que no se alcanzan a través del estudio de los piones producidos en la atmósfera como producto de las colisiones de los rayos cósmicos. Era necesario, por tanto, utilizar aceleradores de partículas. Además de unos investigadores lo suficientemente atentos como para ver que utilizando esta reacción de desintegración se podía investigar el problema.

Esta conjunción de factores, un acelerador y unos buenos investigadores, se dio en el acelerador de Brookhaven en 1962 donde se encontraban trabajando Leon Lederman, Mel Schwartz y Jack Steinberger.

En su libro, La partícula divina (dejemos aparte la historia de porqué se llama divina), Lederman cuenta la historia de cómo llegó a idear y montar el experimento.

Utilizando el Sincrotrón de Gradiente Alterno (Alternating Gradient Synchrotron) de Brookhaven, que en 1960 consiguió alcanzar unas energías sin precedente al acelerar protones a 33 GeV, el equipo formado por Lederman, Schwarz y Steinberger aceleraron protones hasta una energía de 15 GeV. Una vez alcanzada esta energía el haz de protones se dirigió hacia un blanco de berilio donde, al colisionar, se producían piones que volaban libremente a lo largo de unos 21 m, tiempo durante el cual se desintegraban en muones y neutrinos. A continuación se puso una barrera de algo más de 13 m de grosor y 5000 toneladas, hecha con viejas placas de barcos de guerra, en la que se paraban todas las partículas más pesadas excepto los neutrinos, quedando como resultado un haz de neutrinos (asociados a los muones) con energías de hasta 1 GeV.

Lo que detectaron fueron 34 huellas de muones (teniendo en cuenta un fondo de unos 5 muones procedentes de rayos cósmicos). Si los neutrinos fueran los mismos para la desintegración del pión y la desintegración beta, teóricamente, habrían observado unas 29 huellas de electrones, que eran bien conocidas por ellos, y si fueran distintos habrían observado, como mucho, uno o dos huellas de electrones procedentes de la desintegración de kaones tales como K+ → e+ + νe + π0. No se observaron electrones.

Por el descubrimiento del neutrino muónico, Lederman, Schwarz y Steinberger recibieron el premio Nobel en 1988.

lederman_postcard

Leon Lederman (Fuente: Nobelprize.org)

schwartz_postcard

Mel Schwarz (Fuente: Nobelprize.org)

steinberger_postcard

Jack Steinberger (Fuente: Nobelprize.org)

Ahora sabemos que existen tres tipos de neutrinos. El tercero es el asociado al leptón tau, que es como el muón y el electrón, pero todavía más pesado. Sin embargo, el descubrimiento del neutrino tau, no solucionó todas las incógnitas que tenemos sobre los neutrinos. Todavía nos quedan muchas cosas por conocer, pero esto mejor lo dejamos para otra ocasión.

Referencias

Discovery of the Muon-Neutrino

T2K Experiment

La Partícula Divina. Leon Lederman y Dick Teresi

Seth H. Neddermeyer and Carl Anderson. Note on the Nature of Cosmic-Ray Particles. Phys. Rev., Vol. 51, 884.

Determinismo, indeterminismo y caos

Los fenómenos físicos de la naturaleza ocurren por una razón, siguen unos determinados patrones o unas determinadas leyes, pero ¿se puede decir con toda certeza cuál será el resultado?

Dependiendo del fenómeno podremos predecir el resultado con exactitud o tendremos una cierta incertidumbre. Es incluso posible que lo único que obtengamos sea una valor probable según unos criterios estadísticos.

A lo largo de la historia de la ciencia se ha pasado por diferentes etapas del pensamiento. Hubo una época en la que se pensaba que todo se podía predecir con total exactitud siendo por ello un periodo determinista. Sin embargo el descubrimiento de nuevos fenómenos se llego a pensar que era imposible conocer el resultado de dichos fenómenos con exactitud, apareciendo una corriente indeterminista del pensamiento científico. Más adelante, el estudio de los sistemas dinámicos no lineales llevó a la aparición de un nuevo campo de estudio: el estudio de sistemas con un comportamiento completamente errático e impredecible aunque, en principio, su formulación sea determinista. Este campo es lo que conocemos como caos.

El determinismo científico considera que aunque el mundo es complejo e impredecible en muchos aspectos, éste siempre evoluciona según principios o reglas totalmente determinadas, siendo el azar algo que sólo ocurre de manera aparente.

Según avanzaba el siglo XIX, el determinismo se derrumbó poco a poco. Hubo dos razones para ello.

En primer lugar, se necesitaba un conocimiento completo y detallado de las condiciones iniciales del sistema estudiado para poder introducirlas en las ecuaciones de evolución y poder establecer el resultado.

En segundo lugar, los sistemas compuestos de muchas partículas tenían una dinámica cuyas ecuaciones de evolución eran muy complejas de resolver.

Este segundo motivo fue el que hizo que fuera necesario introducir conceptos relacionados con la probabilidad y estadística para solucionar los problemas, dando como resultado la creación de una nueva mecánica: la mecánica estadística y con ello el paso de un paradigma científico determinista a uno indeterminista.

La llegada de la mecánica cuántica también tuvo consecuencias en la visión determinista del mundo ya que del principio de incertidumbre de Heisenberg se desprende la imposibilidad de aplicar ecuaciones deterministas al mundo microscópico por la imposibilidad de conocer dos variables conjugadas a la vez (por ejemplo la posición y la velocidad)

En la mente de muchos, se asocia indeterminismo con mecánica cuántica y determinismo con física clásica, pero, como demostró el premio Nobel Max Born, el determinismo de la mecánica clásica no es real al no ser posible establecer con infinita precisión las condiciones iniciales de un experimento.

Por otro lado Feynman, en sus lecturas de física, dijo que el indeterminismo no pertenece de manera exclusiva a la mecánica cuántica, sino que es un propiedad básica de muchos sistemas.

Casi todos los sistemas físicos son sistemas dinámicos, es decir, son sistemas descritos por una o más variables que cambian en el tiempo.

Hay sistemas dinámicos que siguen un comportamiento periódico y otros sistemas que no siguen ningún comportamiento periódico. Cuando el movimiento es no periódico, depende de las condiciones iniciales y es impredecible en largos intervalos de tiempo (aunque sea predecible en intervalos pequeños) se dice que el movimiento es caótico.

En otras palabras, el caos es un tipo de movimiento que se puede describir por ecuaciones, a veces muy sencillas, y que se caracteriza por:

  • Movimiento irregular en el tiempo que no tiene periodicidades ni superposición de periodicidades.
  • Es impredecible en el tiempo ya que es muy sensible a las condiciones iniciales.
  • Es muy complejo pero ordenado en el espacio de fases

Por ejemplo, cuando existen tres masas diferentes que se mueven bajo la acción de la gravedad (digamos tres planetas), el estudio de su evolución en el tiempo es realmente complejo ya que depende de las condiciones iniciales, es decir posición y velocidad de las tres masas. Poincaré demostró que no era posible encontrar una solución exacta.

Otro de los casos más famosos en el estudio de estos sistemas dinámicos no lineales tuvo lugar en 1963 cuando Edward Lorenz desarrolló un modelo de tres ecuaciones diferenciales ordinarias para describir el movimiento de un fluido bajo la acción de un gradiente térmico (lo que es equivalente a decir que estaba estudiando el comportamiento de la atmósfera) Utilizando un ordenador buscó soluciones numéricas al sistema de ecuaciones y descubrió que era muy sensible a las condiciones iniciales. Fue James York quien reconoció el trabajo de Lorenz e introdujo el término caos.

Lorenz_system_r28_s10_b2-6666

Atractor de Lorenz. ¿No parece las alas de una mariposa? (Fuente: Wikimedia Commons)

Actualmente se tiende a pensar que tras el descubrimiento de la mecánica cuántica y la relatividad de Einstein, toda la física gira en torno al estudio de estos campos. Sin embargo, el caos es un campo muy amplio que está ganando adeptos no sólo entre físicos y matemáticos, sino también en otros campos como la biología, la genética y la neurociencia por nombrar unos cuantos. Esta interdisciplinariedad es sorprendente y demuestra lo mucho que se puede aprender unos de otros para que la ciencia avance con paso firme hacia un mayor conocimiento del mundo.

Referencias

Las matemáticas y la física del Caos. Manuel de León, Miguel A. F. Sanjuán. CSIC

Caos. La creación de una ciencia. James Gleick.

E. Lorenz. Deterministic nonperiodic flow. Journal of the Atmospheric Sciences. Volume 20

Cazadores de Neutrinos

El Universo es misterioso y apasionante. Hay tantas cosas por descubrir que es muy probable que no lleguemos a conocer más que una ínfima parte de todo lo que nos rodea en todo el tiempo que exista la raza humana. En el todo el universo existen cosas que podemos observar directamente, teorizar sobre ellas, aplicar todo nuestro aparato matemático y decir que esa porción de nuestra observación se comporta de una determinada manera. Con esa teoría también podemos hacer predicciones futuras sobre comportamientos futuros. Sin embargo, también existen cosas que no podemos observar directamente y, en un principio, sólo podemos teorizar sobre ellas. Pero el ingenio humano y sus ansias de conocimiento no tiene límites y nos las apañamos para poder hacer visible lo invisible.

Al igual que en muchas otras ramas de la ciencia, la física tiene cosas que no se pueden observar y eso las hace más interesantes para los físicos. Nos volvemos locos por conocer lo que no vemos. Un ejemplo claro es la física de partículas. Cuando nos ponemos a investigar que hay en el interior de los átomos, que no vemos directamente, o que ocurre cuando dos átomos chocan a grandes velocidades (y grandes energías), se obtiene una cantidad de información que en muchos casos es desconcertante. Aparecen nuevas partículas más pequeñas que los mismos elementos constituyentes de los átomos. Su comportamiento difiere enormemente de lo que estamos acostumbrados en nuestra experiencia diaria. Aparecen nuevos misterios, que los vamos acumulando en la pila de misterios sin resolver. Los neutrinos son unos de esos misterios.

electron neutrinoNeutrino electrónico (Fuente: Particle Zoo)

Poco después del descubrimiento de la radiactividad, el gran Ernest Rutherford descubrió, en 1899, que una de las maneras en las que la radiactividad se manifestaba era a través de la emisión partículas cargadas negativamente con una carga igual a la del electrón. En un principio, a estas partículas se les llamó partículas beta, debido a que este tipo de radiactividad se conocía como radiactividad beta, hasta que realmente se identificaron con el electrón.

El descubrimiento de este tipo de radiactividad abrió una nueva línea de investigación.

A pesar de los esfuerzos para comprender este tipo de radiactividad, todavía era necesario conocer algunos ingredientes más que faltaban en el conocimiento del interior de los núcleos atómicos, cosa que sucedería después del descubrimiento de la radiactividad beta.

Los núcleos atómicos se componen de protones y neutrones. El protón fue descubierto por el propio Rutherford en 1919. La existencia del neutrón fue propuesta un año después por Rutherford para explicar por qué los núcleos atómicos no se desintegraban debido a la repulsión eléctrica de los protones. Otros muchos científicos, teorizaron sobre la existencia del neutrón en años posteriores y fue finalmente descubierto experimentalmente en 1932 por James Chadwick.

Una vez se conocían todos los elementos del núcleo atómico, se podía ya empezar a teorizar sobre la radiactividad beta. Las observaciones implicaban que el electrón era emitido por el núcleo, pero se sabía que los núcleos estaban formados sólo por neutrones y protones, así que era imposible que el electrón estuviera dentro del núcleo. La explicación que se dio fue que un neutrón del núcleo se transformaba en un protón emitiendo, al mismo tiempo, un electrón.

Sin embargo, de la ecuación de Einstein E = mc2, se esperaba que el electrón se llevara, en forma de energía cinética, la diferencia de masas entre el núcleo inicial y el núcleo resultante tras la emisión del electrón. Es decir, se esperaba que se conservara la energía. Pero esto no sucedía. La conservación de la energía es uno de los principios básicos de la física, así que cuando no se conserva pueden pasar dos cosas, o estamos haciendo algo mal o hay algo nuevo que todavía no conocemos. Esto último es lo que pasó.

En 1930, Wolfgang Pauli propuso la existencia de una partícula sin carga se emitía junto con el electrón, de manera que la energía total se conservara. Esta nueva partícula no se había detectado aún. Aunque Pauli le puso el nombre de neutrón, fue Fermi quien la renombró como neutrino, debido al descubrimiento del neutrón en 1932, cuando lo incorporó a su teoría sobre la radiactividad beta.

El problema es que el neutrino seguía sin ser descubierto. Incluso Pauli creía que había postulado una partícula que nadie podría detectar nunca ya que era tan pequeño, de hecho se pensaba que no tenía masa, y sin carga eléctrica que era imposible que interactuara con cualquier tipo de materia, incluso la de los instrumentos más sofisticados de la época.

Todo cambió con la llegada de los reactores nucleares de fisión. La fisión nuclear utiliza núcleos muy pesados que cuando se fisionan se generan otros elementos cuyos núcleos tienen tal cantidad de neutrones (isótopos) que es imposible que sean estables, por lo que estos mismos neutrones se desintegran emitiendo electrones y (anti)neutrinos, es decir, emiten radiactividad beta. Aunque un solo neutrino es muy difícil de detectar, cuando se tienen muchos la probabilidad de detectar al menos uno aumenta.

CentralNuclear

Central nuclear de Zorita ya cerrada (Fuente: propia)

Se empezaron a diseñar experimentos cada vez más grandes, con detectores cada vez más sofisticados, con la intención de detectar el neutrino. Pasaron muchos años desde que se postuló su existencia y se estableció el proceso de desintegración beta, hasta que se descubrió el neutrino. Fue en 1956 cuando Reines y Cowan consiguieron por fin detectar una señal clara que confirmó que el misterioso neutrino, había sido descubierto… y lo hicieron buscando la desintegración beta inversa.

Como hemos visto antes, la desintegración beta consiste en que un neutrón, se transforma en un protón emitiendo un electrón y un neutrino. En realidad, se trata de un antineutrino, ya que al combinar el formalismo cuántico con el relativista se encuentra que cada partícula tiene su antipartícula, es decir la misma partícula pero con cargas opuestas. En el caso del neutrino, al no tener carga, no está todavía muy claro si el neutrino y el antineutrino son la misma partícula (partículas de Majorana) o son diferentes (partículas de Dirac), pero eso lo dejamos para otra ocasión. La desintegración inversa consiste en que un antineutrino colisiona con un protón produciendo un neutrón y un positrón (la antipartícula del electrón, que es como un electrón pero con carga positiva).

Para llevar a cabo su descubrimiento, Reines y Cowan llenaron tanques con 400 litros de agua y disolvieron en ellos 40 kg de cloruro de cadmio (CdCl2). Estos tanques estaban a una profundidad 12 metros bajo la superficie para protegerlo de los rayos cósmicos que podían interferir en las medidas, y a 11 metros del centro del reactor de Savannah River donde se generaban los neutrinos. En la parte superior del tanque, por encima del nivel del agua, pusieron detectores de centelleo líquidos y tubos fotomultiplicadores por debajo para detectar la luz de centelleo. El positrón era detectado cuando se frenaba y colisionaba con un electrón del contenido del tanque, aniquilándose ambos y emitiendo dos rayos gamma que eran detectados al mismo tiempo por los detectores de centelleo y los tubos fotomultiplicadores. El neutrón era también frenado por el agua y capturado por el cadmio microsegundos después de la captura del positrón. En esta captura del neutrón varios rayos gamma eran emitidos también que eran detectados por los detectores de centelleo justo después de la detección de los dos rayos gamma resultantes de la aniquilación del positrón. Este retraso se podía predecir teóricamente, con lo que si lo que se medía experimentalmente coincidía con lo predicho, se demostraba que era el neutrino el que había desencadenado la reacción.

reinescontrols

Reines y Cowan en el centro de control (Fuente)

De esta manera comenzaba una nueva era en la investigación de lo desconocido, de lo pequeño e invisible, de los neutrinos. Pero aún quedaban muchas sorpresas, ya que lo que habían detectado era sólo una de las variedades de neutrinos, los neutrinos electrónicos. Más adelante otros experimentos detectarían otras variedades de neutrinos.

Pero no nos adelantemos…

Referencias:

T2K Experiment

First Detection of the Neutrino by Frederick Reines and Clyde Cowan

Neutrino. Frank Close. RBA Divulgación