Comportamiento de sistemas planetarios en agrupaciones estelares

Las estrellas nacen a partir de acumulaciones de gas y polvo, fundamentalmente hidrógeno pero también otros elementos más pesados como helio, carbono u oxígeno, que son menos abundantes, así como otras moléculas más complejas. Cuando esa acumulación alcanza una masa mínima, colapsa y la estrella empieza a formarse. Sin embargo, no todo el gas que colapsa para formar la estrella, termina formando parte de la misma. Cerca del 99% de ese gas forma parte de la estrella final pero, ¿qué pasa con el 1% restante?

En el caso de la acumulación que dio lugar a la formación del Sol, ese 1% somos tú, yo, el ordenador en el que yo estoy escribiendo y tú leyendo, el planeta tierra, el resto de planetas del sistema solar, el cinturón de asteroides y otros cuerpos menores.

artist_concept_planetary_system

Concepción artística de un sistema planetario (Fuente: Wikimedia Commons)

 

Que una estrella se forme aislada del resto sin formar ninguna asociación de dos, tres o cientos de estrellas no suele ser normal. Nuestro Sol también se formó en una nube de gas y polvo donde se formaron otras estrellas al mismo tiempo. Fue la interacción gravitatoria entre las propias estrellas las que hicieron que se separaran unas de otras. Con respecto a esto, el Sol, al igual que muchas otras estrellas, un caso aparte, ya que la gran mayoría de las estrellas que vemos son en realidad sistemas dobles o múltiples. Se encuentran tan ligados gravitacionalmente que no se separarán nunca.

Si cuando se forma una estrella el 1% del material sobrante puede formar cuerpos planetarios alrededor suyo, es normal pensar que cada estrella dentro de una agrupación estelar como los cúmulos globulares o los cúmulos abiertos pueda tener planetas a su alrededor. Si no todas, al menos una podría tener un planeta. Pero, si las interacciones gravitatorias entre estrellas pueden llegar a hacer que alguna abandone la agrupación, como en el caso del Sol, es altamente probable que el planeta sea expulsado de la estrella en la cual fue formado también.

Por otro lado, al igual que en nuestro sistema solar tiene varios planetas, las estrellas de una agrupación pueden tener también varios planetas cada una. Esto añade un grado más de inestabilidad gravitatoria en las interacciones que complica su estudio.

Si un planeta abandona la estrella que lo hospedaba en sus comienzos, dentro de un cúmulo de estrellas, puede llegar a ocurrir que gracias a la gravedad sea capturado por otra estrella. De esta manera el proceso se puede repetir hasta que, en algún momento, el planeta abandone por completo la agrupación de estrellas.

Hasta ahora, el descubrimiento de planetas extrasolares parece que confirma estas hipótesis. Se han encontrado más planetas alrededor de estrellas relativamente aisladas, es decir, puede haber más planetas alrededor de sistemas dobles o triples, que en estrellas pertenecientes a agrupaciones más numerosas, lo cual sugiere que las interacciones gravitatorias entre las estrellas de la agrupación ejercen un papel destructivo en el mantenimiento de planetas orbitando alrededor de sus estrellas originales o, incluso, perteneciendo al cúmulo.

Sin embargo, para confirmar estas hipótesis, no sólo es necesario observar, también se necesita realizar simulaciones de sistemas multiplanetarios en agrupaciones estelares para confirmar los modelos teóricos que nos permitan entender cómo es el comportamiento real de estos sistemas. Estas simulaciones, hasta ahora, no han conseguido ayudar mucho debido a la complejidad de las mismas ya que hay considerar unos rangos de velocidades, masas y posiciones muy amplios que no se conocen muy bien. Por ello, todavía se sigue investigando para mejorar los modelos y confirmar las observaciones.

Por otro lado, otra posible solución podría ser que el proceso de formación de planetas es mucho menos eficiente en este tipo de agrupaciones estelares y resulte que en realidad no sabemos nada todavía… Esto, precisamente, es lo divertido de la ciencia.

Referencias

M.B.N. Kouwenhoven, Qi Shu, Maxwell Xu Cai, and Rainer Spurzem. Planetary Systems in Star Clusters

 

Tercer cumpleblog

Resulta, que me he dado cuenta, que hoy hace tres años que abrí el blog. No había pensado en celebrarlo ni nada de eso, sobre todo después de no celebrar el segundo cumpleblog por temas personales. Pero he pensado en improvisar algo rápido para celebrarlo y sobre todo para daros las GRACIAS.

La verdad es que abrí el blog sólo con la intención de escribir para mí y si alguien más lo leía mejor. Quería seguir unido a lo que más me gusta, la ciencia, e intentar escribir sobre cosas que conocía para no olvidarlas. El resultado ha sido que no he olvidado todo lo que aprendí en la carrera. Además he aprendido cosas nuevas a base de leer para documentarme y luego escribir.

Pero lo mejor es todo lo que me ha pasado en paralelo al blog. Empecé uniéndome a un proyecto que me encanta, las Tertulias Literarias de Ciencia donde unimos lectura y ciencia y comentamos los libros que leemos tanto en el blog como a través de Twitter con el hashtag #TertuliasCiencia. También me uní a la asociación Hablando de Ciencia donde también he colaborado escribiendo algunos artículos y donde hay gente fantástica que sabe mucho y comparte todo lo que sabe. Desde @Principia_io también me ofrecieron escribir algo para su revista-web y, como no sé decir que no, me tiré a piscina y cuando se me ocurre algo interesante que encaje con ellos, son tan agradecidos que hasta me lo publican. El año pasado también me embarqué en la organización del Festival Pint of Science en Madrid y, a pesar del trabajo que llevó, me lo pasé como un niño con la organización y con los tres maravillosos días del evento.

¿Y a partir de ahora, qué?

Si todo va bien, en menos de un mes daré mi primera charla de divulgación (con lo malo que soy hablando en público y lo tímido que soy, todavía estoy sorprendido de haber aceptado la invitación para hacerlo).

Seguiré participando en las Tertulias Literarias de Ciencia (¿os he dicho ya que me encantan?).

También seguiré escribiendo en Hablando de Ciencia y colaborando con ellos en todo lo que pueda.

Por supuesto seguiré apoyando en todo los que pueda a mis amigos de Principia.

Con Pint of Science… bueno, creo que va a haber cambios ahí que, a lo mejor, hacen que abandone un poco el blog, pero… sí, voy a seguir colaborando con Pint of Science mucho más e intentando acercar la ciencia y a los científicos a los bares de toda la geografía española.

Y si sale algo más… creo que estoy empezando a comportarme de una manera un poco suicida (en el buen sentido de la palabra) en cuanto a la ciencia y su divulgación, así que puede que también me embarque en otras historias.

Pero lo mejor de todo sois todos vosotros. Los que perdéis un rato de vuestro tiempo leyendo lo que escribo y los que no. Los que os conozco personalmente o sólo virtualmente a través de redes sociales.

Sólo puedo decir:

¡GRACIAS!

Física de astropartículas

Durante muchos siglos la única manera que teníamos de entender lo que pasaba en el universo, era a través de la luz que llegaba a nuestros ojos, ya fuera a través de la observación directa o a través de telescopios desde los tiempos de Galileo. Aunque el ojo humano es un instrumento maravilloso, existen fenómenos que el ojo no puede detectar debido a que caen fuera del rango de longitudes de onda en el que es eficaz. Muchos de estos procesos son altamente energéticos y constituyen la rama de la Astrofísica de partículas o Física de astropartículas.

La Física de astropartículas es relativamente reciente. En esencia trata de investigar todos aquellos procesos astrofísicos de alta energía.

Prácticamente comenzó su andadura en 1911 con el descubrimiento de los rayos cósmicos por Victor Hess. Los rayos cósmicos son parte de esos procesos de alta energía que suceden en el Universo pero, ¿cómo distinguir si lo que recibimos de un objeto astronómico es debido a un proceso normal o de alta energía?

Hess

Victor Franz Hess (Fuente: Dominio Público)

La mayor parte de la luz que recibimos de estrellas, nebulosas, galaxias,… se debe a procesos térmicos. Un proceso térmico es aquel en el que la radiación que medimos (no sólo visible, sino también infrarroja o ultravioleta, por ejemplo) se puede aproximar a la de un cuerpo negro. Los procesos que dan lugar a la radiación térmica comienzan en los núcleos de la estrellas. Son procesos de fusión nuclear de Hidrógeno, Helio y otros elementos más pesados que a su vez son los que dan lugar a la evolución de la propia estrella. Aunque son procesos realmente energéticos, éstos están todavía en el campo de la Física Nuclear. La energía que generan estos procesos de fusión es la responsable de la radiación que es emitida por la estrella. A su vez esta radiación incide sobre otros átomos presentes en su entorno y da lugar a la radiación (también térmica) que observamos en nebulosas y galaxias.

Sin embargo, la fundación de la radio astronomía, después de la Segunda Guerra Mundial, y la capacidad de detectar radiación en el rango de los rayos gamma, a partir de la década de los 60, contribuyeron a dejar claro que los procesos térmicos no eran los únicos que sucedían en el Universo.

Pero, pensemos un momento. Las ondas de radio forman parte del espectro electromagnético al igual que la luz visible, infrarroja y ultravioleta, ¿cómo es posible que la radio astronomía contribuyera al desarrollo de la Física de astropartículas?

1225189037_magic

Uno de los dos telescopios MAGIC de 17 metros en La Palma (Credito: Robert Wagner, MPI de  Física, Munich / ASPERA).

Vamos a recordar lo que hablamos sobre el índice espectral aquí. Si la radiación emitida por una radio fuente dependiera de la frecuencia como ν2, ésta tendría un origen térmico ya que la distribución de energía tendría la forma de la aproximación de Rayleigh-Jeans, que se deriva de considerar la ecuación de la distribución de energía de Planck para bajas frecuencias (precisamente las que corresponden a las ondas de radio). Sin embargo, no se observa esta dependencia con la frecuencia, sino algo del tipo ν-0.5. Esto quiere decir que la radiación observada no es de origen térmico. En un alarde de originalidad a esta radiación se le llamó no térmica. De hecho, se trata de radiación sincrotrón causada por electrones moviéndose a velocidades relativistas en el interior de un campo magnético. Es más, sabemos que es radiación sincrotrón porque es la misma que observamos en los aceleradores de partículas en la tierra cuando aceleramos partículas cargadas siguiendo una trayectoria curva en el interior de un campo magnético. De ahí su nombre.

I05-06-synchrotron

Generación de radiación sincrotrón (izquierda) y comparación entre radiación térmica y no térmica (derecha) (Fuente)

A pesar de que la radiación observada (ondas de radio) es la que menos energía tiene de todo el espectro electromagnético, ésta es provocada por procesos de alta energía, que generan radiación no térmica, propios del campo de estudio de la Física de astropartículas.

Esta radiación se ha observado, por ejemplo, en restos de supernova, dejando claro lo altamente energéticas que son las explosiones de supernova.

Pero no sólo las ondas de radio nos dan pruebas de los procesos físicos de alta energía que ocurren en el Universo. También las radiaciones más energéticas, como los rayos X o los rayos gamma, son una prueba de ello.

En los laboratorios en tierra podemos estudiar la distribución de energía que tienen los procesos de dispersión de Compton y dispersión de Compton inversa. En la dispersión de Compton inversa los fotones adquieren energía en la retro dispersión de electrones cuando chocan con ellos. Para que esto ocurra, los electrones se tienen que estar moviendo a velocidades muy altas. Si al observar un objeto astronómico medimos, en el rango de los rayos X o de los rayos gamma, una distribución de energía que se corresponde con una distribución de energía de una dispersión de Compton inversa, podemos decir que existen procesos de alta energía, y de nuevo volvemos a entrar en el ámbito de la Física de astropartículas.

A veces, los procesos que generan radiación sincrotrón y los que generan dispersión de Compton inversa se unen para dar lugar a una combinación de ondas de radio y radiación más energética, ya sea en el rango de rayos X, de rayos gamma o ambos a la vez. Imaginemos la siguiente situación. Tenemos electrones moviéndose a gran velocidad en un campo magnético y por lo tanto se está emitiendo radiación sincrotrón que podemos medir usando técnicas de radioastronomía. Los fotones que se producen en la radiación sincrotrón, se encuentran con otros electrones relativistas y se produce dispersión de Compton inversa. El resultado es que el fotón inicial adquiere más energía, emitiendo, por tanto, también rayos X y/o rayos gamma.

Hasta ahora, hemos visto que los procesos de alta energía que se producen en algunos objetos astronómicos se deben a electrones relativistas, es decir, electrones que se están moviendo a velocidades próximas a la de la luz. Pero también observamos rayos cósmicos de una energía extremadamente alta que demuestran que no sólo los electrones son acelerados hasta altas energías, sino que también las partículas compuestas (hadrones), como los protones, también son aceleradas. La distribución de energía de estos protones sería diferente. Los protones interaccionarían con el gas con el que se encuentren en su camino y daría lugar a piones neutros (una partícula compuesta por un quark y un antiquark u o por un quark y un antiquark d). A su vez el pion neutro se desintegraría en dos fotones de alta energía (rayos gamma) con un espectro diferente al de la dispersión de Compton inversa. También podría pasar que la interacción diera lugar a piones cargados (compuestos por un quark u y un antiquark d o viceversa). La desintegración de estos piones cargados generaría neutrinos con una energía muy alta. Lo complicado de todo esto, es que aunque se han observado neutrinos de muy alta energía, no se han podido asociar a ninguna fuente puntual, es decir, a un objeto astronómico, por lo que no podemos conocer su origen.

trackUnderIcl_straightView_horiz

Uno de los eventos producidos por un neutrino de muy alta energía superpuesto a una imágen del laboratorio Ice Cube en el Polo Sur. (Crédito: Colaboración Ice Cube)

Quedan muchas preguntas por responder en el campo de la Física de astropartículas. Queda mucho por investigar para poder identificar los objetos astronómicos que producen las astropartículas y poder llegar a conocer el Universo en detalle. Pero no debemos olvidar que la Física de astropartículas es todavía una rama de la ciencia muy joven y todavía le queda mucho camino por recorrer.

Referencias

Particle Astrophysics. Susan Cartwright

De la energía nuclear de fisión (y 6): Combustible gastado y su almacenamiento

Ya extrajimos el uranio y lo transformamos en pastillas útiles para su uso en instalaciones nucleares. Después lo trasportamos hasta las centrales nucleares. Tras un intermedio en el que aprendimos que es lo que pasaba en el combustible para poder conseguir energía a través de los procesos de fisión, pasamos a entender el funcionamiento de los principales tipos de centrales nucleares, las PWR y las BWR. Ahora llegamos, por fin, a una de las fases más controvertidas del todo el ciclo de generación de energía por fisión nuclear: el almacenamiento del combustible gastado.

Como cualquier tipo de combustible, el combustible nuclear también se gasta, por lo que llega un momento en el que no es eficaz seguir utilizándolo para generar energía. En este momento tenemos que deshacernos de él, pero aparece el principal problema que preocupa a la sociedad. El combustible sigue siendo radiactivo, es decir, en las vainas de combustible siguen existiendo núcleos atómicos que siguen fusionándose y desintegrándose espontáneamente (aquí es importante decir que esa desintegración espontánea no es debida exclusivamente a que se haya usado en una central nuclear. En la naturaleza existen esos mismos núcleos desintegrándose espontáneamente) y continúan emitiendo neutrones, radiación gamma, radiación beta y alfa, dependiendo del núcleo. En una vaina de combustible gastado, pueden llegar a estar presentes casi todos los elementos de la tabla periódica.

En 1997 el Organismo Internacional para la Energía Atómica (OIEA) aprobó la “Convención conjunta sobre seguridad en la gestión del combustible gastado y sobre la seguridad en la gestión de desechos radiactivos”, que España ratificó en 1999 y publicó en el BOE de 23 de Abril de 2001. La convención estableció unos principios generales.

• Lograr y mantener en todo el mundo un alto grado de seguridad en la gestión.
• Asegurar que en todas las etapas se la gestión haya medidas eficaces frente a los riesgos potenciales de las radiaciones ionizantes para las personas, sociedad y medio ambiente, tanto actualmente como en el futuro.
• Prevenir los accidentes con efectos radiológicos y mitigar sus consecuencias.

En la gestión del combustible nuclear se pueden distinguir varias etapas como son el almacenamiento temporal en la propia central nuclear, el reprocesado del combustible (si el modelo de gestión de la central nuclear está basado en ciclo abierto), el almacenamiento temporal fuera de la central en una instalación centralizada y su almacenamiento definitivo en formaciones geológicas estables.

Actualmente se está investigando sobre la transmutación y separación de los núcleos presentes en el combustible. De esta manera se reduciría el impacto radiológico y el volumen de combustible gastado para gestionar sería mucho menor.

Vamos a ver en que consiste cada una de las etapas para la gestión del combustible gastado.

Almacenamiento temporal en la propia central nuclear. Esta fase consiste en trasladar el combustible gastado desde el núcleo del reactor a unas piscinas donde se consigue que se enfríe lo suficiente y se produzca un decaimiento de su actividad. El líquido utilizado es agua debido a su alto coeficiente de transmisión de calor y buen blindaje contra la radiación. Además se utilizan venenos neutrónicos potentes para garantizar la subcriticidad de las vainas de combustible. Esta fase suele durar entre 10 y 20 años.

fullpiscinaPiscina de almacenamiento temporal (Fuente: Enresa)

Reprocesado de combustible. No es muy común y en España sólo la utilizó la central de Vandellós I. Consiste en enviar el combustible gastado a unas plantas especiales que lo reprocesan para volver a ser utilizado. No es una fase que se pueda realizar eternamente ya que en cada procesado se pierde calidad del combustible y deja de ser eficaz para la generación de energía.

Almacenamiento temporal centralizado (ATC) fuera del emplazamiento de la central nuclear. Consiste en transportar el combustible gastado hasta una localización que centraliza la gestión de todo el combustible gastado del país (o varios países vecinos). Existen varias opciones para este tipo de almacenes:
• Silos o bóvedas, que son estructuras de hormigón armado en cuyo interior hay contenedores metálicos que contienen el combustible gastado.
• Pozos excavados en la tierra y recubiertos con láminas de acero cerrados con tapas de hormigón. Estos pozos se separan unos de otros teniendo en cuenta la generación de calor, conductividad térmica del terreno y requisitos de subcriticidad.
• Contenedores fabricados en materiales que transmiten el calor por convección y conducción. Estos contenedores se sitúan sobre una losa de hormigón y pueden estar dispuestos al aire libre o en naves ventiladas.

complejoATCEsquema de un ATC (Fuente: Enresa)

Almacenamiento definitivo. Consiste en un almacenamiento geológico profundo (AGP) considerando las formaciones geológicas existentes. Aquí la propia geología se encarga de actuar como barrera geológica natural para impedir la transmisión de radionucleidos a la biosfera. Se considera un periodo de unos 10000 años de manera que se consiga una actividad igual a la que se generaría con una concentración natural de 235U. Se consideran las propiedades termomecánicas y la caracterización hidrogeológica de la barrera geológica

Como no todo el combustible gastado tiene las mismas características, hay que realizar estudios de seguridad para cada tipo de almacenamiento teniendo en cuenta la masa de uranio, el grado de quemado, el tiempo de enfriamiento, el calor máximo de desintegración y el enriquecimiento inicial máximo. Además para cada emplazamiento se evalúan al detalle todos los parámetros del emplazamiento de manera que puedan superar cargas sísmicas y condiciones ambientales extremas. También se tienen en cuenta los riesgos biológicos o químicos y se plantean todos los elementos de control necesarios para que no existan riesgos radiológicos para las personas o el entorno.

Referencias

International Atomic Energy Agency

Empresa Nacional de Residuos

Consejo de Seguridad Nuclear

El universo se expande… ¡aceleradamente!

Expansión

Hace no tanto tiempo, unos 100 años, se creía que el universo era estático. Aparte de los movimientos propios de las estrellas y las galaxias, todo el universo tenía un tamaño fijo. Así lo creyó incluso Einstein que en sus ecuaciones de campo introdujo un término adicional (constante cosmológica) ad-hoc para hacer que el universo permaneciera estático.

En esta entrada vimos como, gracias al trabajo de Henrietta Swan Leavitt, se empezaron a usar las estrellas variables cefeidas como indicadores de distancia, también conocidas como candelas estándar, y como el descubrimiento de variables cefeidas en la galaxia de Andrómeda ayudó a Edwin Hubble a calcular la distancia a la misma. También, gracias al trabajo de Vesto Slipher y Milton Humason observando los espectros de las galaxias se descubrió, gracias al efecto Doppler, que estas se estaban alejando de nosotros. Hubble combinó los datos de distancias de diversas galaxias con los desplazamientos al rojo de las mismas por efecto Doppler y concluyó que cuanto más lejos estaba una galaxia más rápido se alejaba de nosotros. En otras palabras, el universo se expandía.

Pero todo tiene un límite y la resolución de los instrumentos no permitía detectar variables cefeidas en galaxias muy lejanas. Era, por tanto, necesario buscar otros objetos que nos permitieran calcular las distancias a esas galaxias lejanas para comprobar si el universo se estaba expandiendo cada vez más rápido o por el contrario se estaba frenando, como era la esperanza de muchos astrofísicos y cosmólogos.

Las supernovas tipo Ia suelen aparecer en sistemas binarios cuando una enana blanca con poca masa acreta materia de su compañera y llega a alcanzar 1,4 masas solares (conocido como límite de Chandrasekhar). En ese momento ocurre una explosión termonuclear y se libera mucha energía. La variación del brillo intrínseco de la supernova con el tiempo (curva de luz) y sus características espectrales (ausencia de líneas de hidrógeno y presencia de una línea de absorción se silicio son muy uniformes. Esto hace a este tipo de supernovas un objeto candidato a ser una candela estándar. Además, observando la variación del brillo y el desplazamiento al rojo las hace también un objeto muy interesante para estudiar la expansión del universo.

Varios grupos de astrofísicos se propusieron observar cuantas más supernovas, del tipo Ia en galaxias lejanas, pudieran para así poder medir su desplazamiento al rojo (por efecto Doppler) y su distancia (por comparación del brillo intrínseco y el aparente medido por los telescopios) y poder determinar si el universo se estaba expandiendo cada vez más rápido, aceleradamente, o no. Es decir, hacer lo mismo que hizo Hubble con las cefeidas pero esta vez con supernovas tipo Ia.

El resultado fue que, efectivamente, el universo se expande de manera acelerada. En 2011, Saul Permutler, Brian P. Smith y Adam G. Reis recibieron el premio Nobel “por el descubrimiento de la expansión acelerada del universo mediante observaciones de supernovas distantes”. Saul Permutler lideraba el proyecto Supernova Cosmology Project, mientras que Brian Smith lideraba el High-Z Supernova Search Team en el que Adam Riess trabajaba e hizo contribuciones cruciales.

¿A qué se debe esta expansión? Se ha propuesto la existencia de una materia distinga de la ordinaria (materia oscura) y una energía (energía oscura) que hacen que se supere la atracción gravitatoria entre las galaxias y estas se separen unas de otras a la vez que el universo se expande cada vez más. Pero esto es otra historia.

Referencias

El lado oscuro del Universo. Alberto Casas. Ed. CSIC

“The Nobel Prize in Physics 2011 – Advanced Information”. Nobelprize.org. Nobel Media AB 2014. Web. 18 Jan 2015.

La Física en las Ciencias Sociales: Ettore Majorana

Tradicionalmente ha existido una separación entre las ciencias naturales y las ciencias sociales. Normalmente, si alguien se especializa en un campo de las ciencias naturales, se aleja por completo de las ciencias sociales y viceversa. El conocimiento adquirido en un campo deja de ser, por tanto, aplicado al otro campo. En principio, puede parecer que esta separación es natural, ya que puede llegar a ser complicado aplicar, por ejemplo, la Física cuántica, que trata de los componentes del mundo muy pequeños, a la economía, que en pocas palabras consiste en el estudio del dinero y sus movimientos.

Sin embargo en un mundo cada vez más interdisciplinario, el beneficio que se puede obtener en la aplicación de las ciencias naturales en las ciencias sociales o viceversa puede ser inmenso.

Tal es el caso, un tanto desconocido, de un gran físico italiano de la primera mitad del siglo XX: Ettore Majorana.

Vida de Ettore Majorana

Nacido en 1906 en Catania, ciudad de la isla italiana de Sicilia, inició sus estudios, quizá influido por una familia compuesta de abogados, políticos e ingenieros, en la Escuela de Ingeniería de la Universidad de Roma.

Ettore_Majorana

Ettore Majorana (Fuente: Wikimedia Commons)

Por aquel entonces, en dicha universidad la enseñanza era eminentemente práctica y ciertos alumnos, que gustaban de la especulación teórica, se fueron alejando de esta manera de enseñar y acercándose cada vez más al Instituto de Física de Roma situado en la Vía Panisperma, en el que daba clases el gran Enrico Fermi. Uno de los estudiantes que cambió de Escuela fue Emilio Segrè (también fue uno de los grandes físicos de esa época), también Siciliano y amigo de la infancia de Ettore.

Siendo Ettore otro de esos estudiantes hastiados de la enseñanza práctica de la ingeniería, cuando Segrè le ofreció la oportunidad de visitar el Instituto de Física y conocer a Fermi pronto aceptó la invitación, quedando tan encantado con las enseñanzas que se impartían allí que finalmente abandonó la ingeniería y empezó a estudiar física bajo el auspicio de Fermi, que además fue el director de su tesis doctoral, la cual leyó el 6 de Julio de 1929 y que llevaba por título “Sulla mecánica dei nuclei radioattivi”.

En la Vía Panisperma, Ettore pronto impresionó a sus compañeros, ganándose el apelativo de “Il Grande Inquisitore” por su gran espíritu crítico que aplicaba no sólo a su trabajo, sino al de todos, ya fueran compañeros directos o pertenecientes a otra institución científica.

Ragazzi_di_via_Panisperna

Los chicos de la Via Panisperma. De izquierda a derecha: Oscar D’Agostino, Emilio Segrè,  Edoardo Amaldi, Franco Rasetti y Enrico Fermi (Fuente: Wikimedia Commons)

En cuanto a su personalidad también fue una persona de alto interés para sus compañeros, ya que parecía que se dedicaba a la física como un hobby en lugar de como profesión. Cuenta Edoardo Amaldi (otro físico que siguió los pasos de Segrè y Majorana al pasar del Instituto de Ingeniería al Instituto de Física), en la biografía que escribió sobre Majorana “La vita e l’opera di Ettore Majorana”, diversas anécdotas sobre su vida, como aquella en la que habiendo recibido el número del “Comptes Rendus” en el que Frederic Joliot e Irène Curie publicaron sus notas sobre la radiación incidente descubierta por Bethe y Becker, comentó “No han entendido nada, se trata probablemente de protones de retroceso producidos por una partícula neutra pesada”.

A partir de aquí, y tras el descubrimiento del neutrón por Chadwick, Majorana comenzó a elaborar una teoría del núcleo ligero compuesto de protones y neutrones. Tras comentar esta teoría a Fermi, éste le pidió que la publicara, pero se negó. Majorana, a pesar de haber hecho grandes contribuciones a la física, publicó en muy pocas ocasiones debido a una enorme reticencia a hacerlo, quizá debido a que nunca estaba satisfecho del todo con su propio trabajo y deseaba mayor perfección o quizá debido a lo que los demás pudieran opinar sobre su trabajo. Solamente publicó diez artículos (siendo el último artículo publicado de manera póstuma), de los cuales nueve fueron escritos en italiano y uno en alemán, siendo el italiano un idioma que no se encontraba muy extendido en la comunidad científica internacional.

Tras la publicación por Heisenberg en 1932 de un artículo clave para entender las fuerzas de intercambio de coordenadas espaciales y de spin, muchos en la Vía Panisperma, incluido Fermi, pensaron que el trabajo que Majorana se negó a publicar contenía la misma teoría y que por lo tanto había entendido el problema mucho antes de Heisenberg y se podría haber adelantado en la publicación. Tras esto, lo animaron a publicar el artículo, pero opinaba que Heisenberg ya lo había dicho todo, y mucho más, y que no merecía la pena. Tras intentar persuadirlo de la publicación, Fermi consiguió convencerlo para que fuera durante unos meses al extranjero, Leipzig y Copenhague, viaje que realizó con la ayuda de una beca del Consejo Nacional de Investigación a comienzos de 1933.

A su vuelta a Roma, Ettore comenzó a ausentarse del Instituto de Física cada vez más, hasta el punto de que pasaba largas temporadas fuera de él. Permanecía en casa dedicando un número extraordinariamente elevado de horas al estudio, en las cuales comenzó a interesarse por la economía política, la vida política y además aumentó su interés por la filosofía, más concretamente por el pensamiento de Schopenhauer. Se pensó que durante ese tiempo, se había mantenido ajeno a la física, pero documentos hallados en los últimos años, han demostrado que no fue así, ya que, por ejemplo, se ofreció a dar cursos gratuitos sobre física en el Instituto de Física de Roma que, sin embargo, no tuvieron lugar.

En 1937 volvió a sentir un interés renovado en la física teórica y desde el Instituto de Física le convencen de que publique un artículo que tenía guardado desde 1932, en el que matizaba las ideas de Paul Dirac sobre antipartículas titulado “Teoria simmetrica dell’elettrone e del positrone” y que posteriormente se convertiría en un artículo de referencia, cuya aplicación a la investigación, desde el punto de vista experimental, está todavía de actualidad.

Tras dicha publicación, Fermi y sus compañeros le animan a presentarse a un examen para obtener una plaza de profesor de física teórica en la Universidad de Palermo, pero duda. Finalmente, sin contárselo a nadie, decide optar a la plaza de la Universidad de Palermo y la consigue. Aquí llegamos a otro ejemplo de poder y presiones en el ámbito político. El senador Giovanni Gentile previendo que el hecho de que Majorana consiguiera la plaza de Palermo fuera una competencia para su hijo Giovanni Gentile Jr., presiona al entonces presidente del Consejo de Ministros de Italia Benito Mussolini para que nombre a Majorana como catedrático de Física Teórica de la Universidad de Nápoles.

Majorana se incorpora el 13 de enero de 1938 a su catedra en Nápoles y desempeña sus funciones de manera normal, pero dos meses más tarde, el 25 de Marzo, envía una carta al director del Instituto de Física de Nápoles diciendo que deja las clases y que recordará a todos los profesores y estudiantes del Instituto “al menos hasta las once de la noche de hoy, y posiblemente incluso más tarde…”. Sin embargo, al día siguiente envía un telegrama pidiendo que olvide la carta y al mismo tiempo envía otra carta indicando que “el mar le ha rechazado”, pero que no quiere volver a las clases.

La policía es movilizada para buscar a Ettore, alertados por sus amigos y familiares, y encuentran a un testigo que dice haberlo visto el 26 de Marzo por la noche en un barco de Palermo a Nápoles.

590px-Annuncio_scomparsa_Majorana

Cartel de búsqueda de Ettore Majorana (Fuente: Wikimedia Commons)

Nada más se supo de su persona. Todavía queda la duda de si se suicidó (nunca se encontró su cuerpo) o si se ocultó en algún lugar.

El décimo artículo

Como se ha mencionado, Majorana, sólo escribió diez artículos. El décimo fue encontrado por uno de sus hermanos entre los papeles que Ettore tenía guardados.

Dicho artículo, escrito en italiano, fue publicado en 1942 en la revista internacional italiana Scientia1 gracias a uno de los amigos de Ettore, cuyo nombre ya nos ha aparecido con anterioridad, Giovanni Gentile Jr.

El hecho de que el artículo fuera escrito en italiano puede que fuera una de las razones por las que no llegó a una gran audiencia, pero también fue porque en dicho artículo daba su punto de vista, el punto de vista de un físico, sobre el valor de las leyes estadísticas en la física y en las ciencias sociales, de ahí el título del artículo “Il valore delle leggi statistiche nella fisica e nelle scienze social2”.

En la nota que acompañaba a la publicación en Scientia, escrita por Gentile Jr., se podía leer lo siguiente:

Este artículo de ETTORE MAJORANA – el gran físico teórico de la Universidad de Nápoles desaparecido el 25 de Marzo de 1938 – fue originalmente escrito para una revista de sociología. No fue publicada quizás debido a la reticencia que tenía el autor hacia la interacción con otros. Reticencia que le llevó con demasiada frecuencia a guardar importantes artículos en un cajón. Este artículo ha sido conservado por el dedicado cuidado de su hermano y presentado aquí no sólo por el interés intrínseco del tema sino sobre todo porque nos muestra uno de los aspectos de la rica personalidad de MAJORANA que tanto impresionaba a la gente que le conocía. Un pensador con un agudo sentido de la realidad y con una mente extremadamente crítica que no escéptica. Toma aquí una clara posición con respecto al debatido problema del valor estadístico de las leyes básicas de la física. Este aspecto, considerado por muchos académicos un defecto similar a la carga que el indeterminismo presenta en la evolución de la naturaleza es, de hecho, para MAJORANA una razón para reclamar la importancia intrínseca del método estadístico. Hasta ahora este método se ha aplicado sólo a las ciencias sociales y en la nueva interpretación de las leyes físicas recupera su significado original. GIOVANNI GENTILE jr., 19423

Estudios recientes han demostrado que Majorana escribió el artículo por petición. Fue su tío Giuseppe Majorana, profesor de Economía en la Universidad de Catania, con intereses en la investigación en estadística aplicada y teórica, quien le solicitó por carta en 1936 que escribiera el artículo con motivo de su jubilación como profesor.

En este artículo, Majorana reflexiona sobre el comportamiento estadístico de los fenómenos físicos y como se pudieran parecer a los comportamientos propios de las ciencias sociales y del comportamiento humano.

Desde el punto de vista físico, Majorana defiende que hay aspectos característicos de la mecánica cuántica que la diferencian enormemente de la mecánica clásica:

No existen en la naturaleza leyes que expresen una sucesión fatal de fenómenos; también las últimas leyes relacionadas con los fenómenos elementales (sistemas atómicos) tienen carácter estadístico, permitiendo establecer solamente la probabilidad de que una medición verificada en un sistema preparado de un modo determinado dé un cierto resultado, y esto cualesquiera que sean los medios de que disponemos para determinar con la mayor exactitud posible el estado inicial del sistema. Estas leyes estadísticas indican una falta real de determinismo, y no tienen nada en común con las leyes estadísticas clásicas, en las cuales la incertidumbre de los resultados deriva de la renuncia voluntaria por razones prácticas a indagar los aspectos particulares de las condiciones iniciales de los sistemas físicos.

Actualmente, En las ciencias sociales se considera que las leyes estadísticas son necesarias para el modelado de comportamientos. Sin embargo, tanto en las ciencias naturales como en las sociales, esto no siempre ha sido así. Majorana pone de relieve que la naturaleza estadística de los fenómenos que ocurren en las ciencias naturales, como muestra la mecánica cuántica, sugiere que estas mismas leyes estadísticas sean aplicadas al modelado de los comportamientos sociales y económicos. Uno de los ejemplos más claros de aplicación de esta aproximación es el modelo de Black-Scholes para la valoración de opciones, utilizado en el ámbito financiero4.

Dicho artículo también da muestras de como su interés por la filosofía tiene su resultado en la comprensión del mundo que le rodea en función de los resultados físicos de la naturaleza:

El determinismo, que no deja ningún sitio a la libertad humana y obliga a considerar como ilusorios en su finalidad aparente todos los fenómenos de la vida, presenta una causa de debilidad real. Esta es una irremediable e inmediata contradicción con los datos más evidentes de nuestra consciencia.

A pesar de su poca contribución escrita, las grandes aportaciones de Ettore Majorana a la física son incuestionables. Además, el valor de su último artículo hizo cambiar la visión que hasta entonces se tenía de las ciencias sociales a través de su relación con las ciencias naturales y la naturaleza de las leyes estadísticas, haciendo que desde otras disciplinas distintas a la física se reflexionara sobre el papel que dichas leyes juegan en los mecanismos sociales y económicos.

La triste desaparición de Ettore Majorana dejó un vacío los científicos que dedican su vida a la comprensión de los fenómenos de la naturaleza pero, como todo gran científico, su legado sigue siendo importante incluso después de su muerte.

Notas

  1. La web de la revista Scientia es http://www.scientiajournal.org/
  2. La primera traducción del artículo original al inglés se debe a Rosario Nunzio Mantegna del Dipartimento di Física e Tecnologie Relative de la Università de Palermo, realizado en 2005. La única traducción que he encontrado en castellano se debe a Ramón F. Reboiras y C. Allones Pérez del Departamento de Sociología y Ciencia Política y de la Administración de la Universidad de Santiago, realizado en 2004.
  3. Traducción propia del inglés.
  4. Se puede encontrar más información sobre el modelo de Black-Scholes en, por ejemplo, Wikipedia http://en.wikipedia.org/wiki/Black%E2%80%93Scholes_model

Para saber más

Sobre la vida y desaparición de Ettore Majorana se ha escrito mucho y existen muchas entradas en blogs que son interesantes, por ejemplo El misterio Majorana en La ciencia de tu vida

Una de los campos de investigación experimental abiertos actualmente es descubrir si los neutrinos son su propia antipartícula, es decir, si son partículas de Majorana, ya que fue él quien lo predijo. En el blog Faster than Light que Juan José Gómez Cadenas tiene alojado en Jot Down Cultural Magazine, habla sobre este asunto en la entrada Paisaje sin neutrinos (III), decíamos ayer… Nadie mejor que Juan José para explicarlo, ya que lidera el experimento NEXT que  investiga si, efectivamente, el neutrino es su propia antipartícula.

Referencias

Allones Pérez. Majorana: Materiales para una biografía. EMPIRIA. Revista de Metodología de Ciencias Sociales. Nº 7, 2004, pp. 183-209

Ettore Majorana, El valor de las leyes estadísticas en la física y en las ciencias sociales. Traducción de Ramón F. Reboiras y C. Allones Pérez, EMPIRIA. Revista de Metodología de Ciencias Sociales. Nº 7, 2004

Rosario Nunzio Mantegna. The tenth article of Ettore Majorana, 2006. arXiv: physics/0608279v1 [physics.hist-ph]

Rosario Nunzio Mantegna. Majorana’s article on “The value of statistical laws in physics and social sciences”, 2006. PoS (EMC2006) 011

Rosario Nunzio Mantegna. Sicily and the development of Econophysics: the pioneering work of Ettore Majorana and the Econophysics Workshop in Palermo, 2014. arXiv:1409.0789v1 [physics.hist-ph]

Los 6 preceptos de la nanociencia

Cuando se oye la palabra nanociencia o nanotecnología, a muchos les viene a la cabeza los laboratorios secretos de un científico loco controlados por los gobiernos en los que se desarrollan robots muy, pero que muy pequeños para inyectárnoslos en la sangre cuando vamos a vacunarnos para así controlarnos desde dentro. Es decir la miniaturización de estructuras macroscópicas hasta niveles insospechados.

La nanociencia investiga las propiedades físicas, químicas o biológicas de estructuras a nivel atómico, molecular o macrocomolecular, o lo que es lo mismo, las estructuras que tienen un tamaño de entre 1 y 100 nanómetros. Un nanómetro equivale a 10-9 m o 0,000000001 m.

El estudio de la nanociencia y el desarrollo de nanotecnología lleva asociadas muchas ventajas para nosotros como por ejemplo el uso de desarrollo medicamentos encapsulados en moléculas que liberen su componente activo solamente donde se necesita, evitando así un efecto indeseado. Esto es así en el caso del tratamiento de pacientes con cáncer, ya que se podría hacer llegar el tratamiento sólo a las zonas afectadas por el tumor en lugar de depositar su efecto sobre todos los tejidos. Otro ejemplo es el estudio de materiales cuyas propiedades conductoras de la electricidad sean mucho mejores o incluso conseguir nuevos métodos para transmitir información a través de materiales en las que al menos una de sus dimensiones está en dentro de la escala nanométrica.

Quizá el ejemplo más famoso de un material desarrollado a partir de la nanociencia sea el grafeno. De hecho, Andre Geim y Konstantin Novoselov recibieron en 2010 el premio Nobel de Física por sus experimentos con el grafeno.

800px-Graphen

Representación artística del grafeno (Fuente: Wikimedia Commons)

A la hora de obtener materiales a nivel nanométrico una de las principales bazas es el uso de técnicas propias de la ciencia química, ya que se pueden utilizar las propiedades que tienen los átomos y las moléculas para unirse por si solas para crear dichas estructuras nanométricas.

Pero la pregunta que surge aquí es si el hecho de miniaturizar estructuras macroscópicas hasta llegar a escalas nanométricas se puede considerar como nanociencia o nanotecnología. La respuesta es no. De hecho, no todo es nanociencia y existen seis principios o preceptos sobre lo que es esta rama emergente de la ciencia.

Primer precepto: Construir de manera ascendente

Esto implica que miniaturizar, es decir, reducir el tamaño de algo, no es nanociencia. Al contrario, utilizar los ladrillos fundamentales, es decir, átomos y moléculas y, a partir de ahí, utilizar sus propiedades para construir estructuras de tamaño nanométrico que puedan realizar determinadas funciones, sí es nanociencia.

Segundo precepto: Cooperación

Esto no trata de que diversas instituciones cooperen entre si para el desarrollo de nanoestructuras, que también es importante, sino del desarrollo de diferentes nanoestructuras con funcionalidades distintas que cooperen entre si, para dar lugar a nanodispositivos más complejos y con funcionalidades mejoradas.

Tercer precepto: Simplicidad

Lo bueno, si es simple, dos veces bueno (o algo así decía el refrán). Simplificar los problemas a los que los desarrollos nanotecnológicos se enfrentan, de manera que sólo se utilicen las leyes científicas necesarias es indispensable, para evitar complejidades innecesarias.

Cuarto precepto: Originalidad

Volvemos al ejemplo del robot del principio. Se evita desarrollar cosas que ya existen y simplemente reducirlos de tamaño. Lo que se buscan son estructuras diferentes. Reducir la escala tiene muchas más implicaciones que las que podemos creer, como por ejemplo el hecho de que el volumen depende de una longitud al cubo y la superficie de una longitud al cuadrado, haciendo la reducción de escala inviable. Por ello, es necesario ser original en los desarrollos.

Quinto Precepto: Interdisciplinariedad

Antes hemos dicho que la cooperación entre instituciones también es importante, pero lo es aún más la cooperación entre diferentes ramas de la ciencia. Por ello la cooperación entre biólogos, químicos, físicos e, incluso, ingenieros es mucho más que necesaria. En la nanociencia, el hecho de que un investigador sea físico o químico o biólogo puro, no aporta mucho ya que se va a enfrentar con problemas que será incapaz de solucionar si no abre su campo de conocimiento.

Sexto Precepto: Observación de la naturaleza

La naturaleza nos ofrece muchos ejemplos de nanotecnología. Sin ir más lejos, las moléculas que componen nuestros tejidos y órganos, y como están organizadas e interactúan entre si, son el mejor ejemplo de nanotecnología. Si las observamos y las estudiamos, nuestros desarrollos serán mucho más innovadores, eficientes y mejorarán nuestras vidas.

Es complicado encontrar ejemplos en los que se sigan todos estos preceptos simultáneamente, pero para eso está la ciencia y los investigadores, para conseguir desarrollos que sigan estos preceptos utilizando las leyes que nos ha impuesto la naturaleza.

La idea de esta entrada surge de la lectura de uno de los últimos libros que he leído, “El nanomundo en tus manos. Las claves de la nanociencia y la tecnología” de José Ángel Martín-Gago, Carlos Briones, Elena Casero y Pedro A. Serena. Si tenéis interés en aprender más sobre este fantástico (nano)mundo, y tenéis la ocasión, os lo recomiendo.

carnaval_qu_mia

Esta entrada participa en el XXXVIII Carnaval de la Química alojado en el blog Pero eso es otra historia… de @Ununcuadio

Referencias

The Nobel Prize in Physics 2010″. Nobelprize.org. Nobel Media AB 2014. Web. 14 Aug 2014.

El nanomundo en tus manos. Las claves de la nanociencia y la tecnología. José Ángel Martín-Gago, Carlos Briones, Elena Casero y Pedro A. Serena. Editorial Planeta S.A. Junio 2014

Hace un año…

Hoy hace un año que empecé con esta historia de la divulgación, por llamarlo de alguna manera.

Sin embargo, la idea surgió unos años atrás, cuando descubrí el blog Quantum Diaries. En ese momento se me ocurrió que podría estar bien hablar con unos cuantos amigos/as, con formación en diferentes áreas, para crear un blog colaborativo en el que cada uno escribiera sobre su ámbito de conocimiento (no sólo científico, sino también de ingeniería, logística e incluso economía). El resultado fue un fracaso. Tras comentarlo, todos me dijeron que me dejara de tonterías.

Aun así, la idea siguió (y sigue) en mi cabeza. Poco a poco, según iba leyendo libros de divulgación y otros blogs (no sólo de física) me daba cuenta de que para entender ciertas cosas, necesitaba escribirlas, tomar notas.

Además, tras varios años después de haber terminado la carrera, también me di cuenta de que había olvidado prácticamente todo lo que aprendí. Y eso no me gustaba nada. Necesitaba recuperar ese conocimiento. El problema es que, en un área como la física, las matemáticas son una de las herramientas principales y ahí sí que estaba perdido.

El pensar en esto me llevó a que quizá una buena manera de recordarlo todo sería poniéndome en el papel de alguien que no tiene ni idea e intentar explicárselo con un lenguaje que pudiera entender sin recurrir a las matemáticas (que yo tampoco recuerdo ni entiendo, salvo lo más básico) para así entenderlo yo.

Y así hace un año surgió este blog que me dio por llamar Acelerando la Ciencia. Al principio me pareció un nombre curioso y original. Luego me di cuenta de que mi subconsciente me había jugado una mala pasada por haber visto demasiados videos publicados por el CERN ya que al final siempre aparece el logo del CERN y debajo pone “Accelerating science”. Así que muy original no fui.

La verdad es que empecé escribiendo para mí mismo (y en parte lo sigo haciendo) para poder recordar ciertos temas que aprendí hace tiempo.

Siendo esta la razón por la que empecé con el blog, la verdad es que no esperaba recibir ninguna visita, así que, cuando un año después veo que he recibido más de 5000 visitas, me sorprende saber que he recibido ¡más de 5000 visitas de las que esperaba!

Sé que algunas visitas son debido a que google se equivoca con sus algoritmos de búsqueda (como aquella vez que vi que alguien había llegado aquí buscando “cuál es la ecuación del sexo de Einstein”)

En fin, toda esta parrafada es simplemente para deciros que espero que podamos seguir aprendiendo juntos durante mucho tiempo y para agradeceros que de vez en cuando paséis por aquí.

¡Gracias!

One year ago…

Today, one year ago I started with this scientific communication blog.

However, the idea came to me some more years ago, when I discovered the Quantum Diaries blog. At that moment, I thought that it could be nice to talk with some friends, with an education in different areas, and create a collaborative blog in which each of us would write about its area of knowledge (not only scientific knowledge but also engineering, logistics and even economy). The result was a disaster. After telling them about it, they invited me to stop thinking things like this.

Even though, the idea remained in my mind. More and more, as long as I was reading scientific outreach books and other blogs (not only about physics) I realized that to understand some things I needed to write them down.

In addition, after several years after finishing my studies, I also realized that I had forgotten almost everything that I learned. And that was disgusting. I needed to remember that knowledge. The problem is, in a field like physics, mathematics is one of the main tools and in that field I was really lost.

Thinking about all these things took me to realize that a good way to remember everything it would be to be in the place of someone who has no idea about science and try to explain with a language where mathematics are not needed so that I could also understand it.

In this way, one year ago I started this blog and gave it the name of Acelerando la Ciencia (Accelerating science). At the beginning I thought it was a curious and original name. Afterwards I realized that my subconscious mind had fooled me because I had watched too many CERN videos, where at the end the CERN logo appears followed by the expression “Accelerating science”. So it seems that I was not as original as I thought.

The truth is that I starting writing for myself only (and in part I still do it) to be able to remember some topics I learnt some time ago.

Being this the reason why I started the blog, I did not expect to receive any visit, so I was surprised when after one year I have received more than 5000 visits. It is something like more than 5000 visits that I expected!

I know that some of these visits are because google has a bug in their algorithms (like when someone reached the blog searching for “Einstein’s sex equation”)

In summary, this post is just to tell you that I expect that we could keep on learning together for a long time and to thank you for coming here from time to time.

Thank you!

Determinismo, indeterminismo y caos

Los fenómenos físicos de la naturaleza ocurren por una razón, siguen unos determinados patrones o unas determinadas leyes, pero ¿se puede decir con toda certeza cuál será el resultado?

Dependiendo del fenómeno podremos predecir el resultado con exactitud o tendremos una cierta incertidumbre. Es incluso posible que lo único que obtengamos sea una valor probable según unos criterios estadísticos.

A lo largo de la historia de la ciencia se ha pasado por diferentes etapas del pensamiento. Hubo una época en la que se pensaba que todo se podía predecir con total exactitud siendo por ello un periodo determinista. Sin embargo el descubrimiento de nuevos fenómenos se llego a pensar que era imposible conocer el resultado de dichos fenómenos con exactitud, apareciendo una corriente indeterminista del pensamiento científico. Más adelante, el estudio de los sistemas dinámicos no lineales llevó a la aparición de un nuevo campo de estudio: el estudio de sistemas con un comportamiento completamente errático e impredecible aunque, en principio, su formulación sea determinista. Este campo es lo que conocemos como caos.

El determinismo científico considera que aunque el mundo es complejo e impredecible en muchos aspectos, éste siempre evoluciona según principios o reglas totalmente determinadas, siendo el azar algo que sólo ocurre de manera aparente.

Según avanzaba el siglo XIX, el determinismo se derrumbó poco a poco. Hubo dos razones para ello.

En primer lugar, se necesitaba un conocimiento completo y detallado de las condiciones iniciales del sistema estudiado para poder introducirlas en las ecuaciones de evolución y poder establecer el resultado.

En segundo lugar, los sistemas compuestos de muchas partículas tenían una dinámica cuyas ecuaciones de evolución eran muy complejas de resolver.

Este segundo motivo fue el que hizo que fuera necesario introducir conceptos relacionados con la probabilidad y estadística para solucionar los problemas, dando como resultado la creación de una nueva mecánica: la mecánica estadística y con ello el paso de un paradigma científico determinista a uno indeterminista.

La llegada de la mecánica cuántica también tuvo consecuencias en la visión determinista del mundo ya que del principio de incertidumbre de Heisenberg se desprende la imposibilidad de aplicar ecuaciones deterministas al mundo microscópico por la imposibilidad de conocer dos variables conjugadas a la vez (por ejemplo la posición y la velocidad)

En la mente de muchos, se asocia indeterminismo con mecánica cuántica y determinismo con física clásica, pero, como demostró el premio Nobel Max Born, el determinismo de la mecánica clásica no es real al no ser posible establecer con infinita precisión las condiciones iniciales de un experimento.

Por otro lado Feynman, en sus lecturas de física, dijo que el indeterminismo no pertenece de manera exclusiva a la mecánica cuántica, sino que es un propiedad básica de muchos sistemas.

Casi todos los sistemas físicos son sistemas dinámicos, es decir, son sistemas descritos por una o más variables que cambian en el tiempo.

Hay sistemas dinámicos que siguen un comportamiento periódico y otros sistemas que no siguen ningún comportamiento periódico. Cuando el movimiento es no periódico, depende de las condiciones iniciales y es impredecible en largos intervalos de tiempo (aunque sea predecible en intervalos pequeños) se dice que el movimiento es caótico.

En otras palabras, el caos es un tipo de movimiento que se puede describir por ecuaciones, a veces muy sencillas, y que se caracteriza por:

  • Movimiento irregular en el tiempo que no tiene periodicidades ni superposición de periodicidades.
  • Es impredecible en el tiempo ya que es muy sensible a las condiciones iniciales.
  • Es muy complejo pero ordenado en el espacio de fases

Por ejemplo, cuando existen tres masas diferentes que se mueven bajo la acción de la gravedad (digamos tres planetas), el estudio de su evolución en el tiempo es realmente complejo ya que depende de las condiciones iniciales, es decir posición y velocidad de las tres masas. Poincaré demostró que no era posible encontrar una solución exacta.

Otro de los casos más famosos en el estudio de estos sistemas dinámicos no lineales tuvo lugar en 1963 cuando Edward Lorenz desarrolló un modelo de tres ecuaciones diferenciales ordinarias para describir el movimiento de un fluido bajo la acción de un gradiente térmico (lo que es equivalente a decir que estaba estudiando el comportamiento de la atmósfera) Utilizando un ordenador buscó soluciones numéricas al sistema de ecuaciones y descubrió que era muy sensible a las condiciones iniciales. Fue James York quien reconoció el trabajo de Lorenz e introdujo el término caos.

Lorenz_system_r28_s10_b2-6666

Atractor de Lorenz. ¿No parece las alas de una mariposa? (Fuente: Wikimedia Commons)

Actualmente se tiende a pensar que tras el descubrimiento de la mecánica cuántica y la relatividad de Einstein, toda la física gira en torno al estudio de estos campos. Sin embargo, el caos es un campo muy amplio que está ganando adeptos no sólo entre físicos y matemáticos, sino también en otros campos como la biología, la genética y la neurociencia por nombrar unos cuantos. Esta interdisciplinariedad es sorprendente y demuestra lo mucho que se puede aprender unos de otros para que la ciencia avance con paso firme hacia un mayor conocimiento del mundo.

Referencias

Las matemáticas y la física del Caos. Manuel de León, Miguel A. F. Sanjuán. CSIC

Caos. La creación de una ciencia. James Gleick.

E. Lorenz. Deterministic nonperiodic flow. Journal of the Atmospheric Sciences. Volume 20