domingo, 21 de abril de 2019

¿Qué es el bosón de Higgs? - Víctor Martín Lozano

¿Qué es el bosón de Higgs? ¿Por qué ha tenido tanta repercusión su descubrimiento experimental?
(Por Víctor Martín Lozano)



El día 4 de Julio de 2012 Fabiola Gianotti y Joe Incandela, portavoces de las colaboraciones experimentales ATLAS y CMS respectivamente, anunciaron el descubrimiento de una partícula que tenía todas las propiedades para ser el bosón de Higgs. Pero, ¿qué es el bosón de Higgs?
         
          En los años 60 se empezó a formar un modelo dentro del marco de la teoría cuántica de campos para explicar las interacciones fundamentales de las partículas elementales. Dicho modelo es conocido hoy en día como Modelo Estándar (ME) de las interacciones fundamentales. Por aquel entonces no se sabía por qué ciertas partículas tenían masa y otras permanecían sin ella. Para dar explicación a este hecho, los físicos Peter Higgs, François Englert, Robert Brout, Gerald Guralnik, Carl R. Hagen y Tom Kibble formularon de manera independiente un mecanismo mediante el cual solucionaban el problema de la masa. Dicho mecanismo se conoce como mecanismo de Higgs y sería el responsable de otorgar masa a las partículas que componen el ME. Asociado a este campo existiría una partícula que podría ser detectada en aceleradores de partículas, hablamos por tanto del conocido como bosón de Higgs. Una partícula con características muy similares a las de dicho bosón es lo que fue encontrado en el CERN por las colaboraciones ATLAS y CMS.


1        Mecanismo de Higgs.

          Debido a los avances en la física en el siglo XX tanto a nivel teórico como a nivel experimental, los físicos de partículas de aquel tiempo vivieron momentos muy emocionantes. Una plétora de partículas y nuevas interacciones aparecieron en los resultados experimentales y la necesidad de una explicación teórica se hizo fundamental para el entendimiento de la Naturaleza. Tras arduo trabajo por parte de los científicos de la época quedó claro que el modelo de partículas elementales seguía las pautas asociadas a ciertas simetrías. Estas simetrías se asociaron a las interacciones fundamentales que eran observadas entre las partículas. Todo ello quedó enmarcado dentro de lo que hoy día se conoce como ME de las interacciones fundamentales. Este modelo contiene seis leptones (entre los que se incluye el bien conocido electrón) y seis quarks (los protones y neutrones son partículas compuestas de quarks). Tanto quarks como leptones entran dentro de lo que llamamos fermiones, que son las partículas que conforman la materia que conocemos. El secreto del ME radica en clasificar todas estas partículas de acuerdo a cómo se comportan con respecto a ciertas simetrías. Estas simetrías están asociadas a las interacciones que existen entre las partículas, por tanto si una partícula permanece invariante bajo una transformación de una determinada simetría se debe a que no sentiría el efecto bajo esa interacción. Dichas interacciones son la interacción fuerte, la débil y la electromagnética, estas dos últimas relacionadas entre sí en una simetría mayor llamada electrodébil. Todas ellas tendrían asociadas diferentes partículas, conocidas como bosones mediadores, que serían las responsables de dichas interacciones. El responsable de la fuerza fuerte es el gluon, una partícula sin masa y que tendría 8 versiones diferentes. Los responsables de la fuerza débil son los bosones cargados W± y el bosón neutro Z que tienen un peso de aproximadamente de 80 y 90 veces la masa de un protón, mientras que el responsable del electromagnetismo es el fotón, partícula también sin masa.

          Sin embargo, no se explicaba desde la formulación matemática de dichas interacciones la aparición de la masa de las partículas. En los años 60 de manera totalmente independiente tres grupos de investigación formados el primero por Robert Brout y François Englert, el segundo por Peter Higgs y el tercero por Gerald Guralnik, Carl R. Hagen y Tom Kibble, formularon un mecanismo a través del cual las partículas adquirirían masa. Este mecanismo, conocido popularmente como mecanismo de Higgs, consiste en un campo que permea todo el espacio, como ocurre con el campo electromagnético. Así pues, todas las partículas en presencia de dicho campo sentirían una fricción debido a su interacción con él. Cada partícula interaccionaría de una manera diferente con este campo, es decir, sufriría diferente grado de fricción. La masa de cada partícula, por tanto, correspondería a esta fricción y la diferencia de masas entre las partículas dependería de la manera en la cual interaccione  con dicho campo.

          Matemáticamente hablando, el mecanismo de Higgs consiste en la formulación de un campo, el campo de Higgs, que de manera espontánea rompería una de las simetrías del ME, la simetría electrodébil, provocando así el hecho de originar masa a las partículas. Anterior a dicha ruptura, los términos de masa de las partículas no respetaban dicha simetría, por lo tanto solo cuando ésta está rota, las partículas pueden adquirir masa.
         

2        El bosón de Higgs.

          Una vez hablado del mecanismo de Higgs podemos preguntarnos, ¿y el bosón de Higgs dónde aparece aquí? Pues bien, asociado al campo de Higgs aparece una partícula escalar que es producida cuando dicho campo se excita, esta partícula es la conocida como bosón de Higgs. Al igual que las excitaciones del campo electromagnético dan lugar al fotón, cualquier excitación producida en el campo de Higgs daría lugar al bosón de Higgs. Matemáticamente si atendemos a la explicación anterior, el campo de Higgs presenta cuatro grados de libertad. Una vez que rompe la simetría electrodébil tres grados de libertad van a parar a los bosones Z, W+ y W- , por lo que quedaría un grado de libertad extra correspondiente a lo que conocemos como bosón de Higgs. De esta peculiaridad se dieron cuenta Brout, Englert y Higgs cuando formularon sus investigaciones acerca del mecanismo de Higgs. Ésta es la razón por la que en 2013 la academia sueca otorgase el premio Nobel de física a Peter Higgs y a François Englert solamente (Brout había fallecido en 2011).

          Una vez formulado el mecanismo de Higgs, con la consecuente aparición del bosón de Higgs, el ME de las interacciones fundamentales quedaba prácticamente resuelto. Desde ese momento todos los esfuerzos tanto teóricos como experimentales se enfocaron en descubrir a tan escurridiza partícula. Por la parte teórica las propiedades de dicho bosón fueron estudiadas en relación a sus interacciones con las demás partículas del ME. Debido a su formulación matemática, uno de los parámetros físicos que definen el campo de Higgs permanece libre, por lo que en principio era imposible predecir qué masa tendría el bosón asociado al campo. Esto suponía un problema a la hora de buscar el bosón de Higgs en los experimentos, pues cualquier rango de masa era posible. Sin embargo, era fácil poder calcular la interacción de dicho bosón con las diferentes partículas elementales una vez que la masa de éste era conocida, por lo tanto los físicos teóricos solo podían dar resultados acerca del bosón en función de la masa de éste. A pesar de parecer una situación poco halagüeña se pudo extraer información muy importante acerca de sus propiedades. Una de las más importantes era que si el bosón de Higgs era producido en un experimento automáticamente se desintegraría en partículas del ME. La probabilidad de desintegración en las diferentes partículas dependería como hemos dicho anteriormente de la masa del bosón, sin embargo, una cosa estaba clara, para descubrirlo habría que mirar los productos de desintegración de éste.

          Es notable el hecho de que teorías que van más allá del ME mantienen el mecanismo de Higgs presente para otorgar masa a las partículas, tal y como ocurre por ejemplo en el caso de las teorías supersimétricas. En dichos modelos, el bosón de Higgs puede diferir en las propiedades con respecto a las que aparecen en el ME y muchos estudios se han centrado en éstas. Por ejemplo, un gran adelanto que presentan las teorías supersimétricas con respecto al ME es el hecho de que el rango de masas está acotado de una manera más precisa.

          Por la parte experimental la mayoría de aceleradores de partículas se han dedicado a buscar el bosón de Higgs entre otras muchas búsquedas. Los aceleradores LEP y Tevatron buscaron con ahínco dicha partícula consiguiendo poner ciertas cotas al rango de masas donde poder encontrarla. Por tanto, toda la expectación de su descubrimiento se centró en el gran colisionador de hadrones (LHC) que se estaba construyendo en el CERN en el que todos los físicos depositaron sus esperanzas para encontrar el bosón de Higgs, la única partícula que faltaba del conocido ME.


3        El descubrimiento del bosón de Higgs.

          El LHC es un gran acelerador de partículas que colisiona protones para poder, mediante dichas colisiones, estudiar las diversas interacciones que se dan en el ME. Entre dichas interacciones los estudios teóricos preveían la presencia del bosón de Higgs y tras dos años de recogida de datos a una energía en el centro de masas de 7 y 8 TeV (Teraelectronvoltios) [1], desde 2010 a 2012, los resultados acerca del bosón de Higgs fueron expuestos por los portavoces de las dos colaboraciones experimentales ATLAS y CMS que operan en el LHC. Una partícula que se asemeja al bosón de Higgs fue descubierta con una masa de 125 GeV (aproximadamente 125 veces la masa de un protón). Dicho descubrimiento se realizó a través de los canales de desintegración del bosón de Higgs en partículas del ME como fue predicho por los físicos teóricos. El LHC, dado que es un colisionador de protones, produce una gran cantidad de gluones que serían los principales responsables de producir el bosón de Higgs. Una vez producido como hemos visto anteriormente éste se desintegraría en partículas del ME. En particular fue observado en tres canales, desintegración en dos fotones, en dos bosones Z y en dos bosones W. Dichos modos de desintegración se habían detectado con unas condiciones estadísticas adecuadas que nos asegurasen un descubrimiento [2]. Además el estudio de los diferentes canales de desintegración, no solo aquellos que involucraban fotones, y bosones W y Z, coincidía con bastante exactitud a lo predicho por el ME para dicha masa.

          La repercusión mediática fue muy importante, medios de todo el planeta, y en todas las plataformas de información dieron buena cuenta de ello y la noticia acerca de su descubrimiento dio la vuelta al mundo en poco tiempo. Al año siguiente de este gran acontecimiento, en el 2013, se les concedió el premio Nobel a Peter Higgs y François Englert por su predicción teórica acerca de esta partícula.

          La partícula que cerraba el círculo del ME se había descubierto. Por fin, dicho modelo se había completado y la última pieza del puzle encajaba perfectamente con todo lo anterior. Sin embargo, diversas observaciones experimentales y resultados teóricos nos hacen pensar a los físicos que debe haber física más allá del ME y que probablemente el bosón de Higgs pueda estar relacionado con dichos fenómenos. Así pues, el descubrimiento del bosón de Higgs ha dado un vuelco a la física de partículas y abre nuevas puertas a las investigaciones tanto teóricas como experimentales para estudiar las implicaciones que tendría esta partícula en nuevos modelos.


Notas:
[1] El electronvoltio (eV) es una unidad de energía. En física de partículas energía y masa están relacionadas mediante la ecuación E=mc2 y por tanto el eV es usado como unidad de masa. Por ejemplo, un electrón tiene una masa de 500 .000 eV=0,5 MeV y un protón aproximadamente 1.000.000.000  eV=1 GeV. Un teraelectronvoltio (TeV) equivale a 1.000.000.000.000 eV.
[2] En física de partículas uno puede decir que existe un descubrimiento cuando tiene una estadística suficiente para poder estar seguro con una probabilidad del 99,99994%, lo que se conoce como 5 sigmas y que equivale a equivocarse en una sobre 3.500.000.

Víctor Martín Lozano
Doctor en Física.
Investigador Postdoctoral en la Universidad de Bonn y en el Centro Bethe de Física Teórica.



domingo, 14 de abril de 2019

Quarks, leptones y sus interacciones - Ángel M. Uranga Urteaga

Quarks, leptones y sus interacciones: ¿cuáles son los componentes fundamentales de la materia?
(Por Ángel M. Uranga Urteaga)



La sencilla pregunta “¿de qué están hechas las cosas?” ha constituido, desde los primeros filósofos griegos, uno de los motores principales del pensamiento racional de la Humanidad. Hoy día, la respuesta científica a esta pregunta nos sumerge en la física de partículas, que explora las leyes cuánticas de la naturaleza a las escala de longitud más pequeñas accesibles experimentalmente, aproximadamente 10-18 metros.

          A nuestra escala cotidiana, de metros o centímetros, las sustancias materiales que nos rodean parecen un continuo. Pero descendiendo a escalas del Amstrong (10-10 metros), se observa que los objetos están compuestos de moléculas, estados ligados de átomos. Un resultado fascinante de la ciencia del siglo XIX es la  comprensión de que toda la materia conocida se reduce a combinaciones de aproximadamente cien tipos de objeto, los átomos de la tabla de Mendeléyev, cuyas regularidades además codifican las propiedades químicas de los elementos correspondientes. Hoy día sabemos que estos átomos no son elementales, indivisibles, sino que están compuestos de electrones con carga eléctrica negativa, que orbitan alrededor de un núcleo cargado positivamente, muy masivo y de tamaño extremadamente diminuto, unos 10-15 metros. Es más, mientras que los electrones sí que parecen elementales (hasta la escala de distancias que ha sido posible comprobar experimentalmente), los núcleos están compuestos de protones y neutrones, con masas aproximadamente iguales, pero con cargas positiva y neutra, respectivamente. A su vez, los protones y neutrones tampoco son elementales, sino que están compuestos de tres partículas, los quarks, que sí parecen ser elementales (hasta donde ha sido posible comprobar experimentalmente). Las propiedades de protones y neutrones son consecuencia de las de sus quarks componentes. Por ejemplo, la carga eléctrica de valor +1 (en unidades adecuadas) de un protón, proviene de que está compuesto de dos quarks de tipo “up” (con carga eléctrica +2/3 cada uno) y un quark de tipo “down” (con carga -1/3); mientras que la carga nula de un neutrón, se sigue de que está compuesto de un quark de tipo “up” y dos quarks de tipo “down”. Además de por su carga eléctrica fraccionaria, los quarks son partículas peculiares por otros motivos: no existen como partículas libres, sino que necesariamente están confinadas en estados ligados por la interacción de color, que describiremos más adelante.

          Por tanto, la materia ordinaria está compuesta de quarks “up”, “down” y electrones. Además, están los neutrinos (concretamente los de tipo electrónico), que son partículas prácticamente sin masa y que interactúan muy poco intensamente con cualquier otra, por lo que no son componentes de los átomos y objetos ordinarios. Sin embargo, están muy relacionados con las partículas anteriores: un quark down puede transformarse en un quark up emitiendo un positrón (antipartícula del electrón) y un neutrino. Este proceso está mediado por la interacción débil, que describiremos más adelante.

          Los quarks up y down, el electrón y el neutrino electrónico conforman la denominada primera familia de partículas elementales, que componen toda la materia ordinaria que nos rodea. Sorprendentemente, existen otras dos familias de partículas elementales, con una estructura muy similar: la segunda familia contiene dos quarks, denominados de tipo “charm” y “strange” (con cargas eléctricas +2/3 y -1/3, respectivamente, y con interacciones de color), y dos “leptones”: una partícula cargada negativamente denominada el muón (similar al electrón, pero más pesado), y un neutrino muónico con masa casi nula. La tercera familia contiene dos quarks, de tipo “top” y “bottom”, y dos leptones: la partícula tau, cargada negativamente, y el neutrino tauónico. La estructura de cargas e interacciones de la segunda y tercera familia sigue el mismo patrón que la primera, y solo se distinguen en que las masas de sus partículas son mayores. Esto implica que las partículas de la segunda y tercera familias son inestables y se desintegran en una fracción de segundo en partículas de la primera familia. Por tanto, las partículas de las dos familias adicionales no forman parte de la materia estable: para cuando se unen en un estado ligado, como por ejemplo un “átomo de la segunda familia”, se desintegran en partículas de la primera familia, resultando en un átomo ordinario.

          No se conoce ninguna razón fundamental por la que deban existir precisamente tres familias, es un hecho experimental sin explicación teórica conocida. De hecho, sería concebible que existieran más familias, aunque en ese caso algunas de sus propiedades deberían ser distintas: por ejemplo, la masa de los neutrinos correspondientes debería ser extremadamente alta, ya que el estudio de la desintegración del bosón Z (ver más adelante) en el CERN, Ginebra, Suiza, impone cotas muy fuertes al respecto. Este tipo de datos experimentales apoyan la hipótesis más sencilla de que el número de familias de quarks y leptones es exactamente tres.

          Las partículas de materia, los quarks y leptones que hemos descrito, se manifiestan como elementales a las escalas accesibles experimentalmente. Esto no quiere decir que no estén compuestas de otras partículas más pequeñas, pero si sucede, debería ocurrir a una escala de distancia menor que la explorada, 10-18 metros.

          Para entender cómo las partículas forman estructuras y componen los objetos, es necesario describir sus interacciones. Un enorme éxito de la física ha sido reducir todas las fuerzas de la naturaleza a cuatro interacciones fundamentales, que actúan sobre las partículas elementales. Son la gravedad, la fuerza electromagnética, la interacción fuerte (o de color) y la interacción débil. La gravedad actúa sobre todas las partículas y es siempre atractiva; a nivel de partículas elementales es increíblemente menos intensa que las demás interacciones, pero es acumulativa, por lo que domina la dinámica en el mundo macroscópico. El electromagnetismo describe todos los fenómenos eléctricos y magnéticos, incluida la luz, y en concreto es la interacción que permite a los núcleos y electrones formar átomos, y de forma residual a los átomos formar moléculas mediante el enlace químico. La interacción fuerte es la que mantiene a los quarks unidos formando protones y neutrones, y de forma residual une a éstos en los núcleos atómicos; opera solo a escalas comparables al radio de un protón, 10-15 metros. La interacción débil es menos intensa que la fuerte o la electromagnética, pero es especial por ser la única interacción que transforma el tipo de partículas que participan en una interacción (como advertimos anteriormente, en la desintegración de un quark down en un up, un positrón y un neutrino); esto es esencial para las reacciones en el corazón de las estrellas en las que núcleos de hidrógeno (protones) se fusionan y forman núcleos de helio (formados de dos protones y dos neutrones, producidos por la transmutación de protones mediante la interacción débil), emitiendo luz y calor, y , en el caso del Sol, posibilitando la vida en la Tierra.

          En el contexto de la física cuántica que rige el comportamiento en esas escalas microscópicas, cada interacción tiene una partícula de fuerza asociada, el “cuanto” del campo correspondiente. La interacción electromagnética tiene asociada una partícula, denominada el fotón, sin masa, que interactúa con las partículas cargadas. La interacción fuerte tiene asociadas ocho partículas denominadas gluones, sin masa, que interactúan con los quarks a través de un nuevo tipo de carga, denominado “color”, que toma tres posibles valores. La interacción de color es casi nula a muy cortas distancias, pero extremadamente intensa a distancias mayores que el radio de un protón, por lo que cualquier partícula con carga de color está confinada en estados ligados: mesones, que son combinaciones de quarks y antiquarks, o bariones (como el protón y el neutrón), que son combinaciones de tres quarks con los tres colores posibles). Por ello, no es posible observar quarks aislados, solo como componentes de estados ligados. Sin embargo, la existencia física de los quarks está completamente establecida, ya que se comportan como partículas esencialmente libres a distancias muy cortas, como se ha comprobado en experimentos de dispersión inelástica profunda (Deep Inelastic Scattering). La interacción débil tiene como mediadoras tres partículas, denominadas bosón Z y bosones W. Estas partículas de interacción son enormemente masivas, del orden de 90 veces la masa de un protón. Esta enorme masa es la razón última de la aparente debilidad de la interacción débil: a bajas energías, la probabilidad cuántica de crear un mediador tan masivo es muy pequeña, lo que resulta en una interacción muy poco intensa. A las altas energías accesibles en los aceleradores de partículas actuales, sin embargo, los bosones Z y W se producen copiosamente, y la interacción débil es tan intensa como la electromagnética (y de hecho, ambas quedan descritas en un marco unificado conocido como interacción electrodébil).

          Las masas de los bosones Z y W, y más en general las de las partículas elementales, están conectadas con un nuevo fenómeno, asociado con el bosón de Higgs, el último ingrediente (por el momento) en la física de partículas. En el contexto de la Teoría Especial de la Relatividad, cualquier tipo de masa corresponde a una energía interna asociada a la partícula. Por ejemplo, la masa del protón corresponde en un 99% a la energía de los campos de color creados entre los quarks que lo componen. Sin embargo ¿qué tipo de energía interna podría corresponder a una partícula elemental, no compuesta? La respuesta radica en el campo de Higgs, una magnitud que llena el espacio vacío de forma homogénea, y que se acopla a cada partícula con una intensidad diferente. Este acoplamiento contribuye a la energía interna de la partícula, de modo que se refleja en una inercia ante el cambio de movimiento, una masa. La masa de una partícula elemental es simplemente una medida de su acoplamiento con el campo de Higgs. La hipótesis del campo de Higgs predice la existencia de una nueva partícula, el cuanto del campo de Higgs, que recibe el nombre de bosón de Higgs. Esta partícula fue descubierta en el colisionador LHC del CERN, Ginebra, Suiza, confirmado la hipótesis del campo de Higgs, y su papel en la explicación de las masas de las partículas elementales. Y enseñándonos una muy importante lección de profundas implicaciones: el vacío no es la nada.

          Las partículas de materia (las tres familias de quarks y leptones), las partículas de interacción (fotón, gluones, y bosones Z y W), y el bosón de Higgs, constituyen el Modelo Estándar (ME), la teoría que actualmente describe los constituyentes últimos de la materia y sus interacciones. Se trata de un logro excepcional para la especie humana, una construcción conceptual que explica todos los fenómenos naturales desde las escalas macroscópicas hasta las efervescentes fluctuaciones en el interior de los protones dentro de los núcleos de los átomos.

          Sin embargo, existe en la comunidad científica una fuerte sensación de que la naturaleza se reserva nuevos ases en la manga, y que los próximos años pueden revelar nuevos tipos de partículas elementales, e incluso nuevos principios sobre su dinámica, más allá del ME. El estudio del cosmos nos revela que la mayor parte de la materia del universo no corresponde a las partículas del ME, sino a un nuevo tipo de partícula que no emite luz y que constituye un fluido cósmico conocido como materia oscura. Las peculiares propiedades del bosón de Higgs sugieren la necesidad de nueva física a escalas alcanzables por el colisionador LHC en los próximos años, en forma de partículas supersimétricas, o de subestructura interna del Higgs, los quarks y/o los leptones. La pequeñísima, pero no nula, masa de los neutrinos observados parece requerir explicaciones que implican nuevos tipos de neutrinos super-masivos y aún por descubrir. Finalmente, el lector atento habrá observado que no hemos mencionado la hipotética partícula de interacción del campo gravitatorio, el gravitón, que aún no ha sido observado experimentalmente. No obstante, la reciente detección de ondas gravitacionales de origen astrofísico por la colaboración LIGO, así como el estudio de la polarización de tipo B del fondo cósmico de radiación de microondas, prometen una mejor comprensión del campo gravitatorio en el futuro. Estos y muchos otros indicios apuntan a que nos estamos asomando a una nueva frontera en la comprensión de las leyes fundamentales del universo.


Ángel M. Uranga Urteaga
Doctor en Física Teórica.
Profesor  de Investigación, Instituto de Física Teórica CSIC.








Realizó su licenciatura en la Universidad del País vasco y la Universidad Autónoma de Madrid, donde posteriormente se doctoró en 1997. Después de estancias postdoctorales en el Instituto de estudios Avanzados de Princeton y en CERN, se incorporó a la Universidad Autónoma de Madrid en 2001 y al CSIC en 2002, donde permanece como miembro del Instituto de Física Teórica (IFT) UAM-CSIC, del que ha sido director.

Sus investigaciones se centran en la Teoría de Cuerdas, especialmente en la construcción de modelos de compactificación que reproducen el Modelo Estandar de Partículas Elementales. Es coautor del libro "String theory and particle physics: an introduction to string phenomenology" publicado en Cambridge University Press.

Compagina esta actividad con su faceta divulgadora, especialmente la organización desde 2013 del ciclo de conferencias de Física Fundamental del IFT en colaboración con la Residencia de Estudiantes.

ConCiencia: Una cuestión de tiempo.
El Tiempo es, sin duda, una de las cuestiones que más obsesiona a físicos, astrónomos, e incluso psicólogos y filósofos a lo largo de los siglos. ¿Existe realmente el Tiempo? ¿Por qué es relativo? ¿Puede viajarse a través de él? ¿Hasta dónde puede medirse? ¿Por qué transcurre de manera diferente dependiendo de la época de la vida? ¿Qué edad tiene el Universo? ConCiencia se embarca en un viaje apasionante para descubrir lo que sabemos sobre el Tiempo gracias a los siguientes científicos: Ángel Uranga (Director del Instituto de Física Teórica), Fernando Martín (Centro de Computación Científica de la Universidad Autónoma de Madrid), Juan García-Bellido (Cosmólogo teórico), José Luis Fdez. Barbón (Doctor en Física Teórica U. Autonoma), Manuel Martín Loeches (profesor de Psicobiología U. Compluetense).


domingo, 7 de abril de 2019

¿Sociedad y Superconductividad? - Belén Valenzuela Requena

¿Qué tiene que ver nuestra sociedad con la superconductividad?
(Por Belén Valenzuela Requena)



Nuestra sociedad y la superconductividad tienen en común que son dos estados emergentes. Como veremos hay muchísimos ejemplos de estados emergentes.

Detrás del concepto de estados emergentes está la idea ya expuesta por Aristóteles de que el todo es más que la suma de las partes. Todos tenemos vivencias de esta reflexión. Sin embargo, esta idea se opone a como tradicionalmente nos hemos acercado a entender la Ciencia: estudiando los elementos que la constituyen. Claramente es difícil entenderlo todo a la vez y es muy racional ir estudiando parte por parte. Este método lo ideó Descartes, en su Discurso del Método. Descartes afirmaba que el mundo era una gran máquina y para entenderlo tendríamos que entender sus elementos constituyentes. En la búsqueda de los elementos constituyentes de la materia fuimos al átomo, de ahí a los electrones, neutrones y protones y por último a los quarks y al modelo estándar. [1]

Este pensamiento sigue influenciando nuestro día a día y así cuando tenemos una dolencia seria vamos al médico especialista. Si el diagnóstico no es claro nos pueden mandar al de digestivo y luego al endocrino y luego al neurólogo y luego vuelta a empezar y en la sala de espera nos preguntamos si no sería mucho más eficiente que hubiera una comunicación fluida entre ellos. Nuestro cuerpo está claramente conectado.

Y es que aunque se han resuelto muchos problemas con el método de Descartes, muchos fenómenos cercanos de nuestro día a día no pueden ser entendidos reduciéndolos a sus elementos constituyentes. Entendiendo un átomo de hierro no podemos entender el estado magnético, entendiendo una molécula de ADN no podemos entender la vida, entendiendo una neurona no podemos entender la consciencia y aún entendiendo a las personas no podríamos entender la sociedad. El magnetismo, la vida, la consciencia y la sociedad son estados emergentes que surgen debido a la interacción entre sus elementos constituyentes (el hierro, las moléculas, las neuronas y las personas) y la interacción con su entorno. El estado emergente es entonces una propiedad que no existía en sus elementos constituyentes y no se puede utilizar el método de Descartes para entenderlo.

¿Cómo abordar entonces este tipo de problemas? Mi campo de investigación es la física de la materia condensada que estudia las fases líquidas y sólidas de la materia. Uno de los mayores héroes de mi campo, Phil Anderson, premio Nobel de física, escribió en 1972 un artículo provocativo con el título “More is different“ donde explicaba el alcance y la potencia del concepto de emergencia. En este artículo Anderson argumentaba que la habilidad de reducir el todo a leyes fundamentales no implica la habilidad de empezar desde esas leyes y reconstruir el universo. Estas ideas no eran nuevas en absoluto pero todavía la aproximación de Descartes era la dominante a la hora de abordar un problema en ciencia. Anderson argumentaba que en la física de la materia condensada hay conceptos y herramientas que nos permiten atacar estos problemas, en particular la teoría de las transiciones de fase.

La teoría de transiciones de fase no se limita a la materia condensada, también se da en otras ramas de la física. En general se da siempre que tengamos un sistema de partículas que interaccionan entre ellas y/o con su entorno. El reconocido físico Lev Landau contribuyó enormemente a construir esta teoría. Landau propuso que las transiciones pasan de una fase ordenada a una fase desordenada y a la transición la denominó zona crítica. El ejemplo típico de transiciones de fase es el paso de líquido (fase desordenada) a sólido (fase ordenada) de un material cuando disminuimos la temperatura. Si por ejemplo el material fuera la sal las partículas constituyentes serían el sodio y el cloro. Cuando se pasa al estado sólido las moléculas de la sal se ordenan de una forma cúbica. También disminuyendo la temperatura podemos pasar de un material no magnético (fase desordenada) a uno magnético (fase ordenada) a una cierta temperatura crítica. Aquí, las partículas constituyentes son los electrones que poseen un pequeño momento magnético denominado spin. En la fase ordenada del imán todos los momentos magnéticos se alinean en la misma dirección creando un campo magnético propio. Aunque a primera vista el magnetismo y las fases de la sal no tienen nada que ver, la zona crítica de las transiciones se describe con las mismas ecuaciones. A este hecho se le denomina  “fenómeno de Universalidad”, uno de los conceptos más bellos de la física. Lo más sobresaliente de la teoría es que aunque la interacción entre átomos de la sal o la interacción entre los electrones del material es de un alcance corto que involucra solo a los vecinos más próximos, en  la zona crítica todas las partículas constituyentes están correlacionadas y sienten lo que hacen desde sus vecinas más próximas a las más distantes. Es lo que se denomina un fenómeno cooperativo. La zona crítica es invariante de escala con propiedades similares en todas las longitudes y puede dar lugar a los bellos fractales.

Mi ejemplo favorito de transición de fase en materia condensada es el paso de un material a un estado superconductor cuando bajamos la temperatura. Los superconductores tienen propiedades eléctricas y magnéticas muy exóticas. No presentan resistencia al paso de la corriente eléctrica con lo que no pierden energía y además expulsan el campo magnético. Esto último da lugar a la posibilidad de observar el divertido fenómeno de levitación de o bien un imán sobre un superconductor o viceversa. Como es de esperar las posibles aplicaciones de los superconductores son enormes: cables no disipativos, imanes superpotentes, trenes que levitan... [2] La transición de fase en la que se pasa de estado normal a estado superconductor se da a temperaturas críticas muy bajas o recientemente a presiones muy altas [3] lo que limita el alcance de las aplicaciones. Se está investigando muy intensamente para conseguir temperaturas críticas más altas y optimizar estos materiales. Además, todavía no se entiende porque algunos de los materiales son superconductores. Esto hace que la superconductividad sea un fenómeno aún más apasionante para los investigadores.

Igual que en el caso del magnetismo los protagonistas de la transición de fase al estado superconductor son los electrones. En un material los electrones que conducen la corriente eléctrica son compensados por los iones que se encuentran formando una red cristalina. A temperatura alta hay resistividad que se produce cuando estos electrones interaccionan entre si y con las vibraciones de la red iónica. A baja temperatura en la fase superconductora sin embargo, los electrones se emparejan formando los denominados pares de Cooper y fluyen todos a una en una onda colectiva siguiendo las reglas de la física cuántica. De nuevo se pasa de una fase desordenada con resistencia a una fase ordenada que es una onda colectiva al bajar la temperatura. 

Cuando lo que queremos describir son sistemas biológicos el problema es mucho más complejo. Una de las dificultades es que estamos tratando con sistemas de no-equilibrio, es decir, que evolucionan con el tiempo y tienen historia. Pero la historia no solo existe en los seres vivos, también en el mundo inanimado existen sistemas en no equilibrio. Como resultado de esa historia obtenemos los bonitos y diversos copos de nieve. Curiosamente algunas bacterias también se organizan en estructuras parecidas a copos de nieve. [4] ¡De nuevo con las mismas ecuaciones! Hay además multitud de ejemplos en los que se pueden utilizar conceptos de transición de fase en sistemas que evolucionan en el tiempo: en manadas de mamíferos, bancos de peces, enjambres de abejas, colonias de hormigas. En el siguiente artículo utilizan la teoría de Landau para entender el movimiento de las bandadas de estorninos. [5] Así, algunos aspectos de la física de equilibrio también son útiles en la física de no equilibrio.

En un rango completamente diferente hay propuestas en neurociencia en las que se argumenta que en nuestro cerebro los fenómenos cooperativos juegan un papel fundamental en determinar la dinámica del cerebro. Nuestro cerebro parece estar en la zona de crítica en medio del orden y el desorden. De esta forma puede conseguir la dualidad esencial para que funcione: debe mantener algo de orden para asegurar un funcionamiento coherente y reproducible y a la vez permitir un cierto grado de desorden que permita flexibilidad. [6]

Como os estáis dando cuenta la lista de problemas que se puede tratar con estas técnicas es enorme y solo he escogido unos cuantos. ¿Y nuestra sociedad? ¿Tiene algo que decir la física en como construimos las ciudades, nos movemos en espacios abiertos, votamos y formamos alianzas y grupos? Efectivamente la física se puede usar para comprender ciertos aspectos del mercado económico y para revelar estructuras escondidas en redes sociales. En estos problemas se entiende cómo surge el conflicto y la cooperación.[4]

Fuera del ámbito del estudio de la socio-física la idea de emergencia ha calado como filosofía social. Por ejemplo, en el ámbito de la empresa se denomina sinergia. Stephen R. Covey argumenta en un influyente libro en EEUU [7] que las mejores empresas y familias son las que las relaciones humanas no se basan en:

1) ni tú, ni yo (ni como ni dejo comer)
2) tú o yo (típica competición)
3) yo te respeto y tú me respetas (suma de las partes)
En las mejores empresas se usa la cuarta solución:
4) más, más (el todo es más que la suma de las partes)

En el punto 4) la idea es que todos contribuyan para producir una lluvia de ideas de la que surja al final algo completamente nuevo y mejor.

Cuando escribí los agradecimientos de mi tesis utilicé la analogía de comparar la transición a un estado superconductor con la revolución en una sociedad. En vez de bajar la temperatura hasta la temperatura crítica se tendría que pasar a la presión social crítica en la que pasamos de un estado de personas individualistas a un estado colectivo donde todos queremos conseguir lo mismo. Recientemente escuché una charla TED [8] al hilo de esta idea. David Steindl-Rast argumentaba que lo que queremos conseguir todos es ser felices y que la forma de hacerlo es ser agradecidos localmente, con nuestra familia, nuestros vecinos, nuestros compañeros, por las cosas que tenemos... Y según él habría un momento en el que se produjera una transición a un estado en el que todos seríamos felices, transición que será una verdadera revolución en la que no haya nadie por encima de nadie pero todos conectados en una red. Es una utopía sugerente y no pude evitar pensar en las transiciones de fase.


Notas:
[1] Véase Capítulo  46
[3] A.O. Drozdov,M.I. Eremets, I.A. Troyan, V. Ksenofontov y S.I. Shylin, Nature 525, 73 (2015)
[4] Philip Ball, Critical Mass, how one thing leads to another. Editorial Arrow Books.
[5] Alessandro Attanasi et al. , Nature Physics DOI: 10.1038/NPHYS3035
[6] Dietmar Plenz, Critical Brain, Physics 6, 47 (2013)
[7] Stephen R. Covey. Los siete hábitos de la gente altamente efectiva. Editorial Paidós.


Belén Valenzuela Requena
Doctora en Física.
Científico Titular.
Instituto de Ciencias de Materiales de Madrid ICMM CSIC.




domingo, 31 de marzo de 2019

¿Semivida de un isótopo? - Enrique Macías Virgós

¿Por qué se habla de la semivida de un isótopo y no de su vida entera?
(Por Enrique Macías Virgós)



El término "semivida" (en inglés half-life, a veces traducido incorrectamente como "vida media") empezó a usarse para predecir el comportamiento de algunos isótopos radioactivos, pero puede aplicarse en muchos otros contextos.

La semivida es una noción matemática ligada a la idea de "probabilidad". Un átomo inestable puede liberar en cualquier momento algún tipo de partícula subatómica o radiación, convirtiéndose en otro elemento químico. El ritmo con que esto ocurre difiere de un elemento a otro. Además, es imposible predecir cuándo va a tener lugar este “decaimiento radioactivo” para un átomo concreto; pero podemos usar técnicas estadísticas para estimar cómo va a comportarse una masa grande de átomos. En el modelo matemático que explica este proceso se observa que la cantidad de átomos radioactivos se reduce a la mitad siempre que transcurre un determinado tiempo. Este período de tiempo es la “semivida”.

Por ejemplo, el carbono-14 se va convirtiendo en nitrógeno, con una semivida de 5730 años, y este dato puede servir para determinar la edad de un fósil. El 14C se forma en las capas altas de la atmósfera por la acción de los rayos cósmicos; para simplificar, podemos suponer que su concentración se mantiene constante. Las plantas y los animales lo absorberán, en esa misma proporción, pero solo hasta su muerte, y la cantidad de isótopo que aún hay en el fósil nos dará una indicación precisa del tiempo que ha pasado. Por este método de datación recibió Willard F. Libby el Premio Nobel de Química en 1960 [1].

Otro ejemplo es el plutonio-238, que es de uso común para dar energía a algunas naves espaciales [2]; así, varias misiones Apolo dejaron en la Luna un “generador termoeléctrico de radioisótopo" (es decir, un aparato que convierte el calor producido por la radioactividad en electricidad) para permitir realizar experimentos durante años. Como el 238Pu tiene una semivida de 88 años, si un generador de este tipo tiene una potencia de 100 Watios, al cabo de 40 años la potencia será algo más de 70W. El cálculo exacto requiere utilizar logaritmos, pero puede hacerse con una sencilla calculadora científica.

El modelo matemático que rige estos fenómenos aparece siempre que el ritmo al que cambia una cantidad sea proporcional a su valor actual. Algunas reacciones químicas, la altura del agua en una piscina que se está vaciando por el fondo o la evolución de algunos activos financieros siguen este modelo.

Un ejemplo típico en Farmacocinética [3] es la concentración en sangre de un medicamento cuando se administra una inyección por vía intravenosa en una sola dosis rápida (en contraposición a la perfusión continua mediante gotero). La distribución del fármaco en los tejidos está afectada por muchos factores y la metabolización se realiza a través del hígado y la orina, entre otras vías. Pero el resultado global es que el organismo elimina la sustancia a un determinado ritmo de “aclaramiento”, medido en volumen de plasma o sangre por unidad de tiempo, y la cantidad total de fármaco que permanece en el cuerpo depende de la concentración, que a su vez va cambiando. De este modo se puede predecir la concentración plasmática que habrá en un determinado momento, o bien estimar la dosis que se inyectó inicialmente, o la vía por la que se está excretando, ya que cada sustancia tiene una semivida diferente.

Por ejemplo, un antibiótico como la amoxicilina tiene una semivida de 1-2 horas mientras que la del diazepam (usado para los trastornos de ansiedad) es de 30-60 horas. Conocido este parámetro, habrá que tener en cuenta si el medicamento no es de mucha toxicidad, para dar más espaciadamente dosis más grandes, o si debe fraccionarse a lo largo del tiempo, ya que se sigue acumulando al dar dosis repetidas. Para la mayor parte de los medicamentos hay una concentración por debajo de la cual el fármaco es inefectivo, y otra por encima de la cual es peligroso.

En la perfusión continua, en cambio, se trata de alcanzar una concentración de equilibrio que se mantenga en el tiempo. En la práctica clínica, se considera que la concentración se estabiliza indefinidamente cuando han pasado aproximadamente siete semividas.

Modelos parecidos se usan en otros tipos de administración de cualquier sustancia. Así, la semivida de la cafeína ingerida por una persona sana está entre 1,5 y 9,5 horas, dependiendo de las circunstancias fisiológicas y ambientales (uso de anticonceptivos, fumar, embarazo) [4].

En resumen, desde que E. Rutherford (premio Nobel de Química) formuló por primera vez hacia 1902 la idea de la semivida o “período de semidesintegración” [5] de un isótopo, esta noción se ha convertido en algo común en muchas ramas de la Ciencia. La fórmula exacta que se utiliza en estas situaciones se conoce con el nombre de “decaimiento exponencial”, ya que la variable tiempo aparece en el exponente, y es un ejemplo más de cómo se pueden explicar y simular matemáticamente muchísimos fenómenos experimentales, algunos con aplicaciones imprevisibles, en lo que se ha dado en llamar “la irrazonable eficacia de las Matemáticas” [6].

Una última curiosidad: el volumen de la espuma de una cerveza también decae exponencialmente con el tiempo, y la semivida depende del tipo de cerveza. Este descubrimiento le valió a sus autores un premio “Ig Nobel” de Física en el año 2002 [7].

Enrique Macías-Virgós
Doctor en Matemáticas.
Profesor Titular Universidad de Santiago de Compostela.





Nació en Vigo (Pontevedra) en 1956. Doctor en Matemáticas, completó su formación postdoctoral en la Universidad de Lille (Francia). 

Es profesor titular de la Universidad de Santiago de Compostela en el área de Geometría y Topología, e investiga en temas relacionados con la topología algebraica y la teoría de foliaciones. Ha impartido numerosas conferencias de divulgación sobre las Matemáticas.