jueves, 5 de diciembre de 2019

Breathless and dying on Mount Everest - Eduardo Garrido

Fenomenal artículo de
Eduardo Garrido

Breathless and dying on Mount Everest
THE LANCET
Respiratory Medicine


Abrupt exposure to the enormous 8848 m altitude of Mount Everest would cause loss of consciousness in less than 3 min, but a period of several weeks of progressive acclimatisation allows some humans to survive at such altitude. The functional limits of the body at such extreme hypoxia, especially in relation to lung function, alveolar and blood gases, or oxygen uptake, were established by the Operation Everest I, II, and III-Comex studies, in 1946, 1985, and 1997, respectively, which were done with the use of hypobaric chambers, and by the American Medical Research Expedition to Everest in 1981 and the British Caudwell Xtreme Everest Expedition in 2007, both carried out on Mt Everest itself. During the weather window that occurs on the Himalayas in mid-spring, when Mt Everest is usually climbed with...





Climbers stuck in a long queue on the southeast upper ridge (8800 m) of Mt Everest in May, 2019
Copyright © 2019 Reproduced with permission from Nirmal Purja, Project Possible


martes, 26 de noviembre de 2019

CURSO COMPUTACION CUANTICA

Eduardo Sáenz de Cabezón

Primera parte
(Instituto de Matemáticas de la UNAM)



Segunda parte
(Instituto de Matemáticas de la UNAM)


domingo, 24 de noviembre de 2019

La fisión nuclear - Ignacio Durán Escribano

La fisión nuclear ¿sigue avanzando o tiene fecha de caducidad?
(Por Ignacio Durán Escribano)

(Noviembre 2016)


La respuesta rápida a esta cuestión no puede ser otra que la de constatar su avance y pronosticarle una centenaria trayectoria futura. Pero es cierto que se trata de un tema controvertido y merece pues un análisis más detallado.

No es este el lugar de discutir acerca de los motivos que puedan tener – que tienen – los detractores de la energía nuclear y merecería un artículo separado discutir acerca del riesgo real y de la percepción que de ese riesgo tiene la población de cada país. Voy a asumir que la controversia existe, pero partiendo del hecho constatable de que a día de hoy hay 448 reactores operativos, 58 en construcción, 167 programados y 345 en fase de estudio, según los datos del Nuclear Fuel Report de la World Nuclear Association. De estos números hay que deducir los 40 reactores japoneses que permanecen parados desde el accidente de Fukushima. Desde 1996, 70 reactores han sido definitivamente cerrados y solo 76 nuevos han sido puestos en funcionamiento, pero la energía eléctrica generada se ha prácticamente duplicado, debido a que muchos de los reactores en operación se han renovado, alargando su vida útil y aumentando su eficiencia energética, además de que la mayor parte de los retirados tenían una potencia nominal entorno a los 600 MWe mientras que los nuevamente construidos tienen una potencia media cercana a los 1000 MWe y ciclos de funcionamiento más extendidos. Es decir, una visión objetiva del estado actual es la de un sector en crecimiento, con la previsión de que para 2035 se cierren 132 reactores mientras que se estima que se pondrán en funcionamiento 290 nuevos.

¿Qué hay de nuevo en la tecnología nuclear de fisión y como se adapta a la evolución social? No veo yo que se pueda hablar de grandes cambios en los diseños básicos, si bien hay un consorcio, establecido al más alto nivel internacional, para el estudio y desarrollo de nuevas tecnologías, que se engloba bajo el título de GEN IV (cuarta generación). En el momento actual la actividad principal se centra, sin embargo, en el desarrollo de la denominada tercera generación, a la que se le añaden términos para reforzar el concepto de avance continuo en los resultados obtenidos. Así se habla de GEN III+ o se antepone el adjetivo de Advanced al mencionar la tecnología empleada y se observa la creciente atención, tanto por la reducción de costes como por el aumento de la seguridad de las instalaciones. Estos reactores tienen mejor eficiencia térmica que los construidos hace veinte años y alargan los tiempos de funcionamiento entre paradas programadas, con el consiguiente aumento de la energía generada año tras año. Hay que decir aquí que estos reactores de nueva generación nacen con tiempos de vida útil de sesenta años, no estando excluido que puedan luego reformarse para duplicar ese valor.

Tres han sido los hitos que han marcado la orientación de los nuevos diseños, el trágico accidente de Chernobil, los acuerdos de Kioto sobre el cambio climático y el accidente de Fukushima tras sufrir el impacto de un extraordinario tsunami. Los dos graves accidentes tendrían, supuestamente, un impacto negativo en el desarrollo de la energía nuclear. Pero no ha sido así y tras cada uno de estos sucesos se observa un parón en la construcción de nuevos reactores, seguido unos años después de un repunte, sobre la base de diseños orientados, tanto hacia la mayor seguridad como hacia el mejor rendimiento energético. Los acuerdos derivados de la toma de conciencia del calentamiento global conducen a un replanteamiento del mercado de la energía y la racionalización que de él se deriva ha dejado clara la necesidad de definir lo que viene llamándose el mix energético, en el que la energía nuclear tendría asignado un porcentaje en torno al 20%, según los distintos escenarios contemplados. El cambio fundamental a lo largo de estos años ha sido el pasar de un planteamiento local y puramente económico a otro basado en la seguridad del suministro eléctrico, con la mínima producción de CO2 y el mínimo riesgo para la población, a escala mundial.

Entre tanto, la incorporación al primer nivel de desarrollo de las grandes potencias orientales aporta, no solo un incremento en la demanda de energía sino también una oferta de su capacidad constructiva en el sector nuclear. Esto ha provocado la formación de grandes consorcios industriales internacionales, liderados por Westinghouse Electric (que pasa, de estar controlada por capital británico a estarlo por Toshiba y participada con otras compañías orientales) y GEH (General Electric + Hitachi), junto con las grandes empresas nacionalizadas de Francia, Rusia o Korea. Este movimiento industrial y financiero ha propiciado que el diseño de los nuevos reactores se haga de forma modular, es decir, que su construcción sea hecha por partes, en distintas empresas e incluso en distintos países y, de esta forma, un número creciente de empresas de muy distintos lugares pueden licitar a la hora de formarse cada uno de los consorcios adaptado a cada planta concreta. El resultado de esta dinámica industrial es una reducción de los costes y de los tiempos de construcción y, al mismo tiempo, desaparece la total dependencia que antes existía de las tres grandes potencias del sector, USA, Rusia y Francia.

El planteamiento económico de la energía nuclear condujo al diseño de reactores cada vez más grandes, con una repercusión directa sobre el elevado coste financiero que conllevan los macroproyectos. Esto entraña compromisos políticos, no siempre fáciles de asumir en una sociedad cuya percepción del riesgo asociado a las centrales nucleares es muy desfavorable. La nueva conciencia de la necesidad de contribuir al mix energético y el incremento de la seguridad de los nuevos diseños, ha hecho cambiar los planteamientos, lo que se manifiesta más claramente en los países en vías de un fuerte desarrollo socio-económico, obligados a tomar decisiones sin excesivas concesiones a la presión mediática. Vemos así que, frente a la tímida actividad en Europa (4) y USA (4), la mayor parte de los reactores en construcción están en China (20), Rusia (7), India (5), Pakistan (2), los Emiratos Àrabes (4) y Korea (3).

A nivel de la seguridad, los accidentes de Chernobil y Fukushima, pero sobre todo este último, han conducido a una revisión de los procedimientos, con un papel creciente de la Agencia Internacional de Viena (la IAEA). Los distintos agentes involucrados en la construcción de los nuevos reactores tienen ahora especificaciones y controles más rigurosos, no solo por las agencias de seguridad nacionales sino también por la propia IAEA, lo que ha llevado a una mayor racionalización del proceso. Todos los nuevos diseños incluyen la redundancia de los sistemas críticos, la extrema protección frente a catástrofes naturales y ataques terroristas y, por encima, lo que se denomina seguridad pasiva. Es decir, la tecnología empleada tiene que ser tal, que el eventual fallo de los sistemas de refrigeración no conduzca a la fusión del núcleo del reactor, permitiendo plazos de intervención razonables y suficientes, como para proceder a una parada segura. Todos los diseños actuales de GEN III que llevan la etiqueta Advanced cumplen con estos requisitos.

Dentro de las críticas que suelen hacerse a la tecnología nuclear están las dudas acerca de las reservas de uranio y torio, primero por su eventual escasez y segundo por la dependencia que se crea de los países consumidores respecto a los países productores. El análisis de la seguridad del suministro del combustible juega un papel muy importante a la hora de asumir el esfuerzo financiero que conlleva la construcción de una nueva planta de energía nuclear. Conduce también a un estado de ansiedad social, al pensar en el efecto negativo que sobre la economía de un país puedan tener los incrementos de los precios del combustible en el mercado internacional. Esta duda llegó a ser muy razonable y las respuestas no fueron muy favorables durante las pasadas décadas, al estimarse que las reservas de uranio y torio solo podrían garantizar precios estables durante apenas medio siglo. A corto plazo, esta dinámica cambió con el fin de la guerra fría y la introducción en el mercado de las reservas de plutonio y uranio procedentes de la actividad militar, por parte, fundamentalmente, de Rusia y USA. Por otra parte, a medio y largo plazo, resultará rentable el reprocesado del combustible usado, lo que conduce a pensar que las reservas disponibles permitan desbordar, al menos, el horizonte de varios siglos. Para entender esta afirmación hay que considerar que en la generalidad de los reactores funcionando actualmente, se aprovecha menos del 1% del potencial combustible, debido al aumento progresivo de la proporción de isótopos no fisibles, que capturan los neutrones y reducen la eficiencia de la reacción en cadena. En el ciclo actualmente normal del combustible, el aumento del stock de los actínidos de vida media larga (miles de años) plantea un grave problema, puesto que los residuos así generados tienen que ser almacenados en silos seguros y a la larga determinan el límite de la utilización de este tipo de reactores nucleares. No obstante, en los llamados reactores rápidos los neutrones no son moderados y alcanzan energía suficiente como para hacer fisionar todos los actínidos, produciéndose así la transmutación de estos isótopos que no son fisibles por los neutrones lentos. Estos reactores se construyen hoy en día de forma que son económicamente rentables, lo que permite afirmar que el coste total del combustible de fisión nuclear, incluyendo los reprocesamientos y la quema de los actínidos, seguirá siendo competitivo con las fuentes de energía renovables durante mucho tiempo.

En un resumen de lo aquí expuesto, se podría decir que la presión social contra los reactores nucleares de fisión hace que su uso se desplace hacia los países con fuerte crecimiento de la demanda energética, principalmente los orientales; que el alto grado de seguridad y la fiabilidad de los diseños hace previsible su funcionamiento por más de sesenta años; que los costes y tiempos de construcción disminuyen y su mayor eficiencia y vida útil reducen el coste de mantenimiento; que el reprocesamiento del combustible hace que se aprovechen unas veinte veces mejor los recursos actuales y que, finalmente, la construcción de reactores rápidos permite quemar los residuos de larga vida media, de forma rentable. Todo ello hace pensar que estamos hablando de una tecnología que va a convivir con las renovables durante, al menos, lo que queda de siglo.

En lo que respecta al mix energético ideal, no podría yo decir, a partir de lo que he leído, que el peso de la energía nuclear sea necesariamente el 20%. Hay un argumento en favor de que nunca dejase de ser mucho menor de ese valor, basado en la intermitencia de la mayor parte de las energías renovables y en el encarecimiento de la red eléctrica si hubiese que recurrir a un almacenamiento de la electricidad en grandes proporciones. Hay también consideraciones de orden económico, pero están basadas en diferentes escenarios del desarrollo social a nivel global y esto hace que las horquillas de las previsiones no conduzcan a estimaciones demasiado precisas. Si reducimos pues las previsiones a tiempos inferiores al medio siglo, vemos que la creciente implantación de las energías renovables – aun proyectando una tasa de crecimiento mayor que la actual – apenas cubrirá el aumento de la demanda de electrificación a nivel global. Es decir, si los componentes limpios (los que no producen CO2) del mix energético no crecen a una tasa mucho mayor que la demanda, la deseada reducción del efecto invernadero no se producirá en estos cincuenta años, porque se mantendrán prácticamente constantes las componentes sucias (las basadas en los combustibles orgánicos).

Permítaseme terminar con una consideración acerca de la necesidad de fomentar el desarrollo en las regiones más desfavorecidas. Dentro de la tecnología actual están desarrollándose proyectos de reactores englobados bajos las siglas SMR (Small Modular Reactors) basados en la experiencia acumulada en los submarinos nucleares, cuya seguridad y fiabilidad está fuera de toda duda. Estos SMR se construyen en origen, destinándose a su utilización “llave en mano” en lugares remotos, sin necesidad de intervención a nivel local. Están previstos para su instalación allá donde se requiera un aporte de energía, sea electrificación o producción de agua desalinizada, de forma rápida, adaptando el número de módulos a las necesidades coyunturales, o en lugares de difícil acceso, como islas o desiertos. Pues bien, este tipo de reactores está llamado a ser una herramienta fundamental en la ayuda al desarrollo del tercer mundo.


Ignacio Durán Escribano
Doctor en Física
Catedrático, Universidad de Santiago de Compostela.





viernes, 22 de noviembre de 2019

CONFERENCIA ÁLVARO DE RÚJULA

Un lujo, otro de los grandes.

Conferencia de Alvaro de Rújula  
'Aciertos, errores y dudas de Albert Einstein'


Fundación Ramón Areces

El 20 de noviembre de 2019 nos visitó Alvaro de Rújula, miembro de la Organización Europea para la Investigación Nuclear (CERN) y del Instituto de Física Teórica CSIC-Universidad Autónoma de Madrid. Habló de 'Aciertos, errores y dudas de Albert Einstein' en una conferencia organizada en colaboración con la Real Academia de Ciencias Exactas, Físicas y Naturales.

martes, 19 de noviembre de 2019

ESA Young Graduate Trainee 2019!



¡La ESA busca a más de cien interesados para su programa de formación para jóvenes graduados!


¡Solicita ya una plaza en el programa Young Graduate Trainee 2019!

viernes, 1 de noviembre de 2019

miércoles, 30 de octubre de 2019

viernes, 27 de septiembre de 2019

CONFERENCIA IGNACIO CIRAC

Un auténtico lujo.


El 26 de septiembre de 2019, Juan Ignacio Cirac, director de la División de Teoría del Instituto Max Planck de Óptica Cuántica, dio una conferencia en la Fundación Ramón Areces, organizada con la Real Academia de Ciencias Exactas, Físicas y Naturales y la Real Sociedad Española de Física, con el título ‘Ordenadores cuánticos: cómo, cuándo y para qué’.

martes, 10 de septiembre de 2019

domingo, 1 de septiembre de 2019

Neutrinos - Alberto Casas

¿Qué son los neutrinos?
(Por Alberto Casas)



Los neutrinos son partículas fascinantes que ostentan varios «records». Por ejemplo, son las partículas de materia más ligeras que se conocen. Son también, por lo que sabemos, las partículas de materia más abundantes del universo, solo superadas en número por las partículas de luz, los fotones. Y son las partículas conocidas más difíciles de detectar, ya que interaccionan muy poco con la materia, razón por la cual se tardó mucho en descubrirlas, a pesar de su abundancia. Pensemos que los neutrinos atraviesan la Tierra sin inmutarse (y lo mismo harían con muchos millones de Tierras puestas en hilera). Todos estos records pueden servir para otorgar a los neutrinos el título de "partículas más escurridizas". Pero ¿por qué existen los neutrinos y a qué se deben sus enigmáticas propiedades? Antes de profundizar en ello, hagamos un poco de historia.

La existencia de los neutrinos fue predicha por el gran físico austriaco Wolfgang Pauli en 1930. Pauli observó que en la desintegración de ciertos núcleos radiactivos se producía la misteriosa desaparición de una pequeña cantidad de energía, contradiciendo aparentemente el principio de conservación de la energía. Para resolver el problema, Pauli propuso que, en esas desintegraciones, además de los productos de la desintegración visibles, se producía una partícula indetectable y desconocida que se llevaba la energía que faltaba. En 1934 Fermi bautizó la partícula con el nombre de neutrino. Y hubo que esperar hasta 1956 para que fuera detectada por vez primera.

Con el paso de los años hemos aprendido mucho acerca de los neutrinos, aunque aún quedan aspectos esenciales por aclarar. Los neutrinos, que se suelen denotar por la letra griega n ("nu"), son partículas sin carga eléctrica. Su única interacción conocida, aparte de la gravitatoria, es la llamada interacción débil (ver capítulo 46). Existen tres tipos de neutrinos, llamados neutrino electrónico (ne), neutrino muónico (νμ) y neutrino tauónico (ντ). Estas denominaciones hacen referencia a la partícula cargada (electrón, muón o tau) con la que establecen interacciones. El último neutrino en ser detectado fue el tauónico, ντ, en el año 2000; si bien su existencia ya había sido puesta de manifiesto en los años 70. Se podría pensar que puede haber otras especies de neutrinos aún por descubrir, pero no es así. A partir de resultados de aceleradores de partículas se han reunido pruebas convincentes de que no hay más tipos de neutrinos. Mejor dicho, si los hubiera, deberían ser radicalmente distintos de los conocidos.

Los tres tipos de neutrinos son muy ligeros. De hecho, hasta 1998 no había pruebas de que tuvieran masa. Desde entonces sabemos que la tienen, pero no sabemos cuál es, solo ciertos límites entre los que esta tiene que encontrarse. Concretamente, el neutrino más pesado ha de ser entre un millón y cien millones de veces más ligero que el electrón (la siguiente partícula más ligera).

Hablemos un poco de las fuentes de neutrinos en la naturaleza. La mayor parte de los que llegan a la Tierra provienen del Sol, y en cantidades extraordinarias. Ahora mismo usted está siendo atravesado/a, sin notarlo, por cientos de billones de estos neutrinos por segundo. Los neutrinos solares, que no se detectaron hasta 1968, se producen en los procesos de fusión nuclear que tienen lugar en el interior de nuestra estrella. Dichos procesos son complicados, pero en definitiva lo que hacen es convertir protones (o sea núcleos de hidrógeno) en núcleos de helio (formados por dos protones y dos neutrones). Esquemáticamente, por cada cuatro protones se produce un núcleo de helio más dos positrones (electrones positivos), dos neutrinos electrónicos y radiación electromagnética. La radiación producida es la fuente de la luz y el calor que nos llega del Sol. Curiosamente, cada fotón de luz generado tarda cientos de miles de años en salir del Sol, ya que sigue una trayectoria errática al colisionar con las partículas cargadas que encuentra en su camino (protones, núcleos de helio, electrones, ...). Si el horno nuclear de fusión, que es en definitiva el corazón del Sol, se apagara, tardaríamos esos cientos de miles años en notarlo. Sin embargo, los neutrinos escapan instantáneamente del Sol, ya que apenas interaccionan con nada en su camino.  Y es gracias a ellos que sabemos que el interior del Sol está a pleno funcionamiento.

Los neutrinos se producen también copiosamente en las explosiones de estrellas (supernovas), y están presentes en los rayos cósmicos que llegan a la Tierra desde el espacio exterior. Por otro lado, son emitidos por todos los núcleos radiactivos que experimentan "desintegración beta" (emisión de un electrón), y se generan asimismo, en cantidades enormes, en las centrales nucleares. Estos últimos escapan de la central nuclear sin problemas pero no son peligrosos, ya que nos atraviesan sin producir el menor efecto. Finalmente, los neutrinos fueron producidos en cantidades extraordinarias al comienzo del universo, en los primeros segundos después del Big Bang. Esos neutrinos primigenios son de hecho los más abundantes en el universo. Sin embargo, son tan poco energéticos que aún no han podido ser detectados. Su descubrimiento es difícil y supondría una gran noticia ya que nos proporcionarían información directa de los primeros instantes tras la gran explosión.

Hasta ahora hemos descrito las propiedades más llamativas de los neutrinos. Pero ¿por qué son así? Para atacar esta cuestión conviene explicar cómo encajan los neutrinos dentro del llamado Modelo Estándar (ME) de la física de partículas, que es el esquema teórico del que disponemos para describir la fenomenología de las partículas elementales (hasta ahora con gran éxito).

En primer lugar, hay que decir que, hasta donde sabemos, los neutrinos son partículas verdaderamente elementales, o sea, no están compuestas de otras partículas. Solo 12 partículas de materia forman este grupo selecto. El protón y neutrón (los habitantes de los núcleos atómicos) no pertenecen a este grupo, ya que están compuestos de otras partículas llamadas quarks. Un protón esta hecho de dos quarks de tipo u (up) y un quark de tipo d (down). Podemos escribir p=uud. De la misma forma, la composición de un neutrón es n=udd. Pues bien, el neutrino electrónico, νe , junto al electrón, e,  y los quarks u y d, forman la llamada primera familia de partículas elementales (o familia del electrón):

                          νe                              u

                          e                              d

Existen otras dos familias de partículas elementales, totalmente análogas a la primera: la familia del muón (μ) y la del tau (τ); de forma que en total tenemos las 12 partículas mencionadas. El muón y el tau son prácticamente idénticos al electrón en todas sus propiedades, excepto en su masa: el muón es unas 200 veces más pesado que el electrón, y el tau unas 3.500. Cada uno tiene su familia completa, formada por un neutrino (νμ y ντ, respectivamente) y una pareja de quarks (c, s para el muón, y t, b para el tau). De hecho, cada familia es una réplica casi exacta de la anterior, excepto que las masas de sus partículas son mayores. Nadie sabe por qué la naturaleza se presenta en esta estructura de tres familias con una  jerarquía de masas. El ME no lo explica, sino que parte de este hecho. En ese sentido, el por qué de la existencia de los neutrinos es un misterio, tan grande como la existencia de cualquier otra partícula elemental. Sin embargo, hay que decir que, dada la existencia del electrón y sus interacciones débiles, la estructura matemática del ME exige la existencia de una partícula con las características del neutrino electrónico, νe. Y lo mismo sucede para las otras dos especies de neutrinos, νμ y ντ. Así que, en cierto modo, la teoría explica la existencia de los neutrinos y algunas de sus características, como su ausencia de carga eléctrica y sus interacciones débiles. ¿Y su masa? ¿Por qué es tan pequeña?

Desde el punto de vista teórico el origen y la pequeñez de la masa de los neutrinos es quizá la cuestión más interesante acerca de ellos, y está aún sin resolver, aunque hay modelos teóricos muy interesantes que podrían explicarla. De entrada hay que decir que el ME no da ninguna pista sobre las masas de los neutrinos. De hecho, según la formulación original de esta teoría los neutrinos deberían ser exactamente partículas sin masa, debido a la conservación de una cantidad llamada número leptónico (parecida en cierto modo a la conservación de la carga eléctrica). Sin embargo, desde 1998 sabemos que los neutrinos tienen masa, lo que obliga a una reformulación del ME, lo cual es de por sí muy interesante. En realidad, no es difícil extender el esquema teórico del ME de forma que, incluso manteniendo la conservación del número leptónico, las masas de los neutrinos sean distintas de cero. Pero entonces se plantea el problema de por qué son tan excepcionalmente pequeñas. Parece lógico pensar que debe haber alguna razón teórica detrás de esa pequeñez tan extrema.

Una forma alternativa de pensar es suponer que el ME es una teoría efectiva, válida solo hasta una cierta energía, digamos L, muy por encima de las energías accesibles en los aceleradores de partículas más potentes. Si la teoría completa, que está más allá del ME, viola la conservación del número leptónico, entonces los neutrinos pueden tener masa. Cuanto más grande sea L, más pequeña será la masa de los neutrinos (ya que los efectos de dicha violación están más lejanos). Los cálculos indican que si L » 1014 veces la masa de un protón, entonces la masa de los neutrinos estaría de forma natural en el rango observado. Si este esquema es correcto, la extrema pequeñez de las masas de los neutrinos nos está informando de física más allá del ME, y sugiriendo algunas de sus características: la no-conservación del número leptónico y la gran escala de energías a la que se encuentra. Para comprobar este esquema, hay que verificar experimentalmente que los neutrinos violan la conservación del número leptónico, algo que se está intentando en experimentos que buscan la denominada desintegración doble-beta de ciertos núcleos atómicos (todavía sin éxito). Así que, si este argumento es correcto, los neutrinos podrían ser los mensajeros privilegiados de la física fundamental que se encuentra a altísimas energías, inaccesible por cualquier otro procedimiento.

Para terminar, vamos a discutir un fenómeno extraordinario, que está en el corazón de todo lo que hemos aprendido sobre los neutrinos en los últimos años: las oscilaciones de neutrinos. Como hemos explicado, existen tres tipos de neutrinos: νe, νμ y ντ.  En la jerga de los físicos, estas especies se denominan "sabores" de los neutrinos. Sin embargo los neutrinos físicos, que tienen una masa determinada (aunque aún desconocida), no se corresponden con estos tres sabores, sino que son una mezcla de ellos. Este es un concepto difícil, que entronca con los postulados de la mecánica cuántica, según los cuales una partícula puede estar en una combinación de estados. Imaginemos que tenemos tres botellas llenas de zumo de naranja, de limón y de fresa, respectivamente. Estas botellas representan los tres neutrinos νe,  νμ y ντ.  Ahora tomamos tres botellas vacías y las llenamos con las tres anteriores pero mezclando los zumos. Estas nuevas botellas, llenas de tres "cócteles" distintos representarían los neutrinos con masa bien determinada, que se suelen denotar  ν1,  ν2 y ν3. Estos últimos son los que permanecen estables mientras se propagan, mientras que los otros van cambiando de naturaleza (un resultado de la mecánica cuántica). Esto significa que si creamos un neutrino electrónico, νe, por ejemplo en el interior del Sol, al cabo de un tiempo existirá una cierta probabilidad de que al detectar dicho neutrino nos encontremos que se ha transformado en νμ o ντ. Para que este fenómeno se dé, es necesario que los neutrinos tengan masas y que estas sean diferentes entre sí. Este es el fenómeno de oscilaciones de neutrinos que fue observado por vez primera en los neutrinos provenientes del Sol y en los que se crean en la atmósfera como resultado del impacto de rayos cósmicos ("neutrinos atmosféricos"). De esta forma se han podido determinar las diferencias de masa entre los neutrinos (aunque no su masa absoluta) y los llamados "ángulos de mezcla", que determinan como se mezclan los neutrinos (el contenido de los cócteles anteriores).

En definitiva, sabemos mucho acerca de estas partículas singulares, pero aún quedan cosas trascendentales por entender, las cuales podrían darnos pistas cruciales sobre la teoría última de la naturaleza.


Alberto Casas
Doctor en Física.
Profesor  de Investigación, Instituto de Física Teórica CSIC.


domingo, 4 de agosto de 2019

Rayos cósmicos - Juan Antonio Aguilar Sánchez

¿Qué son los rayos cósmicos?
(Por Juan Antonio Aguilar Sánchez)



Para explicar los rayos cósmicos hace falta remontarse unos 100 años, al año 1912 cuando Victor Hess finalizaba una serie de viajes en globo aerostático donde equipado con un electroscopio midió cómo la ionización en la atmósfera aumentaba conforme se alejaba de la superficie de la Tierra. El origen de dicha ionización debía ser algún tipo de radiación, y dado que aumentaba con la altura, el origen no podía ser terrestre. En otras palabras, existía, y existe, una radiación proveniente del espacio exterior. Por este hito, a Victor Hess se le conoce como el descubridor de los rayos cósmicos. Sin embargo sería injusto otorgar el mérito solo a Hess dado que muchos físicos antes que él ya habían iniciado el camino que culminaría con sus famosos viajes en globo: Theodor Wulf, Karl Bergwitzy, Domenico Pacini entre otros, fundaron los cimientos de una de las ramas de la física de partículas que dominaría el campo durante los siguientes 40 años hasta el advenimiento de los primero aceleradores de partículas en los inicios de los años 1950.

En los tiempos de su descubrimiento, los rayos cósmicos encerraban numerosos misterios: desde su origen hasta su propia identidad. ¿Qué eran en realidad esos rayos ionizantes? Durante los años 1920 Bruno Rossi y Robert Millikan protagonizaron un animado debate sobre la naturaleza de los rayos cósmicos. Millikan propuso que los rayos cósmicos eran “ultra”-rayos gamma, es decir fotones de muy alta energía creados en la fusión de hidrógeno en el espacio. Las medidas de Rossi, que mostraban una asimetría Este-Oeste en la intensidad de los rayos cósmicos, sugerían en cambio que los rayos cósmicos debían ser partículas con carga eléctrica desmontando las teorías de Millikan. Es famosa la anécdota en la que Rossi, durante la charla introductoria en una conferencia de Roma dijo:

“Claramente Millikan está resentido porque un joven como yo haya hecho pedazos su querida teoría, tanto que desde ese momento se niega a reconocer que existo.”

Cien años después sabemos que en efecto Rossi tenía razón (para el descontento de Millikan). En su mayoría, un 90%, los rayos cósmicos son protones y otros núcleos pesados. La proporción de núcleos es tal que sigue fielmente la abundancia atómica que se puede encontrar en nuestro Sistema Solar, lo que apunta a que el origen de estas partículas es estelar. Existen algunas excepciones, por ejemplo, Litio, Berilio y Boro son núcleos que podemos encontrar entre los rayos cósmicos en una proporción mayor de lo que se encuentra en nuestro entorno. Estos núcleos en realidad se producen por la fragmentación de otros más pesados, Carbono en este caso, a lo largo de su viaje por el espacio. Así pues, la relación de abundancias entre Carbono y Boro, nos da información sobre cuánto tiempo el Carbono ha estado viajando por el espacio. El espectro, o número de partículas por unidad de área y tiempo en función de la energía, también ha sido medido con gran detalle durante los últimos 30 años gracias a la labor de numerosos experimentos. Dicho espectro de rayos cósmicos es sorprendente tanto en su variación como en su rango de energía. El número de partículas, o flujo, cubre 32 órdenes de magnitud, así pues nos encontramos con que las partículas menos energéticas llegan a la Tierra con una frecuencia de una partícula por metro cuadrado cada segundo. Por otro lado, las de más alta energía llegan a un ritmo de una partícula por kilómetro cuadrado, ¡por año! De ahí que los físicos hayan tenido que desarrollar diversas técnicas experimentales para poder medir el espectro de los rayos cósmicos en su totalidad: desde auténticos detectores de partículas enviados al espacio, en satélites o acoplados a la estación espacial internacional, hasta experimentos desplegados en grandes superficie de la Tierra para detectar los rayos cósmicos más energéticos como el Observatorio Pierre Auger que cubre una extensión de unos 3000km2 en lo alto de la planicie de la Pampa Amarilla, en Malagüe, Argentina.

Pero lo que hace a los rayos cósmicos realmente fascinantes es la cantidad de energía que éstas partículas pueden alcanzar, muy superior a la que se puede conseguir hoy en día con el acelerador más potente construido por el ser humano, el gran colisionador de hadrones (en inglés Large Hadron Collider, LHC) en el Centro Europeo de Investigación Nuclear (CERN) en Ginebra. El LHC es un anillo subterráneo de 27km de longitud, situado en la frontera franco-suiza cerca de Ginebra, Suiza, que usa potentes imanes para acelerar protones al 99.99% de la velocidad de la luz. Pese a lo imponente de este experimento, si tuviéramos que acelerar partículas a las energías de los rayos cósmicos con la misma tecnología necesitaríamos un acelerador del tamaño de la órbita de Mercurio. La velocidad de los rayos cósmicos es tan alta que los efectos de la relatividad especial son realmente considerables. Por ejemplo, pese que el radio de nuestra Galaxia es de unos 100.000 años luz, por la contracción temporal de la relatividad especial los rayos cósmicos más energéticos experimentarían el viaje en tan solo 10 segundos. Cuando llegan a la Tierra los rayos cósmicos se encuentran con 10 kilómetros de atmósfera que, junto al campo magnético de la Tierra, afortunadamente actúan como un escudo y nos protegen de la radiación. Sin embargo, al chocar con los átomos de la atmósfera los rayos cósmicos desencadenan una lluvia de nuevas partículas. Esta lluvia se conoce como rayos cósmicos secundarios y en ellos podemos encontrar una gran fauna de nuevas partículas. Esta es la razón por la que durante muchos años, la física de los rayos cósmicos era el único modo que tenían los físicos de partículas para descubrir y estudiar nuevas partículas. Así pues, siguiendo los pasos de Hess, durante los años 1940 muchos físicos pasaron del laboratorio a globos aerostáticos donde equipados de cámaras de burbujas (una primitiva versión de un detector de partículas) estudiaban esa miríada de nuevas partículas. Entre las nuevas partículas se descubrieron por ejemplo la primera partícula de anti-materia: el positrón, un electrón de carga eléctrica positiva, así como el muon, de propiedades similares al electrón pero de mayor masa.

Pero ¿de dónde vienen los rayos cósmicos? ¿Qué fuente del Universo es capaz de acelerar partículas a tales energías? Esa es la pregunta que, pese a los 100 años desde el descubrimiento de Victor Hess, los físicos aún no hemos sido capaces de resolver por completo. La razón es, sin embargo, fácil de entender. Los rayos cósmicos, al ser partículas con carga eléctrica, son desviados por campos magnéticos durante su viaje por el Universo. Tanto la Vía Láctea como el espacio intergaláctico están inmersos en campo magnéticos, de modo que cuando los rayos cósmicos llegan a la Tierra, su dirección poco o nada tiene que ver con la dirección original lo que imposibilita hacer astronomía. Sin embargo pese a todo, podemos deducir algunas cosas sobre su origen basándonos, por ejemplo, en su energía. Sabemos que los rayos cósmicos de baja energía deben provenir de nuestra propia Galaxia debido a que los campos magnéticos de la Vía Láctea se ocuparían de confinarlos hasta que éstos acabarían interaccionando con la Tierra. En el otro extremo del espectro, en cambio, los rayos cósmicos de energía extremadamente alta (o UHECR por sus siglas en inglés), deben provenir de fuera de nuestra propia Galaxia, puesto que son tan energéticos que los campos magnéticos de sus respectivas galaxias no serían capaces de retenerlos. El punto de inflexión entre esos dos orígenes es incierto, o en otras palabras, se desconoce cuándo exactamente los rayos cósmicos dejan de ser galácticos y pasan a ser extra-galácticos.  Sin embargo futuras medidas de precisión del espectro de energía y de la composición de los UHECR nos podrán dar la pista para resolver esa pregunta.

¿Y cuáles serían las fuentes o los objetos encargados de acelerar estas partículas? Lo cierto es que aquí todo son hipótesis dado que jamás se ha observado directamente una fuente de rayos cósmicos. Uno de los objetos candidatos a fuente de rayos cósmicos galácticos son los remanentes de supernova. Al final del ciclo de vida de una estrella ésta puede explorar liberando gran cantidad de masa y energía. Lo que queda detrás puede ser una estrella de neutrones rodeada de todos los restos que han quedado de la estrella original, esto es lo que se llama remanente de supernova (o SNR, otra vez por sus siglas en inglés). Más difícil es imaginar un acelerador cósmico capaz de acelerar partículas hasta la energía equivalente a un balón de fútbol chutado a 50km/h, que son las energías de los UHECR.  Aquí la lista de sospechosos se reduce considerablemente dado que existen pocos objetos en el Universo con el campo magnético y el tamaño suficiente para actuar como un gran acelerador de partículas. Los candidatos son los núcleos de galaxia activos y las explosiones de rayos gamma. Los núcleos activos de galaxias son núcleos de galaxias con un agujero negro supermasivo en su interior. Estos núcleos muestran unos haces de partículas en dirección opuesta que podrían funcionar como grandes aceleradores.  Por otro lado las explosiones de rayos gamma son los sucesos más violentos conocidos en el Universo y su origen y naturaleza daría para otro capítulo de este libro. De una duración que va desde unos segundos hasta unos minutos, estos eventos son capaces de iluminar todo el cielo liberando su energía principalmente en forma de fotones de muy alta energía.

Pero si los rayos cósmicos nunca apuntan a su fuente, ¿cómo podremos estar jamás seguros de que los núcleos activos o explosiones de rayos gamma son las verdaderas fuentes de rayos cósmicos? Para dar respuesta a este enigma necesitamos de lo que en los últimos años se ha venido llamando la astronomía multi-mensajero. Gracias a la física de partículas sabemos que en las condiciones en las que un protón, por ejemplo, es acelerado a altas energías, se pueden suceder reacciones con la materia de alrededor. Estás interacciones producirían otras partículas como fotones de muy alta energía y neutrinos. Los neutrinos son especialmente interesantes, porque no solo son neutros y por lo tanto viajan en línea recta sin ser desviados por campos magnéticos, sino que son partículas que interactúan débilmente por lo que, al contrario de los fotones, son capaces de atravesar zonas densas del Universo sin ser absorbidos. Identificar varios neutrinos provenientes de una misma zona del cielo sería la prueba inequívoca de que en esa dirección existe una fuente de rayos cósmicos. La dificultad de hacer astronomía de neutrinos deriva precisamente de su virtud: al ser partículas extremadamente elusivas se necesitan detectores de gran tamaño para poder detectarlas.

Hoy en día, el detector de neutrinos más grande del mundo se encuentra en el Polo Sur y consiste en un kilómetro cúbico de hielo Antártico equipado con unos 5.160 fotomultiplicadores. El telescopio IceCube, un nombre que describe muy bien su morfología, es capaz de detectar neutrinos en un gran rango de energías y por tanto identificar neutrinos de varios orígenes. En el año 2013, la colaboración anunció las primeras detecciones de neutrinos de alta energía, compatibles con un origen astrofísico. Sin embargo con apenas un puñado de esos neutrinos aún no es posible identificar las fuentes de rayos cósmicos. Es por ello, que la colaboración ya está pensando en agrandar el telescopio un orden de magnitud. Este nuevo ambicioso proyecto llamado IceCube-Gen2, podrá detectar fuentes 5 veces más débiles que su predecesor y resolver por fin el misterio del origen de los rayos cósmicos.



Juan Antonio Aguilar Sánchez
Doctor en Ciencias Físicas.
Investigador, iihe – Université Libre de Bruxelles.


lunes, 29 de julio de 2019

EVENTO - GEROSCIENCE

1st EURO - GEROSCIENCE CONFERENCE
Aging as a Major Risk Factor of Disease

13-14 September 2019 Madrid (Spain)



domingo, 21 de julio de 2019

Principio de incertidumbre de Heisenberg - Ángel S. Sanz

¿Qué es el principio de incertidumbre de Heisenberg?
(Por Ángel S. Sanz)




1.       Introducción.

Cuanto más precisa sea la medida de la posición de una “partícula” {1}, más imprecisa será la medida de su momento lineal (el producto de su velocidad por su masa), y viceversa. Posiblemente ésta sea la versión más popular (ver Fig. 1) del principio de incertidumbre o indeterminación {2} de Heisenberg [1], quien descubrió que ésta era una de las consecuencias directas de la formulación o representación matricial de la mecánica cuántica, desarrollada por él mismo, Kramers, Born y Jordan en 1925 [2]. Formalmente, se expresa mediante la desigualdad

∆𝑥 ∙ ∆𝑝𝑥h / 4π     (1)

donde ∆𝑥 y ∆𝑝𝑥 cuantifican, respectivamente, las incertidumbres asociadas a la medida de la posición y el momento de la partícula, y h = 6.62607 ∙ 10-34 Js es una constante física universal definida por Planck como el quantum de acción (Wirkungsquantum). Físicamente, la presencia de esta constante tiene como consecuencia la imposición de una limitación intrínseca a nuestro conocimiento y concepción del mundo cuántico, algo bastante alejado de la percepción que tenemos de los objetos cotidianos.


Fig. 1. Sello conmemorativo alemán en el que aparecen Heisenberg y la relación de incertidumbre que lleva su nombre (Heisenbergsche Unschärferelation).

El concepto de quantum fue introducido por Planck cuando buscaba una explicación para el espectro de la radiación que emite o absorbe un cuerpo negro [3], un problema que habían intentado resolver sin éxito eminentes físicos ya en el siglo XIX, como Rayleigh, Jeans o Wien a partir de la física conocida en ese momento, en particular, la teoría del electromagnetismo de Maxwell. A diferencia de ellos, Planck planteó la posibilidad de que la transferencia de energía desde un sistema a otro no se transmitiese de forma continua (es decir, no se puede transferir cualquier cantidad de energía), sino discreta, en forma de “paquetes” idénticos de un determinado tamaño a los que denominó quanta de energía.

𝐸 = = hc / λ      (2)

La energía de cada una de estas unidades quedaba fijada por la frecuencia de la radiación asociada, donde ν y λ denotan la frecuencia y longitud de onda de la radiación (cuanto más rápida sea la oscilación de la radiación, menor será su longitud de onda, y viceversa). Esta idea tan innovadora dio lugar a lo que hoy se conoce como vieja teoría del quantum, empleada exitosamente por Einstein para suministrar una explicación del efecto fotoeléctrico mediante el concepto de quantum de luz (Lichtquant) y, una década más tarde, por Bohr como uno de los elementos centrales de su modelo atómico, para explicar por qué los átomos emiten o absorben luz solo con determinadas frecuencias o energías. Posteriormente, la constante de Planck se convertiría también en uno de los elementos clave de la mecánica cuántica, cuya aparición en 1925 supuso la superación, substitución, de la teoría del quantum de Planck.

Al igual que el valor de la velocidad de la luz en el vacío es un factor limitante de cuán veloz puede ser un objeto, la constante de Planck establece un límite al valor de la acción asociada a un sistema, lo que a su vez se traduce en la aparición de relaciones de incertidumbre para cualesquiera dos magnitudes cuyo producto tenga dimensiones de acción (energía por tiempo). Éste es el caso, por ejemplo, de la desigualdad (1), donde el producto de las dispersiones en los valores de la posición y el momento tiene precisamente esas dimensiones. Como consecuencia, mientras que la medida de la posición y la velocidad del péndulo de un reloj de pared no plantea ningún inconveniente (la acción asociada es muchísimo mayor que el valor de h y, por tanto, a efectos prácticos podemos asumir que ∆𝑥 ∙ ∆𝑝𝑥 ≈ 0), el caso cuántico análogo requerirá de la realización de dos medidas (experimentos) independientes debido a la imposibilidad de poder determinar ambas cantidades con uno solo.

Las implicaciones de las relaciones de incertidumbre constituyen posiblemente el mayor inconveniente conceptual con el que nos encontramos cuando abordamos la mecánica cuántica y, por tanto, cuando intentamos comprender el comportamiento de los sistemas cuánticos, pues es imposible determinar con total precisión el valor de dos variables complementarias (formalmente, variables canónicamente conjugadas) cualesquiera que sirvan para especificar inequívocamente el estado de la partícula. La posición y el momento son un ejemplo; pero el mismo problema se nos plantea cuando intentamos especificar al mismo tiempo las tres componentes del momento angular o del espín de un sistema (o su estado de polarización, si se trata de un fotón), la energía asociada a su estado cuántico y su tiempo de vida media o, en el caso de sistemas de muchas partículas idénticas (fotones o electrones), el número de éstas y la fase que caracteriza a su estado, por ejemplo.

En este capítulo abordaremos una serie de aspectos asociados a las relaciones de Heisenberg, que nos permitirán comprender tanto su conexión con la teoría formal, como sus implicaciones físicas. Así, en la sección 2. se ofrece, sin entrar en detalles matemáticos, una visión de su procedencia dentro del marco de la propia teoría, tanto a partir de la formulación matricial de Heisenberg, como de la ondulatoria de Schrödinger. Para ilustrar el significado de la relación (1), en la sección 3. se describe un experimento mental (Gedankenexperiment) ideado por Heisenberg con tal propósito, el denominado microscopio de Heisenberg [4], y se introduce la noción de complementariedad o principio de complementariedad de Bohr. Para concluir, en la sección 4. se discutirán las implicaciones fundamentales a nivel interpretativo, principalmente dentro del contexto del concepto de complementariedad, la teoría de la medida [5], la denominada paradoja EPR y el entrelazamiento cuántico [6,7], así como experimentos actuales relacionados.


2.       Formalismo mecano-cuántico y relaciones de incertidumbre.

Las relaciones de incertidumbre son un resultado directo del formalismo matemático de la mecánica cuántica, razón por la cual se podría considerar “dudoso” elevarlas a la categoría de principio fundamental, ya que estos, generalmente, son fundamento y no consecuencia. Ofrecer un análisis detallado de cómo se obtienen dichas relaciones excede el alcance de este capítulo, por lo que únicamente nos vamos a limitar a suministrar una serie de “pinceladas” que permitan visualizar cómo se deducen de la propia teoría y cuál es su significado físico. Para ello resulta instructivo emplear las dos formulaciones más estándar de la mecánica cuántica, la mecánica matricial de Heisenberg y la mecánica ondulatoria de Schrödinger, comenzando por la primera, más operacional y abstracta, y continuando por la segunda, más cercana a nuestra intuición.

El acercamiento de Heisenberg a la mecánica cuántica está basado en la utilización del álgebra matricial como pieza clave. Las matrices son objetos matemáticos que nos permiten organizar sistemáticamente, en forma de tabla, información referente a una cierta propiedad de un sistema físico. Esta información puede ser, por ejemplo, las diferentes energías (frecuencias) que originan y explican el espectro visible del átomo de hidrógeno. Esta idea tan aparentemente sencilla es, precisamente, lo que llevó a Heisenberg [2] al descubrimiento de la mecánica cuántica sin conocimiento previo de que en matemáticas ya existían tales objetos (en este sentido, hay que reconocer a Heisenberg el mérito de redescubrir todas las propiedades del álgebra de matrices, algo que, sin embargo, era conocido por los matemáticos de su época).

Para comprender la conexión entre la nueva mecánica descubierta por Heisenberg y de dónde surgen las relaciones de incertidumbre es preciso entender la forma de operar con matrices. Esto podemos verlo sin necesidad de conocimientos previos sobre álgebra matricial. En la física newtoniana, la evolución de un sistema se describe mediante trayectorias, es decir, asignando en cada instante un valor a la posición y el momento de la partícula. Las variables posición, 𝑥(𝑡), y momento, 𝑝(𝑡) = 𝑚 ∙ 𝑣(𝑡), son ambas funciones dependientes del tiempo, 𝑡, que juega el papel de parámetro de evolución (o variable independiente). A un tiempo dado, podemos calcular el producto de ambas variables, para lo cual da exactamente igual multiplicar la posición por la velocidad, que al revés, es decir, 𝑥(𝑡) ∙ 𝑝(𝑡) = 𝑝(𝑡) ∙ 𝑥(𝑡). Este producto es conmutativo, propiedad característica de la mecánica clásica.

A diferencia de las funciones, cuando tratamos con matrices, el producto ya no es conmutativo en general, es decir, Ḃ ∙ ḊḊ ∙ Ḃ, a menos que ambas matrices describan propiedades del mismo tipo (por ejemplo, el momento de una partícula y su energía cinética). Esta anticonmutatividad se comprende fácilmente si cogemos, por ejemplo, un libro y lo rotamos 90º dos veces seguidas, tomando cada vez un eje de rotación diferente. Como se observa en la Fig. 2, dependiendo de qué eje de rotación se considere primero, se obtendrá un resultado u otro. En mecánica cuántica, las matrices se denominan operadores, porque actúan (operan) sobre el sistema y, al hacerlo, nos suministran información sobre la variable física a la que representan. Si no hay operador asociado, la magnitud no es un observable y, por tanto, no es un resultado experimentalmente accesible (no, al menos, de forma directa). Cuánticamente, posición y momento tienen asociados operadores y, por tanto, podemos medirlos, pero como representan propiedades diferentes, no conmutan:

Ẋ ∙ ṖṖ ∙ Ẋ = 𝑖ℏ      (3)

donde ℏ ≡ h / 2π es la constante reducida de Planck. Según esta relación, cuánticamente no existen estados en los que el sistema tenga una posición y un momento bien definidos al mismo tiempo, lo que implica que las incertidumbres de ambas variables serán no nulas, como establece la relación de incertidumbre desigualdad (1), que se obtiene, así, como consecuencia directa de la relación de no conmutación (3).


Fig. 2. No conmutatividad de la rotación: la operación de rotar dos veces consecutivas un objeto a través de sus ejes de simetría no es conmutativa, pues el resultado final depende de qué eje de rotación se considera primero y cuál después. En este ejemplo, lo que hacemos es rotar dos veces un libro un ángulo de 90º tomando cada vez uno de sus ejes de simetría.


Pese a describir también una física nueva, la formulación ondulatoria de Schrödinger no supone una ruptura total con la física clásica, o no, al menos, tan dramática, como la de Heisenberg. Ello se debe a que, de algún modo, parte de la física clásica, aunque no lo hace desde la formulación newtoniana, sino de la hamiltoniana. Ésta última constituye una generalización de la mecánica newtoniana a partir de la analogía entre acción mecánica y fase óptica, conocida como analogía hamiltoniana. Así, la mecánica ondulatoria describe la nueva física apoyándose en un lenguaje matemático (teoría ondulatoria) conocido para los físicos de la época, evitando el rechazo inicial que sí causó la mecánica matricial de Heisenberg. El punto de partida de Schrödinger es la hipótesis propuesta en 1925 por de Broglie, según la cual las partículas de materia pueden manifestar comportamientos de tipo ondulatorio (ver Capítulo 49), de igual manera que la luz puede hacerlo como una partícula (fotón), como propuso veinte años antes Einstein para explicar el efecto fotoeléctrico. Dentro de este contexto, la contribución fundamental realizada por Schrödinger fue encontrar la ecuación de movimiento que satisfacían las ondas o campos de materia, tomando como base la analogía hamiltoniana: hacia el primer tercio del siglo XIX, William Rowan Hamilton observó que en el límite de la óptica geométrica (longitudes de onda pequeñas), la descripción de las ondas admitía una descripción más simple en términos de rayos que satisfacían el principio del tiempo mínimo de Fermat. Lo que hoy se conoce como principio de mínima acción de Hamilton no es otra cosa que la versión mecánica del principio de Fermat; las trayectorias newtonianas, en virtud de la formulación hamiltoniana, son el equivalente mecánico de los rayos ópticos. Schrödinger generaliza esta idea al asumir que, cuando nos desviamos del límite de la óptica geométrica, las fases de las ondas asociadas a la luz son el análogo óptico directo de las fases de las ondas de materia de de Broglie. A partir de esta relación tan aparentemente directa y evidente se obtiene la ecuación de movimiento para dichas ondas, que hoy conocemos como ecuación de Schrödinger.

De acuerdo con la mecánica ondulatoria, el estado en el que se encuentra la partícula viene descrito por un campo denominado función de onda. Estos objetos matemáticos son funciones que dependen de varias variables y parámetros. Ejemplos de función campo conocidos son la temperatura o la presión de los mapas meteorológicos: dadas unas coordenadas (expresadas en estos casos en términos de latitud y longitud por conveniencia) obtenemos el valor de temperatura o presión sobre el punto deseado; estos mapas (los valores de temperatura y presión) cambian con el tiempo, que es el parámetro de evolución. En el caso mecano-cuántico, la función de onda representa una amplitud de probabilidad, una función compleja, cuyo módulo elevado al cuadrado nos da el valor de la probabilidad con que podemos encontrar a una partícula en una determinada posición a un tiempo dado (o, en general, con cualquier otra propiedad física que defina el estado del sistema bajo estudio). Describir el estado de una partícula mediante una onda, con independencia de cuestiones metafísicas relacionadas con su interpretación, resulta muy interesante para el físico, ya que su análisis será exactamente equivalente al de cualquier onda, campo o señal (la terminología depende del área de la Física a que hagamos referencia, aunque el objeto en sí es siempre el mismo): en términos de análisis de Fourier. Una propiedad interesante de este tipo de análisis es que cualquier onda que dependa de una cierta variable, como, por ejemplo, la posición, tiene una representación dual en un espacio recíproco en términos de una variable conjugada asociada, como es el momento. Este momento, sin embargo, no tiene nada que ver con el momento canónico clásico, que es una variable independiente, sino que está intrínsecamente ligado al espacio recíproco de la variable de partida. Tal vez en el caso de posiciones y momentos esto no sea evidente, pero sí que lo es si pensamos que la transformada de Fourier de una función dependiente del tiempo es una función que depende de la frecuencia (o energía). Así, el momento al que se refiere la transformada de Fourier es en realidad una cantidad proporcional a una frecuencia espacial, es decir, 𝑝 = ℏ𝑘. De hecho, a partir de esa relación y de la que existe entre esta frecuencia y la longitud de onda, 𝑘 =2π / λ , se recobra inmediatamente la hipótesis de de Broglie

𝑝 = ℎ / λ      (4)

pero no solo eso, sino que además los valores de las incertidumbres asociadas a esas posiciones y sus respectivos momentos (duales) satisfacen la relación (1), que puede ser obtenida de una forma relativamente sencilla a partir de teoremas del análisis de Fourier.

Un experimento relativamente simple donde se observan las implicaciones de la relación de incertidumbre de forma inmediata es el de la difracción de un haz láser (luz procedente de un puntero láser rojo, por ejemplo) por una rendija practicada sobre un trozo de cartulina oscura. La difracción es un fenómeno distintivo de cualquier onda que consiste en que, cuando ésta atraviesa un obstáculo, muestra un patrón característico que nada tiene que ver con las zonas de sombra (de luz, sonido, telefonía, etc.) a que estamos acostumbrados en la vida cotidiana. En el caso del haz láser atravesando la rendija, dependiendo de la anchura de la rendija, se obtendrán patrones como los que aparecen en la Fig. 3, con “manchas” de mayor amplitud a medida que la anchura de la rendija disminuye. Supongamos ahora que el patrón está formado por una gran cantidad de partículas cuánticas, ya sean fotones en el caso del láser o de electrones, átomos o moléculas, en otros casos. Consideremos una rendija de anchura . La incertidumbre asociada a la onda que cruza la rendija es del orden de la anchura de ésta, ∆𝑥 ∼ 𝑤; es imposible saber por dónde pasará exactamente una partícula, solo sabemos que su posición estará en algún lugar dentro de ese rango. La porción de onda asociada (recordemos que adscribimos a la partícula una onda y no un punto localizado espacialmente) que atraviesa la rendija es una onda de perfil cuadrado, de valor distinto de 0 a lo largo de la rendija, por efecto de los bordes de ésta sobre la onda incidente. Físicamente, esto quiere decir que existe exactamente la misma probabilidad de que la partícula pase por cualquier punto de la abertura y que no hay posibilidad alguna de que lo haga por cualquier otro punto fuera de esa región. La transformada de Fourier es una función (onda) oscilante, cuyo argumento es 𝑤𝑝 / ℏ. El cuadrado de esta función es precisamente lo que se observa en la Fig. 3. La anchura del pico central de esta función (la distancia entre los mínimos que delimitan el máximo central de luz), que tomamos como incertidumbre del momento, es ∆𝑝 ∼ ℎ / 𝑤. Por tanto, el producto de ambas incertidumbres reproduce la relación de Heisenberg directamente. Esto que hemos obtenido para la difracción de un haz láser se cumple escrupulosamente para cualquier tipo de onda y, en particular, para las ondas de la mecánica cuántica, describan éstas un electrón (partícula elemental sin estructura) o una gran biomolécula (partícula con una gran complejidad interna).


Fig. 3. Difracción de la luz producida por un haz láser rojo por rendijas de diversas anchura (decreciente de arriba abajo). A medida que decrece la anchura de la rendija, la difracción es mucho más importante (máximos más anchos).



3.       Complementariedad y el microscopio de Heisenberg.

La relación de incertidumbre de Heisenberg se haya íntimamente ligada a otro concepto o principio también central de la física cuántica: el principio de complementariedad de Bohr [8]. Según Bohr, la relación de incertidumbre no es sino una manifestación de la complementariedad cuántica, una idea o principio fundamental según la cual dos cualesquiera propiedades complementarias asociables a un sistema cuántico no pueden ser observadas al mismo tiempo en un experimento. Por ejemplo, un sistema cuántico no puede exhibir simultáneamente su carácter de partícula (o corpúsculo) y de onda (ver Capítulo 49 sobre el concepto dualidad onda-corpúsculo); en unos casos mostrará el primero y en otros el segundo, dependiendo ello de cómo esté diseñado el experimento que se vaya a realizar (ver discusión más detallada sobre los experimentos de la doble rendija de Young o de la elección retardada de Wheeler en el Capítulo 49). Igualmente, dado que la posición y el momento de un sistema cuántico son variables complementarias, no pueden ser determinadas en un mismo experimento con total precisión y, de ahí, que se observe una relación entre sus incertidumbres. Un ejemplo sencillo que ilustra cómo la complementariedad da pie al concepto de incertidumbre en la forma prescrita por Heisenberg, es decir, como una propiedad intrínseca del sistema bajo estudio, es el experimento mental que hoy conocemos como microscopio de Heisenberg [9], ideado por éste para explicar la física que entraña la desigualdad (1). La idea es muy simple. Supongamos que queremos observar la posición precisa de un electrón mediante un microscopio, como se ilustra en la Fig. 4. En principio, el electrón se encuentra a una distancia d del objetivo, sobre el eje óptico de esta lente, de diámetro 𝐷.


Fig. 4. Esquema general ilustrando la física del microscopio de Heisenberg. Solamente los fotones dispersados hacia el interior del cono determinado por el tamaño de la lente y su distancia focal nos pueden aportar información sobre la posición del electrón “observado”.


 En esta configuración, electrón y objetivo forman un cono de abertura angular 𝛳. Supongamos que los fotones con los que se ilumina al electrón para poder observarlo proceden de una fuente situada debajo del mismo, de manera que inicialmente no poseen componente transversal (su momento es perpendicular al plano del objetivo). El momento lineal de estos fotones es 𝑝ᵧᴼ , que corresponde a una longitud de onda asociada 𝜆ᵧᶠ en virtud de la relación 𝑝=ℎ/𝜆. Asumiendo que los fotones son altamente energéticos (rayos X o rayos gamma, por ejemplo), estos mostrarán su naturaleza corpuscular (ver Capítulo 49), como en el efecto fotoeléctrico. En tal caso, por efecto Compton, tras impactar sobre el electrón, los fotones serán dispersados en diversas direcciones, adquiriendo una cierta componente transversal (paralela al plano del objetivo) en su momento lineal. Igualmente, el electrón, que estaba inicialmente en reposo, gana cierta cantidad de momento, experimentando un desplazamiento a lo largo de la dirección del eje óptico (y también transversalmente). Dado que los fotones no disponían inicialmente de momento transversal, por conservación del momento lineal total del sistema electrón-fotón, el momento que ganan los fotones hacia un lado lo tienen que ganar también los electrones hacia el otro, de manera que el momento neto total quede cancelado. Así, el momento transversal de los electrones es

𝑝ₑ,ₓ = 𝑝ₑsin𝜑 = 𝑝ᵧᶠsin𝜗 = (ℎ/ 𝜆ᵧᶠ)sin𝜗      (5)

donde 𝜑 y 𝜗 son los ángulos de las trayectorias que siguen, respectivamente, el electrón y el fotón tras la colisión, es el ángulo de la trayectoria del fotón con respecto al eje óptico del sistema tras la colisión, 𝑝ₑ y 𝑝ᵧᶠ  son el momento final que adquieren, respectivamente, el electrón y el fotón, 𝜆ᵧᶠ es la longitud de onda del fotón tras la colisión, que viene dada por la expresión

(1/ 𝜆ᵧᶠ)‒(1/ 𝜆ᵧ⁰)=(ℎ/𝑚₀𝘤)⋅(1‒cos𝜗)      (6)

Siendo 𝑚 la masa en reposo del electrón y 𝘤 la velocidad de la luz en el vacío. El máximo ángulo de dispersión de los fotones que nos permite tener información sobre la presencia del electrón viene dado por la máxima abertura angular del cono imaginario antes mencionado. Cualquier fotón que salga dispersado con un ángulo mayor no llegará a nuestro ojo y, por tanto, no nos aportará información sobre el electrón. Ese ángulo implicará que el electrón, a su vez, ha ganado cierta cantidad de movimiento y, por tanto, su estado ya no es de reposo, como sucedía antes de la colisión. Dado que el proceso de colisión es aleatorio, el electrón habrá ganado un momento cuyo valor estará acotado por el máximo momento hacia adelante y el máximo hacia atrás, es decir, estará comprendido en el rango

∆ 𝑝ₑ,ₓ= (𝑝ᵧᶠsin𝛳)‒( 𝑝ᵧᶠsin(‒𝛳))=(2ℎ sin𝛳)/ 𝜆ᵧᶠ≈2ℎ𝛳/ 𝜆ᵧᶠ      (7)
                                     
en la última expresión se ha considerado, por simplicidad, la aproximación paraxial o de ángulo pequeño, que permite aproximar el valor del seno (o la tangente) por su argumento (sin𝛳≈𝛳) , ya que asumimos que la distancia de observación es bastante mayor que el diámetro del objetivo (𝑑≫𝐷) . El resultado expresado por la relación (7) nos indica que, en principio, cuanto mayor sea la longitud de onda de los fotones dispersados, más acotado estará el momento del electrón y, por tanto, menor será su incertidumbre. De este modo, si utilizásemos radiación de muy alta frecuencia (longitudes de onda grandes), conseguiríamos reducir en gran medida la imprecisión en el momento y tendríamos al electrón más localizado espacialmente, pues los posibles valores del momento con los que podría salir despedido éste a lo largo de la dirección transversal (en la que pretendemos tenerlo localizado) serían cada vez menores y más cercanos a cero.


Sin embargo, ¿significa eso realmente que podemos llegar a tener tan localizado al electrón como para determinar su posición precisa? Para contestar a esta pregunta, consideremos ahora el hecho de que, además de impactar sobre el electrón como si fuesen corpúsculos, los fotones también tienen asociada una naturaleza ondulatoria. En este caso, sabemos por la Óptica que, aparte de suministrarnos una imagen del objeto, una lente también se comporta como si fuese una abertura, es decir, difracta la luz que pasa a través de ella. Esto es lo que da lugar al denominado límite por difracción en la resolución de la lente (o, en general, del sistema óptico, como sería el caso de un microscopio), como se muestra gráficamente en la Fig. 5 (o se vio en el caso de la rendija de la Fig. 3).


Fig. 5. (a) Sección transversal que muestra la difracción por una abertura circular de la luz emitida por dos fuentes puntuales o centros dispersores situados en posiciones alternativas P1 y P2, formando un ángulo 𝛳. Cuanto menor es el valor de 𝛳, más difícil se hace distinguir la procedencia del patrón de difracción. (b) De izquierda a derecha, patrones de difracción obtenidos con tres ángulos 𝛳 diferentes. El límite de la resolución vendría dado por la abertura angular que genera el patrón central, ya que aún podemos percibir la presencia de dos máximos (en el patrón de la derecha la superposición de los patrones nos impide saber si se trata de uno o de dos máximos).


Para comprender mejor las implicaciones del límite por difracción y su conexión con la relación de incertidumbre, consideremos que la lente se comporta, efectivamente, como una abertura circular, dando lugar a una cierta distancia el característico patrón de difracción, formado por círculo de luz, denominado disco de Airy, rodeado por una serie de anillos concéntricos de menor intensidad. La fuente de luz, en nuestro caso, es un centro de dispersión puntual, el electrón: cuando el fotón llega, la onda asociada empieza a formar frentes de onda del mismo modo que sucede cuando arrojamos una piedra a un estanque de agua. Supongamos que P1 y P2 son dos posiciones opuestas con respecto al eje óptico en las que el electrón podría estar localizado (asumimos, por hipótesis, que no estuviese inicialmente localizado). Como se muestra en la Fig. 5(a), se producirán dos patrones de difracción simétricos con respecto al eje óptico, uno asociado a cada posición. Si solo tuviésemos un centro dispersor situado sobre el eje óptico, el primer mínimo de patrón de difracción correspondiente, es decir, la primera zona de obscuridad que separa el disco de Airy del primer anillo concéntrico, ocurre cuando se cumple la condición

(𝜋𝐷/ 𝜆ᵧᶠ) sin𝛳𝑑 ≈ 1.22⫪      (8)

donde 𝛳𝑑 es el ángulo subtendido desde el eje óptico a la posición de esa primera zona de obscuridad. En condiciones de paraxialidad, este ángulo es

𝛳𝑑 ≈ 1.22 (𝜆ᵧᶠ / 𝐷)      (9)

que además nos indica el tamaño (angular) del radio del disco de Airy. Según el criterio de Rayleigh, comúnmente utilizado para determinar el poder resolutivo de un sistema óptico afectado por difracción, para poder discernir si se trata de dos objetos diferentes o de uno solo, el ángulo ʘ definido por las posiciones P1 y P2 con respecto al centro de la abertura debe de ser tal que los centros de los correspondientes patrones estarán, como mínimo a una distancia igual al radio del disco de Airy, es decir, ʘ ≈ 𝛳𝑑 (ver Fig. 5(b)).

          Conforme a lo anterior, para poder resolver las imágenes que generan los fotones que alcanzan al electrón, la posición de éste debe estar comprendida, como poco dentro del rango

∆𝘹 ≈ ʘ𝑑 ≈ 1.22 (𝜆ᵧᶠ𝑑/𝐷)       (10)

ahora, según se ha comentado antes, solo los fotones cuyo ángulo de salida sea igual o inferior a 𝛳=𝐷/2𝑑 podrán pasar a través de la lente. Por tanto,

∆𝘹 ≈1.22 (𝜆ᵧᶠ/2𝛳)       (11)

de manera que lo que se obtiene ahora es que, cuanto menor sea la longitud de onda (radiación más energética), menos imprecisión tendremos y, por tanto, más localizado espacialmente estará el electrón. Es decir, llegamos justo a la conclusión contraria que en el caso anterior. Nos encontramos con que no se puede variar la longitud de onda de la luz con que iluminamos al electrón sin redundar en perjuicio de una de las dos medidas. Ambas se hayan íntimamente relacionadas: si queremos localizar al electrón restringiendo su movimiento, incrementaremos la imprecisión asociada a la distorsión que causa la difracción; si queremos reducir el efecto de la difracción, es el movimiento del electrón lo que imposibilita su localización. Por ello, para encontrar un cierto consenso, lo que hacemos es calcular su producto, que resulta ser

∆𝘹 ∆𝘱𝘹 ℎ      (12)

que, aunque es independiente de la longitud de onda, nos deja ligadas ambas cantidades a través de la constante . Este resultado nos indica que no podemos hacer ambas imprecisiones tan pequeñas como queramos y, por tanto, medir “la posición del electrón”. Como señala Heisenberg tras introducir este experimento mental [4], siempre es posible alegar objeciones al mismo con el propósito de eludir dificultades en el proceso de medida y, por tanto, evitar la relación de incertidumbre. Sin embargo, se demuestra que éste es ineludible, ya que todas y cada una de esas objeciones añaden, a su vez, nuevas cuestiones que acaban redundando de una forma u otra en la relación de incertidumbre. Por ejemplo, se puede querer evitar el inconveniente de la incertidumbre en el camino del fotón desviado tras la colisión utilizando un microscopio móvil, lo cual conlleva al problema de la posición del propio microscopio y, de ahí, volveríamos de nuevo a la ecuación (12).


4.       Interpretación de la mecánica cuántica y paradoja EPR.

Cuando situamos la relación de incertidumbre de Heisenberg dentro del contexto de la comprensión que la Física nos brinda del mundo que nos rodea, es decir, de cómo nos permite comprender y explicar los fenómenos que encontramos en la Naturaleza, ciertamente plantea un importante reto conceptual. A diferencia de los modelos propuestos con anterioridad a la mecánica cuántica, en los que existe una distinción o separación clara entre lo observado y el observador, ahora nos encontramos con que tal separación no existe en absoluto. Como hemos visto, si intentamos medir el sistema, lo estaremos influenciando de tal manera que no podremos conocer su estado antes de realizar el proceso de medida, pues éste entraña ya una perturbación del mismo. Aunque esto lo hemos discutido en el caso particular de la posición y el momento, la situación se hace extensiva a cualquier par de variables conjugadas que sirvan para especificar el estado del sistema (en el Capítulo 49 volveremos a esta cuestión precisamente dentro de la dicotomía onda-corpúsculo). Esta conclusión tan perturbadora para los físicos de principios del siglo XX es lo que llevo a lo que se conoce como interpretación ortodoxa o de Copenhague de la mecánica cuántica tras la 5ª Conferencia Solvay [10,11], en 1927, cuyo referente principal es Bohr y que, a día de hoy, sigue siendo la que aún se mantiene y utiliza para enseñar mecánica cuántica en las aulas. En su visión más radical, lo que establece es que hasta que no hay medida no hay sistema, es decir, que aunque sepamos que hay un objeto ahí, tan desconocido es para nosotros su estado, que a efectos prácticos es como si dicho sistema no existiese.

          Obviamente, esa ruptura radical con la visión más materialista de la Física anterior, una ruptura que tiene cierta conexión con el neopositivismo del Círculo de Viena (la Segunda Conferencia Internacional por la Unidad de la Ciencia tuvo lugar precisamente en Copenhague, sobre el “Problema de la Causalidad”, en 1936, auspiciada por Bohr [12]) y el resurgimiento del idealismo alemán, principalmente durante los años 20 del siglo XX, no dejó indiferente a otro grupo de físicos de la época. Los físicos seguidores de esta otra corriente, denominada realista y liderada por Einstein, se mostraban escépticos y perplejos ante la posibilidad de que, en última instancia, la Física no nos permitiese acceder al mundo físico sin perturbarlo y, por tanto, consideraban que la teoría cuántica no podía ser una teoría completa, ya que no permite especificar completamente todas las propiedades que describen un objeto, lo que Einstein denominaba la “existencia real” del objeto. Esta perplejidad y, al mismo tiempo, preocupación queda bastante bien reflejada cuando en el transcurso del regreso a casa Einstein pregunta a Pais si realmente creía que la Luna solo existía cuando la miraba [13]. Igualmente, Schrödinger ponía de relieve esta ambigüedad a través de su famosa paradoja del gato en la caja, según la cual el estado del gato se haya indefinido, entre vivo y muerto, hasta que se abra la caja y se realice la observación (medida) por su acoplamiento al detonante del proceso que puede acabar su vida, un vial con un material radiactivo, cuya probabilidad de desintegrarse y activar el mecanismo viene descrita por la mecánica cuántica.

          Como respuesta, Einstein, Podolsky y Rosen publicaron un trabajo en 1935 [14] en el que proponían como solución al dilema planteado por el principio de incertidumbre considerar dos sistemas cuánticos altamente correlacionados (entrelazados, como denominó Schrödinger al fenómeno [15], también en 1935), de manera que sobre una de las partículas se pudiese determinar su posición y, a partir de la otra, su momento, y viceversa, violando así la relación de incertidumbre. Acto seguido, Bohr demostró [16] que el razonamiento era erróneo y que, por tanto, la relación de incertidumbre no se violaba. Sin embargo, hoy día el experimento mental propuesto por Einstein, Podolsky y Rosen, denominado paradoja EPR, se ha convertido en una de las ideas más influyentes de la Física, siendo el germen de lo que ya se conoce como Segunda Revolución Cuántica y las incipientes tecnologías cuánticas [17, 18, 19]. El motivo es que introduce el concepto de no localidad, es decir, la interacción a larga distancia entre dos sistemas cuánticos como concepto clave (recuérdese que en la física anterior, la intensidad de la interacción entre dos sistemas disminuye con la distancia).

Hoy día las relaciones de incertidumbre siguen siendo inspiración para multitud de trabajos y experimentos por sus implicaciones sobre nuestra percepción del mundo cuántico. Se intentan diseñar experimentos que contravengan estas relaciones o, al menos, nos muestren vías que, como el experimento EPR, nos indiquen qué es lo que habría que hacer. Sin embargo, los resultados han sido negativos. Lo más cercano, tal vez, haya sido el experimento que Steinberg llevó a cabo hace unos años en la Universidad de Toronto [20], en el que se midieron al mismo tiempo (dentro de un mismo experimento) posiciones y momentos sin violar la relación de incertidumbre de Heisenberg. Esto permitió observar (o inferir) los dos aspectos complementarios de un sistema cuántico: onda y corpúsculo. Ésta es una historia que continúa en el Capítulo 49, pero que nos introduce una pregunta interesante: ¿son realmente las relaciones de incertidumbre de Heisenberg un resultado intrínsecamente fundamental de la mecánica cuántica?

Notas:
{1} A lo largo del capítulo se va a utilizar el término “partícula” por simplicidad y también porque está bastante extendido en la literatura divulgativa referente al principio de Heisenberg. Sin embargo, conviene especificar que el término correcto es “sistema”, que es más abstracto y hace referencia al grado de libertad (variable) o conjunto de ellos que sirven para caracterizar el objeto físico o fenómeno bajo estudio. Cuando nos referimos al movimiento de una partícula de masa  sin estructura interna, uno y otro término se identifican y, para simplificar, hablamos de partícula. Sin embargo, estamos describiendo la vibración o rotación del objeto, es decir, de una partícula con una estructura interna, el sistema viene descrito por unas variables que no permiten identificar a éste con dicha partícula, aunque tanto vibración como rotación tendrán asociadas unas relaciones de incertidumbre.
{2} En castellano se utilizan indistintamente los términos “incertidumbre” e “indeterminación” para hacer referencia al principio de Heisenberg, al igual que en alemán, donde se emplean las palabras “Unschärfe” y “Umbestimmtheit”. Para simplificar, aquí emplearemos el término “incertidumbre”, de uso bastante extendido debido a la influencia del inglés, donde se utiliza la palabra “uncertainty”. Sin embargo, en vez de la palabra “principio” se utilizará “relación”, igual que en alemán (“Unschärferelation” o “Unbestimmetheitsrelation”), ya que el concepto “principio” transciende el significado que se le da al resultado obtenido por Heisenbeg, que, como se indica en este capítulo, es una consecuencia directa de la estructura matemática de la mecánica cuántica y, por tanto, no puede considerarse como un principio físico fundamental, como lo son la complementariedad, la naturaleza estadística o probabilista intrínseca de la mecánica cuántica o el principio de exclusión de Pauli, que no son consecuencia, sino fundamento de la propia teoría, que se construye y desarrolla en torno a ellos.

Bibliografía:
[1] “Über den anschaulichen Inhalt der quantentheoretischen Kinematik und Mechanik”, W. Heisenberg, Z. Phys. 43, 172-198 (1927).
[2] “Sources of Quantum Mechanics”, B. L. van der Waerden (Dover, New York, 1967).
[3] “The Theory of Heat Radiation”, M. Planck (Dover, New York, 1959).
[4] “The dreams that stuff is made of”, S. Hawking (Running Press, Philadephia, 2011).
[5] “Quantum Theory and Measurement”, J. A. Wheeler and W. H. Zurek (Princeton University Press, Princeton, NJ, 1983).
[6] “The Age of Entanglement”, L. Gilder (Alfred A. Knopf, New York, 2008).
[7] “La realidad cuántica”, A. Cassinello y J. L. Sánchez Gómez (Crítica, Barcelona, 2012).
[8] “The quantum postulate and the recent development of atomic theory”, N. Bohr, Nature 121, 580-590 (1928).
[9] “The Physical Principles of the Quantum Theory”, W. Heisenberg (University of Chicago Press, Chicago, 1930), chaps. 2 y 3 (re-impreso en la Ref. 4); “Quantum Theory”, D. Bohm (Dover, New York, 1951), chap. 5.
[10] “The Solvay Councils and the Birth of Modern Physics”, P. Marage and G. Wallenborn (Springer, Basilea, 1999).
[11] “Quantum Mechanics – Historical Contingency and the Copenhagen Hegemony”, J. T. Cushing (University of Chicago Press, Chicago, 1994).
[12] “The Vienna Circle – Studies in the Origins, Development, and Influence of Logical Empiricism”, F. Stadler (Springer, Heidelberg, 2015).
[13] “Subtle is the Lord – The Science and the Life of Albert Einstein”, A. Pais (Oxford University Press, Oxford, 2005).
[14] “Can quantum-mechanical description of physical reality be considered complete?”, A. Einstein, B. Podoslky and N. Rosen, Phys. Rev. 47, 777-780 (1935).
[15] “Can quantum-mechanical description of physical reality be considered complete?”, N. Bohr, Phys. Rev. 48, 696-702 (1935).
[16] “Discussion of probability relations between separated systems”, E. Schrödinger, Math. Proc. Cambridge Phil. Soc. 31, 555-563 (1935); “Probability relations between separated systems”, E. Schrödinger, Math. Proc. Cambridge Phil. Soc. 32, 446-452 (1936).
[17] “The New Quantum Age – From Bell’s Theorem to Quantum Computation and Teleportation”, A. Whitaker (Oxford University Press, Oxford, 2012).
[18] “Tecnologías cuánticas”, J. J. García Ripoll, Acta Científica y Tecnológica 25, 2-7 (2015).
[19] “Hacia un mundo cuántico”, A. S. Sanz, Acta Científica y Tecnológica 26, 18-24 (2016).
[20] “Observing the average trajectories of single photons in a two-slit interferometer”, S. Kocsis, B. Braverman, S. Ravets, M. J. Stevens, R. P. Mirin, L. K. Shalm and A. M. Steinberg, Science 332, 1170-1173 (2011).

Ángel S. Sanz
Doctor en CC Físicas
Profesor Departamento de Óptica, Facultad de CC Físicas,
Universidad Complutense de Madrid.