domingo, 31 de marzo de 2019

¿Semivida de un isótopo? - Enrique Macías Virgós

¿Por qué se habla de la semivida de un isótopo y no de su vida entera?
(Por Enrique Macías Virgós)



El término "semivida" (en inglés half-life, a veces traducido incorrectamente como "vida media") empezó a usarse para predecir el comportamiento de algunos isótopos radioactivos, pero puede aplicarse en muchos otros contextos.

La semivida es una noción matemática ligada a la idea de "probabilidad". Un átomo inestable puede liberar en cualquier momento algún tipo de partícula subatómica o radiación, convirtiéndose en otro elemento químico. El ritmo con que esto ocurre difiere de un elemento a otro. Además, es imposible predecir cuándo va a tener lugar este “decaimiento radioactivo” para un átomo concreto; pero podemos usar técnicas estadísticas para estimar cómo va a comportarse una masa grande de átomos. En el modelo matemático que explica este proceso se observa que la cantidad de átomos radioactivos se reduce a la mitad siempre que transcurre un determinado tiempo. Este período de tiempo es la “semivida”.

Por ejemplo, el carbono-14 se va convirtiendo en nitrógeno, con una semivida de 5730 años, y este dato puede servir para determinar la edad de un fósil. El 14C se forma en las capas altas de la atmósfera por la acción de los rayos cósmicos; para simplificar, podemos suponer que su concentración se mantiene constante. Las plantas y los animales lo absorberán, en esa misma proporción, pero solo hasta su muerte, y la cantidad de isótopo que aún hay en el fósil nos dará una indicación precisa del tiempo que ha pasado. Por este método de datación recibió Willard F. Libby el Premio Nobel de Química en 1960 [1].

Otro ejemplo es el plutonio-238, que es de uso común para dar energía a algunas naves espaciales [2]; así, varias misiones Apolo dejaron en la Luna un “generador termoeléctrico de radioisótopo" (es decir, un aparato que convierte el calor producido por la radioactividad en electricidad) para permitir realizar experimentos durante años. Como el 238Pu tiene una semivida de 88 años, si un generador de este tipo tiene una potencia de 100 Watios, al cabo de 40 años la potencia será algo más de 70W. El cálculo exacto requiere utilizar logaritmos, pero puede hacerse con una sencilla calculadora científica.

El modelo matemático que rige estos fenómenos aparece siempre que el ritmo al que cambia una cantidad sea proporcional a su valor actual. Algunas reacciones químicas, la altura del agua en una piscina que se está vaciando por el fondo o la evolución de algunos activos financieros siguen este modelo.

Un ejemplo típico en Farmacocinética [3] es la concentración en sangre de un medicamento cuando se administra una inyección por vía intravenosa en una sola dosis rápida (en contraposición a la perfusión continua mediante gotero). La distribución del fármaco en los tejidos está afectada por muchos factores y la metabolización se realiza a través del hígado y la orina, entre otras vías. Pero el resultado global es que el organismo elimina la sustancia a un determinado ritmo de “aclaramiento”, medido en volumen de plasma o sangre por unidad de tiempo, y la cantidad total de fármaco que permanece en el cuerpo depende de la concentración, que a su vez va cambiando. De este modo se puede predecir la concentración plasmática que habrá en un determinado momento, o bien estimar la dosis que se inyectó inicialmente, o la vía por la que se está excretando, ya que cada sustancia tiene una semivida diferente.

Por ejemplo, un antibiótico como la amoxicilina tiene una semivida de 1-2 horas mientras que la del diazepam (usado para los trastornos de ansiedad) es de 30-60 horas. Conocido este parámetro, habrá que tener en cuenta si el medicamento no es de mucha toxicidad, para dar más espaciadamente dosis más grandes, o si debe fraccionarse a lo largo del tiempo, ya que se sigue acumulando al dar dosis repetidas. Para la mayor parte de los medicamentos hay una concentración por debajo de la cual el fármaco es inefectivo, y otra por encima de la cual es peligroso.

En la perfusión continua, en cambio, se trata de alcanzar una concentración de equilibrio que se mantenga en el tiempo. En la práctica clínica, se considera que la concentración se estabiliza indefinidamente cuando han pasado aproximadamente siete semividas.

Modelos parecidos se usan en otros tipos de administración de cualquier sustancia. Así, la semivida de la cafeína ingerida por una persona sana está entre 1,5 y 9,5 horas, dependiendo de las circunstancias fisiológicas y ambientales (uso de anticonceptivos, fumar, embarazo) [4].

En resumen, desde que E. Rutherford (premio Nobel de Química) formuló por primera vez hacia 1902 la idea de la semivida o “período de semidesintegración” [5] de un isótopo, esta noción se ha convertido en algo común en muchas ramas de la Ciencia. La fórmula exacta que se utiliza en estas situaciones se conoce con el nombre de “decaimiento exponencial”, ya que la variable tiempo aparece en el exponente, y es un ejemplo más de cómo se pueden explicar y simular matemáticamente muchísimos fenómenos experimentales, algunos con aplicaciones imprevisibles, en lo que se ha dado en llamar “la irrazonable eficacia de las Matemáticas” [6].

Una última curiosidad: el volumen de la espuma de una cerveza también decae exponencialmente con el tiempo, y la semivida depende del tipo de cerveza. Este descubrimiento le valió a sus autores un premio “Ig Nobel” de Física en el año 2002 [7].

Enrique Macías-Virgós
Doctor en Matemáticas.
Profesor Titular Universidad de Santiago de Compostela.





Nació en Vigo (Pontevedra) en 1956. Doctor en Matemáticas, completó su formación postdoctoral en la Universidad de Lille (Francia). 

Es profesor titular de la Universidad de Santiago de Compostela en el área de Geometría y Topología, e investiga en temas relacionados con la topología algebraica y la teoría de foliaciones. Ha impartido numerosas conferencias de divulgación sobre las Matemáticas.

domingo, 24 de marzo de 2019

¿Qué es la paridad? - Belén Valenzuela Requena

¿Qué es la paridad?
(Por Belén Valenzuela Requena)



Asimov nos contó en 1973 que los objetos que poseían la simetría de paridad (P) eran idénticos a su imagen en el espejo. La letra “x” tiene simetría especular mientras que la “p” no tiene simetría especular: la imagen especular de “p” es “q”. También nos contó cómo definir la paridad en los procesos de partículas subatómicas y así decidir si un proceso cumple esta simetría o no.

Pero ¿qué se entiende por simetría? La simetría siempre ha fascinado al ser humano, la simetría de las flores, de los copos de nieve, del panal de las abejas, nosotros mismos somos casi simétricos. Podemos definir simetría como una transformación en la que haces a algo y que cuando terminas de hacerla está igual que antes. Así, por ejemplo, si a un objeto cuadrado lo rotamos 90º no lo podemos distinguir del objeto original. El “algo” en nuestro caso sería las leyes de la física. Así, las leyes de la física tienen la simetría de la paridad, si cuando realizamos la transformación de la paridad cambiando sus coordenadas por sus opuestas, las leyes permanecen invariables. Asimov también nos habló de otras dos transformaciones que se pueden aplicar a las leyes de la física: la conjugación de carga C en la que las partículas se transforman en sus contrarias, antipartículas, y la inversión temporal T en la que se invierte el sentido del tiempo como si viéramos una película marcha atrás.

¿Por qué los físicos se preocupan tanto de las simetrías de las leyes? Hasta Einstein las leyes de la física tenían que cumplir las simetrías que observamos en el Universo y eso ya es suficientemente importante. Pero Einstein hizo una revolución en el pensamiento [1]. Él construyó su teoría de la relatividad requiriendo que cumpliera ciertas simetrías. Esta idea cuajó en la física moderna y la simetría es el mejor aliado de los físicos para construir las teorías que describen tanto la física subatómica, como un imán, como el Universo. En este sentido la simetría es bella y fructífera.

En particular, las simetrías C, P y T van a tener un papel fundamental en la comprensión de nuestro universo. En 1927 Eugene Wigner propuso que nuestro mundo cumple la simetría P con lo que la imagen en el espejo del mundo se comportaría de la misma manera. La simetría P estaba firmemente establecida para la interacción gravitatoria, la interacción electromagnética y la interacción fuerte pero a mediados de los años 50 Tsung Dao Lee y Chen Ning Yang pusieron de manifiesto que la situación era más confusa para la interacción débil. Estos investigadores contactaron con la investigadora Chien-Shiung Wu para proponerle experimentos que pudieran averiguar qué ocurría con la interacción electrodébil. Wu, junto con la National Bureau of Standards demostraron en 1956 que la fuerza débil no cumplía la simetría P.

Para entender el experimento a nivel fundamental necesitamos adentrarnos brevemente  en la interacción nuclear débil y en el Modelo Estándar (ME). El ME es la mejor teoría de la comprensión de nuestro Universo que tenemos hasta la fecha. En la época en que Asimov escribía su libro “100 preguntas básicas sobre la Ciencia” el ME se estaba construyendo. En este modelo existen dos tipos de partículas con distinta naturaleza, los fermiones y los bosones, estos últimos son las partículas intermediarias de las interacciones. Los fermiones más conocidos son los neutrones, protones, electrones y neutrinos [2] y el bosón más famoso es el fotón, que es la partícula intermediaria de la interacción electromagnética. Lo que nos interesa a nosotros para nuestra historia es que este modelo propone que los neutrones y protones no son partículas fundamentales si no compuestas y están formadas por partículas ahora sí, fundamentales, llamadas quarks [3]. En particular un protón está formado por dos quarks up (u) de carga +2/3 y uno down (d) de carga -1/3, es decir, protón=uud con carga=+2/3+2/3-1/3=1, y un neutrón está formado por dos down y uno up, es decir, neutrón=ddu con carga=-1/3-1/3+2/3=0.

La interacción débil es la responsable de la desintegración radiactiva que da lugar a la fisión nuclear y con ello a la posibilidad de la bomba atómica. Es la única que puede cambiar los sabores de los quarks y transformar un quark down en uno up o viceversa. Así la interacción débil puede transformar un neutrón en un protón. En la reacción se emiten además electrones (e-)  y el antineutrino (ν, antipartícula del esquivo neutrino). De hecho, los neutrinos y antineutrinos interaccionan con la fuerza débil y no lo hacen ni con la fuerza fuerte ni con la electromagnética. Una posible reacción sería:

d -> u + ν + e-

Los quarks y los electrones están compuestos de una parte dextrógira y otra levógira. El experimento solo se podía entender si la interacción débil involucraba únicamente la parte levógira del quark y los antineutrinos eran dextrógiros sin correspondiente parte levógira. Los neutrinos dejan de manifiesto que la simetría de paridad está rota. En aquel momento en el que se creía que el neutrino no tenía masa el neutrino se describía como un fermión de Weyl. Este fermión cumplía las mismas ecuaciones que otros fermiones pero con masa cero lo que le daba unas propiedades especiales.

Lev Landau propuso entonces que la conjugación de la carga junto con la paridad –simetría CP- se tenía que conservar. Allí donde una partícula no era simétrica, su antipartícula tampoco lo era, pero de manera contraria. En palabras de Asimov, si una partícula era como “p”, su antipartícula era como “q”.  En 1964 se observó indirectamente que esta simetría también estaba rota en algunos procesos que involucraban la interacción débil. No fue hasta 1990 que la rotura de esta simetría se pudo comprobar de forma directa. No voy a entrar en los detalles de los experimentos pero las consecuencias de este descubrimiento fueron enormes ya que entre otras cosas predijo la existencia de la tercera generación de quarks. Subsiguientes experimentos fueron encontrando los quarks puntualmente completando así el ME.

Con gran sorpresa en los años 90, Takaaki Kajita y Arthur McDonald, descubrieron que los neutrinos sí tienen masa. Por este descubrimiento han recibido el premio Nobel recientemente  (año 2015). El ME fue pensado para describir neutrinos sin masa y actualmente se está trabajando intensamente para arreglar esta fisura. El descubrimiento dio lugar a innumerables experimentos sobre neutrinos. Entre las consecuencias de este hallazgo, se piensa que la masa de los neutrinos tiene la llave (o una de ellas) para entender porque hay más materia que antimateria. Si hubiera habido tantas partículas como antipartículas en los primeros segundos después del Big Bang, se hubieran aniquilado entre ellas dejando solamente un eco de radiación. La simetría CP se debió de romper porque nosotros estamos por aquí. 

La simetría que sí se conserva en el ME es la simetría CPT, es decir, si invertimos el tiempo, cambiamos las partículas por antipartículas y las coordenadas por sus opuestas, las leyes de la física permanecen iguales. Siguiendo la filosofía de Einstein, al imponer estas simetrías se deduce que el universo está compuesto de dos tipos de partículas, los fermiones y los bosones. Ha habido propuestas de violación de CPT en teorías que van más allá del ME pero la mayor parte de la comunidad científica piensa que la simetría CPT se tiene que cumplir también en modelos de gran unificación en los que además de la fuerza electromagnética, la débil y la fuerte se integra la interacción gravitatoria.

Curiosamente, muchos conceptos de la física de partículas son muy relevantes en la física de la materia condensada. La materia condensada es una física más cercana a nuestro día a día donde se pretende entender el comportamiento de las fases condensadas algunas bien conocidas como la fase líquida y la sólida y otras más exóticas como la fase magnética o la superconductora. En un principio parecería que esta física de baja energía (1eV) no tendría nada que ver con la física de partículas elementales que se realiza en el CERN (³ TeV). Sin embargo, en los materiales se dan partículas efectivas que son bosónicas, o fermiónicas o incluso más exóticas. Las simetrías C, P y T tienen un papel fundamental en uno de los campos de investigación más activos de hoy en día, las fases topológicas de la materia. Estas fases además de ser una revolución en la comprensión de las fases de la materia podrían revolucionar nuestra manera de hacer computación. El año 2015 también fue un año especial porque experimentalmente se descubrieron los semimetales de Weyl [4]. Las partículas de Weyl no tuvieron futuro para explicar los neutrinos pero sí se han encontrado en materia condensada. Este descubrimiento pone de manifiesto una vez más la universalidad de los conceptos en física.

Puede que la próxima vez que te mires en el espejo te pase como Alicia y planees por los confines del Universo.


Notas:
[1] Standford Encyclopedia of Philosophy, Symmetry and Symmetry breaking. (2003, revisión 2013) http://plato.stanford.edu/entries/symmetry-breaking/
[2] Véase Capítulo 51
[3] Véase Capítulo 46
[4] Su-Yang Xu et al, “Discovery of a Weyl fermion semimetal and topological Fermi arcs”, Science 349.6248 (2015), pp. 613{617. issn: 0036-8075}.

Belén Valenzuela Requena
Doctora en Física.
Científico Titular.
Instituto de Ciencias de Materiales de Madrid ICMM CSIC.





jueves, 21 de marzo de 2019

Diagramas de Feynman - Bartolo Luque

¿Cuál es la función y la utilidad de los tan aclamados diagramas de Feynman?
(Por Bartolo Luque)



El Modelo Estándar, nacido en los años 70 del siglo pasado, es la descripción más contrastada que nos ofrece la física actualmente de la estructura fundamental de la materia y el vacío. El Modelo Estándar, que toma como base una serie de partículas elementales y cuatro interacciones fundamentales, es en realidad un conjunto de teorías. No todas ellas gozan de igual precisión, y en particular, “La joya de la corona”, la teoría más precisa que disponemos, es la electrodinámica cuántica (QED, Quantum Electrodynamics en su acrónimo inglés). La QED es la teoría cuántico-relativista que describe cómo se producen las interacciones electromagnéticas entre partículas, y cómo interaccionan la luz y la materia. Las interacciones electromagnéticas son las fuerzas físicas que rigen, por ejemplo, cómo cargas del mismo signo se repelen entre sí y de signo opuesto, se atraen. En física clásica la descripción de estas interacciones vienen mediadas por el campo electromagnético. Pero en la QED, los electrones y demás partículas fundamentales intercambian fotones virtuales que hacen de portadores de la fuerza electromagnética. Una partícula virtual es una deuda transitoria de la naturaleza: aparece de la nada tomando prestada energía del vacío y, tras una breve vida, desaparece devolviendo la energía tomada en préstamo; siempre según las reglas establecidas por el principio de incertidumbre de Heisenberg.

El primer paso hacia la teoría lo dio en 1928 el gran físico Paul Dirac, al combinar la teoría cuántica con la relatividad especial para obtener una ecuación de ondas relativista para el electrón. Pero a pesar de los esfuerzos de muchos teóricos, la teoría presentaba un par de problemas de calado al describir el resultado de una interacción electromagnética entre partículas: uno era la aparición de cantidades infinitas en los cálculos y otro era el sinfín de términos que debían computarse, que convertían un problema en una pesadilla algebraica. Además, la teoría no daba cuenta de algunos desajustes entre medidas experimentales y resultados teóricos, como por ejemplo, la llamada constante de estructura fina que puede medirse a través del momento magnético anómalo del electrón. Así que en sus inicios la QED se mostraba confusa y refractaria al cálculo. Hasta que, de manera independiente, los físicos Richard P. Feynman, Julian Schwinger y Sin-Ichiro Tomonaga solventaron la cuestión; extremo que les valió el Premio Nobel de Física en 1965.

Schwinger y Tomonaga propusieron métodos matemáticos extremadamente complicados y poco prácticos de manejar. Mientras que Feynman consiguió presentar los cálculos de una manera intuitiva y solventar algunos de los molestos infinitos mediante una técnica llamada “renormalización”. Para simplificar los pantagruélicos cálculos que aparecían en la QED Feynman propuso sus famosos diagramas, la base de su método. Fue Freeman Dyson quien demostró la equivalencia matemática de los tres métodos y ayudó a popularizar los diagramas de Feynman, que traspasaron enseguida el área donde nacieron para aplicarse a la física nuclear o a la teoría del estado sólido. Los físicos teóricos, gracias a ellos, fueron capaces de realizar cálculos que en el momento resultaban inabordables. Del mismo modo que hoy la computación ha supuesto una revolución en muchas áreas de la ciencia, los diagramas de Feynman supusieron una revolución en la física.

Veamos con algo de detalle uno de los ejemplos más sencillos: la repulsión entre dos electrones. Clásicamente, para determinar la trayectoria de los electrones, usaríamos el campo eléctrico y consideraciones como la conservación de la energía. Pero la QED está gobernada por la cuántica de campos y una de las extraordinarias cosas que nos muestra esta teoría es que el campo eléctrico está cuantizado, constituido por fotones. La matemática de la física de partículas elementales es conocida como teoría cuántica de campos. Esta teoría describe como se propagan los campos cuánticos que describen las partículas, como colisionan e interaccionan entre sí, como se producen nuevas partículas, etc. Todos los procesos que se observan en los grandes aceleradores de partículas (como el LHC y el Tevatrón) se describen por esta teoría y la QED es su hija más perfecta. De modo que cuando dos electrones se acercan se pueden repeler, por ejemplo, a través de la emisión de un fotón por parte de uno de los electrones que será absorbido por el otro. Podemos dibujar fácilmente el diagrama de Feynman de este proceso:





En todo diagrama de Feynman, las líneas rectas con flechas representan partículas de materia. En nuestro caso tenemos dos electrones e-. El tiempo en nuestro diagrama transcurre de abajo hacia arriba y el eje horizontal puede interpretarse como el espacio (es usual encontrarnos los diagramas con el tiempo y el espacio intercambiados respecto al ejemplo que presentamos). Así, en la parte inferior del diagrama, tenemos las "partículas incidentes", que en nuestro caso son dos electrones que colisionarán entre sí; y en la parte superior tenemos las "partículas resultantes" después de la interacción, que, en este caso, siguen siendo nuestros dos electrones. El diagrama es un esquema taquigráfico y las líneas no deben entenderse como trayectorias de las partículas. Los vértices son aquellos puntos del diagrama donde concurren, por lo menos, tres segmentos. En ellos se producen las interacciones y deben cumplirse las leyes de conservación, como la conservación de la carga eléctrica, el momento relativista, la energía, etc.  En un vértice de un diagrama de Feynman, las partículas emergentes pueden ser diferentes a las entrantes (algo que es el pan nuestro de cada día en los aceleradores), pero en QED solo aparecen vértices de tres partículas: dos con carga eléctrica y un fotón. En nuestro ejemplo vemos dos. Las líneas onduladas representan partículas virtuales portadoras de la fuerza que, en la interacción electromagnética, son fotones y no son directamente observadas.

En general, no solo en QED, podemos entender cualquier interacción entre partículas como el paso de un estado inicial a un estado final. Conociendo qué tipo de interacciones se dan entre las partículas y las leyes de conservación que satisfacen, la teoría cuántica de campos nos permite calcular las probabilidades de que, a partir de la interacción de unas partículas iniciales, acabemos en otras partículas finales, que en general no serán las mismas. Volvamos a nuestro ejemplo de la repulsión de dos electrones. Para calcular la probabilidad de que las cosas sucedan como describe el diagrama de Feynman necesitamos hacer una serie de operaciones con la siguiente expresión matemática:

(O1ieγμI1)((-igμν)/p2)(O2ieγνI2)

donde la contribución de un electrón antes de la colisión corresponden al símbolo I y la de después de la colisión a la letra O. El subíndice indica si se trata del electrón 1 o 2. La contribución del fotón se corresponde con el cociente central de la ecuación. La genialidad de los diagramas de Feynman es que son una manera precisa y sencilla de representar este tipo de expresiones, como podemos deducir de la siguiente tabla:





Cada elemento del diagrama se traduce en parte de la expresión matemática. ¿Y ya está, es así de fácil? Lamentablemente solo hemos descrito una posible forma de pasar del estado inicial de nuestros electrones al estado final. Pero en realidad, la teoría cuántica de campos permite que esto suceda de una infinidad de maneras. En nuestro ejemplo, los siguientes diagramas de Feynman también son compatibles con una repulsión entre dos electrones:





En el primero, uno de los electrones resultantes emite un fotón virtual y lo reabsorbe. En el segundo diagrama, uno de los electrones emite un fotón antes de la colisión y lo reabsorbe posteriormente. Y por último, en el tercer diagrama, se crean y destruyen partículas virtuales intermedias. Así, que simplemente añadiendo un nuevo vértice de interacción, algo que es posible según la cuántica de campos, creamos un nuevo diagrama y el resultado final es el mismo. Hay infinitas posibilidades que nos llevan al resultado final de la repulsión de dos electrones. Pero, si hay tantos diagramas posibles, ¿cuál es el que realmente ocurre? Pues según la cuántica, simplemente no podemos saberlo, porque en cierto modo, todos los diagramas ocurren a la vez.  La teoría nos dice que para determinar la probabilidad de que se produzca el estado final a partir del inicial debemos sumar las contribuciones a la probabilidad de todas las formas posibles de hacerlo, de todos los posibles diagramas de Feynman.

Cada uno de los posibles procesos que nos lleva al mismo resultado final está asociado a una integral de camino, que utiliza expresiones matemáticas como la mostrada anteriormente. Para computar la probabilidad exacta de alcanzar este estado final debemos sumar infinitas contribuciones, infinitos diagramas de Feynman. Afortunadamente, la emisión de un fotón en este proceso tiene una probabilidad de ocurrir de un 1%, mientras que la emisión de dos fotones tiene una probabilidad de un 0,01%. Y esta probabilidad va disminuyendo más y más mientras más fotones virtuales intervengan; es decir, mientras más vértices tenga nuestro diagrama. De modo que nuestro primer diagrama, el más simple, es el más importante.

La teoría de perturbaciones nos enseña cómo es posible resolver ecuaciones muy complicadas, en nuestro caso el cálculo de la probabilidad de un suceso, simplificándolas para obtener una solución tan aproximada como queramos. Es algo parecido a lo que hacemos al tomar como aproximación a una expresión matemática un truncamiento de una serie de Taylor. Nos quedamos con los primeros términos más relevantes. En nuestro ejemplo, el intercambio de un único fotón es la contribución dominante y, solo en el caso de que necesitemos cálculos más precisos, necesitaremos tener en cuenta otros diagramas. La ventaja de los diagramas de Feynman sobre el resto de formulaciones teóricas es que es relativamente fácil dibujar todos los posibles diagramas con dos o tres vértices, por ejemplo. Aun así, los físicos de partículas tienen que evaluar unos cientos de diagramas de Feynman para obtener aproximaciones a bajo orden y decenas de miles para ir algo más allá en la precisión. Algo que sin la inestimable ayuda de los ordenadores simplemente sería imposible hoy día.

La teoría cuántica de campos en su aplicación a la física de las partículas elementales es la teoría mejor confirmada experimentalmente de la historia.  Y en QED la concordancia entre resultados teóricos y medidas experimentales sobrepasa con mucho lo espectacular. Pero los físicos no paran y trabajos recientes apuntan a que, tal vez, la época de los diagramas de Feynman toque pronto a su fin. Herramientas de la teoría de los twistors, desarrollada por Roger Penrose en la década de los 70 y usada entre los teóricos de cuerdas recientemente, prometen una nueva simplificación espectacular de los cálculos. Quizás así los diagramas de Feynman desaparezcan de la práctica diaria de los físicos de partículas, pero ocuparán siempre un lugar destacado en la historia de la física.


Bibliografía:
David Kaiser, “La física y los diagramas de Feynman”. Investigación y ciencia, septiembre de 2005.
Richard P. Feynman, “Electrodinámica cuántica: la extraña teoría de la luz y la materia”. Alianza Universidad, 1992.
Jesús Navarro Faus, “Feynman: Los caminos cuánticos”. Nivola Libros y Ediciones, 2007.

Bartolo Luque
Doctor en Física
E.T.S.I. Aeronáuticos, Universidad Politécnica de Madrid

domingo, 17 de marzo de 2019

¿Qué es la teoría cuántica? - Gerardo Ortiz

¿Qué es la teoría cuántica?
(Por Gerardo Ortiz)




La teoría cuántica fue inicialmente concebida como un intento de explicar el espectro de energía de un cuerpo negro, un objeto físico idealizado que absorbe toda la radiación incidente antes de volver a emitirla. Según la física clásica, a una temperatura fija, la energía emitida debería aumentar, sin límite, con la frecuencia de la onda radiante emitida. Sin embargo, los experimentos contradecían esta predicción clásica. Fue Max Planck quien resolvió la paradoja introduciendo el concepto de quanta en 1900. Esencialmente, Planck postuló que la radiación solo podía ser emitida en unidades discretas, o quanta, de energía. Esta suposición aparentemente simple pero radical implicaba que los modos de frecuencia más alta eran menos probables de ser excitados por lo que su energía promedio disminuiría con la frecuencia. Más tarde se observó que las líneas espectrales discretas de los átomos, que representan las transiciones entre los niveles estables de energía atómica, no podían explicarse por la teoría clásica del electromagnetismo, ya que los electrones (partículas cargadas negativamente que componen el átomo) caerían en espiral hacia el núcleo, haciendo que el átomo y, por lo tanto, toda la materia se volviese inestable. Fue Niels Bohr quien resolvió este rompecabezas en 1913 extendiendo las ideas iniciales de Planck sobre la cuantización a otras magnitudes dinámicas como el momento angular, la propiedad que caracteriza la inercia rotatoria de un objeto físico, obligando así a los electrones a moverse en órbitas particulares bien definidas.

Aunque estas ideas iniciales eran fundamentales, cada vez estaba más claro que algo profundo ocurría en el micro-mundo y aún no se había descubierto. Fue entonces el momento de dos científicos notables, Werner Heisenberg (1925) y Erwin Schrödinger (1926), que independientemente introdujeron formulaciones equivalentes de una nueva mecánica de ondas, más tarde conocida como teoría cuántica no relativista. Un aspecto revolucionario clave de esta nueva mecánica de ondas era que las condiciones externas al sistema y un aparato de medición podían determinar si un sistema físico se comporta como una partícula o una onda. Para capturar esta dualidad llamada onda-partícula, el sistema no podía ser simplemente especificado por su posición y velocidad, sino por un objeto matemático llamado función de onda, un catálogo de potencialidades. El carácter de onda de esta función de estado conduce naturalmente al fenómeno de la interferencia, algo observado normalmente en ondas ordinarias que se manifiestan en la luz o el agua.

Sin embargo, en la mecánica cuántica este fenómeno se manifiesta espectacularmente como resultado de la medición de un conjunto de partículas cuánticas igualmente preparadas que inciden, por ejemplo, en una pantalla con doble rendija. Lo que es más importante, esta manera particular de caracterizar el estado de un sistema implicaba una descripción probabilística de la naturaleza, una salida dramática de los sueños de Pierre-Simon Laplace (1814) de una descripción completamente determinista de nuestra realidad externa. En consecuencia, la medición simultánea de dos propiedades complementarias del sistema, como la posición y el momento de un electrón, está sujeta a imprecisión; cuanto más precisamente tratamos de medir una de esas propiedades, menos precisa es la otra, algo conocido popularmente como el principio de incertidumbre.

En 1935, Albert Einstein, Boris Podolsky y Nathan Rosen sugirieron un experimento mental con consecuencias asombrosas. Se dieron cuenta de que un estado de un sistema cuántico compuesto no está necesariamente determinado por los estados de sus subsistemas constituyentes. Esta es una característica clave de los fenómenos cuánticos que más tarde Schrödinger denominó entrelazamiento, un recurso único que proporciona correlaciones no locales entre subsistemas que no admiten ninguna interpretación clásica local. Es esta no localidad lo que es difícil de comprender (y de hecho estaba en el centro de una serie de controversias que Einstein expresó con la teoría cuántica), pero en las últimas décadas los avances en la óptica moderna han hecho posible producir rutinariamente estados entrelazados de fotones (partículas de luz) usando láseres y las propiedades ópticas no lineales de ciertos cristales. Utilizando estas técnicas, muchos investigadores han podido confirmar las predicciones de la mecánica cuántica (y refutar teorías alternativas que involucran "variables ocultas" las cuales expresan la aleatoriedad cuántica en términos de elementos desconocidos de la aparente realidad externa).

El formalismo de la mecánica cuántica se ha extendido durante los últimos 80 años para acomodar la relatividad especial y la teoría de campos, y la comprensión de sus detalles ha sido esencial para el desarrollo de gran parte de la tecnología moderna (desde la comprensión mecanicista de la química sintética y física nuclear hasta las bases de los semiconductores y las industrias de almacenamiento magnético, por citar solo algunos ejemplos).

La teoría cuántica rechaza la visión clásica de la realidad física. Define un marco teórico fundamental que representa nuestra mejor descripción posible del mundo externo conocido, y junto con la teoría de la relatividad, forma la base de la física moderna. Se aplica a la descripción de los fenómenos naturales en todas las escalas, desde el micro hasta el macro-mundo, incluyendo los problemas fundamentales de la cosmología. A pesar de todos sus éxitos hay un aspecto en el formalismo que es difícil de tragar; en cierto sentido, los sistemas no poseen propiedades definidas (objetivas) hasta que medimos dichas propiedades, y la medida real siempre encuentra el sistema en un estado definido, no en la superposición de estados que conforman la función de onda real.

Uno solo puede predecir la probabilidad de un determinado resultado de una medición, pero no puede predecir el "colapso" real a un estado definido. Esto se conoce como la paradoja de la medición cuántica. Los dos principios más fundamentales que diferencian el realismo cuántico del realismo clásico son la no localidad genérica de las correlaciones cuánticas, o el entrelazamiento, y el hecho más general de que la mecánica cuántica es intrínsecamente contextual, lo que significa que el resultado de la medición de cualquier propiedad de un sistema depende de la configuración experimental específica que se utiliza para medir esa propiedad. En otras palabras, el resultado de una medición no debe considerarse como información revelada que simplemente está escondida de nosotros, es decir, preexistente e independiente del contexto de esta medición.

El entrelazamiento es ciertamente la propiedad que se encuentra en el corazón de la riqueza y rareza del mundo de la mecánica cuántica. Ahora nos damos cuenta de que estas correlaciones no locales están detrás de algunos de los problemas más desconcertantes de la física de los materiales, y también han llevado a revoluciones en la computación, comunicación (por ejemplo, permitir protocolos cuánticos de teletransporte), criptografía y otros campos. Recientemente, la promesa del entrelazamiento para abrir inusitados horizontes técnicos tanto como nuestra capacidad de controlar y comprender este aspecto singular del universo cuántico se ha descrito como la segunda revolución cuántica. Los llamados ordenadores cuánticos prometen proporcionar una aceleración exponencial en la resolución de ciertos problemas que fundamentalmente están más allá de las capacidades de los ordenadores convencionales, y se cree que el entrelazamiento es un ingrediente esencial para comprender y desbloquear el poder de la computación cuántica.

Se agradece a D. Felipe José Ramos Calderón, piloto de aviación, estudiante de Física (UNED) y buen amigo, por la traducción precisa de este capítulo.


Gerardo Ortiz
Doctor en Física
Professor of Condensed Matter Physics, Indiana University






An american, argentine born of spanish descent, physicist. After receiving his Ph.D. in Theoretical Physics at the Swiss Federal Institute of Technology, Gerardo Ortiz continued his career in the United States, first, as a postdoctoral fellow at the University of Illinois at Urbana-Champaign, and then as an Oppenheimer fellow at the Los Alamos National Laboratory where he stayed as a permanent staff member until 2006. 

He is currently Professor of Physics at Indiana University, Bloomington. 


His scientific career has spanned a large variety of topics in condensed matter physics and quantum information science, including electron fluids and solids, strongly correlated systems, quantum Hall physics, high-temperature superconductivity, quantum critical phenomena, and topological quantum matter, among others.

Recomendaciones en este Blog.

jueves, 14 de marzo de 2019

EVENTOS

PARA NO PERDERSELO





domingo, 10 de marzo de 2019

Redshift - Paola Marziani

El efecto Doppler o “corrimiento hacia el rojo” (redshift) de una onda electromagnética, ¿es posible saber si se debe a la velocidad del objeto o a la acción de un campo gravitatorio? ¿Y qué es el redshift cosmológico?
(Por Paola Marziani)



El efecto Doppler es un fenómeno físico muy básico que ocurre cuando un objeto que emite ondas, como por ejemplo la luz (ondas electromagnéticas) o el sonido (ondas acústicas), está en movimiento con respecto a un receptor (observador u oyente en el caso de la luz o sonido). Cuando las fuentes de emisión se están alejando del observador, las ondas sucesivas se emiten desde una posición más lejana al observador. Por lo tanto, el observador recibe cada onda después de un tiempo más largo respecto al que recibiría en el caso en que la fuente estuviera en reposo; por este motivo, la distancia temporal entre las crestas de la onda se incrementa y la frecuencia se reduce. Lo contrario sucede cuando la fuente de ondas se aproxima al observador. Por consiguiente, el efecto Doppler puede dar lugar a un cambio de longitud de onda que puede ser positivo si la fuente se está alejando, pero también negativo si se está acercando.

El efecto Doppler clásico relaciona la velocidad de la fuente con la velocidad de propagación de la señal, es decir, v / c, donde c es la velocidad de la luz o la velocidad del sonido en el medio en el que la señal se propaga (que podría ser por ejemplo el vacío o aire para la luz y el aire o el agua para el sonido). El corrimiento de longitud de onda es simplemente proporcional a la relación Δλ/ λ0 = (λ-λ0)/λ0 = v / c, donde λ0 es la longitud de onda de la luz emitida por una fuente en reposo y puede tomar un signo negativo o positivo si la fuente se acerca o se aleja.

Una fuente que se aleja dará siempre un aumento de la longitud de onda. Con referencia a la longitud de onda de la luz visible, se dice a menudo un corrimiento al rojo, es decir, un desplazamiento hacia el rojo. Este término, en astronomía se utiliza para cada frecuencia, incluso el dominio de rayos X y de radio para indicar un aumento de la longitud de onda.

La fórmula anterior es una de las más importantes en todo el campo de la física. Las cosas empiezan a ser menos sencillas si tenemos en cuenta a una fuente que se está moviendo a una fracción no despreciable de la velocidad de la luz. En este caso habrá un término adicional que siempre va a dar un corrimiento al rojo, independiente de la dirección del movimiento. Este término es un efecto puro de la relatividad especial, en relación con la incapacidad de sincronizar nuestros relojes con el de la fuente de movimiento y puede ser arbitrariamente grande cuando la velocidad de la fuente se acerque a la velocidad de la luz.

El corrimiento al rojo gravitacional tiene un origen independiente al efecto Doppler. No solo que siempre se corre al rojo, sino también necesita un campo gravitacional muy fuerte para ser detectado en fuentes astrofísicas.

Es interesante tener en cuenta que, tan pronto como se descubrieron a los quásares, algunos astrónomos pensaban que el corrimiento al rojo no podía ser debido a “la velocidad de recesión de las galaxias” (es decir, a la distancia en una formulación obsoleta y incorrecta), sino que tenía que ser de origen gravitacional. Esta idea fue rápidamente abandonada debido a paradojas que plantean la necesidad de estar muy cerca de una masa por obtener el gran corrimiento al rojo de los quásares.

El pequeño tamaño de la fuente ponía un límite muy fuerte a la cantidad de radiación que podría producirse. Y de hecho es necesario estar muy cerca por tener un corrimiento al rojo no despreciable debido a que el desplazamiento al rojo gravitacional es proporcional al cociente entre la masa y la distancia de un objeto (no es que la masa tiene que ser grande, sino es un asunto del cociente masa-distancia).

El corrimiento al rojo gravitacional puede aumentar indefinidamente en una fuente que se acerca de un objeto masivo. En un contexto astrofísico, los casos más extremos son los agujeros negros y las estrellas de neutrones. En el caso de un agujero negro, una fuente vista por un observador distante nunca alcanzará el horizonte de eventos del agujero negro, pero el observador verá la luz emitida desplazada a una longitud de onda más larga.

Si originalmente la fuente estaba emitiendo luz visible, y si fuera posible seguir la luz desde la fuente hacia su caída al agujero negro en todas las frecuencias, el receptor detectará las ondas en el óptico y luego en el IR cercano, a continuación, en el IR lejano, en el sub-mm, y luego a más y mayores longitudes de onda en el dominio del radio. La luz emitida en las proximidades de un agujero negro aparecerá desplazada hacia el rojo debido a la pérdida de energía para superar el profundo potencial gravitacional del agujero negro.

El campo gravitacional puede crear un corrimiento al rojo arbitrariamente grande. ¿Qué pasa con el corrimiento al rojo de las fuentes astronómicas a gran distancia, como las galaxias y quásares? Como se ha mencionado, muchos años atrás la gente hablaba de velocidad de recesión de las galaxias. Edwin Hubble en el 1925 encontró una relación directa entre el corrimiento al rojo y la distancia de las mismas galaxias, es decir v = c z = H0 d, donde H0 es la constante de Hubble estimada alrededor de 70 km / s / Mpc.

Actualmente, esta ley sigue siendo válida y es utilizada   por   los astrónomos si z << 1. Sin embargo, hoy en día existen cientos de miles de galaxias y quásares conocidos con z >> 1, incluso hasta z = 7. Puesto que somos capaces de medir la velocidad solo a lo largo de nuestra línea de visión (la velocidad radial) para los objetos distantes, el corrimiento al rojo no se puede asociar a una velocidad física a menos que se cumplan condiciones poco realistas y muy especiales.

El corrimiento al rojo de galaxias y quásares se explica en el contexto de un Universo en expansión, al que se llama propiamente expansión cosmológica del Universo, donde el tejido del espacio se está expandiendo después de un estado denso y caliente que en su origen fue una singularidad (no se trata de una expansión en un volumen previamente existente, es el mismo espacio-tiempo que se expande).

El desplazamiento hacia el rojo vuelve a ser no solo un marcador de la distancia, sino también un indicador de la época cósmica. Y hay una diferencia física fundamental con un desplazamiento al rojo debido al efecto Doppler: las fuentes no se mueven una con respecto a la otra, sino están retrocediendo solo porque el espacio-tiempo se está expandiendo. Nuestras reglas son más grandes en espesor y los relojes están corriendo más lentamente con respecto a los de las fuentes distantes. A una distancia definida por un corrimiento al rojo z, los relojes estarían corriendo más rápido por un factor (1 + z).


Se agradece la ayuda de las doctoras Alenka Negrete y Alba Grieco por una revisión precisa de este capítulo.

Paola Marziani
Doctora en Astrofísica
Investigadora / INAF - Osservatorio Astronomico di Padova








Nació en Bolzano/Bozen, en Alto Adige/Südtirol. Obtuvo su laurea en Astronomía en 1986 y su Ph. D. en astrofísica en 1991.

Después de estancias de investigación en los Estados Unidos, México e Italia, se quedó en 1995 en el Instituto Nacional de Astrofísica en Padova. Su intereses astronómicos principales son los cuasares y las galaxias, la cosmología observacional, y los procesos atómicos que dan origen a lineas de emisión.

Desde 1988 ha publicado más de doscientas contribuciones de astrofisica (los mayoría de astrofisica extragaláctica), y artículos de divulgación astronómica en Inglés, Italiano y Español.

Recomendaciones en este Blog.

lunes, 4 de marzo de 2019

domingo, 3 de marzo de 2019

¿Por qué la luz se mueve a la velocidad de la luz? - Alberto Aparici

¿Por qué la luz se mueve a la velocidad de la luz?
(Por Alberto Aparici)



Seguro que os parece que ésta es una pregunta un poco tonta.

Y si Albert Einstein no hubiera descubierto la teoría de la relatividad como lo hizo, probablemente lo sería. Pero pensad lo siguiente: la relatividad cambió lo que pensábamos sobre el espacio y el tiempo. Nos descubrió que los relojes pueden marcar el tiempo a diferentes velocidades, y que las imágenes que vemos de objetos lejanos pueden aparecer deformadas debido a su movimiento o al campo gravitatorio. En los capítulos anteriores, sobre la teoría de la relatividad, se ha dado buena cuenta de muchos de estos efectos, y sabemos que la velocidad de la luz juega un papel importante en todos ellos: a velocidades bajas, como las de nuestra vida cotidiana, estos efectos son imperceptibles, pero se van haciendo más y más patentes cuando el movimiento es muy rápido, cercano a la velocidad de la luz. La pregunta es ¿por qué la luz? ¿Qué tiene la luz de tan especial para que tantos fenómenos físicos giren a su alrededor?

Para entenderlo, primero deberíamos recordar algo: a la luz le da igual lo rápido que nos movamos, ella siempre se mueve igual. Por extraño que parezca, éste es un hecho experimental muy bien establecido: la velocidad de la luz en el vacío es siempre 299.792,458 km/s. Si tuviéramos una nave espacial que pudiera moverse a 200.000 km/s y tratásemos de “perseguir” a un rayo de luz, veríamos que la luz huye de nosotros a 299.792,458 km/s. Si aceleráramos con nuestra nave espacial hasta 299.000 km/s el rayo de luz seguiría alejándose de nosotros a 299.792,458 km/s. Por desgracia no tenemos la tecnología para hacer estos experimentos con humanos en naves espaciales, pero sí podemos comprobarlo utilizando partículas subatómicas, que se mueven a velocidades altísimas, y mediante algunos dispositivos experimentales verdaderamente ingeniosos.

La física, desde luego, no se queda de brazos cruzados mientras la luz hace todas estas cosas extraordinarias: para que todos los observadores vean moverse a la luz a la misma velocidad las propias leyes del movimiento deben cambiar. Cosas aparentemente sencillas, como que si vamos en un coche a 50 km/h y el coche de delante va a 60 km/h nosotros lo veremos alejarse a 10 km/h, sabemos que no son estrictamente verdad. Son casi verdad cuando las velocidades son pequeñas, como 50 km/h o 10 km/h, pero dejan de ser verdad cuando nos acercamos al leviatán de las velocidades: la velocidad de la luz. Pero de nuevo ¿por qué la naturaleza ha escogido a la luz? ¿Por qué no a los electrones o a las ballenas o a cualquier otra cosa?

Un famoso experimento mental de Einstein nos da una pista para responder a esta pregunta. Einstein se preguntó qué sucedería si pudiésemos movernos a la misma velocidad que un rayo de luz, si pudiéramos ver a la luz en reposo, congelada delante de nosotros. A lo largo del siglo XIX se había descubierto que la luz es una onda electromagnética, un pulso de energía transportado por campos eléctricos y magnéticos en movimiento. Normalmente la electricidad y el magnetismo van ligados a cargas eléctricas: allá donde hay un electrón éste genera un débil campo eléctrico, y si el electrón se pone en movimiento tendremos, además, un campo magnético. Pero también hay otra manera de producir estos campos: si un campo eléctrico cambia con el tiempo parte de su energía se va a emplear en generar un campo magnético; y lo contrario también es verdad: un campo magnético variable generará inmediatamente un campo eléctrico. Este fenómeno, por el cual la electricidad genera magnetismo y el magnetismo genera electricidad, se llama inducción electromagnética.

Una onda electromagnética consiste en un campo eléctrico variable que genera por inducción un campo magnético un poco por delante de él. Este campo magnético también es variable, y genera a su vez un campo eléctrico un poco por delante. De esta forma, el campo eléctrico y el magnético se van “turnando” y se mueven por el espacio como si tiraran el uno del otro, empujándose para dar el siguiente paso. Normalmente las ondas electromagnéticas tienen su origen en un conjunto de cargas que se mueven de la forma adecuada –por ejemplo, los electrones que se mueven dentro de una antena–, pero una vez son liberadas al espacio se propagan de manera autónoma y ya no necesitan a las cargas porque es la inducción la que las sostiene. No es la luz el único fenómeno que se podía explicar mediante ondas electromagnéticas: las ondas de radio, los infrarrojos, y después también los rayos ultravioleta o los rayos X, son diferentes tipos de ondas electromagnéticas que se diferencian en que unas transportan más energía que otras.

Einstein, pues, se planteó qué sucedería si pudiésemos perseguir a una de estas ondas, alcanzarla y verla congelada delante de nuestros ojos. La conclusión fue bastante desagradable: la onda debería desaparecer, volatilizarse en el momento en que la alcanzáramos. Como el fundamento de la inducción es que los campos que forman la onda estén cambiando continuamente, si logramos “pararlos” la inducción también se para y la onda, sencillamente, deja de existir. En física siempre es mala noticia que las cosas se esfumen, y en este caso la noticia no tenía ni pies ni cabeza: si Einstein estaba en lo cierto, un observador parado podría ver una onda electromagnética viajando, por ejemplo, de una antena a otra entre dos edificios, y transportando información entre ambos lugares. Sin embargo, el observador que persigue a la onda y logra que desaparezca no vería nada viajando de un edificio a otro: la información le llegaría al receptor sin nada que la transporte, como si fuera magia. Einstein concluyó que el segundo observador no podía existir. La física, fuera como fuese, tenía que ingeniárselas para que nadie pudiese alcanzar a un rayo de luz o a una onda de radio, o de lo contrario éstas podrían aparecer y desaparecer como un fantasma, y con ellas la energía que transportan.

Esta idea fue la que llevó a Einstein a proponer que tal vez la velocidad de la luz no se viera afectada por el movimiento del observador. Era una buena manera de hacer a la luz “inalcanzable”, porque por muy rápido que nos moviéramos el rayo de luz siempre se estaba alejando de nosotros. En el fondo, el motivo no era que la luz fuese muy especial, sino que la luz, por su propia naturaleza, tiene que estar en movimiento o de lo contrario desaparecería. Lo que Einstein descubrió cuando dijo que la velocidad de la luz es constante es que hay una especie de “velocidad de las cosas que son solo movimiento”, y que esa velocidad tenía que ser la misma para todos los observadores en todos los lugares del universo.

Hay otra forma de ver este mismo fenómeno. Es archifamosa la fórmula de la relatividad especial E=mc2, que expresa que la masa es una forma de energía y que la energía se puede transformar en masa. Es menos conocido que ésta es una fórmula para objetos en reposo, y su forma completa es E=γmc2, donde γ es el factor de Lorentz, una cantidad que depende de la velocidad del objeto. El factor de Lorentz vale 1 cuando la velocidad es cero, y se hace más y más grande, hasta infinito, a medida que la velocidad aumenta. De esta manera la fórmula nos informa de que un objeto va acumulando más y más energía a medida que su velocidad aumenta, pero que incluso cuando su velocidad es cero posee algo de energía: la que está almacenada en su masa.

Esta fórmula es válida para casi todos los objetos de nuestro universo. La luz, y las ondas electromagnéticas en general, es uno de los que no cumplen esta relación. La razón es sencilla: la luz no almacena ninguna energía a velocidad cero. Como Einstein intuyó, si un rayo de luz se para su energía se volatiliza. Los físicos solemos expresar esto diciendo que la masa de la luz es cero, mluzc2 = Eluz(v=0) = 0, o lo que es lo mismo: que la luz almacena toda su energía en forma de movimiento.

No es la única que lo hace. Como hemos dicho antes, todas las ondas electromagnéticas comparten esa propiedad: ondas de radio, infrarrojos, rayos ultravioleta, rayos X, rayos gamma… También se comportan así las ondas gravitacionales, las ondulaciones en el espacio-tiempo que transportan la gravedad de un lugar a otro. Y se ha propuesto la existencia de otras partículas que deberían tener masa cero y moverse a la velocidad de la luz, aunque ninguna de ellas ha sido descubierta, al menos por ahora.

En definitiva, ahora podemos dar respuesta a nuestra pregunta: el universo no tiene ninguna predilección especial por la luz, pero las leyes de la física reconocen la existencia de una serie de objetos que, por una razón o por otra, solo pueden existir si están en movimiento. Para esos objetos la física reserva una velocidad especial, c=299.792,458 km/s, que es la misma en todo el universo y para todos los observadores y que, además, no puede ser alcanzada por ningún observador, de forma que estos objetos especiales aparezcan en movimiento a los ojos de todo el mundo. Nosotros llamamos a esa c “velocidad de la luz” únicamente porque la luz fue el primero de esos objetos que pudimos observar, y el que mejor conocíamos en el momento en que la física estuvo madura para abordar esta cuestión. Pero igualmente podríamos decir que c es “la velocidad del movimiento absoluto”, y que la relatividad, irónicamente, no deja de ser una teoría sobre qué le pasa a la física cuando entra en escena un movimiento que no es relativo, sino absoluto.


Alberto Aparici
Doctor en Física
Instituto de Física Corpuscular, Universidad de Valencia, Onda Cero
https://www.ondacero.es/programas/la-brujula/equipo/alberto-aparici/