¿Qué se
entiende por dualidad onda-corpúsculo?
(Por
Ángel S. Sanz)
Capítulo 49 de CIENCIA, y además lo entiendo!!!
1. Introducción.
La dicotomía entre onda y corpúsculo,
comúnmente denominada dualidad onda-corpúsculo, no es sino una historia que
entrelaza dos concepciones o modelos antagónicos a los que se ha recurrido para
explicar y comprender la naturaleza física, tanto de la luz, como de la
materia. A pesar del intenso debate en torno a ambos modelos a lo largo de más
de doscientos años (primero en el caso de la luz y posteriormente, ya en el
siglo XX, con la materia), hoy día se puede decir que ambos coexisten sin
plantear ningún problema. Se utiliza uno u otro en función de su adecuación al
fenómeno o proceso físico investigado y su eficacia en tal investigación, pero
no apelando a una firme convicción de que uno sea superior al otro, como
sucedió en el pasado.
En términos generales, más
allá del ámbito de la Física, la dualidad onda-corpúsculo se puede entender (o,
tal vez, deba entenderse) fácilmente como una manifestación más del dualismo,
la doctrina o modelo filosófico que considera que son necesarios dos sujetos
complementarios esenciales para poder acceder a una comprensión plena de un
fenómeno determinado, pero cuya coexistencia simultánea no es posible (en
términos metafísicos, se suele decir que ambos sujetos o atributos se
encuentran en continua oposición). El dualismo es bastante antiguo, habiendo
impregnado diversas escuelas filosóficas a lo largo de la historia, tanto
orientales, como occidentales. Un ejemplo paradigmático lo encontramos, sin ir
más lejos, en la filosofía griega clásica, en el enfrentamiento entre idealismo
platónico y materialismo aristotélico, que unos veinte siglos después, entre
los siglos XVI y XVII, darían lugar en Europa al racionalismo y el empirismo,
dos corrientes de pensamiento diferentes (aunque complementarias) de entender y
acercarse al mundo físico que contribuyeron determinantemente a la explosión de
la Revolución Científica.
Volviendo al contexto de
la Física y, en particular, lo que denominamos física moderna, es decir, la que
surge a partir de las primeras décadas del siglo XX, el dualismo también ha
jugado un papel fundamental, y no solo en relación a la dualidad
onda-corpúsculo. Por ejemplo, la relatividad especial introdujo el dualismo a
través de los pares espacio-tiempo y energía-materia. La teoría nos indica que
ambos miembros de cada par son equivalentes y, por tanto, pueden entenderse o
explicarse de la misma manera. Sin embargo, más allá de la teoría, lo que
observamos en la realidad es que cada uno de ellos se manifiesta de una forma
totalmente diferente (no medimos longitudes con relojes ni el tiempo con
reglas, por ejemplo). Curiosamente, poco más de una década después de la
aparición de la relatividad especial, la relatividad general establecía un
nuevo paradigma de dualidad, en el que cada uno de esos pares constituía, a su
vez, el elemento de un nuevo par. Conforme a esta visión, el espacio-tiempo
constituye el soporte que gobierna la dinámica de la materia-energía, cuya
presencia determina la estructura geométrica del espacio-tiempo.
Para tener una cierta
perspectiva sobre la idea que subyace a la noción de dualidad onda-corpúsculo
es interesante recurrir a lo que denominamos física clásica, es decir, la
anterior al siglo XX, que nos sirve para describir el comportamiento de los
fenómenos que observamos a nuestro alrededor, como la caída de una manzana o la
formación de ondas en un estanque cuando arrojamos una piedra. En el caso de la
manzana, es fácil seguir su trayectoria y saber dónde caerá. Esta trayectoria
solo variará si se ejerce algún tipo de influencia directa sobre la manzana
durante su tránsito (por ejemplo, lanzándole una piedra). En el caso de la
onda, la perturbación se extenderá por toda la superficie del estanque, siendo
algo más complicado determinar los efectos de la misma, que dependerán de cómo se combinen las
diversas ondas formadas. Esto implica que, para determinar el efecto de la
perturbación en un instante determinado, sea necesario observar lo que sucede
en todos y cada uno de los puntos del estanque. Estos dos fenómenos
ejemplifican dos tipos de comportamiento generales que podemos observar en
nuestro día a día. Sin embargo, con la aparición de la física cuántica en el
siglo XX, el panorama cambió radicalmente, ya que, según ésta, las partículas
pueden manifestar ambos comportamientos dependiendo del tipo de experimento a
que se sometan, sin importar que se trate de radiación (luz) o materia.
En este capítulo se
pretende aportar una visión amplia y general (aunque limitada) de por qué
hablamos de dualidad onda-corpúsculo, de dónde y cómo surge este concepto y qué
significa. Con tal propósito, en la sección 2. se presenta una discusión sobre
el origen del concepto de dualidad onda-corpúsculo asociado a la luz. En la
sección 3. se discuten los aspectos que introdujeron este concepto en el caso
de la materia (tanto da si se trata de materia ordinaria, como si es antimateria,
pues ambas obedecen las mismas leyes dinámicas) y su influencia en la aparición
de la mecánica cuántica. A modo de ilustración, y con objeto de introducir el
problema de la medida y cómo la interpretación de Copenhague explica que los
sistemas cuánticos puedan ser ondas y corpúsculos. En la sección 4. se
describen brevemente el experimento de la doble rendija y el de elección
retardada de Wheeler. Finalmente, para cerrar el capítulo, en la sección 5. se
introducirán brevemente las ideas básicas de la mecánica bohmiana, una de las
varias formulaciones de la mecánica cuántica, que permite ver cómo onda y
corpúsculo no son necesariamente excluyentes (en realidad, tampoco lo son en
las formulaciones de Heisenberg y Schrödinger, aunque ello sea menos aparente).
2. Luz: rayo,
partícula y onda.
Hacia finales del siglo XVII se tenía
constancia de diversos fenómenos asociados a la luz. Filósofos chinos, griegos
y musulmanes habían estudiado y descrito las sencillas leyes que gobiernan la
reflexión y la refracción de la luz, formalizadas durante el siglo XVII por
Snell y Descartes, y explicadas por Fermat en términos de un principio general
según el cual el tiempo que tarda la luz en viajar desde su fuente hasta su
destino es mínimo. También en el siglo XVII Grimaldi había descubierto la
propiedad de difracción de la luz, es decir, cuando la luz atraviesa pequeñas
aberturas experimenta un efecto similar a doblar una esquina, algo que
contravenía la experiencia de siglos de que la luz se propagaba siempre en línea
recta, originando sombras bien definidas (fundamento éste de la cámara obscura,
ya conocida varios siglos antes de nuestra era por los filósofos chinos). En
1669, Bartholin describía un fenómeno también asociado a la luz, observado y
utilizado como medio de guía en días nublados por los navegantes vikingos, la
birrefringencia o doble refracción de la luz. Este fenómeno básicamente
consiste en que en materiales anisótropos, como el espato de Islandia (una
variedad transparente de la calcita), la luz es refractada a lo largo de dos
direcciones diferentes, dando lugar a dos imágenes cuando se observa un mismo
objeto (un texto escrito, por ejemplo) con estos materiales. En torno a todos
estos descubrimientos tomaron forma hacia finales del siglo XVII y comienzos
del XVIII los dos grandes modelos de concebir la naturaleza de luz: la teoría
corpuscular de Newton (Fig. 1(a)) y la teoría ondulatoria de Huygens (Fig.
1(b)).
Uno de los físicos (o, tal
vez, por la época, sería más correcto decir filósofos naturales) más destacados
e influyentes ha sido Newton, sin lugar a dudas. En sus Philosophiae Naturalis
Principia Mathematica [1] condensaba las leyes que rigen el movimiento de los
objetos, es decir, las causas o fuerzas que explicaban cómo los cuerpos se
desplazan en el espacio por la acción de aquéllas, entre las que se encuentra
la gravitación o fuerza gravitatoria. Para ello, se basó en la utilización del
concepto de punto material, sin volumen, pero con una masa determinada, lo que
permitía simplificar el análisis de los problemas investigados. Una metodología
similar fue empleada en su Opticks [2], donde apelaba a la idea de que la luz
está compuesta por un gran número de cuerpos diminutos o corpúsculos (ver Fig. 1(c), izquierda), que se propagan a gran
velocidad y en línea recta a través de un mismo medio. Asignándole una
naturaleza corpuscular a la luz, Newton fue capaz de suministrar una
explicación de sus propiedades, como son el cambio de dirección que experimenta
cuando “rebota en” o “se transmite a través de” un medio diferente por el que
se estaba desplazando (es decir, la reflexión y la refracción), o cómo se
descompone en distintos colores al atravesar un prisma.
Al mismo tiempo, Huygens
desarrollaba [3] en Holanda la idea de que la luz, al igual que las ondas de
agua que se propagan por un canal al arrojar una piedra, tenía naturaleza
ondulatoria. En particular, el modelo de Huygens asumía que cada punto de un
frente de ondas era, a su vez, generador de nuevos frentes de onda. A un tiempo
dado, el efecto colectivo de todas las ondas generadas por un frente daba lugar
a un nuevo frente, lo cual explicaba el avance y propagación de la onda. La
idea era muy simple y explicaba bastante bien la propagación rectilínea de la
luz, así como los fenómenos de la refracción y la reflexión (ver Fig. 1(c),
derecha), algo que también se conseguía con el modelo corpuscular de Newton.
Sin embargo, frente a éste último, era incapaz de explicar el fenómeno de
birrefringencia, algo que Newton había conseguido explicar asumiendo que las
partículas de luz tenían “lados”. Como consecuencia de ello, así como debido a
la gran autoridad científica ganada por Newton en virtud de sus Principia
Mathematica, donde no solo establecía las leyes de la dinámica y las leyes del
cálculo infinitesimal, sino también su teoría de la gravitación, el modelo de
Huygens fue relegado a un segundo plano. La luz era, pues, un conjunto de
partículas.
Fig. 1. Isaac Newton (a) y Christian Huygens (b), proponentes de las teorías corpuscular y ondulatoria de la luz. (c) Reflexión de la luz en un espejo plano interpretada con el modelo corpuscular (izquierda) y ondulatorio (derecha).
Sin embargo, a diferencia
de la teoría de Newton, la de Huygens podía explicar un fenómeno que se observaba
con las ondas de agua, pero que aún no se había observado con luz: la
interferencia. Supongamos que tenemos dos focos de ondas circulares dentro de
una cubeta con agua (ver Fig. 2(a)). Si nos fijamos en un punto cualquiera
alejado de los focos, notaremos que hay zonas con una cierta amplitud (crestas)
y otras, delimitándolas, en las que no se observa nada, como si no hubiese
perturbación alguna. Ello se debe a cómo se combinan sobre cada punto de la
superficie del agua los frentes de ondas circulares que proceden de cada foco.
Si sobre el punto en cuestión ambos frentes son máximos, observaremos un
máximo; si uno es máximo y el otro es mínimo, tendremos una cancelación de la
onda. En el caso de la luz, sería en 1803 cuando Thomas Young observaría [4]
por primera vez este efecto, que, en términos simples, nos muestra que no
siempre luz más luz es igual a luz, sino que también puede resultar obscuridad.
Lejos de constituir una violación del principio de conservación de la energía,
lo que esto nos indica es que, cuando se trata de ondas, la energía se
redistribuye espacialmente de una forma bastante particular, intercalando zonas
de luz con zonas de obscuridad (ver Fig. 2(b)). El experimento de Young
desbancaba la teoría de la luz de Newton, incapaz de explicar la interferencia.
La luz dejaba de ser partícula para convertirse en onda.
Fig. 2. (a) Interferencia formada en una cubeta de agua mediante dos pulsadores sincronizados. (b) Interferencia formada por el paso de un haz láser rojo a través de dos rendijas.
Aparte del experimento de
Young, al asentamiento de la idea de que la luz era onda contribuyó de una
forma determinante la generalización del modelo de Huygens que realizó
Augustin-Jean Fresnel [5] a principios del siglo XIX, la cual incluía un nuevo
fenómeno: la difracción de la luz. Este fenómeno consiste en que, como
cualquier onda, la luz puede “doblarse” al llegar a una esquina, de manera que
si la hacemos pasar a través de una pequeña abertura, cuanto menor sea ésta,
más amplia será la región que abarque la luz tras dicha abertura. Este efecto
es el que explica, por ejemplo, que al interponer un objeto con un borde bien
definido (un cuchillo afilado, por ejemplo) entre nuestros ojos y una fuente de
luz intensa, como puede ser el Sol, se observe una especie de muesca o mella
sobre dicho borde, como si la luz fuese capaz de atravesar el objeto (ver Fig.
3(a)). De hecho, aunque no podemos apreciarlo a simple vista, la difracción
genera unos patrones característicos (redistribución espacial de la luz) que,
en cierto modo, recuerdan a los de la interferencia, que difuminan la zona que
tradicionalmente asignaríamos a lo que sería una sombra bien definida. La
importancia de este hecho estriba en que diluye el concepto que desde la
Antigüedad se tenía de propagación rectilínea de la luz. Con la difracción ya
no se puede hablar de tal cosa, pues entre la región de sombra total y la de
luz transmitida existe una zona de transición accesible para la luz (ver Fig.
3(b)).
Pese al rigor matemático
de la teoría de Fresnel, newtonianos convencidos como Siméon Poisson intentaron
desbancarla. Según Poisson, a partir de cálculos basados en la teoría de
Fresnel, se predecía que justo en el centro de la región de sombra proyectada
por un objeto circular debía observarse un punto de luz. Una cosa era observar
una región de “penumbra” cerca de los bordes y otra, muy diferente, que ya en
una zona de total obscuridad, alejada de los bordes del objeto interpuesto, se
observase luz, con independencia del tamaño de dicho objeto. A pesar de la
extrañeza del fenómeno, cuando el experimento fue llevado a cabo por François
Arago, el resultado fue positivo: efectivamente se observaba la mancha en el centro
de la región de sombra (ver Fig. 3(c)), confirmando la teoría de Fresnel y, por
tanto, asegurando la supervivencia e implantación del modelo ondulatorio de la
luz. En la actualidad a ese punto de luz se le denomina mancha de Poisson o de
Arago-Poisson.
Fig. 3. Diferentes ejemplos de difracción de la luz. (a) Difracción de la luz solar en el borde de un objeto con bordes bien definidos interpuesto entre el Sol y nuestros ojos. (b) Difracción de luz láser azul, donde se aprecia el patrón de franjas más allá de la zona de sombra geométrica. (c) Mancha de Poisson en el centro de la sombra geométrica proyectada por un objeto circular.
Junto con el experimento
de Young, el experimento de Arago fue crucial para la supervivencia e
implantación del modelo ondulatorio de la luz. A lo largo del siglo XIX, se fue
asentando cada vez más, alcanzando su punto álgido con la teoría del electromagnetismo
de Maxwell, una teoría que unificaba electricidad y magnetismo bajo la idea de
campo elaborada por Faraday a principios de ese mismo siglo (que substituía al
concepto más tradicional de fuerza a distancia), y que incorporaba la
concepción ondulatoria de la luz de forma natural, como un efecto ligado a la
propagación de los campos electromagnéticos. Además, también explicaba de
manera natural el fenómeno de polarización de la luz, descubierto por
Étienne-Louis Malus en la primera década del siglo XIX, y también el de
birrefringencia. Pero no solo esto, la teoría de Maxwell tiene implicaciones
más profundas aún, que se irían observando y confirmando a lo largo del siglo
XIX, como son la descripción unificada de cualquier tipo de radiación, desde los
rayos gamma (la más energética) a las ondas de radio y televisión (la menos
energética), pasando por la luz visible, la radiación ultravioleta o las
microondas; el valor fijo de la velocidad de la luz, con independencia de la
radiación de que se trate; o la invariancia lorentziana de las ecuaciones en
las que se basa (descubiertas separadamente por Ampere, Coulomb, Gauss o
Faraday), germen de la relatividad especial de Einstein.
Sin embargo, tal como reza
la expresión popular “no hay mal que cien años dure, ni cuerpo que lo resista”,
con el nuevo siglo la concepción de la luz volvería a cambiar. En 1704 Newton
publicó en su Opticks que la luz estaba formada por corpúsculos; unos cien años
después, en 1803, Young mostraba que la luz era una onda; y otros cien años
después, en 1905, Einstein reintroduciría la concepción newtoniana de
corpúsculo para explicar el efecto fotoeléctrico. La idea de Einstein surgió de
la aplicación de una hipótesis formulada cinco años antes por el físico alemán
Max Planck [6], quien para explicar la curva tan característica de un cuerpo
negro, es decir, un objeto que puede absorber y emitir radiación de cualquier
energía (ver Fig. 4(a)), necesitó considerar una hipótesis crucial para lo que
después sería la mecánica cuántica. Frente a la visión tradicional de que a un
sistema físico se le puede transferir o éste puede emitir cualquier cantidad de
energía para un determinado tipo de radiación (caracterizada por su frecuencia
o su longitud de onda), lo que Planck propuso es que esta transferencia solo
podía realizarse de forma cuantizada, es decir, mediante un número concreto de
“paquetes” indivisibles, cuyo tamaño venía determinado por la frecuencia de la
radiación de que se trate (ver ecuación (1)).
En el efecto fotoeléctrico
(en el que está basado, por ejemplo, el mecanismo de apertura automática de las
puertas de muchos establecimientos), lo que se observa es que, cuando un haz de
luz incide sobre un metal, se genera una corriente que no depende de la
intensidad de la misma, sino de su frecuencia. Este fenómeno, conocido desde
finales del siglo XIX, era inexplicable desde el punto de vista de la teoría
electromagnética de Maxwell, como también sucedía con el espectro de radiación
del cuerpo negro. Lo que hizo Einstein fue basarse en la hipótesis de Planck y
asumir que el haz de luz estaba compuesto por quanta de radiación (corpúsculos a la manera newtoniana). Según
este modelo [7], cada quantum sería
capaz de extraer un electrón si su energía era suficientemente alta, lo cual no
depende del número considerado de estos quanta
(la intensidad del haz incidente), sino de que tuviesen energía suficiente para
poder extraer al electrón del metal, lo que equivale a que la frecuencia de la
radiación incidente sea mayor que un cierto valor umbral (ver Fig. 4(b)). Lo
que observaron Planck y Einstein es que la energía de un quantum de radiación viene dada por la expresión:
E = hν = hc / λ (1)
donde ν y λ
son la frecuencia y longitud de onda de la radiación, h = 6.62607
x 10-34 J·s es la constante de Planck y c es la
velocidad de la luz en el vacío.
El modelo de Einstein fue
confirmado experimentalmente en 1923 por Arthur Compton, quien asumía que si la
radiación estaba formada por tales quanta,
entonces, al igual que cualquier partícula material, estos deberían ser capaces
de dispersar otras partículas, como electrones, al impactar sobre ellas (ver
Fig. 4(c)). Mediante simples relaciones de conservación de la energía y el
momento lineal en la colisión, se obtiene una sencilla relación de dependencia
entre la variación de la longitud de onda de la radiación dispersada (fotones
dispersados) y el ángulo de dispersión (ver Capítulo 42). El resultado fue un
éxito, recibiendo Compton por ello el Premio Nobel en Física en 1927. En cierto
modo, este éxito también sirvió para establecer el nombre por el que hoy
conocemos al quantum de radiación, el
fotón, término introducido inicialmente por el químico Gilbert Lewis, en 1926,
para denominar a la unidad de energía radiante.
Fig. 4. (a) Espectro de la radiación emitida por un cuerpo negro para diversas temperaturas. La temperatura superior sería análoga a la superficie del Sol, mientras que la inferior es del orden de la de una lámpara incandescente de filamento de wolframio. (b) Esquema del efecto fotoeléctrico en caso de una lámita de potasio iluminada por radiación de distinta energía. La luz roja es incapaz de extraer electrones, mientras que la verde o la violeta, más energéticas, sí lo son. (c) Esquema del efecto Compton: un fotón con una cierta energía es capaz de desplazar un electrón, como si de una colisión en un billar se tratase. En el proceso, parte de la energía y el momento del fotón son cedidos al electrón.
El
efecto fotoeléctrico sirvió para establecer la idea de que la radiación (los
fotones) posee una naturaleza dual, como onda y como corpúsculo, sin que una
deba de prevalecer necesariamente sobre la otra, pues la asignación de un rasgo
u otro depende del contexto experimental que se considere (en este efecto se
manifiesta la naturaleza corpuscular, de igual manera que en el experimento de
Young se observa la ondulatoria). Obviamente, el concepto moderno de corpúsculo
trasciende al newtoniano, ya que el fotón, como partícula fundamental, tiene
asignadas unas propiedades que van más allá de las meramente geométricas
postuladas por Newton. Éstas son las que nos ofrece la teoría cuántica de
campos y, a través de ella, el modelo estándar. El fotón es un bosón, sin masa
y con espín cero, portador de la interacción electromagnética en virtud del
intercambio de un cierto número de los mismos entre dos cualesquiera partículas
con carga eléctrica (quarks o leptones). Ello no es impedimento para que, a una
energía determinada, pueda manifestar su comportamiento corpuscular, como tal,
al que suele apelarse en el efecto fotoeléctrico o en física de partículas
(altas energías), o su comportamiento ondulatorio, como ocurre cuando
consideramos un gran número de ellos a bajas energías en un experimento típico
con rendijas.
3. Materia:
del punto material a la onda cuántica.
Si bien el debate en torno a la
dualidad onda-corpúsculo en el caso de la luz es bastante antiguo, como hemos
visto antes, en el caso de la materia es relativamente reciente y está
inherentemente ligado a la aparición de la mecánica cuántica a finales del
primer cuarto del siglo XX. No obstante, para comprender bien la dicotomía
onda-corpúsculo en el caso de la materia es interesante echar la mirada atrás,
a la síntesis de dos corrientes fuertemente asentadas durante los siglos XVII y
XVIII, el mecanicismo y el corpuscularianismo, que gozaron de un enorme éxito
durante el siglo XIX, pero cuya incapacidad para explicar la estructura interna
de la materia dio lugar a la aparición de la mecánica cuántica.
3.1. Mecanicismo y localidad.
Esencialmente, el mecanicismo surge
como respuesta a la búsqueda de una causa o fuerza que explique el
desplazamiento de los objetos, una cuestión tratada por los filósofos griegos,
pero que no había experimentado grandes cambios desde la teoría del movimiento
de Aristóteles. En los siglos XVI y XVII los filósofos vuelven a plantearse de
nuevo estas cuestiones, fundamentalmente a raíz de observaciones del movimiento
de los astros y la sistematización de las mismas mediante una serie de leyes
relativamente simples. El momento álgido del mecanicismo se alcanza con la
publicación en 1687 de los Principia Mathematica de Newton, quien no solo
condensa y extiende observaciones y leyes de la mecánica realizadas
anteriormente por Copérnico, Kepler, Galileo o Descartes, culminando en sus
tres principios de la mecánica y su teoría de la gravitación, sino que también
ofrece un método para realizar cálculos dinámicos detallados, el cálculo
infinitesimal (paternidad compartida con el matemático y filósofo alemán
Gottfried Leibniz). A partir de este trabajo, la complejidad de los objetos se
substituye por el concepto de punto material, al que se le asocia la masa del
objeto en cuestión y cuyo movimiento viene regido por las leyes de la mecánica
de Newton. Este movimiento puede describirse en términos del concepto de
trayectoria, una línea imaginaria bien definida que traza el objeto en el
espacio durante el curso de su desplazamiento. La modificación de esta
trayectoria tendrá lugar si, apelando de nuevo a las leyes de Newton, se ejerce
algún tipo de interacción a nivel local sobre el objeto en cuestión.
Las leyes de Newton
introducían dos ideas que han permeado la física de los últimos siglos: la
causalidad y la localidad. De acuerdo con la causalidad o principio de
causalidad, todo efecto observado en un sistema (es decir, en el cambio de su
estado) viene originado por una causa que le precede. Conforme a la idea de
localidad o principio de localidad, el estado de movimiento de los objetos solo
puede ser influido a nivel local, en una vecindad del propio objeto. Aunque
ambos conceptos parecen de sentido común, desde la aparición de la física
cuántica a comienzos del siglo XX no han dejado de plantearnos retos que aún
hoy día siguen generando debate y controversia.
3.2. Corpuscularismo y modelos modernos del
átomo: de Boyle a Bohr.
La otra corriente a la que hacíamos
mención apunta directamente hacia la propia concepción de los objetos
materiales, si la materia que los compone es continua y, por tanto, no puede
dividirse hasta alcanzar un nivel irreducible en el que pierda sus propiedades,
como defendía Aristóteles, o si, por el contrario, está formada por unidades
indivisibles e irreducibles, y cuya combinación da lugar a la materia que
observamos, como proponía la escuela atomista de Demócrito y Leucipo. Aunque
con matices, el atomismo también fue una idea considerada por escuelas
indo-budistas antes de nuestra era, así como entre los filósofos del mundo
islámico, de los cuales se hicieron eco los filósofos europeos medievales y,
posteriormente, los renacentistas, como Descartes, Gassendi, Newton o Boyle. De
hecho, es a partir de estos dos últimos, cuando el atomismo en su versión
corpuscularianista (toda la materia está constituida de diminutos corpúsculos)
toma mayor impulso, con Newton a través de su teoría corpuscular de la luz y
con Boyle a través de su teoría mecánico-corpuscular, cimiento de lo que se
convertiría en la (Primera) Revolución Química.
De la teoría corpuscular
de la luz de Newton y su influencia en la concepción de la luz durante los
siguientes 220 años, hasta la aparición de la mecánica cuántica, ya hemos
hablado en la sección anterior. La teoría de Boyle, por su parte, puede verse
como el germen del modelo atómico propuesto por John Dalton en 1803, según el
cual cada elemento químico (concepto introducido por los filósofos griegos y,
en su acepción química moderna, por Boyle) se compone de átomos individuales e
inalterables (aún se desconocía la radiactividad y la conversión de isótopos
inestables en átomos más estables) de un único tipo, que se combinan para
formar estructuras más complejas, los compuestos químicos. Es curioso que el
modelo de Dalton se dio a conocer prácticamente al mismo tiempo que Young hacía
públicos los resultados de su experimento de interferencia con luz.
Hacia finales del siglo
XIX, en 1897, el refinamiento alcanzado por las técnicas de fabricación de
bombas de vacío, de construcción de ampollas de vidrio con dispositivos
internos, como el tubo de Crookes (o las bombillas de Edison), y la posibilidad
de generar altos voltajes mediante bobinas Ruhmkorff (carretes de inducción
precursores de los transformadores actuales), permitió observar a Joseph John
Thompson que los átomos poseían cargas eléctricas en su interior. Alrededor de
una década después, en 1909, Ernest Rutherford demostraba que los átomos no
eran una amalgama de electrones y cargas positivas, sino que la carga positiva
del átomo se concentraba en una pequeñísima región, en su centro, mientras que
los electrones se movían en un volumen mucho mayor, girando en torno a órbitas
similares a las descritas por los planetas alrededor del Sol. Este modelo
planetario, pese a estar en concordancia con los experimentos y demostrar que
los átomos estaban esencialmente huecos, planteaba un problema de consistencia
con el electromagnetismo de Maxwell: toda carga (como un electrón) que describe
un movimiento circular está emitiendo radiación y, por tanto, en el curso del
tiempo perderá energía y acabará cayendo sobre el núcleo del átomo. Obviamente,
que los electrones acaben “colapsando” sobre el núcleo del átomo no solo
plantea un problema de tipo intelectual, sino también existencial, pues
significa que la materia no debería ser estable y, en consecuencia, no hay
explicación alguna para la propia existencia de los objetos que observamos a
nuestro alrededor, ni tampoco para la nuestra propia, ya que cualquier pedazo
de materia (incluidos nosotros) es un conjunto formado por un gran número de
átomos. ¿Cómo se explica, pues, la estabilidad de la materia?
En 1913, pocos años
después del descubrimiento de Rutherford, Niels Bohr retomaba el modelo de
aquél, pero introduciendo una hipótesis crucial: lejos de poder estar a una
distancia arbitraria alrededor del núcleo, los electrones se encuentran girando
únicamente en ciertas órbitas denominadas estacionarias,
a una distancia específica del núcleo sin emitir radiación alguna. Solamente
cuando el electrón salta de una de estas órbitas a otra se produce la emisión o
absorción de un quantum de radiación
(fotón), cuya energía es equivalente al salto energético entre ambas órbitas.
Frente al modelo atómico de Rutherford, el modelo de órbitas estacionarias y
saltos cuantizados de Bohr era capaz de explicar las líneas espectrales
observadas a lo largo del siglo XIX, desde que Fraunhofer descubriese que el
espectro visible de la luz solar, cuando esta se descomponía al atravesar un
prisma, no era continuo, del rojo al violeta, como observó Newton, sino que
poseía una multitud de líneas obscuras para las cuales no tenía explicación
alguna. Los físicos y químicos del siglo XIX, comenzando por Kirchoff y Bunsen,
se dedicaron a la búsqueda de tales líneas y a caracterizar materiales en
virtud de las mismas (dos elementos químicos nunca presentan los mismos
conjuntos de líneas; son como el DNI de los elementos químicos).
Hacia 1918, el modelo de
Bohr había sido refinado con una serie de correcciones realizadas por éste y
por Arnold Sommerfeld. Mientras tanto, el físico español Miguel Antonio Catalán
había descubierto [8,9] que, a diferencia de los átomos simples, como el
hidrógeno, el espectro visible de átomos con una estructura interna compleja
estaba formado por grupos de líneas, que denominó multipletes, que surgen por
desdoblamiento de las líneas principales en conjuntos de 3, 5 ó hasta 7. Este
descubrimiento contribuyó a consolidar el modelo de Bohr y Sommerfeld. Sin
embargo, y a pesar de su éxito, los conceptos de órbita estacionaria y salto
cuantizado necesitaban aún una explicación satisfactoria. Se desconocía por qué
funcionaban y eso suponía un gran obstáculo al modelo en sí, pues no se
ajustaba a la teoría conocida hasta el momento.
Obviamente, que la materia
estaba compuesta por átomos, unidades individuales e indivisibles con
propiedades idénticas para un mismo tipo, como proponía Boyle, era algo que ya
se daba por sentado cuando Rutherford, Bohr y Sommerfeld propusieron sus
modelos atómicos. Ello se debe, en cierto modo, a las investigaciones sobre una
manifestación macroscópica del mundo microscópico: el movimiento browniano.
Hacia finales del siglo XVIII, Jan Ingenhousz había observado el zigzagueante e
incesante movimiento que exhiben partículas de carbonilla diluidas en agua.
Unos cuarenta años después, Robert Brown (de quien deriva la denominación del
fenómeno en cuestión) observó [10] el mismo tipo de movimiento en caso de
vacuolas de los granos de polen suspendidas en agua. Pese a algunos esfuerzos
por intentar comprender la naturaleza de tal movimiento, no fue hasta comienzos
del siglo XX cuando se formularon los primeros modelos matemáticos exitosos
para describirlo, en particular el de Einstein, de 1905, y el del físico polaco
Marian Smoluchowsky, de 1906, que mostraban cómo este efecto constituía una
prueba indirecta de la existencia de átomos y moléculas. Las incesantes
colisiones de estos últimos, que forman el medio donde se hallan inmersas las
partículas de mucho mayor tamaño (visibles al microscopio óptico) que exhiben
movimiento browniano, serían la causa de tal efecto. El modelo de Einstein
sería verificado por Jean Perrin en 1908, lo que llevó a éste a ganar el Premio
Nobel en Física de 1926 (“por su trabajo sobre la estructura discontinua de la
materia”).
3.3. Mecánica cuántica: ondas de materia y no
localidad.
Hacia finales del primer cuarto del
siglo XX nos encontramos con que los átomos existen y son unidades indivisibles
de la materia, con un modelo atómico que es capaz de reproducir las
observaciones de que se disponía hasta el momento, pero que carece de toda
explicación lógica, y con una teoría clásica (mecánica newtoniana más
electromagnetismo maxwelliano) incapaz de explicar ese modelo. La solución a
este dilema vino de la mano de Louis de Broglie, quien en 1924, en su tesis
doctoral [11], proponía que, si la luz podía comportarse bajo ciertas
circunstancias como una partícula, como había mostrado Einstein en su
explicación del efecto fotoeléctrico, tal vez la materia ordinaria (los puntos
materiales de la teoría newtoniana) podrían exhibir, de algún modo, propiedades
ondulatorias. De ser así, si la energía de un quantum de un determinado tipo de radiación de frecuencia ν
viene dada por la expresión (1), y ésta debe de ser igual a la expresión relativista para la energía
asociada a una partícula sin masa, E = pc , tendremos que:
λ = h / p (2)
esta expresión, que relaciona la
longitud de onda λ de (la onda asociada a) una partícula
con el momento p de ésta, es lo que se conoce en el
caso de las partículas materiales como relación de de Broglie. Según esta
relación, cuanto más rápida o masiva sea la partícula (recordemos que el
momento depende proporcionalmente tanto de la velocidad de la partícula, como
de su masa), menor será su longitud de onda y
más débil será la manifestación de su naturaleza ondulatoria, y viceversa.
Dicho de otra manera, en el límite de longitudes de onda cortas (el límite de
la óptica geométrica en el caso de la luz), la materia mostrará su naturaleza
corpuscular y su movimiento podrá ser descrito de forma precisa por las leyes
de Newton y Maxwell. Esto es lo que sucede con la materia que observamos a
nuestro alrededor. Sin embargo, para longitudes de onda largas (partículas más
ligeras), las manifestaciones ondulatorias serán más prominentes y tales leyes
dejarán de ser válidas.
Ahora, una vez lanzada la
hipótesis y establecida la relación (2), queda por ver qué leyes del movimiento
sigue esa supuesta onda. Esto fue precisamente lo que hizo Schrödinger [12],
quien en 1926 propuso su famosa ecuación de ondas:
𝑖ℏ
(∂ѱ / ∂𝑡) = 𝐻ѱ (3)
donde la variable de tipo campo ѱ,
llamada función de onda, contiene información sobre el estado del sistema, pero
sin especificar unívocamente en qué punto del espacio se encuentra y con qué
velocidad, como sucede con las leyes clásicas. Físicamente, lo que nos indica
la ecuación (3) es que la variación temporal (evolución) del estado de la
partícula está directamente relacionada con la distribución espacial
instantánea de su energía, que a su vez está determinada tanto por las
condiciones de contorno impuestas sobre la onda, como por cualquier tipo de
interacción (de tipo interno o externo) que esté actuando sobre la misma. Si
tomamos el valor de la función de onda sobre un punto dado del espacio en un
determinado instante y calculamos el cuadrado de su módulo (la función de onda
es, en general, un campo complejo), lo que
obtenemos es la probabilidad de encontrar o detectar partículas en esa región
del espacio.
Pese a que pueda parecer
un resultado totalmente novedoso, lo interesante de la ecuación (3) es que
tiene un punto de partida directamente relacionado con la mecánica clásica: la
formulación hamiltoniana. Esencialmente, esta reformulación de la mecánica de
Newton, propuesta por William Rowan Hamilton hacia 1833, se basa en substituir
el concepto de fuerza a distancia newtoniano por el de energía, lo que permite
encontrar una analogía directa entre la dinámica de partículas materiales y la
evolución de rayos ópticos (estos serían el análogo directo de las trayectorias
newtonianas). De este modo, la evolución del sistema tiene lugar conforme a un
mecanismo de minimización de igual forma que en óptica geométrica los rayos
proceden de la minimización del tiempo de recorrido de un punto a otro,
conforme al principio de Fermat. De hecho, si en vez de energías se considera
una magnitud más general denominada acción mecánica (con dimensiones de energía
multiplicada por tiempo), la analogía es directa, pues esta acción es el
equivalente de las superficies de fase constante que cualquier rayo cruza
perpendicularmente a lo largo de su recorrido. Éste es el punto a partir del
cual Schrödinger comenzó la elaboración de su ecuación, generalizando el
concepto de fase geométrica, lo que pasaba por incluir además un término de
amplitud a la onda relacionado con la intensidad asociada a ésta.
De Broglie propuso la idea
de que la materia podía comportarse como una onda y Schrödinger suministró la
ecuación matemática que gobierna la evolución de tales ondas. Es por ello que
es común utilizar la terminología onda de
materia para referirse a este comportamiento cuando estudiamos propiedades
de difracción o de interferencia con partículas. Este es el caso, por ejemplo,
cuando se realiza interferometría con partículas materiales, como neutrones o
electrones. Que la materia se comporta como una onda es algo que se ha venido
confirmando con electrones, átomos, neutrones, grandes complejos moleculares o
nubes de átomos en fase de condensado de Bose-Einstein desde que Schrödinger
propusiese su ecuación. Igualmente, apelando a su naturaleza ondulatoria, desde
entonces se han venido empleado partículas materiales para estudiar la
estructura interna de sólidos y líquidos mediante técnicas basadas en la
dispersión de neutrones, electrones o átomos de helio, por ejemplo, que
mostraban comportamientos análogos a las técnicas homólogas ópticas (luz
visible, ultravioleta o rayos X).
Una característica
singular de estas ondas es que, a diferencia del tratamiento clásico del punto
material, introducen comportamientos no locales: una perturbación local sobre
un punto dado produce un cambio inmediato en la configuración completa de la
onda a tiempos posteriores, como sucede en cualquier tipo de onda. En
principio, cuando se trata de ondas asociadas a una única partícula, los
efectos no son demasiado impactantes. En la sección 4. se discute precisamente
esta situación mediante dos ejemplos que nos muestran como, lejos de paradojas
de gatos encerrados en cajas, lo que realmente sucede con las ondas cuánticas
se parece más a lo que sucede cuando se modula una señal mediante el uso de un
ecualizador: aunque la señal cambia de forma gradual, la variación de cada
frecuencia componente afecta de forma inmediata a toda la señal sin que ello
suponga una violación de la relatividad especial (no hay transmisión de información). Más impactante aún es el
caso de la onda asociada a dos partículas que han interaccionado en algún
momento. De acuerdo con Schrödinger, esa interacción genera una correlación tal
que si ambas partículas se separan, las medidas que se realicen sobre ambas
seguirán estando altamente correlacionadas con independencia de la distancia
que las separe (siempre que no aparezcan otras partículas que puedan
interaccionar durante la separación). Es lo que Schrödinger denominó
entrelazamiento (cuántico) [13], que contraviene el “sentido común” impuesto
por el principio de localidad. Sin embargo, no hay nada incorrecto en ello,
pues la mecánica cuántica es inherentemente no local.
4. De onda a
corpúsculo, y viceversa.
El concepto de dualidad
onda-corpúsculo, uno de los más profundos y controvertidos de la física
cuántica, es también una de las manifestaciones más palpables del denominado
principio de complementariedad [14], enunciado por Bohr en 1927, según el cual
la física cuántica prohíbe determinantemente conocer al mismo tiempo dos
propiedades o aspectos complementarios de un mismo sistema físico mediante un
único experimento, como puede ser la manifestación de su doble comportamiento
como onda y como corpúsculo, dependiendo del experimento que estemos llevando a
cabo. La formalización de este principio está directamente relacionado con las
relaciones de Heisenberg (ver Capítulo 42). A continuación vamos a ver
brevemente dos de los experimentos más paradigmáticos de la física cuántica,
que ilustran la dualidad onda-corpúsculo a través de la noción de
complementariedad: el experimento de la doble rendija de Young y el experimento
de la elección retardada de Wheeler.
4.1. El experimento de la doble rendija.
El experimento que Young realizó en
1803 iluminando dos rendijas con luz demostraba que ésta se comporta como una
onda al atravesar dichas rendijas, dando lugar a zonas de luz intercaladas con
zonas de sombra sobre una pantalla colocada a una cierta distancia de las
rendijas (ver panel superior de la Fig. 5). Hoy día, más de doscientos años
después de su realización, cuando pensamos en este experimento tan
relativamente simple e inocente asumiendo que la luz se propaga por el espacio
como las ondas de agua, el resultado nos parece de lo más lógico, podríamos
decir. Sin embargo, supongamos que se puede controlar la intensidad de la luz
que emerge de la fuente que estemos empleando hasta hacerla tan débil que la
energía fuese equivalente, de acuerdo con la relación de Planck-Einstein (1), a
un único fotón por unidad de tiempo. Dicho de otro modo, debilitamos tanto la
intensidad de la fuente que, al menos en promedio, nos aseguramos de que
solamente haya un fotón viajando de la fuente a la pantalla de detección durante
el tiempo que tarda dicho fotón en realizar este viaje. Si asumimos la
naturaleza corpuscular del fotón, ¿qué sucede cuando éste llega a la doble
rendija? Está claro que el patrón de interferencia debe aparecer, tanto si
tenemos una fuente de alta intensidad, como si se trata de un único fotón por
unidad de tiempo. En este experimento, lo único que la mecánica cuántica nos
indica es que, desde el comienzo de su viaje, el fotón ha adquirido una
naturaleza ondulatoria, lo que le permite, de algún modo, “desdoblarse” al
llegar a las dos rendijas y volver a “recombinarse” posteriormente,
contribuyendo al patrón de interferencia que debe observarse.
Fig. 5. Panel superior: Recreación de la interferencia de frentes de onda semicirculares emitidos por dos focos sincronizados. Panel inferior: Formación del patrón de interferencia en el experimento de la doble rendija con electrones realizado por Akira Tonomura y colaboradores en 1989 [15]. Se observa cómo a medida que transcurre el tiempo, la acumulación de detecciones de llegadas de electrones pasa de ser aparentemente aleatoria a dibujar una sucesión de bandas claras y obscuras.
Esa
es la visión tradicional y la generalmente aceptada por la forma en que se
suele enseñar este experimento. Sin embargo, resulta interesante el hecho de
que lo que se observa sobre la pantalla es un impacto y no un diagrama de
franjas alternas claras y obscuras. La mecánica cuántica no dice absolutamente
nada sobre cómo ese impacto ha llegado a ese punto de la pantalla. Los
fundadores de esta teoría, con el fin de evitar tal problemática, asumieron que
tras la evolución del sistema, conforme a la ecuación (3), lo que sucedía era
un segundo proceso denominado colapso de
la función de onda, que tenía lugar por el mero hecho de que la onda era
medida. Este colapso sucede de forma totalmente aleatoria, al azar. En nuestro
caso, este proceso explicaría que la función de onda asociada al fotón colapse
sobre uno de los píxeles de la cámara CCD que dispusiésemos a modo de pantalla
de detección (éste es el procedimiento que suele seguirse actualmente en la
realización de este tipo de experimentos en el laboratorio; ya no son meramente
“experimentos mentales”). Es decir, inicialmente el fotón cambia su naturaleza
corpuscular por la ondulatoria por algún motivo totalmente desconocido y, una
vez pasadas las rendijas, tiene lugar el proceso inverso durante su detección. Extraño
y, en cierto modo, mágico, pero así es como se concibe este experimento.
Obviamente, a medida que el número de fotones detectado crece (se repite el
mismo proceso un gran número de veces), lo que se obtiene es que las
detecciones se distribuyen espacialmente por la pantalla donde son detectadas
de tal manera que acaban reproduciendo, por estadística, el patrón de
interferencia que se observa con intensidad alta, como se muestra en los
sucesivos paneles inferiores (de izquierda a derecha) de la Fig. 5, en el que
los puntos blancos son detecciones individuales de electrones.
Pero el experimento no
queda ahí. Supongamos que se lleva a cabo una pequeña modificación consistente
en poner un detector justo a la salida de una de las rendijas con objeto de poder
determinar por dónde pasa el fotón. Esto se puede hacer (y, de hecho, se hace)
fácilmente colocando un polarizador lineal sobre cada una de las rendijas de
tal manera que los ejes de polarización de cada polarizador formen mutuamente
un ángulo recto. De este modo, si el fotón pasa por una de las rendijas, saldrá
polarizado en una dirección, y si lo hace por la otra, saldrá polarizado a 90º
con respecto a la primera. En este caso, el simple hecho de saber por qué
rendija ha pasado el fotón es suficiente como para eliminar el patrón de
interferencia que se esperaría y obtener simplemente, tras la acumulación de un
número suficientemente grande de fotones, un patrón parecido al que se
obtendría con pelotas de golf arrojadas contra una pared con dos orificios, es
decir, la suma de lo que sale por cada uno de los orificios. Conforme a la
visión tradicional del experimento, lo que sucede es que al tratar de discernir
el camino del fotón lo que se provoca es que éste muestre en todo momento su
naturaleza corpuscular.
Pero podemos ir un paso
más lejos aún. ¿Es posible recuperar el patrón de interferencia? La respuesta
es sí. Para ello basta con situar un “borrador cuántico”, es decir, un
dispositivo que elimine toda información de por dónde ha pasado el fotón antes
de que éste llegue a la rendija de manera que ya no sepamos por dónde pasó el
fotón. Dicho dispositivo no es más que otro polarizador lineal colocado de tal
manera que su eje esté a 45º con respecto a los ejes de los polarizadores que
teníamos sobre cada rendija. Asumimos que entre las rendijas y este nuevo
polarizador no hay detector alguno y que, además, el polarizador puede estar a
cualquier distancia de las rendijas. Lo que se observa es que, con
independencia de por cual de las dos rendijas salga el fotón, éste adquirirá el
mismo estado de polarización tras pasar a través del nuevo polarizador, que
elimina todo rastro del camino seguido por el fotón y, por tanto, posibilita la
formación de un patrón de interferencia en nuestro detector (cuando consideramos
un gran número de fotones). El nuevo polarizador ha permitido que el fotón,
antes de ser detectado, adquiera por un tiempo su naturaleza ondulatoria.
Este comportamiento tan
sumamente extraño no solo se observa con fotones, sino que ha sido verificado
una y otra vez con cualquier tipo de partícula material, como electrones,
neutrones, átomos, moléculas, grandes complejos moleculares o, incluso,
condensados de Bose-Einstein. Actualmente, de hecho se está planteando la
posibilidad de realizarlo con objetos incluso mayores, como son cadenas de
ácidos nucleicos, virus o bacterias, lo que constituye un verdadero reto (al
menos desde la perspectiva más tradicional de la mecánica cuántica) en el
sentido de que un organismo vivo podría encontrarse en dos lugares al mismo
tiempo (una rendija u otra), igual que en la famosa paradoja del gato de
Schrödinger el gato puede estar vivo y muerto, también al mismo tiempo [16].
4.2. El experimento de elección retardada de
Wheeler.
Hoy día, lejos de ser un experimento
mental, el experimento de la doble rendija con fotones individuales (fuentes de
luz extremadamente débiles) se puede realizar de forma rutinaria en un
laboratorio convencional, pues solo es necesario un láser, una cámara CCD y una
serie de dispositivos ópticos, como rendijas, polarizadores y lentes (con
partículas materiales es algo más complicado debido al método en que las
partículas deben ser preparadas y posteriormente difractadas). El resultado es
ciertamente bello a la par que desconcertante. Ahora, la pregunta natural que
nos surge ante este experimento es la siguiente: si el fotón debe mostrar un
comportamiento determinado, como onda o como corpúsculo en un experimento, ¿qué
ocurre si, una vez con el experimento en curso, se produce una variación drástica
del mismo? ¿Cambiará el fotón su naturaleza instantáneamente o, por el
contrario, seremos capaces de ver ambos aspectos? Esto es precisamente lo que
John Archibald Wheeler se preguntaba a finales de 1970 [17].
Lo que planteó Wheeler fue
el siguiente experimento (ver Fig. 6). Supongamos que en vez de practicar dos
rendijas en una pantalla, lo que hacemos es disponer lo que se conoce como
divisor de haz en el camino del fotón, de manera que con una probabilidad del
50% el fotón puede seguir sin desviase (transmitiéndose a través del divisor) o
reflejarse 90º con respecto a su trayectoria inicial. En cualquiera de los dos
casos, a una cierta distancia se colocan sendos espejos, de manera que
cualquiera de las dos posibles trayectorias seguidas por el fotón experimentará
un giro brusco de 90º por la reflexión en los espejos. Esto quiere decir que en
un cierto instante ambas trayectorias coincidirán sobre el mismo punto (es
decir, de nuevo tenemos dos posibles caminos a seguir por el fotón, como en la
doble rendija). La sutileza del experimento estriba en lo siguiente. Si a lo
largo de la proyección de cada una de las trayectorias tras el punto de corte
colocamos un detector (configuración abierta, ver Fig. 6(a)), lo que
obtendremos es que el 50% de las veces el fotón será detectado en uno de ellos
y el otro 50% en el otro. Si situamos un nuevo divisor de haz sobre el punto de
corte (configuración cerrada, ver Fig. 6(b)), el fotón se comporta como una
onda (igual que tras el paso por el primer divisor de haz), de manera que las
ondas procedentes de ambos caminos se recombinan y solamente se observará señal
en el detector situado a lo largo de la prolongación del camino inicialmente
reflejado (el 100% de las veces el fotón llegará a este detector).
Fig. 6. Experimento de elección retardada de Wheeler con el interferómetro en configuración abierta (a) y cerrada (b). En el segundo caso, variando de forma periódica la diferencia de fase entre ambos caminos es posible modular la señal detectada, cambiando ésta de forma también periódica de un detector al otro.
Lo que nos muestran esos
dos experimentos es que, en un caso, pasamos de corpúsculo a onda y de nuevo a
corpúsculo; en el otro, la presencia de un nuevo divisor provoca un nuevo paso
a onda. ¿Qué sucede si consideramos el primer experimento pero, una vez nos aseguramos
de que el fotón ha pasado el primer divisor, modificamos rápidamente el
experimento e implementamos el segundo experimento? En principio, tras pasar
por el primer divisor, el fotón ha tenido que “decidir” el comportamiento a
adoptar y, como no había segundo divisor, será corpúsculo, habiendo así elegido
entre un camino o el otro. Sin embargo, el resultado que se obtiene es que
solamente uno de los detectores registra señal, conforme a lo que sucede en el
segundo experimento. Es decir, a pesar de que el cambio se ha producido una vez
el fotón se ha decantado por una de sus dos naturalezas, finalmente “decide
cambiar su elección”. Igualmente, si inicialmente tenemos colocado el segundo
divisor de haz y, una vez asumimos que tenemos al fotón viajando como una onda
por ambos caminos, lo quitamos, lo que observamos es señal (del 50%) en ambos
detectores. De nuevo, el fotón ha realizado una elección sobre qué aspecto
mostrar al final, una elección con cierto retardo, pues no se toma antes de que
entre en el dispositivo, sino una vez está dentro y, supuestamente, las “reglas
del juego” están ya establecidas.
De nuevo nos encontramos
aquí ante un interesante reto cuántico que, cada vez que se realiza en el
laboratorio [18], no hace sino corroborar la doble naturaleza de las partículas
cuánticas, como onda y como corpúsculo, las cuales, en conformidad con el
principio de complementariedad, no nos son accesibles mediante un único
experimento, pues o bien observamos una o bien la otra, pero no ambas al mismo
tiempo … ¿o, tal vez, esto no es realmente así y lo que hace falta es repensar
en otros términos estos experimentos?
4.3. Condiciones de contorno: Una mirada
pragmática al problema de la dualidad onda-corpúsculo.
En los experimentos que se acaban de describir
se ha tenido en cuenta una visión análoga a la de los fundadores de la mecánica
cuántica y, particularmente, la que mantenía el propio Bohr con su noción de
complementariedad. La cuestión que nos surge, sin embargo, es si realmente es
necesario apelar al concepto de corpúsculo. Es decir, si el elemento central de
la mecánica cuántica es la onda, ¿cómo se sostiene el concepto de corpúsculo?
¿Es realmente necesario? Ciertamente, contar con un modelo tan sencillo como es
el de una masa puntual es bastante atractivo: un objeto que se desplaza por el
espacio a una velocidad determinada y cuyo estado de movimiento solo varía si
existen fuerzas externas actuando sobre este objeto en un punto dado del
espacio. Tratar con ondas, sin embargo, incluso para situaciones relativamente
sencillas se torna bastante más complejo, entre otras cosas, porque una onda
abarca todo el espacio disponible (accesible para el sistema al que describen).
No obstante, una descripción precisa del efecto fotoeléctrico requiere del uso
de ondas, incluso si Einstein consideró un sencillo modelo heurístico que
apelaba a la idea de corpúsculo (recordemos que la mecánica cuántica apareció
veinte años tras el modelo de Einstein).
Hecha la anterior
aclaración, ¿qué es lo que sucede a la partícula cuántica en aquellos casos en
que decimos que exhibe su naturaleza corpuscular? Para responder debemos tener
en cuenta que toda onda es sensible a las condiciones del contorno que la acota
[19] (las ondas en un estanque de agua son sensibles al contorno del propio
estanque, así como a la presencia de cualquier otro elemento que pueda
encontrarse al nivel de la superficie, como pueden ser rocas o troncos). Si
éstas se varían, en el momento que sea, porque el experimento cambia, la onda
asociada a la partícula también cambiará como consecuencia de ello, como se indicó
al final de la sección 3.3., generando un resultado final diferente del que se
esperaría sin tal variación del experimento. Así, por ejemplo, en el caso de la
doble rendija, lo que está sucediendo cuando situamos un polarizador tras la
rendija, no es que repentinamente la partícula deje de ser onda y se convierta,
espontáneamente, en un corpúsculo, sino que las ondas que salen por ambas
rendijas son incoherentes y, por
tanto, no dan lugar a interferencia. Esto no quiere decir que no existan
efectos cuánticos (manifestaciones ondulatorias), pues si el experimento se
lleva a cabo con la suficiente precisión, lo que se observa es que el patrón
que se forma es la suma directa de los patrones de difracción que origina cada
una de las rendijas por separado. Y, como hemos visto anteriormente en este
capítulo, la difracción es, precisamente, un rasgo típicamente ondulatorio. Lo
realmente interesante de este experimento es que para que la partícula pueda
generar un patrón de interferencia es imprescindible que la distancia entre las
dos rendijas sea comparable a la longitud de onda que caracteriza a la onda
asociada a la partícula; si esa distancia es mucho mayor, no habrá
interferencia alguna, porque la partícula necesita “percibir” que existen dos
rendijas abiertas al mismo tiempo.
En el caso del experimento
de Wheeler, la explicación es análoga [19]: no es que la modificación del
experimento durante su transcurso (y una vez que la partícula está dentro del
interferómetro) haga rectificar al fotón su comportamiento, de onda a
corpúsculo, y viceversa, sino que, al cambiar las condiciones de contorno del
propio experimento, se está influyendo sobre la onda total y, por tanto, el
resultado que debe salir. Es decir, la onda sigue siendo onda y lo único que
cambia es su reconfiguración (redistribución espacial de la probabilidad
asociada) dependiendo de qué es lo que sucede dentro del interferómetro, lo
cual no tiene nada que ver con el efecto ilusorio de que el fotón realiza una
elección con cierto retardo (algo que, de hecho, inquietaba al propio Wheeler).
Aparte de la variación de
las condiciones de contorno, también podrían variar las condiciones físicas a
las que está sometida la partícula, como puede ser la interacción con otras
partículas o sistemas circundantes. Esto, como apuntaba Schrödinger, da lugar
al entrelazamiento irreversible ente los diversos agentes involucrados y, como
efecto, tiene lugar lo que se conoce como decoherencia [20,21], es decir, a la
pérdida de la coherencia cuántica del sistema por su interacción con otros
sistemas, que se traduce en la pérdida de su capacidad de exhibir los rasgos
ondulatorios que vendría mostrando de no haberse producido la interacción. Este
mecanismo, propuesto por Hans Dieter Zeh en 1970 [22], permite comprender por
qué observamos que ciertos sistemas cuánticos se comportan como si estuviesen
descritos por las leyes clásicas sin necesidad de abandonar la mecánica
cuántica, como mantienen el principio de complementariedad de Bohr y la noción
de dualidad onda-corpúsculo.
5. Mecánica
bohmiana: onda y corpúsculo.
La 5ª Conferencia Solvay, en 1927,
sobre la interpretación de la mecánica cuántica [23] finalizó con una visión
bastante tajante y pragmática sobre la manera de entender los procesos
cuánticos [24]: cualquier cuestionamiento sobre el estado de un sistema cuántico
dado no tiene sentido físico alguno a menos que se realice una medida para
determinar la propiedad de que se trate, en cuyo caso solo podremos obtener una
respuesta parcial, pues el estado del sistema “colapsará” sobre alguno de los
posibles valores asignados a tal propiedad y no a todos ellos (una visión
completa se obtiene únicamente a través del análisis estadístico de un gran
número de estos colapsos). Esta visión es lo que generalmente se conoce como
interpretación ortodoxa o de Copenhague de la mecánica cuántica, que recoge
principalmente la visión de Bohr sobre cómo han de entenderse los fenómenos
cuánticos en relación al proceso de medida. Pese a la sensatez que encierra
esta interpretación, el hecho en sí de que se niegue cualquier tipo de cuestionamiento
previo a la medida ha originado que durante décadas llegase incluso a negarse
la existencia propia del sistema previa a su medida (como sucede con el estado
del gato de Schrödinger, vivo y muerto al mismo tiempo hasta que se abra la
caja), algo que se ha perpetuado hasta la actualidad.
Sin embargo, ¿existe
alguna alternativa ante tal situación? Dejando de lado cuestiones de tipo
filosófico y centrándonos en una visión también pragmática del asunto, la
respuesta es positiva. Para ello hay que retomar brevemente el modelo propuesto
por de Broglie. Su principal contribución, la que nos ha llegado hasta hoy, es
básicamente la relación (2). A partir de ella se dice que cualquier partícula
cuántica tiene una doble naturaleza, como onda y como corpúsculo, y de ahí el
concepto de dualidad onda-corpúsculo que hemos tratado en este capítulo. Sin
embargo, y aunque se ha introducido así también en este capítulo, ésa es una
idea que surge tras las críticas que el propio de Broglie recibió precisamente
en la Conferencia Solvay de 1927. La idea inicial con la que llegó a esta
conferencia era algo diferente y consistía en la hipótesis de que toda
partícula cuántica era una especie de singularidad que estaba de algún modo
ligada irremediablemente a una onda [25,26]. Es decir, había una onda y había
también, al mismo tiempo, un corpúsculo; ambas coexistían. La evolución de la
onda, cuya longitud de onda era la que aparece en la ecuación (2), determina la
dinámica del corpúsculo, cuyo momento es p
(por este motivo de Broglie la llamó la onda piloto), pero sin que éste
último ejerza, a su vez, ningún tipo de acción sobre la primera. Dicho de otro
modo, no es que la partícula cuántica unas veces se comporte como onda y otras
como corpúsculo, sino que ambos aspectos coexisten. Fue la incapacidad de de
Broglie de suministrar una ecuación de movimiento para la onda lo que determinó
en gran medida que su hipótesis original fuese finalmente rechazada.
Como se ha indicado
anteriormente, fue Schrödinger quien finalmente encontró la ecuación que regía
la evolución de la onda de de Broglie. En 1926, prácticamente tras ser
propuesta la ecuación de Schrödinger, Erwin Madelung encontró [27] una sencilla
transformación que permitía reescribir dicha ecuación en términos de un par de
ecuaciones alternativas análogas a las de la hidrodinámica clásica, hoy
denominadas ecuaciones de Madelung. Lo que Madelung buscaba era encontrar una
visión menos abstracta de los sistemas cuánticos. Aunque inicialmente no
encontró demasiado eco, con el tiempo se ha convertido en una forma estándar de
entender la superfluidez, por ejemplo.
A pesar de las propuestas
de de Broglie y Madelung, no es hasta 1952 cuando las aguas de la
interpretación en mecánica cuántica son fuertemente agitadas, lo que sucede con
el modelo planteado por David Bohm [28]. Matemáticamente, este modelo es
equivalente al planteado por sus predecesores. Sin embargo, su importancia
radica en que replantea por primera vez el problema de la medida y de las
variables ocultas desde un punto de vista realmente robusto, no con hipótesis o
reformulaciones, sino como un modelo plenamente en pie de igualdad con otros
enfoques cuánticos. Sin contravenir ningún resultado fundamental de la mecánica
cuántica, Bohm muestra que es posible la coexistencia de unas ondas y de unas
trayectorias, donde éstas últimas proceden de la evolución de puntos materiales
bajo la guía de las ondas (ondas piloto). La aleatoriedad de la posición
inicial (indeterminada e indeterminable) de cada una de esas trayectorias
permite escapar a la restricción de la relación de incertidumbre de Heisenberg
y, al mismo tiempo, nos permite tener una imagen del proceso de detección
(medida) sin necesidad de apelar a la idea de colapso de la función de onda y,
por tanto, a la subjetividad de la presencia de un observador externo que nos
indique si el gato está vivo o muerto.
Aunque el modelo de Bohm,
conocido en la actualidad como mecánica bohmiana (o hidrodinámica cuántica, en
la versión de Madelung), fue fuertemente rechazado y olvidado a partir de 1954,
en la década de los sesenta John Bell lo retomó, inspirándose en él para
formular su teorema y establecer que el problema con el que se encontraron
Einstein y otros no era la imposibilidad de encontrar variables ocultas, como
tal, sino que la estructura no local de la propia teoría cuántica determinaba
qué tipo de variables ocultas podían ser factibles (únicamente las de tipo no
local). A partir de los años 70, Bohm y sus colaboradores retomaron estos
trabajos [29,30], y a partir de ahí se fue generando una creciente comunidad a
nivel internacional con una visión bastante heterodoxa de lo que los sistemas
cuánticos son y, por extensión, de cómo debe entenderse el concepto de dualidad
onda-corpúsculo.
Hace solamente unos años
se realizaron sendos experimentos que mostraban que tal vez esta visión de los
procesos cuánticos no solo no es descabellada, sino que posiblemente comience a
ser necesaria una revisión en profundidad de lo que realmente se puede decir y
no se puede decir en mecánica cuántica, sin mantener el lastre de los tiempos
de su fundación, cuando la gran cantidad de experimentos que se realizan hoy
día en laboratorios de todo el mundo son una realidad y no una idea. Uno de
esos experimentos fue el realizado por el equipo de Aephraim Steinberg en la
Universidad de Toronto que mostraba [31] cómo en el caso de la doble rendija de
Young es posible determinar los caminos promedio seguidos por los fotones en el
transcurso del experimento sin destruir el patrón de interferencia. Otro
conjunto de experimentos ciertamente interesantes para el tema que se discute
aquí fueron los llevados a cabo independientemente por Yves Couder e Immanuel
Fort [32] en la Université Paris Diderot y John Bush [33] en el Massachusetts
Institute of Technology (MIT) con fluidos clásicos, en los que se observa cómo
una gota (el corpúsculo) en suspensión vibrante sobre una onda en un fluido del
mismo tipo es guiada y se comporta de forma similar a como lo hacen sistemas
cuánticos análogos. Es decir, la onda substrato se comporta como la onda piloto
de de Broglie. Como no podía ser de otra manera, ambos experimentos tuvieron
una amplia repercusión.
Pero, ¿podemos considerar
la visión conjunta de onda y corpúsculo que nos suministra la mecánica bohmiana
como definitiva? Obviamente, no. La mecánica bohmiana no es más que otra
representación adicional de la mecánica cuántica y, por tanto, en ese sentido,
no nos dice nada nuevo que no estuviese ya contenido en ésta. A pesar de ello,
resulta interesante, porque nos permite repensar los procesos cuánticos de una
manera alternativa a como fueron presentados por Bohr y la escuela de
Copenhague. Dicho de otro modo, nos muestra que en mecánica cuántica, al igual
que en la mecánica clásica, el formalismo matemático admite una interpretación
y comprensión de los fenómenos bastante amplia. Por ejemplo, en el citado
experimento realizado por Steinberg y sus colaboradores las trayectorias no
indican nada sobre el movimiento particular de cada fotón detectado durante su
viaje. Sin embargo, dado que matemáticamente son líneas de flujo, éstas nos
permiten visualizar cómo se desarrolla espacialmente, en cada instante, la corriente
de fotones, algo que es bastante complicado de visualizar con la representación
ondulatoria de Schrödinger o, incluso, imposible si recurrimos a la de matrices
de Heisenberg. Por su parte, los experimentos de Couder, Fort y Bush tampoco
nos dicen que las partículas cuánticas sean como esa gotita vibrante. Sin
embargo, sí que podemos utilizar las trayectorias bohmianas para comprender la
dinámica cuántica de la misma manera que la trayectoria trazada por la gotita
vibrante nos da una idea del movimiento generado por la onda sobre la que viaja
(de la misma manera que una hoja nos permite saber por dónde y cómo fluye la
corriente de un río, pero no nos indica nada sobre el incesante movimiento de
las moléculas de agua que conforman dicha corriente). En este sentido, el
propio Bohm publicó un modelo en 1954 en colaboración con Jean-Pierre Vigier
[34], extendido más de tres décadas después con la colaboración de Basil Hiley
[35], sobre la naturaleza estocástica del movimiento que subyace a las trayectorias
que se deducen del artículo de 1952. En concreto, conforme a ese trabajo (el de
1954), las trayectorias bohmianas no son sino el resultado de promediar
conjuntos de trayectorias asociadas a un movimiento difusivo de tipo browniano
que evolucionan en un substrato que podríamos denominar “sub-cuántico”, es
decir, un nivel por debajo del cuántico que describe la ecuación de
Schrödinger.
Por el momento, tanto ese
tipo de movimiento aleatorio, como el substrato donde se desarrolla, son
inaccesibles para la teoría cuántica actual y, por tanto, aunque pueda resultar
interesante y atractiva, su hipótesis es solo una mera especulación. Sin
embargo, tampoco aquí nos topamos con algo totalmente descabellado. Aunque
solemos asumir que la ecuación de Schrödinger es una ecuación de ondas (entre
otros motivos, en virtud de la conexión establecida por de Broglie y
posteriormente por Schrödinger), lo cierto es que es bastante más parecida a
una ecuación de difusión y, en particular, a la ecuación del calor. La ecuación
de difusión describe la evolución colectiva de un conjunto de partículas
clásicas que se mueven aleatoriamente. A pesar de esa aleatoriedad, las
soluciones de la ecuación de difusión son totalmente regulares, como sucede con
las funciones de onda de la ecuación de Schrödinger. La principal diferencia
con respecto a una ecuación de difusión corriente procede de que en la de
Schrödinger el coeficiente de difusión que aparece es una constante imaginaria,
𝑖ℏ/2𝑚,
como ya observó el físico austriaco Harold Fürth en 1933. Esta idea, explorada
en mayor detalle en los años sesenta del siglo XX por Kershaw, Comisar o Nelson
tomando como base la teoría de procesos estocásticos de Wiener, nos lleva a
pensar si, efectivamente, la ecuación de Schrödinger no es en realidad o debe
entenderse como una ecuación de tipo estadístico. De hecho, cualquier resultado
experimental cuántico no es otra cosa que una estadística realizada con un gran
número de sistemas, por hipótesis, no interactuantes y preparados inicialmente
con el mismo estado. Dentro de este escenario, las trayectorias bohmianas son
el análogo directo a integrar la ecuación del flujo o primera ley de Fick de la
mecánica estadística.
Teniendo en cuenta lo
anterior, parece que no solo el carácter corpuscular queda totalmente “en el
aire”, pues a menos que se apele a éste como mero argumento de discusión (algo
que, a noventa años del nacimiento de la mecánica cuántica, y con la tecnología
experimental disponible hoy día, parece que no tiene mucho sentido), la teoría
en sí no dice absolutamente nada; cualquier comportamiento de ese tipo se
explica perfectamente con la mecánica cuántica. Además, vemos que la analogía
tan directa entre la ecuación de Schrödinger y la ecuación de difusión nos hace
también dudar de si deberíamos hablar aún de una naturaleza “ondulatoria” en
vez de simplemente estadística cuántica. Tal vez, al igual que la mecánica
clásica acabó desembocando en la termodinámica y la teoría estadística en el
siglo XIX, la teoría cuántica habría que mirarla, de forma más correcta, como
una generalización de la teoría estadística en general y no solo cuando
hablamos de estadísticas de partículas cuánticas (fermiones y bosones). En
cualquier caso, y a pesar de ser la teoría más exitosa y potente desarrollada
hasta el momento, posiblemente en un futuro, si se somete a mayores pruebas, la
mecánica cuántica nos conducirá a resultados y teorías nuevas, como señalaba en
una entrevista hace unos años el físico y Premio Nobel en Física Anthony
Leggett.
Bibliografía:
[1] “Phisolophiae
Naturalis Principia Mathematica”, I. Newton (London, 1687), reimpreso en: “The
Principia: Mathematical Principles of Natural Philosophy: A New Translation”,
I. B. Cohen and A. Whitman (trads.) (Cambridge University Press, Cambridge,
1999).
[2] “Opticks: Or, a
Treatise of the Reflexions, Refractions, Inflexions and Colours of Light”, I.
Newton (London, 1704), reimpreso en: “Optiks”, I. Newton (Dover, New York,
1952).
[3] “Treatise on
Light”, Ch. Huygens (Leyden, 1690), reimpreso en: “The Wave Theory of Light – Memoirs by
Huygens, Young and Fresnel”, H. Crew (American Book Company, New York, 1899),
pp. 3-41; también en: “Treatise on Light”, Ch. Huygens (Dover, New York, 1962).
[4] “Experiments and
calculations relative to physical optics”, Th. Young, Phil. Trans. Roy. Soc.
94, 1-16 (1804). Reimpreso en: “The Wave Theory of Light – Memoirs by Huygens,
Young and Fresnel”, H. Crew (American Book Company, New York, 1899), pp. 68-76;
también en: “Great Experiments in Physics”, Sh. Morris (Holt Rinehart and
Winston, New York, 1959), pp. 96-101.
[5] “Memoir on the
diffraction of light”, A.-J. Fresnel (Paris, 1819), reimpreso en: “The Wave Theory of Light – Memoirs by
Huygens, Young and Fresnel”, H. Crew (American Book Company, New York, 1899),
pp. 81-144.
[6] “Über eine
Verbesserung der Wienschen Spektralgleichung”, M. Planck, Verh. Dtsch. Phys. Ges. Berlin 2,
202-204 (1900), reimpreso en: “The Old Quantum Theory”, D. Ter Haar (Pergamon
Press, Oxford, 1967), pp. 79-81 (ver también capítulo 1, pp. 3-14). Ver
también: “The Theory of Heat Radiation”, M. Planck (Dover, New York, 1959).
[7] “Über einen die
Erzeugung und Verwandlung des Lichtes betreffenden heuristischen
Gesichtspunkt”, A. Einstein, Ann. Physik
17, 132-148 (1905), reimpreso en:
“The Old Quantum Theory”, D. Ter Haar (Pergamon Press, Oxford, 1967), pp.
93-107 (ver también capítulo 1, pp. 3-14).
[8] “Miguel Catalán. Su obra y su mundo”, J. M. Sánchez-Ron
(CSIC / Fundación Ramón Menéndez Pidal, Madrid, 1994).
[9] “Miguel Catalán,
una obra, un ejemplo”, A. Galindo, Revista
Española de Física 17(6), 8-15
(2003).
[10] “A brief account
of microscopical observations made in the months of June, July and August,
1827, on the particles contained in the pollen of plants; and on the general
existence of active molecules in organic and inorganic bodies”, R. Brown, Phil. Mag. 4, 161-173 (1828).
[11] “Recherches sur la théorie des quanta”, L. de
Broglie, Thesis (Paris, 1924).
[12] “An undulatory
theory of the mechanics of atoms and molecules”, E. Schrödinger, Phys. Rev. 28, 1049-1070 (1926).
[13] “ Discussion of
probability relations between separated systems”, E. Schrödinger, Math. Proc. Camb. Phil. Soc. 31, 555-563 (1935).
[14] “The quantum
postulate and the recent development of atomic theory”, N. Bohr, Nature 121, 580-590 (1928).
[15] “Demonstration
of single-electron buildup of an interference pattern”, A. Tonomura, J. Endo,
T. Matsuda, T. Kawasaki and H. Ezawa, Am.
J. Phys. 57, 117-120 (1989).
[16] “Die
gegenwärtige Situation in der Quantenmechanik”, E. Schrödinger, Naturwissenschaften 23, 807-849 (1935). Version reimpresa y traducida: “The present
situation in quantum mechanics: A translation of Schrödinger’s “cat paradox”
paper”, J. D. Trimmer (trad.), Proc. Am.
Phil. Soc. 124, 323-328 (1980),
reimpreso en: “Quantum Theory and Measurement”, J. A. Wheeler and W. H. Zurek
(Eds.) (Princeton University Press, Princeton, NJ, 1983), pp. 152-167.
[17] “The ‘past’ and
the ‘delayed-choice double-slit experiment’”, J. A. Wheeler, in “Mathematical
Foundations of Quantum Theory”, A. R. Marlow (Ed.) (Academic Press, New York,
1978), pp. 9-48.
[18] “Experimental
realization of Wheeler’s delayed-choice GedankenExperiment”, V. Jacques, E. Wu,
F. Grosshans, F. Treussart, Ph. Grangier, A. Aspect and J.F. Roch, Science 315, 966-968 (2007).
[19] “Investigating
puzzling aspects of the quantum theory by means of its hydrodynamic
formulation”, A. S. Sanz, Found. Phys.
45, 1153-1165 (2015).
[20] “Decoherence and
the transition from quantum to classical”, W. H. Zurek, Phys. Today 44(10),
36-44 (1991). Versión revisada: “Decoherence and the transition from quantum to
classical – REVISITED”, W. H. Zurek, Los
Alamos Science 27, 2-25 (2002).
[21] “Decoherence,
the measurement problem, and interpretations of quantum mechanics”, M.
Schlosshauer, Rev. Mod. Phys. 76, 1267-1305 (2005).
[22] “On the
interpretation of measurement in quantum theory”, H. D. Zeh, Found. Phys. 1, 69-76 (1970).
[23] “The Solvay
Councils and the Birth of Modern Physics”, P. Marage and G. Wallenborn
(Springer, Basilea, 1999).
[24] “Quantum
Mechanics – Historical Contingency and the Copenhagen Hegemony”, J. T. Cushing
(University of Chicago Press, Chicago, 1994).
[25] “Ondes et
mouvements”, L. de Broglie (Gauthier-Villars, Paris, 1926).
[26] “The de Broglie
pilot wave theory and the further development of new insights arising out of
it”, D. Bohm and B. J. Hiley, Found.
Phys. 12, 1001-1016 (1982).
[27] “Quantentheorie
in hydrodynamischer Form”, E. Madelung, Z.
Phys. 40, 322-326 (1927).
[28] “A suggested
interpretation of the quantum theory in terms of ‘hidden variables’ I”, D.
Bohm, Phys. Rev. 85, 166-179, 180-193 (1952).
[29] “The Undivided
Universe”, D. Bohm and B. J. Hiley (Routledge, London, 1993).
[30] “The Quantum
Theory of Motion”, P. R. Holland (Oxford University Press, Oxford, 1993).
[31] “Observing the
average trajectories of single photons in a two-slit interferometer”, S.
Kocsis, B. Braverman, S. Ravets, M. J. Stevens, R. P. Mirin, L. K. Shalm and A.
M. Steinberg, Science 332, 1170-1173 (2011).
[32] “Walking
droplets: A form of wave-particle duality at macroscopic scale?”, Y. Couder, A.
Boudaoud, S. Protière and E. Fort, Europhysics
News 41(1), 14-18 (2010).
[33] “Pilot-wave
hydrodynamics”, J. W. M. Bush, Annu. Rev.
Fluid Mech. 47, 269-292 (2015).
[34] “Model of the
causal interpretation of quantum theory in terms of a fluid with irregular
fluctuations”, D. Bohm and J. P. Vigier, Phys.
Rev. 96, 208-216 (1954).
[35] “Non-locality
and locality in the stochastic interpretation of quantum mechanics”, D. Bohm
and B. J. Hiley, Phys. Rep. 172, 93-122 (1989).
[36] “Schrödinger’s
kit: Tools that are in two places at once”, M. Brooks, New Scientist, Feature 23 de junio, 2010. Enlace: https://www.newscientist.com/article/mg20627661-100-schrodingers-kit-tools-that-are-in-two-places-at-once/
Ángel S. Sanz
Doctor en CC Físicas
Profesor Departamento de Óptica, Facultad de CC
Físicas,
Universidad
Complutense de
Madrid.
Un cordial saludo. La Física enuncia que la Intensidad (entiéndase también Potencia) de cualquier radiación electromagnética es proporcional tanto al cuadrado de la Frecuencia como TAMBIÉN al cuadrado de la AMPLITUD de la onda, por otro lado, la Emisividad Térmica de ondas electromagnéticas de cualquier material (por ejemplo, la radiación de los cuerpos negros) se ha comprobado experimentalmente, y así se refleja en su Ecuación de Radiación, que SOlO depende de la Frecuencia de la radiación, SIN EMBARGO, como onda electromagnética al fin de cuentas, estas TIENEN que tener AMPLITUD, por lo tanto, la única explicación creíble a esto es asumir que la Amplitud de las ondas radiadas por calentamiento de los materiales tienen un ÚNICO valor independiente del tipo de material y de su Frecuencia de radiación (lo cual, por cierto, no resulta ser nada extraordinario si tenemos en cuenta que todos los materiales de la naturaleza a nivel atómico están constituidos por el MISMO Oscilador Cuántico y por lo tanto resulta licito asumir que por causa de propiedades físicas de estos osciladores los mismos solo pueden oscilar con un valor de Amplitud CONSTANTE y si variar su Frecuencia de oscilación en función de la temperatura de excitación), ahora bien, si esto resultase ser correcto entonces la única explicación que le puedo encontrar a este comportamiento y no ignorar el aporte energético de la Amplitud de las ondas radiadas, es que en el valor fijo de la Constante de Planck se encuentra implícito el aporte energético de la AMPLITUD de las ondas electromagnéticas radiadas por los cuerpos sometidos a excitación térmica, lo que de por si constituiría entonces la explicación del ORIGEN FÍSICO REAL del valor de la Constante de Planck.
ResponderEliminarMuchas gracias por tu comentario José Alberto.
EliminarIntentaré que le llegue Ángel, el autor del texto, que lo escribió originalmente hacia 2017.
Un saludo.
Un cordial saludo. Con respecto a la Constante de Planck, se puede demostrar que es ADIMENSIONAL y que su Módulo se puede obtener utilizando la Ecuación de la Energía para los Osciladorores Armónicos SIMPLES
ResponderEliminar