domingo, 30 de junio de 2019

Dualidad onda-corpúsculo - Ángel S. Sanz

¿Qué se entiende por dualidad onda-corpúsculo?
(Por Ángel S. Sanz)



1.     Introducción.

La dicotomía entre onda y corpúsculo, comúnmente denominada dualidad onda-corpúsculo, no es sino una historia que entrelaza dos concepciones o modelos antagónicos a los que se ha recurrido para explicar y comprender la naturaleza física, tanto de la luz, como de la materia. A pesar del intenso debate en torno a ambos modelos a lo largo de más de doscientos años (primero en el caso de la luz y posteriormente, ya en el siglo XX, con la materia), hoy día se puede decir que ambos coexisten sin plantear ningún problema. Se utiliza uno u otro en función de su adecuación al fenómeno o proceso físico investigado y su eficacia en tal investigación, pero no apelando a una firme convicción de que uno sea superior al otro, como sucedió en el pasado.

En términos generales, más allá del ámbito de la Física, la dualidad onda-corpúsculo se puede entender (o, tal vez, deba entenderse) fácilmente como una manifestación más del dualismo, la doctrina o modelo filosófico que considera que son necesarios dos sujetos complementarios esenciales para poder acceder a una comprensión plena de un fenómeno determinado, pero cuya coexistencia simultánea no es posible (en términos metafísicos, se suele decir que ambos sujetos o atributos se encuentran en continua oposición). El dualismo es bastante antiguo, habiendo impregnado diversas escuelas filosóficas a lo largo de la historia, tanto orientales, como occidentales. Un ejemplo paradigmático lo encontramos, sin ir más lejos, en la filosofía griega clásica, en el enfrentamiento entre idealismo platónico y materialismo aristotélico, que unos veinte siglos después, entre los siglos XVI y XVII, darían lugar en Europa al racionalismo y el empirismo, dos corrientes de pensamiento diferentes (aunque complementarias) de entender y acercarse al mundo físico que contribuyeron determinantemente a la explosión de la Revolución Científica.

Volviendo al contexto de la Física y, en particular, lo que denominamos física moderna, es decir, la que surge a partir de las primeras décadas del siglo XX, el dualismo también ha jugado un papel fundamental, y no solo en relación a la dualidad onda-corpúsculo. Por ejemplo, la relatividad especial introdujo el dualismo a través de los pares espacio-tiempo y energía-materia. La teoría nos indica que ambos miembros de cada par son equivalentes y, por tanto, pueden entenderse o explicarse de la misma manera. Sin embargo, más allá de la teoría, lo que observamos en la realidad es que cada uno de ellos se manifiesta de una forma totalmente diferente (no medimos longitudes con relojes ni el tiempo con reglas, por ejemplo). Curiosamente, poco más de una década después de la aparición de la relatividad especial, la relatividad general establecía un nuevo paradigma de dualidad, en el que cada uno de esos pares constituía, a su vez, el elemento de un nuevo par. Conforme a esta visión, el espacio-tiempo constituye el soporte que gobierna la dinámica de la materia-energía, cuya presencia determina la estructura geométrica del espacio-tiempo.

Para tener una cierta perspectiva sobre la idea que subyace a la noción de dualidad onda-corpúsculo es interesante recurrir a lo que denominamos física clásica, es decir, la anterior al siglo XX, que nos sirve para describir el comportamiento de los fenómenos que observamos a nuestro alrededor, como la caída de una manzana o la formación de ondas en un estanque cuando arrojamos una piedra. En el caso de la manzana, es fácil seguir su trayectoria y saber dónde caerá. Esta trayectoria solo variará si se ejerce algún tipo de influencia directa sobre la manzana durante su tránsito (por ejemplo, lanzándole una piedra). En el caso de la onda, la perturbación se extenderá por toda la superficie del estanque, siendo algo más complicado determinar los efectos de la misma,  que dependerán de cómo se combinen las diversas ondas formadas. Esto implica que, para determinar el efecto de la perturbación en un instante determinado, sea necesario observar lo que sucede en todos y cada uno de los puntos del estanque. Estos dos fenómenos ejemplifican dos tipos de comportamiento generales que podemos observar en nuestro día a día. Sin embargo, con la aparición de la física cuántica en el siglo XX, el panorama cambió radicalmente, ya que, según ésta, las partículas pueden manifestar ambos comportamientos dependiendo del tipo de experimento a que se sometan, sin importar que se trate de radiación (luz) o materia.

En este capítulo se pretende aportar una visión amplia y general (aunque limitada) de por qué hablamos de dualidad onda-corpúsculo, de dónde y cómo surge este concepto y qué significa. Con tal propósito, en la sección 2. se presenta una discusión sobre el origen del concepto de dualidad onda-corpúsculo asociado a la luz. En la sección 3. se discuten los aspectos que introdujeron este concepto en el caso de la materia (tanto da si se trata de materia ordinaria, como si es antimateria, pues ambas obedecen las mismas leyes dinámicas) y su influencia en la aparición de la mecánica cuántica. A modo de ilustración, y con objeto de introducir el problema de la medida y cómo la interpretación de Copenhague explica que los sistemas cuánticos puedan ser ondas y corpúsculos. En la sección 4. se describen brevemente el experimento de la doble rendija y el de elección retardada de Wheeler. Finalmente, para cerrar el capítulo, en la sección 5. se introducirán brevemente las ideas básicas de la mecánica bohmiana, una de las varias formulaciones de la mecánica cuántica, que permite ver cómo onda y corpúsculo no son necesariamente excluyentes (en realidad, tampoco lo son en las formulaciones de Heisenberg y Schrödinger, aunque ello sea menos aparente).


2.       Luz: rayo, partícula y onda.

Hacia finales del siglo XVII se tenía constancia de diversos fenómenos asociados a la luz. Filósofos chinos, griegos y musulmanes habían estudiado y descrito las sencillas leyes que gobiernan la reflexión y la refracción de la luz, formalizadas durante el siglo XVII por Snell y Descartes, y explicadas por Fermat en términos de un principio general según el cual el tiempo que tarda la luz en viajar desde su fuente hasta su destino es mínimo. También en el siglo XVII Grimaldi había descubierto la propiedad de difracción de la luz, es decir, cuando la luz atraviesa pequeñas aberturas experimenta un efecto similar a doblar una esquina, algo que contravenía la experiencia de siglos de que la luz se propagaba siempre en línea recta, originando sombras bien definidas (fundamento éste de la cámara obscura, ya conocida varios siglos antes de nuestra era por los filósofos chinos). En 1669, Bartholin describía un fenómeno también asociado a la luz, observado y utilizado como medio de guía en días nublados por los navegantes vikingos, la birrefringencia o doble refracción de la luz. Este fenómeno básicamente consiste en que en materiales anisótropos, como el espato de Islandia (una variedad transparente de la calcita), la luz es refractada a lo largo de dos direcciones diferentes, dando lugar a dos imágenes cuando se observa un mismo objeto (un texto escrito, por ejemplo) con estos materiales. En torno a todos estos descubrimientos tomaron forma hacia finales del siglo XVII y comienzos del XVIII los dos grandes modelos de concebir la naturaleza de luz: la teoría corpuscular de Newton (Fig. 1(a)) y la teoría ondulatoria de Huygens (Fig. 1(b)).

Uno de los físicos (o, tal vez, por la época, sería más correcto decir filósofos naturales) más destacados e influyentes ha sido Newton, sin lugar a dudas. En sus Philosophiae Naturalis Principia Mathematica [1] condensaba las leyes que rigen el movimiento de los objetos, es decir, las causas o fuerzas que explicaban cómo los cuerpos se desplazan en el espacio por la acción de aquéllas, entre las que se encuentra la gravitación o fuerza gravitatoria. Para ello, se basó en la utilización del concepto de punto material, sin volumen, pero con una masa determinada, lo que permitía simplificar el análisis de los problemas investigados. Una metodología similar fue empleada en su Opticks [2], donde apelaba a la idea de que la luz está compuesta por un gran número de cuerpos diminutos o corpúsculos (ver Fig. 1(c), izquierda), que se propagan a gran velocidad y en línea recta a través de un mismo medio. Asignándole una naturaleza corpuscular a la luz, Newton fue capaz de suministrar una explicación de sus propiedades, como son el cambio de dirección que experimenta cuando “rebota en” o “se transmite a través de” un medio diferente por el que se estaba desplazando (es decir, la reflexión y la refracción), o cómo se descompone en distintos colores al atravesar un prisma.

Al mismo tiempo, Huygens desarrollaba [3] en Holanda la idea de que la luz, al igual que las ondas de agua que se propagan por un canal al arrojar una piedra, tenía naturaleza ondulatoria. En particular, el modelo de Huygens asumía que cada punto de un frente de ondas era, a su vez, generador de nuevos frentes de onda. A un tiempo dado, el efecto colectivo de todas las ondas generadas por un frente daba lugar a un nuevo frente, lo cual explicaba el avance y propagación de la onda. La idea era muy simple y explicaba bastante bien la propagación rectilínea de la luz, así como los fenómenos de la refracción y la reflexión (ver Fig. 1(c), derecha), algo que también se conseguía con el modelo corpuscular de Newton. Sin embargo, frente a éste último, era incapaz de explicar el fenómeno de birrefringencia, algo que Newton había conseguido explicar asumiendo que las partículas de luz tenían “lados”. Como consecuencia de ello, así como debido a la gran autoridad científica ganada por Newton en virtud de sus Principia Mathematica, donde no solo establecía las leyes de la dinámica y las leyes del cálculo infinitesimal, sino también su teoría de la gravitación, el modelo de Huygens fue relegado a un segundo plano. La luz era, pues, un conjunto de partículas.




Fig. 1. Isaac Newton (a) y Christian Huygens (b), proponentes de las teorías corpuscular y ondulatoria de la luz. (c) Reflexión de la luz en un espejo plano interpretada con el modelo corpuscular (izquierda) y ondulatorio (derecha).


Sin embargo, a diferencia de la teoría de Newton, la de Huygens podía explicar un fenómeno que se observaba con las ondas de agua, pero que aún no se había observado con luz: la interferencia. Supongamos que tenemos dos focos de ondas circulares dentro de una cubeta con agua (ver Fig. 2(a)). Si nos fijamos en un punto cualquiera alejado de los focos, notaremos que hay zonas con una cierta amplitud (crestas) y otras, delimitándolas, en las que no se observa nada, como si no hubiese perturbación alguna. Ello se debe a cómo se combinan sobre cada punto de la superficie del agua los frentes de ondas circulares que proceden de cada foco. Si sobre el punto en cuestión ambos frentes son máximos, observaremos un máximo; si uno es máximo y el otro es mínimo, tendremos una cancelación de la onda. En el caso de la luz, sería en 1803 cuando Thomas Young observaría [4] por primera vez este efecto, que, en términos simples, nos muestra que no siempre luz más luz es igual a luz, sino que también puede resultar obscuridad. Lejos de constituir una violación del principio de conservación de la energía, lo que esto nos indica es que, cuando se trata de ondas, la energía se redistribuye espacialmente de una forma bastante particular, intercalando zonas de luz con zonas de obscuridad (ver Fig. 2(b)). El experimento de Young desbancaba la teoría de la luz de Newton, incapaz de explicar la interferencia. La luz dejaba de ser partícula para convertirse en onda.




Fig. 2. (a) Interferencia formada en una cubeta de agua mediante dos pulsadores sincronizados. (b) Interferencia formada por el paso de un haz láser rojo a través de dos rendijas.


Aparte del experimento de Young, al asentamiento de la idea de que la luz era onda contribuyó de una forma determinante la generalización del modelo de Huygens que realizó Augustin-Jean Fresnel [5] a principios del siglo XIX, la cual incluía un nuevo fenómeno: la difracción de la luz. Este fenómeno consiste en que, como cualquier onda, la luz puede “doblarse” al llegar a una esquina, de manera que si la hacemos pasar a través de una pequeña abertura, cuanto menor sea ésta, más amplia será la región que abarque la luz tras dicha abertura. Este efecto es el que explica, por ejemplo, que al interponer un objeto con un borde bien definido (un cuchillo afilado, por ejemplo) entre nuestros ojos y una fuente de luz intensa, como puede ser el Sol, se observe una especie de muesca o mella sobre dicho borde, como si la luz fuese capaz de atravesar el objeto (ver Fig. 3(a)). De hecho, aunque no podemos apreciarlo a simple vista, la difracción genera unos patrones característicos (redistribución espacial de la luz) que, en cierto modo, recuerdan a los de la interferencia, que difuminan la zona que tradicionalmente asignaríamos a lo que sería una sombra bien definida. La importancia de este hecho estriba en que diluye el concepto que desde la Antigüedad se tenía de propagación rectilínea de la luz. Con la difracción ya no se puede hablar de tal cosa, pues entre la región de sombra total y la de luz transmitida existe una zona de transición accesible para la luz (ver Fig. 3(b)).

Pese al rigor matemático de la teoría de Fresnel, newtonianos convencidos como Siméon Poisson intentaron desbancarla. Según Poisson, a partir de cálculos basados en la teoría de Fresnel, se predecía que justo en el centro de la región de sombra proyectada por un objeto circular debía observarse un punto de luz. Una cosa era observar una región de “penumbra” cerca de los bordes y otra, muy diferente, que ya en una zona de total obscuridad, alejada de los bordes del objeto interpuesto, se observase luz, con independencia del tamaño de dicho objeto. A pesar de la extrañeza del fenómeno, cuando el experimento fue llevado a cabo por François Arago, el resultado fue positivo: efectivamente se observaba la mancha en el centro de la región de sombra (ver Fig. 3(c)), confirmando la teoría de Fresnel y, por tanto, asegurando la supervivencia e implantación del modelo ondulatorio de la luz. En la actualidad a ese punto de luz se le denomina mancha de Poisson o de Arago-Poisson.




Fig. 3. Diferentes ejemplos de difracción de la luz. (a) Difracción de la luz solar en el borde de un objeto con bordes bien definidos interpuesto entre el Sol y nuestros ojos. (b) Difracción de luz láser azul, donde se aprecia el patrón de franjas más allá de la zona de sombra geométrica. (c) Mancha de Poisson en el centro de la sombra geométrica proyectada por un objeto circular.


Junto con el experimento de Young, el experimento de Arago fue crucial para la supervivencia e implantación del modelo ondulatorio de la luz. A lo largo del siglo XIX, se fue asentando cada vez más, alcanzando su punto álgido con la teoría del electromagnetismo de Maxwell, una teoría que unificaba electricidad y magnetismo bajo la idea de campo elaborada por Faraday a principios de ese mismo siglo (que substituía al concepto más tradicional de fuerza a distancia), y que incorporaba la concepción ondulatoria de la luz de forma natural, como un efecto ligado a la propagación de los campos electromagnéticos. Además, también explicaba de manera natural el fenómeno de polarización de la luz, descubierto por Étienne-Louis Malus en la primera década del siglo XIX, y también el de birrefringencia. Pero no solo esto, la teoría de Maxwell tiene implicaciones más profundas aún, que se irían observando y confirmando a lo largo del siglo XIX, como son la descripción unificada de cualquier tipo de radiación, desde los rayos gamma (la más energética) a las ondas de radio y televisión (la menos energética), pasando por la luz visible, la radiación ultravioleta o las microondas; el valor fijo de la velocidad de la luz, con independencia de la radiación de que se trate; o la invariancia lorentziana de las ecuaciones en las que se basa (descubiertas separadamente por Ampere, Coulomb, Gauss o Faraday), germen de la relatividad especial de Einstein.

Sin embargo, tal como reza la expresión popular “no hay mal que cien años dure, ni cuerpo que lo resista”, con el nuevo siglo la concepción de la luz volvería a cambiar. En 1704 Newton publicó en su Opticks que la luz estaba formada por corpúsculos; unos cien años después, en 1803, Young mostraba que la luz era una onda; y otros cien años después, en 1905, Einstein reintroduciría la concepción newtoniana de corpúsculo para explicar el efecto fotoeléctrico. La idea de Einstein surgió de la aplicación de una hipótesis formulada cinco años antes por el físico alemán Max Planck [6], quien para explicar la curva tan característica de un cuerpo negro, es decir, un objeto que puede absorber y emitir radiación de cualquier energía (ver Fig. 4(a)), necesitó considerar una hipótesis crucial para lo que después sería la mecánica cuántica. Frente a la visión tradicional de que a un sistema físico se le puede transferir o éste puede emitir cualquier cantidad de energía para un determinado tipo de radiación (caracterizada por su frecuencia o su longitud de onda), lo que Planck propuso es que esta transferencia solo podía realizarse de forma cuantizada, es decir, mediante un número concreto de “paquetes” indivisibles, cuyo tamaño venía determinado por la frecuencia de la radiación de que se trate (ver ecuación (1)).

En el efecto fotoeléctrico (en el que está basado, por ejemplo, el mecanismo de apertura automática de las puertas de muchos establecimientos), lo que se observa es que, cuando un haz de luz incide sobre un metal, se genera una corriente que no depende de la intensidad de la misma, sino de su frecuencia. Este fenómeno, conocido desde finales del siglo XIX, era inexplicable desde el punto de vista de la teoría electromagnética de Maxwell, como también sucedía con el espectro de radiación del cuerpo negro. Lo que hizo Einstein fue basarse en la hipótesis de Planck y asumir que el haz de luz estaba compuesto por quanta de radiación (corpúsculos a la manera newtoniana). Según este modelo [7], cada quantum sería capaz de extraer un electrón si su energía era suficientemente alta, lo cual no depende del número considerado de estos quanta (la intensidad del haz incidente), sino de que tuviesen energía suficiente para poder extraer al electrón del metal, lo que equivale a que la frecuencia de la radiación incidente sea mayor que un cierto valor umbral (ver Fig. 4(b)). Lo que observaron Planck y Einstein es que la energía de un quantum de radiación viene dada por la expresión:

E = hν = hc / λ      (1)

donde ν y λ son la frecuencia y longitud de onda de la radiación, h = 6.62607 x 10-34 J·s es la constante de Planck y c es la velocidad de la luz en el vacío.

El modelo de Einstein fue confirmado experimentalmente en 1923 por Arthur Compton, quien asumía que si la radiación estaba formada por tales quanta, entonces, al igual que cualquier partícula material, estos deberían ser capaces de dispersar otras partículas, como electrones, al impactar sobre ellas (ver Fig. 4(c)). Mediante simples relaciones de conservación de la energía y el momento lineal en la colisión, se obtiene una sencilla relación de dependencia entre la variación de la longitud de onda de la radiación dispersada (fotones dispersados) y el ángulo de dispersión (ver Capítulo 42). El resultado fue un éxito, recibiendo Compton por ello el Premio Nobel en Física en 1927. En cierto modo, este éxito también sirvió para establecer el nombre por el que hoy conocemos al quantum de radiación, el fotón, término introducido inicialmente por el químico Gilbert Lewis, en 1926, para denominar a la unidad de energía radiante.




Fig. 4. (a) Espectro de la radiación emitida por un cuerpo negro para diversas temperaturas. La temperatura superior sería análoga a la superficie del Sol, mientras que la inferior es del orden de la de una lámpara incandescente de filamento de wolframio. (b) Esquema del efecto fotoeléctrico en caso de una lámita de potasio iluminada por radiación de distinta energía. La luz roja es incapaz de extraer electrones, mientras que la verde o la violeta, más energéticas, sí lo son. (c) Esquema del efecto Compton: un fotón con una cierta energía es capaz de desplazar un electrón, como si de una colisión en un billar se tratase. En el proceso, parte de la energía y el momento del fotón son cedidos al electrón.


          El efecto fotoeléctrico sirvió para establecer la idea de que la radiación (los fotones) posee una naturaleza dual, como onda y como corpúsculo, sin que una deba de prevalecer necesariamente sobre la otra, pues la asignación de un rasgo u otro depende del contexto experimental que se considere (en este efecto se manifiesta la naturaleza corpuscular, de igual manera que en el experimento de Young se observa la ondulatoria). Obviamente, el concepto moderno de corpúsculo trasciende al newtoniano, ya que el fotón, como partícula fundamental, tiene asignadas unas propiedades que van más allá de las meramente geométricas postuladas por Newton. Éstas son las que nos ofrece la teoría cuántica de campos y, a través de ella, el modelo estándar. El fotón es un bosón, sin masa y con espín cero, portador de la interacción electromagnética en virtud del intercambio de un cierto número de los mismos entre dos cualesquiera partículas con carga eléctrica (quarks o leptones). Ello no es impedimento para que, a una energía determinada, pueda manifestar su comportamiento corpuscular, como tal, al que suele apelarse en el efecto fotoeléctrico o en física de partículas (altas energías), o su comportamiento ondulatorio, como ocurre cuando consideramos un gran número de ellos a bajas energías en un experimento típico con rendijas.


3.       Materia: del punto material a la onda cuántica.

Si bien el debate en torno a la dualidad onda-corpúsculo en el caso de la luz es bastante antiguo, como hemos visto antes, en el caso de la materia es relativamente reciente y está inherentemente ligado a la aparición de la mecánica cuántica a finales del primer cuarto del siglo XX. No obstante, para comprender bien la dicotomía onda-corpúsculo en el caso de la materia es interesante echar la mirada atrás, a la síntesis de dos corrientes fuertemente asentadas durante los siglos XVII y XVIII, el mecanicismo y el corpuscularianismo, que gozaron de un enorme éxito durante el siglo XIX, pero cuya incapacidad para explicar la estructura interna de la materia dio lugar a la aparición de la mecánica cuántica.

3.1.    Mecanicismo y localidad.

Esencialmente, el mecanicismo surge como respuesta a la búsqueda de una causa o fuerza que explique el desplazamiento de los objetos, una cuestión tratada por los filósofos griegos, pero que no había experimentado grandes cambios desde la teoría del movimiento de Aristóteles. En los siglos XVI y XVII los filósofos vuelven a plantearse de nuevo estas cuestiones, fundamentalmente a raíz de observaciones del movimiento de los astros y la sistematización de las mismas mediante una serie de leyes relativamente simples. El momento álgido del mecanicismo se alcanza con la publicación en 1687 de los Principia Mathematica de Newton, quien no solo condensa y extiende observaciones y leyes de la mecánica realizadas anteriormente por Copérnico, Kepler, Galileo o Descartes, culminando en sus tres principios de la mecánica y su teoría de la gravitación, sino que también ofrece un método para realizar cálculos dinámicos detallados, el cálculo infinitesimal (paternidad compartida con el matemático y filósofo alemán Gottfried Leibniz). A partir de este trabajo, la complejidad de los objetos se substituye por el concepto de punto material, al que se le asocia la masa del objeto en cuestión y cuyo movimiento viene regido por las leyes de la mecánica de Newton. Este movimiento puede describirse en términos del concepto de trayectoria, una línea imaginaria bien definida que traza el objeto en el espacio durante el curso de su desplazamiento. La modificación de esta trayectoria tendrá lugar si, apelando de nuevo a las leyes de Newton, se ejerce algún tipo de interacción a nivel local sobre el objeto en cuestión.

Las leyes de Newton introducían dos ideas que han permeado la física de los últimos siglos: la causalidad y la localidad. De acuerdo con la causalidad o principio de causalidad, todo efecto observado en un sistema (es decir, en el cambio de su estado) viene originado por una causa que le precede. Conforme a la idea de localidad o principio de localidad, el estado de movimiento de los objetos solo puede ser influido a nivel local, en una vecindad del propio objeto. Aunque ambos conceptos parecen de sentido común, desde la aparición de la física cuántica a comienzos del siglo XX no han dejado de plantearnos retos que aún hoy día siguen generando debate y controversia.

3.2.    Corpuscularismo y modelos modernos del átomo: de Boyle a Bohr.

La otra corriente a la que hacíamos mención apunta directamente hacia la propia concepción de los objetos materiales, si la materia que los compone es continua y, por tanto, no puede dividirse hasta alcanzar un nivel irreducible en el que pierda sus propiedades, como defendía Aristóteles, o si, por el contrario, está formada por unidades indivisibles e irreducibles, y cuya combinación da lugar a la materia que observamos, como proponía la escuela atomista de Demócrito y Leucipo. Aunque con matices, el atomismo también fue una idea considerada por escuelas indo-budistas antes de nuestra era, así como entre los filósofos del mundo islámico, de los cuales se hicieron eco los filósofos europeos medievales y, posteriormente, los renacentistas, como Descartes, Gassendi, Newton o Boyle. De hecho, es a partir de estos dos últimos, cuando el atomismo en su versión corpuscularianista (toda la materia está constituida de diminutos corpúsculos) toma mayor impulso, con Newton a través de su teoría corpuscular de la luz y con Boyle a través de su teoría mecánico-corpuscular, cimiento de lo que se convertiría en la (Primera) Revolución Química.

De la teoría corpuscular de la luz de Newton y su influencia en la concepción de la luz durante los siguientes 220 años, hasta la aparición de la mecánica cuántica, ya hemos hablado en la sección anterior. La teoría de Boyle, por su parte, puede verse como el germen del modelo atómico propuesto por John Dalton en 1803, según el cual cada elemento químico (concepto introducido por los filósofos griegos y, en su acepción química moderna, por Boyle) se compone de átomos individuales e inalterables (aún se desconocía la radiactividad y la conversión de isótopos inestables en átomos más estables) de un único tipo, que se combinan para formar estructuras más complejas, los compuestos químicos. Es curioso que el modelo de Dalton se dio a conocer prácticamente al mismo tiempo que Young hacía públicos los resultados de su experimento de interferencia con luz.

Hacia finales del siglo XIX, en 1897, el refinamiento alcanzado por las técnicas de fabricación de bombas de vacío, de construcción de ampollas de vidrio con dispositivos internos, como el tubo de Crookes (o las bombillas de Edison), y la posibilidad de generar altos voltajes mediante bobinas Ruhmkorff (carretes de inducción precursores de los transformadores actuales), permitió observar a Joseph John Thompson que los átomos poseían cargas eléctricas en su interior. Alrededor de una década después, en 1909, Ernest Rutherford demostraba que los átomos no eran una amalgama de electrones y cargas positivas, sino que la carga positiva del átomo se concentraba en una pequeñísima región, en su centro, mientras que los electrones se movían en un volumen mucho mayor, girando en torno a órbitas similares a las descritas por los planetas alrededor del Sol. Este modelo planetario, pese a estar en concordancia con los experimentos y demostrar que los átomos estaban esencialmente huecos, planteaba un problema de consistencia con el electromagnetismo de Maxwell: toda carga (como un electrón) que describe un movimiento circular está emitiendo radiación y, por tanto, en el curso del tiempo perderá energía y acabará cayendo sobre el núcleo del átomo. Obviamente, que los electrones acaben “colapsando” sobre el núcleo del átomo no solo plantea un problema de tipo intelectual, sino también existencial, pues significa que la materia no debería ser estable y, en consecuencia, no hay explicación alguna para la propia existencia de los objetos que observamos a nuestro alrededor, ni tampoco para la nuestra propia, ya que cualquier pedazo de materia (incluidos nosotros) es un conjunto formado por un gran número de átomos. ¿Cómo se explica, pues, la estabilidad de la materia?

En 1913, pocos años después del descubrimiento de Rutherford, Niels Bohr retomaba el modelo de aquél, pero introduciendo una hipótesis crucial: lejos de poder estar a una distancia arbitraria alrededor del núcleo, los electrones se encuentran girando únicamente en ciertas órbitas denominadas estacionarias, a una distancia específica del núcleo sin emitir radiación alguna. Solamente cuando el electrón salta de una de estas órbitas a otra se produce la emisión o absorción de un quantum de radiación (fotón), cuya energía es equivalente al salto energético entre ambas órbitas. Frente al modelo atómico de Rutherford, el modelo de órbitas estacionarias y saltos cuantizados de Bohr era capaz de explicar las líneas espectrales observadas a lo largo del siglo XIX, desde que Fraunhofer descubriese que el espectro visible de la luz solar, cuando esta se descomponía al atravesar un prisma, no era continuo, del rojo al violeta, como observó Newton, sino que poseía una multitud de líneas obscuras para las cuales no tenía explicación alguna. Los físicos y químicos del siglo XIX, comenzando por Kirchoff y Bunsen, se dedicaron a la búsqueda de tales líneas y a caracterizar materiales en virtud de las mismas (dos elementos químicos nunca presentan los mismos conjuntos de líneas; son como el DNI de los elementos químicos).

Hacia 1918, el modelo de Bohr había sido refinado con una serie de correcciones realizadas por éste y por Arnold Sommerfeld. Mientras tanto, el físico español Miguel Antonio Catalán había descubierto [8,9] que, a diferencia de los átomos simples, como el hidrógeno, el espectro visible de átomos con una estructura interna compleja estaba formado por grupos de líneas, que denominó multipletes, que surgen por desdoblamiento de las líneas principales en conjuntos de 3, 5 ó hasta 7. Este descubrimiento contribuyó a consolidar el modelo de Bohr y Sommerfeld. Sin embargo, y a pesar de su éxito, los conceptos de órbita estacionaria y salto cuantizado necesitaban aún una explicación satisfactoria. Se desconocía por qué funcionaban y eso suponía un gran obstáculo al modelo en sí, pues no se ajustaba a la teoría conocida hasta el momento.

Obviamente, que la materia estaba compuesta por átomos, unidades individuales e indivisibles con propiedades idénticas para un mismo tipo, como proponía Boyle, era algo que ya se daba por sentado cuando Rutherford, Bohr y Sommerfeld propusieron sus modelos atómicos. Ello se debe, en cierto modo, a las investigaciones sobre una manifestación macroscópica del mundo microscópico: el movimiento browniano. Hacia finales del siglo XVIII, Jan Ingenhousz había observado el zigzagueante e incesante movimiento que exhiben partículas de carbonilla diluidas en agua. Unos cuarenta años después, Robert Brown (de quien deriva la denominación del fenómeno en cuestión) observó [10] el mismo tipo de movimiento en caso de vacuolas de los granos de polen suspendidas en agua. Pese a algunos esfuerzos por intentar comprender la naturaleza de tal movimiento, no fue hasta comienzos del siglo XX cuando se formularon los primeros modelos matemáticos exitosos para describirlo, en particular el de Einstein, de 1905, y el del físico polaco Marian Smoluchowsky, de 1906, que mostraban cómo este efecto constituía una prueba indirecta de la existencia de átomos y moléculas. Las incesantes colisiones de estos últimos, que forman el medio donde se hallan inmersas las partículas de mucho mayor tamaño (visibles al microscopio óptico) que exhiben movimiento browniano, serían la causa de tal efecto. El modelo de Einstein sería verificado por Jean Perrin en 1908, lo que llevó a éste a ganar el Premio Nobel en Física de 1926 (“por su trabajo sobre la estructura discontinua de la materia”).

3.3.    Mecánica cuántica: ondas de materia y no localidad.

Hacia finales del primer cuarto del siglo XX nos encontramos con que los átomos existen y son unidades indivisibles de la materia, con un modelo atómico que es capaz de reproducir las observaciones de que se disponía hasta el momento, pero que carece de toda explicación lógica, y con una teoría clásica (mecánica newtoniana más electromagnetismo maxwelliano) incapaz de explicar ese modelo. La solución a este dilema vino de la mano de Louis de Broglie, quien en 1924, en su tesis doctoral [11], proponía que, si la luz podía comportarse bajo ciertas circunstancias como una partícula, como había mostrado Einstein en su explicación del efecto fotoeléctrico, tal vez la materia ordinaria (los puntos materiales de la teoría newtoniana) podrían exhibir, de algún modo, propiedades ondulatorias. De ser así, si la energía de un quantum de un determinado tipo de radiación de frecuencia ν viene dada por la expresión (1), y ésta debe de ser igual a la expresión relativista para la energía asociada a una partícula sin masa, E = pc , tendremos que:

λ = h / p      (2)

esta expresión, que relaciona la longitud de onda λ de (la onda asociada a) una partícula con el momento p de ésta, es lo que se conoce en el caso de las partículas materiales como relación de de Broglie. Según esta relación, cuanto más rápida o masiva sea la partícula (recordemos que el momento depende proporcionalmente tanto de la velocidad de la partícula, como de su masa), menor será su longitud de onda y más débil será la manifestación de su naturaleza ondulatoria, y viceversa. Dicho de otra manera, en el límite de longitudes de onda cortas (el límite de la óptica geométrica en el caso de la luz), la materia mostrará su naturaleza corpuscular y su movimiento podrá ser descrito de forma precisa por las leyes de Newton y Maxwell. Esto es lo que sucede con la materia que observamos a nuestro alrededor. Sin embargo, para longitudes de onda largas (partículas más ligeras), las manifestaciones ondulatorias serán más prominentes y tales leyes dejarán de ser válidas.

Ahora, una vez lanzada la hipótesis y establecida la relación (2), queda por ver qué leyes del movimiento sigue esa supuesta onda. Esto fue precisamente lo que hizo Schrödinger [12], quien en 1926 propuso su famosa ecuación de ondas:

𝑖ℏ (∂ѱ / ∂𝑡) = 𝐻ѱ      (3)

donde la variable de tipo campo ѱ, llamada función de onda, contiene información sobre el estado del sistema, pero sin especificar unívocamente en qué punto del espacio se encuentra y con qué velocidad, como sucede con las leyes clásicas. Físicamente, lo que nos indica la ecuación (3) es que la variación temporal (evolución) del estado de la partícula está directamente relacionada con la distribución espacial instantánea de su energía, que a su vez está determinada tanto por las condiciones de contorno impuestas sobre la onda, como por cualquier tipo de interacción (de tipo interno o externo) que esté actuando sobre la misma. Si tomamos el valor de la función de onda sobre un punto dado del espacio en un determinado instante y calculamos el cuadrado de su módulo (la función de onda  es, en general, un campo complejo), lo que obtenemos es la probabilidad de encontrar o detectar partículas en esa región del espacio.

Pese a que pueda parecer un resultado totalmente novedoso, lo interesante de la ecuación (3) es que tiene un punto de partida directamente relacionado con la mecánica clásica: la formulación hamiltoniana. Esencialmente, esta reformulación de la mecánica de Newton, propuesta por William Rowan Hamilton hacia 1833, se basa en substituir el concepto de fuerza a distancia newtoniano por el de energía, lo que permite encontrar una analogía directa entre la dinámica de partículas materiales y la evolución de rayos ópticos (estos serían el análogo directo de las trayectorias newtonianas). De este modo, la evolución del sistema tiene lugar conforme a un mecanismo de minimización de igual forma que en óptica geométrica los rayos proceden de la minimización del tiempo de recorrido de un punto a otro, conforme al principio de Fermat. De hecho, si en vez de energías se considera una magnitud más general denominada acción mecánica (con dimensiones de energía multiplicada por tiempo), la analogía es directa, pues esta acción es el equivalente de las superficies de fase constante que cualquier rayo cruza perpendicularmente a lo largo de su recorrido. Éste es el punto a partir del cual Schrödinger comenzó la elaboración de su ecuación, generalizando el concepto de fase geométrica, lo que pasaba por incluir además un término de amplitud a la onda relacionado con la intensidad asociada a ésta.

De Broglie propuso la idea de que la materia podía comportarse como una onda y Schrödinger suministró la ecuación matemática que gobierna la evolución de tales ondas. Es por ello que es común utilizar la terminología onda de materia para referirse a este comportamiento cuando estudiamos propiedades de difracción o de interferencia con partículas. Este es el caso, por ejemplo, cuando se realiza interferometría con partículas materiales, como neutrones o electrones. Que la materia se comporta como una onda es algo que se ha venido confirmando con electrones, átomos, neutrones, grandes complejos moleculares o nubes de átomos en fase de condensado de Bose-Einstein desde que Schrödinger propusiese su ecuación. Igualmente, apelando a su naturaleza ondulatoria, desde entonces se han venido empleado partículas materiales para estudiar la estructura interna de sólidos y líquidos mediante técnicas basadas en la dispersión de neutrones, electrones o átomos de helio, por ejemplo, que mostraban comportamientos análogos a las técnicas homólogas ópticas (luz visible, ultravioleta o rayos X).

Una característica singular de estas ondas es que, a diferencia del tratamiento clásico del punto material, introducen comportamientos no locales: una perturbación local sobre un punto dado produce un cambio inmediato en la configuración completa de la onda a tiempos posteriores, como sucede en cualquier tipo de onda. En principio, cuando se trata de ondas asociadas a una única partícula, los efectos no son demasiado impactantes. En la sección 4. se discute precisamente esta situación mediante dos ejemplos que nos muestran como, lejos de paradojas de gatos encerrados en cajas, lo que realmente sucede con las ondas cuánticas se parece más a lo que sucede cuando se modula una señal mediante el uso de un ecualizador: aunque la señal cambia de forma gradual, la variación de cada frecuencia componente afecta de forma inmediata a toda la señal sin que ello suponga una violación de la relatividad especial (no hay transmisión  de información). Más impactante aún es el caso de la onda asociada a dos partículas que han interaccionado en algún momento. De acuerdo con Schrödinger, esa interacción genera una correlación tal que si ambas partículas se separan, las medidas que se realicen sobre ambas seguirán estando altamente correlacionadas con independencia de la distancia que las separe (siempre que no aparezcan otras partículas que puedan interaccionar durante la separación). Es lo que Schrödinger denominó entrelazamiento (cuántico) [13], que contraviene el “sentido común” impuesto por el principio de localidad. Sin embargo, no hay nada incorrecto en ello, pues la mecánica cuántica es inherentemente no local.


4.       De onda a corpúsculo, y viceversa.

El concepto de dualidad onda-corpúsculo, uno de los más profundos y controvertidos de la física cuántica, es también una de las manifestaciones más palpables del denominado principio de complementariedad [14], enunciado por Bohr en 1927, según el cual la física cuántica prohíbe determinantemente conocer al mismo tiempo dos propiedades o aspectos complementarios de un mismo sistema físico mediante un único experimento, como puede ser la manifestación de su doble comportamiento como onda y como corpúsculo, dependiendo del experimento que estemos llevando a cabo. La formalización de este principio está directamente relacionado con las relaciones de Heisenberg (ver Capítulo 42). A continuación vamos a ver brevemente dos de los experimentos más paradigmáticos de la física cuántica, que ilustran la dualidad onda-corpúsculo a través de la noción de complementariedad: el experimento de la doble rendija de Young y el experimento de la elección retardada de Wheeler.

4.1.    El experimento de la doble rendija.

El experimento que Young realizó en 1803 iluminando dos rendijas con luz demostraba que ésta se comporta como una onda al atravesar dichas rendijas, dando lugar a zonas de luz intercaladas con zonas de sombra sobre una pantalla colocada a una cierta distancia de las rendijas (ver panel superior de la Fig. 5). Hoy día, más de doscientos años después de su realización, cuando pensamos en este experimento tan relativamente simple e inocente asumiendo que la luz se propaga por el espacio como las ondas de agua, el resultado nos parece de lo más lógico, podríamos decir. Sin embargo, supongamos que se puede controlar la intensidad de la luz que emerge de la fuente que estemos empleando hasta hacerla tan débil que la energía fuese equivalente, de acuerdo con la relación de Planck-Einstein (1), a un único fotón por unidad de tiempo. Dicho de otro modo, debilitamos tanto la intensidad de la fuente que, al menos en promedio, nos aseguramos de que solamente haya un fotón viajando de la fuente a la pantalla de detección durante el tiempo que tarda dicho fotón en realizar este viaje. Si asumimos la naturaleza corpuscular del fotón, ¿qué sucede cuando éste llega a la doble rendija? Está claro que el patrón de interferencia debe aparecer, tanto si tenemos una fuente de alta intensidad, como si se trata de un único fotón por unidad de tiempo. En este experimento, lo único que la mecánica cuántica nos indica es que, desde el comienzo de su viaje, el fotón ha adquirido una naturaleza ondulatoria, lo que le permite, de algún modo, “desdoblarse” al llegar a las dos rendijas y volver a “recombinarse” posteriormente, contribuyendo al patrón de interferencia que debe observarse.




Fig. 5. Panel superior: Recreación de la interferencia de frentes de onda semicirculares emitidos por dos focos sincronizados. Panel inferior: Formación del patrón de interferencia en el experimento de la doble rendija con electrones realizado por Akira Tonomura y colaboradores en 1989 [15]. Se observa cómo a medida que transcurre el tiempo, la acumulación de detecciones de llegadas de electrones pasa de ser aparentemente aleatoria a dibujar una sucesión de bandas claras y obscuras.


          Esa es la visión tradicional y la generalmente aceptada por la forma en que se suele enseñar este experimento. Sin embargo, resulta interesante el hecho de que lo que se observa sobre la pantalla es un impacto y no un diagrama de franjas alternas claras y obscuras. La mecánica cuántica no dice absolutamente nada sobre cómo ese impacto ha llegado a ese punto de la pantalla. Los fundadores de esta teoría, con el fin de evitar tal problemática, asumieron que tras la evolución del sistema, conforme a la ecuación (3), lo que sucedía era un segundo proceso denominado colapso de la función de onda, que tenía lugar por el mero hecho de que la onda era medida. Este colapso sucede de forma totalmente aleatoria, al azar. En nuestro caso, este proceso explicaría que la función de onda asociada al fotón colapse sobre uno de los píxeles de la cámara CCD que dispusiésemos a modo de pantalla de detección (éste es el procedimiento que suele seguirse actualmente en la realización de este tipo de experimentos en el laboratorio; ya no son meramente “experimentos mentales”). Es decir, inicialmente el fotón cambia su naturaleza corpuscular por la ondulatoria por algún motivo totalmente desconocido y, una vez pasadas las rendijas, tiene lugar el proceso inverso durante su detección. Extraño y, en cierto modo, mágico, pero así es como se concibe este experimento. Obviamente, a medida que el número de fotones detectado crece (se repite el mismo proceso un gran número de veces), lo que se obtiene es que las detecciones se distribuyen espacialmente por la pantalla donde son detectadas de tal manera que acaban reproduciendo, por estadística, el patrón de interferencia que se observa con intensidad alta, como se muestra en los sucesivos paneles inferiores (de izquierda a derecha) de la Fig. 5, en el que los puntos blancos son detecciones individuales de electrones.

Pero el experimento no queda ahí. Supongamos que se lleva a cabo una pequeña modificación consistente en poner un detector justo a la salida de una de las rendijas con objeto de poder determinar por dónde pasa el fotón. Esto se puede hacer (y, de hecho, se hace) fácilmente colocando un polarizador lineal sobre cada una de las rendijas de tal manera que los ejes de polarización de cada polarizador formen mutuamente un ángulo recto. De este modo, si el fotón pasa por una de las rendijas, saldrá polarizado en una dirección, y si lo hace por la otra, saldrá polarizado a 90º con respecto a la primera. En este caso, el simple hecho de saber por qué rendija ha pasado el fotón es suficiente como para eliminar el patrón de interferencia que se esperaría y obtener simplemente, tras la acumulación de un número suficientemente grande de fotones, un patrón parecido al que se obtendría con pelotas de golf arrojadas contra una pared con dos orificios, es decir, la suma de lo que sale por cada uno de los orificios. Conforme a la visión tradicional del experimento, lo que sucede es que al tratar de discernir el camino del fotón lo que se provoca es que éste muestre en todo momento su naturaleza corpuscular.

Pero podemos ir un paso más lejos aún. ¿Es posible recuperar el patrón de interferencia? La respuesta es sí. Para ello basta con situar un “borrador cuántico”, es decir, un dispositivo que elimine toda información de por dónde ha pasado el fotón antes de que éste llegue a la rendija de manera que ya no sepamos por dónde pasó el fotón. Dicho dispositivo no es más que otro polarizador lineal colocado de tal manera que su eje esté a 45º con respecto a los ejes de los polarizadores que teníamos sobre cada rendija. Asumimos que entre las rendijas y este nuevo polarizador no hay detector alguno y que, además, el polarizador puede estar a cualquier distancia de las rendijas. Lo que se observa es que, con independencia de por cual de las dos rendijas salga el fotón, éste adquirirá el mismo estado de polarización tras pasar a través del nuevo polarizador, que elimina todo rastro del camino seguido por el fotón y, por tanto, posibilita la formación de un patrón de interferencia en nuestro detector (cuando consideramos un gran número de fotones). El nuevo polarizador ha permitido que el fotón, antes de ser detectado, adquiera por un tiempo su naturaleza ondulatoria.

Este comportamiento tan sumamente extraño no solo se observa con fotones, sino que ha sido verificado una y otra vez con cualquier tipo de partícula material, como electrones, neutrones, átomos, moléculas, grandes complejos moleculares o, incluso, condensados de Bose-Einstein. Actualmente, de hecho se está planteando la posibilidad de realizarlo con objetos incluso mayores, como son cadenas de ácidos nucleicos, virus o bacterias, lo que constituye un verdadero reto (al menos desde la perspectiva más tradicional de la mecánica cuántica) en el sentido de que un organismo vivo podría encontrarse en dos lugares al mismo tiempo (una rendija u otra), igual que en la famosa paradoja del gato de Schrödinger el gato puede estar vivo y muerto, también al mismo tiempo [16].

4.2.    El experimento de elección retardada de Wheeler.

Hoy día, lejos de ser un experimento mental, el experimento de la doble rendija con fotones individuales (fuentes de luz extremadamente débiles) se puede realizar de forma rutinaria en un laboratorio convencional, pues solo es necesario un láser, una cámara CCD y una serie de dispositivos ópticos, como rendijas, polarizadores y lentes (con partículas materiales es algo más complicado debido al método en que las partículas deben ser preparadas y posteriormente difractadas). El resultado es ciertamente bello a la par que desconcertante. Ahora, la pregunta natural que nos surge ante este experimento es la siguiente: si el fotón debe mostrar un comportamiento determinado, como onda o como corpúsculo en un experimento, ¿qué ocurre si, una vez con el experimento en curso, se produce una variación drástica del mismo? ¿Cambiará el fotón su naturaleza instantáneamente o, por el contrario, seremos capaces de ver ambos aspectos? Esto es precisamente lo que John Archibald Wheeler se preguntaba a finales de 1970 [17].

Lo que planteó Wheeler fue el siguiente experimento (ver Fig. 6). Supongamos que en vez de practicar dos rendijas en una pantalla, lo que hacemos es disponer lo que se conoce como divisor de haz en el camino del fotón, de manera que con una probabilidad del 50% el fotón puede seguir sin desviase (transmitiéndose a través del divisor) o reflejarse 90º con respecto a su trayectoria inicial. En cualquiera de los dos casos, a una cierta distancia se colocan sendos espejos, de manera que cualquiera de las dos posibles trayectorias seguidas por el fotón experimentará un giro brusco de 90º por la reflexión en los espejos. Esto quiere decir que en un cierto instante ambas trayectorias coincidirán sobre el mismo punto (es decir, de nuevo tenemos dos posibles caminos a seguir por el fotón, como en la doble rendija). La sutileza del experimento estriba en lo siguiente. Si a lo largo de la proyección de cada una de las trayectorias tras el punto de corte colocamos un detector (configuración abierta, ver Fig. 6(a)), lo que obtendremos es que el 50% de las veces el fotón será detectado en uno de ellos y el otro 50% en el otro. Si situamos un nuevo divisor de haz sobre el punto de corte (configuración cerrada, ver Fig. 6(b)), el fotón se comporta como una onda (igual que tras el paso por el primer divisor de haz), de manera que las ondas procedentes de ambos caminos se recombinan y solamente se observará señal en el detector situado a lo largo de la prolongación del camino inicialmente reflejado (el 100% de las veces el fotón llegará a este detector).




Fig. 6. Experimento de elección retardada de Wheeler con el interferómetro en configuración abierta (a) y cerrada (b). En el segundo caso, variando de forma periódica la diferencia de fase entre ambos caminos es posible modular la señal detectada, cambiando ésta de forma también periódica de un detector al otro.


Lo que nos muestran esos dos experimentos es que, en un caso, pasamos de corpúsculo a onda y de nuevo a corpúsculo; en el otro, la presencia de un nuevo divisor provoca un nuevo paso a onda. ¿Qué sucede si consideramos el primer experimento pero, una vez nos aseguramos de que el fotón ha pasado el primer divisor, modificamos rápidamente el experimento e implementamos el segundo experimento? En principio, tras pasar por el primer divisor, el fotón ha tenido que “decidir” el comportamiento a adoptar y, como no había segundo divisor, será corpúsculo, habiendo así elegido entre un camino o el otro. Sin embargo, el resultado que se obtiene es que solamente uno de los detectores registra señal, conforme a lo que sucede en el segundo experimento. Es decir, a pesar de que el cambio se ha producido una vez el fotón se ha decantado por una de sus dos naturalezas, finalmente “decide cambiar su elección”. Igualmente, si inicialmente tenemos colocado el segundo divisor de haz y, una vez asumimos que tenemos al fotón viajando como una onda por ambos caminos, lo quitamos, lo que observamos es señal (del 50%) en ambos detectores. De nuevo, el fotón ha realizado una elección sobre qué aspecto mostrar al final, una elección con cierto retardo, pues no se toma antes de que entre en el dispositivo, sino una vez está dentro y, supuestamente, las “reglas del juego” están ya establecidas.

De nuevo nos encontramos aquí ante un interesante reto cuántico que, cada vez que se realiza en el laboratorio [18], no hace sino corroborar la doble naturaleza de las partículas cuánticas, como onda y como corpúsculo, las cuales, en conformidad con el principio de complementariedad, no nos son accesibles mediante un único experimento, pues o bien observamos una o bien la otra, pero no ambas al mismo tiempo … ¿o, tal vez, esto no es realmente así y lo que hace falta es repensar en otros términos estos experimentos?

4.3.    Condiciones de contorno: Una mirada pragmática al problema de la dualidad onda-corpúsculo.

En los experimentos que se acaban de describir se ha tenido en cuenta una visión análoga a la de los fundadores de la mecánica cuántica y, particularmente, la que mantenía el propio Bohr con su noción de complementariedad. La cuestión que nos surge, sin embargo, es si realmente es necesario apelar al concepto de corpúsculo. Es decir, si el elemento central de la mecánica cuántica es la onda, ¿cómo se sostiene el concepto de corpúsculo? ¿Es realmente necesario? Ciertamente, contar con un modelo tan sencillo como es el de una masa puntual es bastante atractivo: un objeto que se desplaza por el espacio a una velocidad determinada y cuyo estado de movimiento solo varía si existen fuerzas externas actuando sobre este objeto en un punto dado del espacio. Tratar con ondas, sin embargo, incluso para situaciones relativamente sencillas se torna bastante más complejo, entre otras cosas, porque una onda abarca todo el espacio disponible (accesible para el sistema al que describen). No obstante, una descripción precisa del efecto fotoeléctrico requiere del uso de ondas, incluso si Einstein consideró un sencillo modelo heurístico que apelaba a la idea de corpúsculo (recordemos que la mecánica cuántica apareció veinte años tras el modelo de Einstein).

Hecha la anterior aclaración, ¿qué es lo que sucede a la partícula cuántica en aquellos casos en que decimos que exhibe su naturaleza corpuscular? Para responder debemos tener en cuenta que toda onda es sensible a las condiciones del contorno que la acota [19] (las ondas en un estanque de agua son sensibles al contorno del propio estanque, así como a la presencia de cualquier otro elemento que pueda encontrarse al nivel de la superficie, como pueden ser rocas o troncos). Si éstas se varían, en el momento que sea, porque el experimento cambia, la onda asociada a la partícula también cambiará como consecuencia de ello, como se indicó al final de la sección 3.3., generando un resultado final diferente del que se esperaría sin tal variación del experimento. Así, por ejemplo, en el caso de la doble rendija, lo que está sucediendo cuando situamos un polarizador tras la rendija, no es que repentinamente la partícula deje de ser onda y se convierta, espontáneamente, en un corpúsculo, sino que las ondas que salen por ambas rendijas son incoherentes y, por tanto, no dan lugar a interferencia. Esto no quiere decir que no existan efectos cuánticos (manifestaciones ondulatorias), pues si el experimento se lleva a cabo con la suficiente precisión, lo que se observa es que el patrón que se forma es la suma directa de los patrones de difracción que origina cada una de las rendijas por separado. Y, como hemos visto anteriormente en este capítulo, la difracción es, precisamente, un rasgo típicamente ondulatorio. Lo realmente interesante de este experimento es que para que la partícula pueda generar un patrón de interferencia es imprescindible que la distancia entre las dos rendijas sea comparable a la longitud de onda que caracteriza a la onda asociada a la partícula; si esa distancia es mucho mayor, no habrá interferencia alguna, porque la partícula necesita “percibir” que existen dos rendijas abiertas al mismo tiempo.

En el caso del experimento de Wheeler, la explicación es análoga [19]: no es que la modificación del experimento durante su transcurso (y una vez que la partícula está dentro del interferómetro) haga rectificar al fotón su comportamiento, de onda a corpúsculo, y viceversa, sino que, al cambiar las condiciones de contorno del propio experimento, se está influyendo sobre la onda total y, por tanto, el resultado que debe salir. Es decir, la onda sigue siendo onda y lo único que cambia es su reconfiguración (redistribución espacial de la probabilidad asociada) dependiendo de qué es lo que sucede dentro del interferómetro, lo cual no tiene nada que ver con el efecto ilusorio de que el fotón realiza una elección con cierto retardo (algo que, de hecho, inquietaba al propio Wheeler).

Aparte de la variación de las condiciones de contorno, también podrían variar las condiciones físicas a las que está sometida la partícula, como puede ser la interacción con otras partículas o sistemas circundantes. Esto, como apuntaba Schrödinger, da lugar al entrelazamiento irreversible ente los diversos agentes involucrados y, como efecto, tiene lugar lo que se conoce como decoherencia [20,21], es decir, a la pérdida de la coherencia cuántica del sistema por su interacción con otros sistemas, que se traduce en la pérdida de su capacidad de exhibir los rasgos ondulatorios que vendría mostrando de no haberse producido la interacción. Este mecanismo, propuesto por Hans Dieter Zeh en 1970 [22], permite comprender por qué observamos que ciertos sistemas cuánticos se comportan como si estuviesen descritos por las leyes clásicas sin necesidad de abandonar la mecánica cuántica, como mantienen el principio de complementariedad de Bohr y la noción de dualidad onda-corpúsculo.


5.       Mecánica bohmiana: onda y corpúsculo.

La 5ª Conferencia Solvay, en 1927, sobre la interpretación de la mecánica cuántica [23] finalizó con una visión bastante tajante y pragmática sobre la manera de entender los procesos cuánticos [24]: cualquier cuestionamiento sobre el estado de un sistema cuántico dado no tiene sentido físico alguno a menos que se realice una medida para determinar la propiedad de que se trate, en cuyo caso solo podremos obtener una respuesta parcial, pues el estado del sistema “colapsará” sobre alguno de los posibles valores asignados a tal propiedad y no a todos ellos (una visión completa se obtiene únicamente a través del análisis estadístico de un gran número de estos colapsos). Esta visión es lo que generalmente se conoce como interpretación ortodoxa o de Copenhague de la mecánica cuántica, que recoge principalmente la visión de Bohr sobre cómo han de entenderse los fenómenos cuánticos en relación al proceso de medida. Pese a la sensatez que encierra esta interpretación, el hecho en sí de que se niegue cualquier tipo de cuestionamiento previo a la medida ha originado que durante décadas llegase incluso a negarse la existencia propia del sistema previa a su medida (como sucede con el estado del gato de Schrödinger, vivo y muerto al mismo tiempo hasta que se abra la caja), algo que se ha perpetuado hasta la actualidad.

Sin embargo, ¿existe alguna alternativa ante tal situación? Dejando de lado cuestiones de tipo filosófico y centrándonos en una visión también pragmática del asunto, la respuesta es positiva. Para ello hay que retomar brevemente el modelo propuesto por de Broglie. Su principal contribución, la que nos ha llegado hasta hoy, es básicamente la relación (2). A partir de ella se dice que cualquier partícula cuántica tiene una doble naturaleza, como onda y como corpúsculo, y de ahí el concepto de dualidad onda-corpúsculo que hemos tratado en este capítulo. Sin embargo, y aunque se ha introducido así también en este capítulo, ésa es una idea que surge tras las críticas que el propio de Broglie recibió precisamente en la Conferencia Solvay de 1927. La idea inicial con la que llegó a esta conferencia era algo diferente y consistía en la hipótesis de que toda partícula cuántica era una especie de singularidad que estaba de algún modo ligada irremediablemente a una onda [25,26]. Es decir, había una onda y había también, al mismo tiempo, un corpúsculo; ambas coexistían. La evolución de la onda, cuya longitud de onda era la que aparece en la ecuación (2), determina la dinámica del corpúsculo, cuyo momento es p (por este motivo de Broglie la llamó la onda piloto), pero sin que éste último ejerza, a su vez, ningún tipo de acción sobre la primera. Dicho de otro modo, no es que la partícula cuántica unas veces se comporte como onda y otras como corpúsculo, sino que ambos aspectos coexisten. Fue la incapacidad de de Broglie de suministrar una ecuación de movimiento para la onda lo que determinó en gran medida que su hipótesis original fuese finalmente rechazada.

Como se ha indicado anteriormente, fue Schrödinger quien finalmente encontró la ecuación que regía la evolución de la onda de de Broglie. En 1926, prácticamente tras ser propuesta la ecuación de Schrödinger, Erwin Madelung encontró [27] una sencilla transformación que permitía reescribir dicha ecuación en términos de un par de ecuaciones alternativas análogas a las de la hidrodinámica clásica, hoy denominadas ecuaciones de Madelung. Lo que Madelung buscaba era encontrar una visión menos abstracta de los sistemas cuánticos. Aunque inicialmente no encontró demasiado eco, con el tiempo se ha convertido en una forma estándar de entender la superfluidez, por ejemplo.

A pesar de las propuestas de de Broglie y Madelung, no es hasta 1952 cuando las aguas de la interpretación en mecánica cuántica son fuertemente agitadas, lo que sucede con el modelo planteado por David Bohm [28]. Matemáticamente, este modelo es equivalente al planteado por sus predecesores. Sin embargo, su importancia radica en que replantea por primera vez el problema de la medida y de las variables ocultas desde un punto de vista realmente robusto, no con hipótesis o reformulaciones, sino como un modelo plenamente en pie de igualdad con otros enfoques cuánticos. Sin contravenir ningún resultado fundamental de la mecánica cuántica, Bohm muestra que es posible la coexistencia de unas ondas y de unas trayectorias, donde éstas últimas proceden de la evolución de puntos materiales bajo la guía de las ondas (ondas piloto). La aleatoriedad de la posición inicial (indeterminada e indeterminable) de cada una de esas trayectorias permite escapar a la restricción de la relación de incertidumbre de Heisenberg y, al mismo tiempo, nos permite tener una imagen del proceso de detección (medida) sin necesidad de apelar a la idea de colapso de la función de onda y, por tanto, a la subjetividad de la presencia de un observador externo que nos indique si el gato está vivo o muerto.

Aunque el modelo de Bohm, conocido en la actualidad como mecánica bohmiana (o hidrodinámica cuántica, en la versión de Madelung), fue fuertemente rechazado y olvidado a partir de 1954, en la década de los sesenta John Bell lo retomó, inspirándose en él para formular su teorema y establecer que el problema con el que se encontraron Einstein y otros no era la imposibilidad de encontrar variables ocultas, como tal, sino que la estructura no local de la propia teoría cuántica determinaba qué tipo de variables ocultas podían ser factibles (únicamente las de tipo no local). A partir de los años 70, Bohm y sus colaboradores retomaron estos trabajos [29,30], y a partir de ahí se fue generando una creciente comunidad a nivel internacional con una visión bastante heterodoxa de lo que los sistemas cuánticos son y, por extensión, de cómo debe entenderse el concepto de dualidad onda-corpúsculo.

Hace solamente unos años se realizaron sendos experimentos que mostraban que tal vez esta visión de los procesos cuánticos no solo no es descabellada, sino que posiblemente comience a ser necesaria una revisión en profundidad de lo que realmente se puede decir y no se puede decir en mecánica cuántica, sin mantener el lastre de los tiempos de su fundación, cuando la gran cantidad de experimentos que se realizan hoy día en laboratorios de todo el mundo son una realidad y no una idea. Uno de esos experimentos fue el realizado por el equipo de Aephraim Steinberg en la Universidad de Toronto que mostraba [31] cómo en el caso de la doble rendija de Young es posible determinar los caminos promedio seguidos por los fotones en el transcurso del experimento sin destruir el patrón de interferencia. Otro conjunto de experimentos ciertamente interesantes para el tema que se discute aquí fueron los llevados a cabo independientemente por Yves Couder e Immanuel Fort [32] en la Université Paris Diderot y John Bush [33] en el Massachusetts Institute of Technology (MIT) con fluidos clásicos, en los que se observa cómo una gota (el corpúsculo) en suspensión vibrante sobre una onda en un fluido del mismo tipo es guiada y se comporta de forma similar a como lo hacen sistemas cuánticos análogos. Es decir, la onda substrato se comporta como la onda piloto de de Broglie. Como no podía ser de otra manera, ambos experimentos tuvieron una amplia repercusión.

Pero, ¿podemos considerar la visión conjunta de onda y corpúsculo que nos suministra la mecánica bohmiana como definitiva? Obviamente, no. La mecánica bohmiana no es más que otra representación adicional de la mecánica cuántica y, por tanto, en ese sentido, no nos dice nada nuevo que no estuviese ya contenido en ésta. A pesar de ello, resulta interesante, porque nos permite repensar los procesos cuánticos de una manera alternativa a como fueron presentados por Bohr y la escuela de Copenhague. Dicho de otro modo, nos muestra que en mecánica cuántica, al igual que en la mecánica clásica, el formalismo matemático admite una interpretación y comprensión de los fenómenos bastante amplia. Por ejemplo, en el citado experimento realizado por Steinberg y sus colaboradores las trayectorias no indican nada sobre el movimiento particular de cada fotón detectado durante su viaje. Sin embargo, dado que matemáticamente son líneas de flujo, éstas nos permiten visualizar cómo se desarrolla espacialmente, en cada instante, la corriente de fotones, algo que es bastante complicado de visualizar con la representación ondulatoria de Schrödinger o, incluso, imposible si recurrimos a la de matrices de Heisenberg. Por su parte, los experimentos de Couder, Fort y Bush tampoco nos dicen que las partículas cuánticas sean como esa gotita vibrante. Sin embargo, sí que podemos utilizar las trayectorias bohmianas para comprender la dinámica cuántica de la misma manera que la trayectoria trazada por la gotita vibrante nos da una idea del movimiento generado por la onda sobre la que viaja (de la misma manera que una hoja nos permite saber por dónde y cómo fluye la corriente de un río, pero no nos indica nada sobre el incesante movimiento de las moléculas de agua que conforman dicha corriente). En este sentido, el propio Bohm publicó un modelo en 1954 en colaboración con Jean-Pierre Vigier [34], extendido más de tres décadas después con la colaboración de Basil Hiley [35], sobre la naturaleza estocástica del movimiento que subyace a las trayectorias que se deducen del artículo de 1952. En concreto, conforme a ese trabajo (el de 1954), las trayectorias bohmianas no son sino el resultado de promediar conjuntos de trayectorias asociadas a un movimiento difusivo de tipo browniano que evolucionan en un substrato que podríamos denominar “sub-cuántico”, es decir, un nivel por debajo del cuántico que describe la ecuación de Schrödinger.

Por el momento, tanto ese tipo de movimiento aleatorio, como el substrato donde se desarrolla, son inaccesibles para la teoría cuántica actual y, por tanto, aunque pueda resultar interesante y atractiva, su hipótesis es solo una mera especulación. Sin embargo, tampoco aquí nos topamos con algo totalmente descabellado. Aunque solemos asumir que la ecuación de Schrödinger es una ecuación de ondas (entre otros motivos, en virtud de la conexión establecida por de Broglie y posteriormente por Schrödinger), lo cierto es que es bastante más parecida a una ecuación de difusión y, en particular, a la ecuación del calor. La ecuación de difusión describe la evolución colectiva de un conjunto de partículas clásicas que se mueven aleatoriamente. A pesar de esa aleatoriedad, las soluciones de la ecuación de difusión son totalmente regulares, como sucede con las funciones de onda de la ecuación de Schrödinger. La principal diferencia con respecto a una ecuación de difusión corriente procede de que en la de Schrödinger el coeficiente de difusión que aparece es una constante imaginaria, 𝑖ℏ/2𝑚, como ya observó el físico austriaco Harold Fürth en 1933. Esta idea, explorada en mayor detalle en los años sesenta del siglo XX por Kershaw, Comisar o Nelson tomando como base la teoría de procesos estocásticos de Wiener, nos lleva a pensar si, efectivamente, la ecuación de Schrödinger no es en realidad o debe entenderse como una ecuación de tipo estadístico. De hecho, cualquier resultado experimental cuántico no es otra cosa que una estadística realizada con un gran número de sistemas, por hipótesis, no interactuantes y preparados inicialmente con el mismo estado. Dentro de este escenario, las trayectorias bohmianas son el análogo directo a integrar la ecuación del flujo o primera ley de Fick de la mecánica estadística.

Teniendo en cuenta lo anterior, parece que no solo el carácter corpuscular queda totalmente “en el aire”, pues a menos que se apele a éste como mero argumento de discusión (algo que, a noventa años del nacimiento de la mecánica cuántica, y con la tecnología experimental disponible hoy día, parece que no tiene mucho sentido), la teoría en sí no dice absolutamente nada; cualquier comportamiento de ese tipo se explica perfectamente con la mecánica cuántica. Además, vemos que la analogía tan directa entre la ecuación de Schrödinger y la ecuación de difusión nos hace también dudar de si deberíamos hablar aún de una naturaleza “ondulatoria” en vez de simplemente estadística cuántica. Tal vez, al igual que la mecánica clásica acabó desembocando en la termodinámica y la teoría estadística en el siglo XIX, la teoría cuántica habría que mirarla, de forma más correcta, como una generalización de la teoría estadística en general y no solo cuando hablamos de estadísticas de partículas cuánticas (fermiones y bosones). En cualquier caso, y a pesar de ser la teoría más exitosa y potente desarrollada hasta el momento, posiblemente en un futuro, si se somete a mayores pruebas, la mecánica cuántica nos conducirá a resultados y teorías nuevas, como señalaba en una entrevista hace unos años el físico y Premio Nobel en Física Anthony Leggett.


Bibliografía:
[1] “Phisolophiae Naturalis Principia Mathematica”, I. Newton (London, 1687), reimpreso en: “The Principia: Mathematical Principles of Natural Philosophy: A New Translation”, I. B. Cohen and A. Whitman (trads.) (Cambridge University Press, Cambridge, 1999).
[2] “Opticks: Or, a Treatise of the Reflexions, Refractions, Inflexions and Colours of Light”, I. Newton (London, 1704), reimpreso en: “Optiks”, I. Newton (Dover, New York, 1952).
[3] “Treatise on Light”, Ch. Huygens (Leyden, 1690), reimpreso en:  “The Wave Theory of Light – Memoirs by Huygens, Young and Fresnel”, H. Crew (American Book Company, New York, 1899), pp. 3-41; también en: “Treatise on Light”, Ch. Huygens (Dover, New York, 1962).
[4] “Experiments and calculations relative to physical optics”, Th. Young, Phil. Trans. Roy. Soc. 94, 1-16 (1804). Reimpreso en: “The Wave Theory of Light – Memoirs by Huygens, Young and Fresnel”, H. Crew (American Book Company, New York, 1899), pp. 68-76; también en: “Great Experiments in Physics”, Sh. Morris (Holt Rinehart and Winston, New York, 1959), pp. 96-101.
[5] “Memoir on the diffraction of light”, A.-J. Fresnel (Paris, 1819), reimpreso en:  “The Wave Theory of Light – Memoirs by Huygens, Young and Fresnel”, H. Crew (American Book Company, New York, 1899), pp. 81-144.
[6] “Über eine Verbesserung der Wienschen Spektralgleichung”, M. Planck, Verh. Dtsch. Phys. Ges. Berlin 2, 202-204 (1900), reimpreso en: “The Old Quantum Theory”, D. Ter Haar (Pergamon Press, Oxford, 1967), pp. 79-81 (ver también capítulo 1, pp. 3-14). Ver también: “The Theory of Heat Radiation”, M. Planck (Dover, New York, 1959).
[7] “Über einen die Erzeugung und Verwandlung des Lichtes betreffenden heuristischen Gesichtspunkt”, A. Einstein, Ann. Physik 17, 132-148 (1905), reimpreso en: “The Old Quantum Theory”, D. Ter Haar (Pergamon Press, Oxford, 1967), pp. 93-107 (ver también capítulo 1, pp. 3-14).
[8] “Miguel Catalán. Su obra y su mundo”, J. M. Sánchez-Ron (CSIC / Fundación Ramón Menéndez Pidal, Madrid, 1994).
[9] “Miguel Catalán, una obra, un ejemplo”, A. Galindo, Revista Española de Física 17(6), 8-15 (2003).
[10] “A brief account of microscopical observations made in the months of June, July and August, 1827, on the particles contained in the pollen of plants; and on the general existence of active molecules in organic and inorganic bodies”, R. Brown, Phil. Mag. 4, 161-173 (1828).
[11] “Recherches sur la théorie des quanta”, L. de Broglie, Thesis (Paris, 1924).
[12] “An undulatory theory of the mechanics of atoms and molecules”, E. Schrödinger, Phys. Rev. 28, 1049-1070 (1926).
[13] “ Discussion of probability relations between separated systems”, E. Schrödinger, Math. Proc. Camb. Phil. Soc. 31, 555-563 (1935).
[14] “The quantum postulate and the recent development of atomic theory”, N. Bohr, Nature 121, 580-590 (1928).
[15] “Demonstration of single-electron buildup of an interference pattern”, A. Tonomura, J. Endo, T. Matsuda, T. Kawasaki and H. Ezawa, Am. J. Phys. 57, 117-120 (1989).
[16] “Die gegenwärtige Situation in der Quantenmechanik”, E. Schrödinger, Naturwissenschaften 23, 807-849 (1935). Version reimpresa y traducida: “The present situation in quantum mechanics: A translation of Schrödinger’s “cat paradox” paper”, J. D. Trimmer (trad.), Proc. Am. Phil. Soc. 124, 323-328 (1980), reimpreso en: “Quantum Theory and Measurement”, J. A. Wheeler and W. H. Zurek (Eds.) (Princeton University Press, Princeton, NJ,  1983), pp. 152-167.
[17] “The ‘past’ and the ‘delayed-choice double-slit experiment’”, J. A. Wheeler, in “Mathematical Foundations of Quantum Theory”, A. R. Marlow (Ed.) (Academic Press, New York, 1978), pp. 9-48.
[18] “Experimental realization of Wheeler’s delayed-choice GedankenExperiment”, V. Jacques, E. Wu, F. Grosshans, F. Treussart, Ph. Grangier, A. Aspect and J.F. Roch, Science 315, 966-968 (2007).
[19] “Investigating puzzling aspects of the quantum theory by means of its hydrodynamic formulation”, A. S. Sanz, Found. Phys. 45, 1153-1165 (2015).
[20] “Decoherence and the transition from quantum to classical”, W. H. Zurek, Phys. Today 44(10), 36-44 (1991). Versión revisada: “Decoherence and the transition from quantum to classical – REVISITED”, W. H. Zurek, Los Alamos Science 27, 2-25 (2002).
[21] “Decoherence, the measurement problem, and interpretations of quantum mechanics”, M. Schlosshauer, Rev. Mod. Phys. 76, 1267-1305 (2005).
[22] “On the interpretation of measurement in quantum theory”, H. D. Zeh, Found. Phys. 1, 69-76 (1970).
[23] “The Solvay Councils and the Birth of Modern Physics”, P. Marage and G. Wallenborn (Springer, Basilea, 1999).
[24] “Quantum Mechanics – Historical Contingency and the Copenhagen Hegemony”, J. T. Cushing (University of Chicago Press, Chicago, 1994).
[25] “Ondes et mouvements”, L. de Broglie (Gauthier-Villars, Paris, 1926).
[26] “The de Broglie pilot wave theory and the further development of new insights arising out of it”, D. Bohm and B. J. Hiley, Found. Phys. 12, 1001-1016 (1982).
[27] “Quantentheorie in hydrodynamischer Form”, E. Madelung, Z. Phys. 40, 322-326 (1927).
[28] “A suggested interpretation of the quantum theory in terms of ‘hidden variables’ I”, D. Bohm, Phys. Rev. 85, 166-179, 180-193 (1952).
[29] “The Undivided Universe”, D. Bohm and B. J. Hiley (Routledge, London, 1993).
[30] “The Quantum Theory of Motion”, P. R. Holland (Oxford University Press, Oxford, 1993).
[31] “Observing the average trajectories of single photons in a two-slit interferometer”, S. Kocsis, B. Braverman, S. Ravets, M. J. Stevens, R. P. Mirin, L. K. Shalm and A. M. Steinberg, Science 332, 1170-1173 (2011).
[32] “Walking droplets: A form of wave-particle duality at macroscopic scale?”, Y. Couder, A. Boudaoud, S. Protière and E. Fort, Europhysics News 41(1), 14-18 (2010).
[33] “Pilot-wave hydrodynamics”, J. W. M. Bush, Annu. Rev. Fluid Mech. 47, 269-292 (2015).
[34] “Model of the causal interpretation of quantum theory in terms of a fluid with irregular fluctuations”, D. Bohm and J. P. Vigier, Phys. Rev. 96, 208-216 (1954).
[35] “Non-locality and locality in the stochastic interpretation of quantum mechanics”, D. Bohm and B. J. Hiley, Phys. Rep. 172, 93-122 (1989).
[36] “Schrödinger’s kit: Tools that are in two places at once”, M. Brooks, New Scientist, Feature 23 de junio, 2010. Enlace:  https://www.newscientist.com/article/mg20627661-100-schrodingers-kit-tools-that-are-in-two-places-at-once/


Ángel S. Sanz
Doctor en CC Físicas
Profesor Departamento de Óptica, Facultad de CC Físicas,
Universidad Complutense de Madrid.

3 comentarios:

  1. Un cordial saludo. La Física enuncia que la Intensidad (entiéndase también Potencia) de cualquier radiación electromagnética es proporcional tanto al cuadrado de la Frecuencia como TAMBIÉN al cuadrado de la AMPLITUD de la onda, por otro lado, la Emisividad Térmica de ondas electromagnéticas de cualquier material (por ejemplo, la radiación de los cuerpos negros) se ha comprobado experimentalmente, y así se refleja en su Ecuación de Radiación, que SOlO depende de la Frecuencia de la radiación, SIN EMBARGO, como onda electromagnética al fin de cuentas, estas TIENEN que tener AMPLITUD, por lo tanto, la única explicación creíble a esto es asumir que la Amplitud de las ondas radiadas por calentamiento de los materiales tienen un ÚNICO valor independiente del tipo de material y de su Frecuencia de radiación (lo cual, por cierto, no resulta ser nada extraordinario si tenemos en cuenta que todos los materiales de la naturaleza a nivel atómico están constituidos por el MISMO Oscilador Cuántico y por lo tanto resulta licito asumir que por causa de propiedades físicas de estos osciladores los mismos solo pueden oscilar con un valor de Amplitud CONSTANTE y si variar su Frecuencia de oscilación en función de la temperatura de excitación), ahora bien, si esto resultase ser correcto entonces la única explicación que le puedo encontrar a este comportamiento y no ignorar el aporte energético de la Amplitud de las ondas radiadas, es que en el valor fijo de la Constante de Planck se encuentra implícito el aporte energético de la AMPLITUD de las ondas electromagnéticas radiadas por los cuerpos sometidos a excitación térmica, lo que de por si constituiría entonces la explicación del ORIGEN FÍSICO REAL del valor de la Constante de Planck.

    ResponderEliminar
    Respuestas
    1. Muchas gracias por tu comentario José Alberto.
      Intentaré que le llegue Ángel, el autor del texto, que lo escribió originalmente hacia 2017.
      Un saludo.

      Eliminar
  2. Un cordial saludo. Con respecto a la Constante de Planck, se puede demostrar que es ADIMENSIONAL y que su Módulo se puede obtener utilizando la Ecuación de la Energía para los Osciladorores Armónicos SIMPLES

    ResponderEliminar