El siglo XIX en física supuso la conclusión de la mecánica y la formulación del electromagnetismo y la termodinámica. En una cita (muy posiblemente apócrifa), lord Kelvin manifestó allá por el 1900 que no quedaba nada nuevo por descubrir en la física, que lo único que faltaba era hacer mediciones cada vez más precisas. Aunque Kelvin no pronunciara esta frase, sin duda era ese el sentir entre la comunidad física. Sin embargo, empezaron a surgir algunos experimentos que no podían ser explicados dentro de este paradigma: la emisión del cuerpo negro, el efecto fotoeléctrico o los espectros atómicos resultaban verdaderos quebraderos de cabeza hasta la formulación de la física cuántica.
Dos rendijas por el precio de una
Desde el siglo XVII, había dos grandes facciones en la física enfrentadas por su concepción de la luz. Por un lado, con Newton a la cabeza, los defensores de que la luz estaba compuesta por partículas, y por otro, siguiendo a Huygens, los que creían que era una onda.
A principios del siglo XIX, Young realizó su célebre experimento de la doble rendija. Al iluminar con una fuente de luz una pared con una única rendija, se observa un máximo de intensidad en la dirección que une la fuente y la rendija. Sin embargo, al iluminar dos rendijas muy próximas, se observa un patrón de franjas claras y oscuras alternas, con la máxima intensidad en los puntos equidistantes a ambas rendijas.
La teoría ondulatoria de Huygens y Fresnel explicaba el resultado como sigue: las dos rendijas se comportan como emisores secundarios de las ondas. A la pantalla llegan dos ondas con la misma amplitud \(A_1 = A_2\) y fases proporcionales a la distancia recorrida \(\phi = \frac{2\pi x}{\lambda}\). La amplitud total de la onda es \(\sqrt{{A_1}^2 + {A_2}^2 + 2A_1 A_2\cos(\phi_1-\phi_2)}\), por lo que si tienen la misma fase se refuerzan (interferencia constructiva) pero si las fases difieren en 90° la onda se anula (interferencia destructiva). La intensidad medida se obtiene elevando la amplitud al cuadrado.
La hipótesis corpuscular, por el contrario, no era capaz de explicar el experimento. Por ello, cayó en desgracia en el siglo XIX. Sin embargo, para poder explicar el efecto fotoeléctrico y la dispersión Compton, fue necesario a comienzos del siglo XX suponer que la luz se emitía en entidades discretas, llamadas fotones, que poseían energía y momento lineal, propiedades típicas de las partículas. Los padres de la cuántica se vieron obligados a admitir que la luz presenta una dualidad entre comportamiento ondulatorio y corpuscular.
Formación del patrón de interferencia con electrones, a muy baja intensidad. |
Louis de Broglie se atrevió a ir un paso más allá y suponer que la dualidad es una propiedad general, y que también se puede aplicar a la materia. Esto fue comprobado experimentalmente por, entre otros, G. P. Thomson, que consiguió difractar electrones y probar que son una onda (curiosamente, su padre, J. J., había demostrado que los electrones eran partículas). Se ha realizado el experimento de Young con electrones y otras partículas, obteniendo el mismo patrón de interferencia. Bajando la intensidad de la fuente hasta que los electrones pasen de uno en uno, se demuestra que el electrón interfiere consigo mismo, y que por lo tanto pasa por las dos rendijas a la vez. Si se modifica el experimento para saber por cuál de las rendijas ha pasado se destruye la interferencia, y se observan dos máximos de intensidad alineados con las rendijas.
Todos los caminos llevan a Roma
"[El experimento de la doble rendija es] un fenómeno que es imposible de explicar en cualquier manera clásica, y que tiene el corazón de la mecánica cuántica. En realidad, contiene su único misterio" - Richard P. Feynman.
Richard Feynman |
Feynman elaboró una construcción de la mecánica cuántica, equivalente a las que ya hanían hecho Schrödinger y Heisenberg, inspirada por el experimento de la doble rendija. Supone que una partícula cuando se desplaza entre dos puntos, lo hace siguiendo todas las trayectorias posibles, y estas trayectorias interfieren entre sí dependiendo de la fase que adquieren. Por lo tanto, carece de sentido hablar de trayectorias definidas como en mecánica clásica, solo es posible preguntarse por la probabilidad de que en un determinado momento la partícula se encuentre en una posición. La magnitud fundamental en la teoría de Feynman es el propagador \(K(x_1 t_1, x_0 t_0)\), que es la amplitud de probabilidad (en el sentido de que su módulo al cuadrado es la probabilidad) de que la partícula vaya de \(x_0\) a \(x_1\) en el tiempo que pasa de \(t_0\) a \(t_1\). Si introducimos un tiempo intermedio \(t_2\), la probabilidad de ir de \(x_0\) a \(x_1\) pasando por \(x_2\) es el producto de la probabilidad de ir de \(x_0\) a \(x_2\) por la probabilidad de \(x_2\). En consecuencia, la probabilidad total de llegar desde \(x_0\) hasta \(x_1\) es la suma (integral) de todos los posibles puntos intermedios \(x_2\):
\( K(x_1 t_1, x_0, t_0) = \int K(x_1 t_1, x_2 t_2) K(x_2 t_2, x_0 t_0) dx_2 \)
Esta ecuación, en el contexto de procesos estocásticos generales, se conoce como ecuación de Chapman-Kolmogorov.
Para calcular el propagador, todas las trayectorias contribuyen con la misma amplitud pero con distinta fase. La fase correspondiente a cada trayectoria es directamente proporcional a su acción. La constante de proporcionalidad debe tener las mismas unidades que la acción (energía multiplicada por tiempo o posición multiplicada por momento o momento angular) para que la fase sea un ángulo, y debe ser constante para todo tipo de procesos. La llamaremos constante de Planck, \(\hbar\).
\(K(x_1 t_1, x_0 t_0) = A \sum e^{iS/\hbar}\)
Si te paras a reflexionar, puedes ver que la teoría de Feynman no es más que la teoría ondulatoria de Huygens-Fresnel llevada al extremo: por cada trayectoria hay una onda, todas con la misma amplitud, que adquiere una fase durante su propagación; la amplitud total se obtiene sumando todas las fases, y las propiedades que se pueden medir se obtienen al elevar al cuadrado el módulo de la amplitud total. Conceptualmente, la idea de Feynman es hacer el experimento de Young con infinitas paredes cada una con infinitas rendijas. Además, deja bastante claro que no podemos aspirar a un conocimiento exacto del movimiento, y que solamente puede ser probabilístico.
Sí, pero... ¿Eso significa que estamos pasando continuamente por todas las trayectorias posibles? En un partido de fútbol, cada vez que un jugador chuta el balón, ¿está marcando gol simultáneamente en las dos porterías porque hay trayectorias que las atraviesan? La respuesta está en la constante de Planck \(\hbar\). En el mundo "clásico", las acciones son mucho mayores (esto es, trillones de veces o más) que \(\hbar\). Si cogemos dos trayectorias muy próximas entre sí, su acción se diferenciará muy poco, pero este poco será enorme en comparación con \(\hbar\), lo que se traduce en una gran diferencia de fases: en promedio, la contribución de una trayectoria interfiere destructivamente y se compensa con las trayectorias vecinas. La excepción son las trayectorias tales que tienen la misma acción que sus vecinas, \(\delta S = 0\). Estas interfieren constructivamente y son las únicas que contribuyen a la probabilidad. Estas son precisamente las únicas trayectorias permitidas por la mecánica clásica. Por lo tanto, la cuántica permite justificar el principio de Hamilton, con lo que cerramos el círculo.
Feynman elaboró esta teoría en los años 40 para su tesis doctoral, siguiendo la intuición de Dirac de la necesidad de reformular la mecánica cuántica a partir de la formulación lagrangiana. Vino casi veinte años después de las teorías de Schrödinger y Heisenberg, basadas ambas en el formalismo hamiltoniano.
Para más información...
R. P. Feynman, A. Hibbs: Quantum Mechanics and Path Integrals.
R. Rattazzi: The Path Integral approach to Quantum Mechanics. 2009
No hay comentarios:
Publicar un comentario