Sistemas cerrados como hipótesis de
trabajo inapelable.
En
el transcurso del desarrollo de la física moderna se fueron dejando una
cantidad importante de conceptos tirados en el camino. Si estos son revisados a
la luz de las matemáticas modernas, y del trabajo de cómputo que ahora sí se
puede hacer, se trata de conceptos que verdaderamente decían algo importante. Éste es el
caso de la energía del punto cero y del trabajo con sistemas físicos abiertos.
La física moderna del siglo XX nos ofrece un panorama muy hermoso, similar al de una carretera panorámica diseñada para admirar una sierra con montes llenos de pinos y riachuelos en el fondo de los barrancos. El problema es que cuando uno mira con más cuidado, se encuentra con una cantidad de cosas tiradas por allí y por acá. Entonces a uno lo invade la impresión de que la construcción de la autopista panorámica ha sido encargada a una de esas compañías mineras depredadoras del ambiente.
La física moderna del siglo XX nos ofrece un panorama muy hermoso, similar al de una carretera panorámica diseñada para admirar una sierra con montes llenos de pinos y riachuelos en el fondo de los barrancos. El problema es que cuando uno mira con más cuidado, se encuentra con una cantidad de cosas tiradas por allí y por acá. Entonces a uno lo invade la impresión de que la construcción de la autopista panorámica ha sido encargada a una de esas compañías mineras depredadoras del ambiente.
Esta
contribución al blog relata una conferencia impartida por mi en el Departamento
de Física de la Universidad de Sonora el 10 de octubre de 2012, pero como es
costumbre en la administración de esta universidad, el evento no fue cubierto
por el sistema de comunicación social dirigido desde la Dirección de
Comunicación, dirigida por José Peralta Montoya.
Entremos
en materia.
Razonando
sobre la base de la posición filosófica del realismo científico, existe una
crítica metodológicamente importante a la forma en que se abordó, en las
primeras tres décadas del siglo XX, el problema de la descripción del ahora
llamado micromundo.
Aquí
habremos de llamar realidad a lo que se entiende por ella en el realismo
científico. Desde este punto de vista, la realidad que se enfrenta en cualquier
laboratorio de mecánica, para describir el problema mediante la segunda ley de
Newton
Involucra
como hipótesis previa la existencia de un universo vacío en el cual solamente
está presente mi sistema físico.
En
la realidad, estamos rodeados de una gran cantidad de masas y de cargas
eléctricas distribuidas al azar en el universo, de modo que mi hipótesis es
únicamente una idealización
¿Cuándo
funciona bien esta hipótesis de trabajo?
Es una pregunta que podemos discutir
considerando las constantes de acoplamiento en el caso de la gravitación
universal y de la constante de Coulomb para las interacciones eléctricas.
Encontramos que esta última es mayor por veinte órdenes de magnitud. Así,
resulta que la fuerza eléctrica es muchísimo más poderosa que la gravitacional.
También
conviene considerar que las masas involucradas en las interacciones
gravitacionales es un número que se escribe con 24 ceros a la derecha, mientras
que en el caso del electrón es un número que se escribe con 31 ceros a la
izquierda. Es decir, hay una diferencia de 56 órdenes de magnitud. En
conclusión, la fuerza eléctrica, siendo más poderosa, actúa sobre masas mucho
más pequeñas.
Un
tercer aspecto a tomar en cuenta es que en la teoría electromagnética aparecen
dos clases de campos: a) los campos estáticos, que cuando nos alejamos de la
fuente que los produce disminuyen como 1 entre el cuadrado de la distancia, y
b) los campos dinámicos, que disminuyen como 1 entre la distancia. Las ondas
electromagnéticas, de las cuales podemos apreciar como luz, en un intervalo de
frecuencias, perteneces a esta clase de campos. Esto da por consecuencia que el
efecto de los segundos llegue muy lejos, mientras que los primeros son de
alcance relativamente corto. Ésta es la razón por la cual de las estrellas nos
llega solamente su luz, pero no los efectos electrostáticos y magnetostáticos.
La
siguiente gráfica muestra la diferencia cualitativa entre la disminución de
intensidad de los campos estáticos con respecto a los dinámicos. En el caso de
los fenómenos gravitacionales, la teoría newtoniana solamente nos ofrece campos
estáticos.
En
síntesis. La hipótesis que supone un universo vacío, donde solamente existe mi
sistema físico, puede ser de utilidad en la aplicación de la mecánica al
movimiento de los astros, a lo cual suele llamársele con el nombre de mecánica
celeste. La razón es que se trata de campos muy débiles a causa de la constante
de la pequeñez de la constante de la gravitación universal, a que las masas
involucradas son muy grandes y a que los campos presentes son de alcance no muy
largo si se compara con la distancia de nuestro Sol al resto de estrellas de la
galaxia.
En
cambio, suponer que la misma hipótesis se puede trasladar a la mecánica de los
cuerpos microscópicos, como el electrón y los núcleos de los átomos, implica
una situación en la que ocurre exactamente lo contrario: los campos son muy
poderosos debido a la constante de Coulomb, las masas involucradas son
extremadamente pequeñas, y además, las distancias de los campos con forma de
ondas electromagnéticas son de alcance muy largo.
El campo de radiación de fondo, o
dicho de otra forma, la imposibilidad de desconectarse del resto del universo.
Es
plausible la existencia de campos electromagnéticos con propiedades de
homogeneidad y de isotropía, que además, cumplen con la invarianza de Lorentz.
Algo típico del espacio que hemos postulado como vacío. Este campo promediaría
cero, pero su energía de fluctuación podría ser diferente de cero, de tal modo
que resultaría imposible la presencia de una radiación electromagnética de
fondo que persistiría, inclusive, a temperatura de cero grados Kelvin.
Siendo
así, podríamos imaginar al supuesto vacío como algo similar a una alberca
(piscina en otros países de habla hispana) en la que la superficie del agua
presenta un plano cuando nadie ha entrado al agua. En cambio, la presencia de
la primera persona generará un conjunto de anillos que se propagan en ella
(ondas en el agua)
La
situación será diferente si muchas personas entran en el agua. En esa nueva
situación el movimiento de la superficie del agua se presentará al azar, como
se aprecia en la siguiente figura
La
figura referente al campo electromagnético aleatorio, presentada arriba, indica una superposición aleatoria de muchas ondas senoidales, que
encimadas al azar, unas sobre otras, no permiten captar que se trata de
fenómenos oscilatorios simples.
El éxito de la mecánica celeste
convence de que es posible desconectarse del universo.
En
el desarrollo histórico de la física, la mecánica celeste, basada en campos
gravitacionales estáticos, explicó exitosamente los movimientos de los cuerpos
en el cielo, con las mismas ecuaciones que se podían usar para los fenómenos
aquí en la Tierra. La idea de la quintaesencia, que provenía desde la época de
los griegos, desapareció por ser innecesaria.
Así,
la mecánica celeste logró explicar los movimientos de los planetas, con tal
grado de precisión, que cuando se detectaron diferencias entre los datos de la
órbita de Urano y las predicciones de la teoría física, se buscó la explicación
en la presencia de algún otro planeta desconocido que estaría más lejos del
Sol. La posibilidad de dudar de la teoría no fue una opción a considerar
seriamente.
Lo
mismo ocurrió cuando se encontraron diferencias entre los datos de la órbita de
Neptuno y la predicción de la mecánica celeste. De nueva cuenta, en lugar de
dudar de la teoría se postuló la existencia de un nuevo planeta, más allá de la
órbita de de éste. Se buscó, hasta que Plutón fue encontrado.
El
éxito en la mecánica celeste generó tal grado de confianza que a nadie se le
ocurrió dudar de su aplicabilidad para estudiar el micromundo. Cuando el
electrón fue descubierto en 1897, la teoría del físico holandés Hendrik Lorentz
encontró aplicación inmediata en la explicación del efecto Zeeman. Sin embargo,
el hecho de que la descripción era parcialmente exitosa, apenas sirvió de aviso
de que algo andaba mal.
En
el mismo sentido, Paul Drude, un físico alemán, desarrolló un modelo clásico
para explicar la propiedad conductora de los metales. Trató a los electrones
libres en el interior de esos materiales mediante una ecuación acorde a la
mecánica de Newton y como si formaran parte de un gas ideal. La teoría obtuvo
resultados parcialmente correctos, pero el hecho de que no fueran completamente
correctos, no resultó muy preocupante.
El
mismo modelo fue revisado posteriormente por Hendrik Anton Lorentz, con una
extensión de su teoría del electrón. Con esos avances, lograron explicar la
teoría del índice de refracción en dieléctricos, además de la conductividad de
los materiales. Aparentemente, los métodos aplicados a la mecánica celeste
funcionaban (o casi) en los objetos microscópicos.
Los
científicos de inicios del siglo XX estaban engolosinados con los métodos de la
mecánica celeste, en el sentido de que la hipótesis consistente en trabajar con
sistemas cerrados habría de funcionar siempre. El modelo atómico de Nagaoka, de
1903; el de Rutherford, desarrollado entre 1907 y 1911; el de Niels Bohr,
presentado en 1913; respetaron siempre ese sistema de trabajo.
Los vaivenes de los científicos en
torno a la energía del punto cero.
En
este contexto, Max Planck hizo esfuerzos infructuosos por obtener su propia ley
de radiación sin necesidad de recurrir a la hipótesis de intercambio de energía
a base de paquetes. Uno de esos intentos fue la a veces llamada Segunda Teoría
de Planck, en la cual utilizó un modelo matemático en el cual un átomo esférico
de la pared de una cavidad se deforma ante la presencia de radiación
electromagnética y responde como si se tratara de un dipolo eléctrico. Trabajó
con una ecuación de segundo orden en la cual estaban presentes: una fuerza
lineal (típica de los resortes que llamamos osciladores armónicos), una fuerza
de amortiguamiento con la que se busca incorporar el hecho de que la partícula
cargada que se acelera radía y pierde parte de su energía, y además, una fuerza
eléctrica proveniente de la radiación encerrada en una cavidad.
La
segunda teoría de Planck fue rechazada muy pronto, pues entre sus hipótesis
introducía una asimetría entre el proceso de absorción y el de emisión de
radiación, lo cual entró pronto en contradicción con el modelo atómico de Niels
Bohr, en el cual tal asimetría no estaba presente.
Sin
embargo, había en la nueva fórmula de Planck un término novedoso que no había
estado presente antes.
Se
trataba de un término que no dependía de la temperatura, de modo que la energía
de un oscilador de la pared nunca se iba a cero si la temperatura se acercaba
al cero absoluto. Esto es lo que después se llamó la energía de radiación de
fondo.
Vale
la pena aclarar que no tiene relación con la radiación cuya temperatura es de
T=2.7 grados Kelvin y que es considerada un vestigio de la gran explosión que
(se acepta comúnmente) creó el universo. En el caso del término encontrado por
Planck, es una radiación presente incluso en el cero absoluto. Es incongelable.
Dicho
de otra forma, en la realidad tu puedes enfriar una porción del universo hasta
alcanzar temperaturas récord de 10-9 grados Kelvin, pero es
imposible que logres enfriar el universo completo.
El
argumento de plausibilidad planteado originalmente, que sugiere la existencia
de una radiación electromagnética proveniente del resto del universo, y que te
obligaría a tratar los sistemas físicos como sistemas abiertos, se acomoda
perfectamente al resultado de Planck que acabamos de presentar.
La
segunda teoría de Planck fue rechazada pero la presencia de ese término
misterioso se mantuvo. En el año de 1912, se estaba investigando la aportación
a la capacidad calorífica del hidrógeno por parte de la energía de rotación las
moléculas de H2. Modernamente esto se ubica dentro del contexto de
la termodinámica clásica y de la física estadística, las cuales nos dicen que
si conocemos el espectro de energía de una molécula, podemos clasificar varios
tipos de aportaciones a la capacidad calorífica, la cual se puede calcular
mediante una derivada de la expresión de la energía con respecto a la
temperatura. Quien sepa un poco de cálculo diferencial comprenderá de qué
estamos hablando. Las aportaciones son: 1) la energía de traslación de la
molécula, que es la principal aportadora, 2) la energía de vibración de un
átomo de hidrógeno con respecto al otro, lo cual se puede modelar mediante el
oscilador armónico, que se estudia en el quinto semestre de una licenciatura en física, 3) la energía de
rotación de la molécula como si fuera una varilla.
El
descubrimiento experimental provino de Arnold Eucken, quien en 1912 presentó a
la Academia Prusiana de Ciencias sus resultados de las mediciones de la
capacidad calorífica de un gas de hidrógeno molecular, pero justamente la parte
proveniente de la energía de rotación.
Los
datos obtenidos por Eucken llevaron a la conclusión de que la contribución de
la energía de rotación a la capacidad calorífica se acercaba a cero conforme la
temperatura iba hacia el cero absoluto.
De
acuerdo a los datos modernos (mucho más precisos) se sabe que hay una
diferencia entre dos tipos de moléculas de hidrógeno, el caso del
parahidrógeno, en el cual la curva de la capacidad calorífica baja como lo
indican las mediciones de Eucken, y el del ortohidrógeno, que presenta una joma
antes de precipitarse hacia el cero.
A
raíz de su experiencia en el cálculo del calor específico de los sólidos,
Einstein se interesó en los resultados de Eucken y buscó una explicación
teórica con la colaboración de un joven físico judío alemán que se acababa de
doctorar recientemente. En esas fechas Einstein trabajaba todavía en Praga.
Tomaron como punto de partida la existencia real del nuevo término de Planck
para la energía de un oscilador y llevaron a cabo un cálculo que dio resultados
favorables, como se puede apreciar en la siguiente gráfica:
Su
conclusión fue que: “Los
resultados de Eucken sobre el calor específico del hidrógeno hace probable la
existencia de la energía del punto cero igual a hn/2.”
Sin
embargo, la aceptación de la energía del punto cero no duró mucho, poco tiempo
después, Paul Ehrenfest demostró que los mismos resultados podían obtenerse
usando la física estadística, la primera ley de Planck, sin la radiación del
punto cero y la muerte aparente del concepto se inició a los pocos meses de
haber nacido. Einstein le escribió a Ehrenfest para decirle que la energía del
punto cero estaba irremediablemente muerta.
Realmente
estaba muerta la idea? Veamos una breve reseña de lo que ocurrió en los años
siguientes:
En
1913 Otto Stern estudia la presión de vapor de gases monatómicos y concluye que el calor de vaporización
respalda la existencia de la energía del punto cero.
En
ese mismo año, Willem Keesom sostiene la necesidad de considerar la energía del
punto cero al estudiar la ecuación de estado de gases monoatómicos.
En
1923, Kurt Bennewitz y Franz Simon estudian el punto de fusión del hidrógeno,
el argón y del mercurio. Afirman haber encontrado evidencia de la existencia de
la energía del punto cero.
Dos
años antes, en 1921, Max Planck, Kamerling Onnes, Paul Debye y Arnold
Sommerfeld toman en serio esta energía. En una carta de Einstein a Ehrenfest
(en 1921 también), el primero sostiene
que la energía del punto cero podría ser importante en el tratamiento del hidrógeno y del helio.
Otras
consideraciones a favor de la existencia real de la energía del punto cero son
las siguientes:
En
1916, Otto Stern propuso que el espacio vacío podría estar lleno de una
radiación electromagnética de punto cero.
En
1919 Einstein trata de relacionar la presión “negativa” generada por la
presencia de la radiación del punto cero sobre una cáscara eléctricamente
cargada.
En
1921 Emil Wiechert maneja la idea del éter, al cual le asocia una energía que
relaciona con la constante cosmológica de Einstein.
De
acuerdo a Helge Kragh, la interpretación de la constante cosmológica, para
entenderla como una densidad de energía del vacío, podía haber sido planteada desde 1917. En ese
tiempo la Relatividad General cumplía casi dos años de edad y el debate entre
el físico holandés Willem de Sitter y Einstein llevaba varios meses
realizándose.
Según
Kragh, la contribución que aparece en la ecuación de la diapositiva puede ser
interpretada para implicar una densidad de energía del vacío asociada con la
constante cosmológica y con una presión negativa proporcional a la densidad de
energía.
Ver:
Helge Kragh, “Preludes to dark energy: Zero-point energy and vacuum
speculations”, enviado a Archive for History
of Exact Sciences.
Entre
tanto, el problema cuántico seguía sin ser resuelto. Para 1922 ya se había
aprendido que las reglas de cuantización de Wilson y Sommerfeld funcionaban
solamente para energías suficientemente altas. Niels Bohr proponía revisar la
teoría de la radiación electromagnética y hasta llegó a proponer, en 1923, que
probablemente se necesitaría una nueva versión donde la energía no se
conservaría. Por su parte Werner Heisenberg afirma, en su libro: Conversaciones
con Einstein y otros Ensayos, que la idea de resolver el problema modificando
la mecánica había sido suya. En cambio, Josef Eisinger afirma, en su libro:
Einstein on the Road, que Einstein había manejado la necesidad de una nueva
mecánica en una conversación con el físico Blas Cabrera, ya en febrero de 1923,
en una visita suya a la ciudad de Barcelona.
Niels Bohr en 1923. La teoría
cuántica de la radiación .
El
tratamiento basado en sistemas, para abordar el problema cuántico, asomó
ligeramente su cabeza dos años antes de la formulación madura de la mecánica
cuántica. Se trató de un trabajo que introdujo la existencia de osciladores
virtuales que actuarían como eslabones comunicadores de los átomos. Este
enfoque apareció en una investigación de Niels Bohr, Hendrik Kramers y John
Slater, quienes publicaron en 1923 un artículo cuyo título es: La Teoría
Cuántica de la Radiación”. Ahora es considerado como el último intento por
conciliar la teoría ondulatoria de la luz, basada en la electrodinámica
clásica, y la teoría de la radiación como se había ido perfilando a raíz de las
aportaciones de Einstein. Particularmente su trabajo de 1917, en el cual obtuvo
la ley de radiación de Planck por medio de un modelo de dos estados de energía.
El
enfoque de Einstein era presentado por el mismo, en mayo de 1925, y comparado
con la teoría de de Bohr, Kramer y Slater como sigue:
“De
acuerdo a la teoría de los cuantos de luz, la dispersión de la luz debe poseer
también un carácter de eventos aislados, y tal que allí debe existir un
electrón emitido en una dirección definida cada vez que la radiación dispersada
produce un efecto secundario en la materia. De acuerdo a la teoría de los
cuantos de luz, hay dependencia estadística entre la radiación dispersada en el
sentido de Compton y la emisión del electrón, una dependencia que en el punto
de vista de los autores [refiriéndose a Bohr, Kramers y Slater] no debe
existir.”
Dos
párrafos antes, Einstein había escrito:
“Recientemente
N. Bohr, junto con Kramers y Slater, condujeron una interesante investigación
en la cual intentaron explicar teóricamente las propiedades energéticas de la
luz, sin invocar la hipótesis de que la radiación consiste de cuantos de tipo
corpuscular. De acuerdo al enfoque de estos autores, uno debería seguir
visualizando la radiación como ondas que se propagan en todas direcciones, y en
el sentido de la teoría ondulatoria, tal que son absorbidas continuamente por
la materia, pero produciendo efectos de tipo cuántico en átomos individuales
que siguen leyes estadísticas, exactamente como si la radiación consistiera de
cuantos de energía hn. Para sacar adelante este concepto, los autores abandonaron la
validez exacta de la conservación de la energía y del momento, las cuales pasan
a tener validez estadística.”
Ver:
Richard A. Campos, “Still Shrouded in Mistery: The Photon in 1925”, en: http://arxiv.org/abs/physics/0401044
Las
palabras escritas por Einstein se deben a que el trabajo de 1923 de Bohr y
colaboradores contiene una sección intitulada: “Procesos de radiación y
transición” que inicia con las siguientes palabras:
“Supondremos
que un átomo dado en cierto estado estacionario se comunicará contínuamente con
otros átomos a través de un mecanismo espaciotemporal que es virtualmente
equivalente con el campo de radiación que, de acuerdo a la teoría clásica,
sería originado a partir de osciladores armónicos virtuales que se corresponden
con varias transiciones posibles hacia otros estados estacionarios. Además,
supondremos que la ocurrencia de procesos de transición para el átomo dado
mismo, así como por otros átomos con los cuales está en comunicación mutua,
está conectado con este mecanismo por medio de leyes de probabilidad que son
análogas a aquellas que se sostienen en la teoría de Einstein … ”
Un
experimento de Walther Bothe y Hans Geiger demostró que la teoría de Einstein
iba por el camino correcto, y así, la introducción de los osciladores virtuales
para comunicar a los átomos inmersos en una radiación ondulatoria pagó el
precio de atentar contra la conservación de la energía y el momento a nivel
individual en el micro cosmos.
Enseguida la fotos de Geiger y de Bothe:
Enseguida la fotos de Geiger y de Bothe:
Pero
el hecho de que fuera desechada la teoría de los osciladores virtuales como
conectores entre átomos que radían, no significa que su impacto fue nulo en el
desarrollo de la física. Menos de tres meses después, fue publicado un artículo
de Hendrik Kramers en la revista Nature. Estaba fechado el 25 de marzo de 1924
y tenía como propósito estudiar la radiación electromagnética dispersada por
átomos.
A
partir de la lectura de los capítulos 10 y 11 del volumen II del libro
“Lectures on Physics”, de Richard Feynman, se puede aprender que los átomos que
forman un material no conductor de corriente eléctrica, agregan a la onda
electromagnética incidente un vector que se llama “vector de polarización”.
Así, resulta un nuevo campo que es la suma del que incide sobre la colección de
átomos, más el vector ya mencionado.
H.
Kramers comparó el resultado clásico, basado en un oscilador armónico tratado
mediante la mecánica de Newton y la teoría electromagnética de Maxwell.
Enseguida escribió la expresión de R. W. Wood y P. V. Bevan, obtenida por medio
de los experimentos en 1906 y en 1910 respectivamente. A partir de la
comparación concluyó que:
“La
reacción del átomo contra la radiación incidente puede ser formalmente
comparada con la acción de un conjunto de osciladores armónicos virtuales
dentro del átomo, conjugado con las diferentes transiciones posibles a otros
estados estacionarios.”
A Robert Williams Wood casi nadie lo recuerda. Su bello libro sobre Ópica es ahora considerado obsoleto. Él es el de la imagne siguiente:
A Robert Williams Wood casi nadie lo recuerda. Su bello libro sobre Ópica es ahora considerado obsoleto. Él es el de la imagne siguiente:
El
experimento de Bothe y Geiger aún no se realizaba y la idea original de Bohr
estaba presente.
El
trabajo de Kramers tuvo repercusión sobre Max Born, quien en junio de 1924
publicó un artículo en el cual discutía la expresión de Kramers, la comparaba
con otra similar de Heisenberg y abundaba sobre la presencia de “osciladores
virtuales”. Esta vez como “resonadores” seleccionados a partir de una colección
infinita de osciladores disponibles a través de un formalismo de la mecánica
clásica que se llama: “sistemas múltiplemente periódicos”.
Enseguida una imagen de Kramers:
Enseguida una imagen de Kramers:
Para
estudiar los sistemas múltiplemente periódicos se requiere conocer a fondo la
mecánica de Newton en una de sus versiones que recibe el nombre de formulación
hamiltoniana.
Es
justo en este contexto que surge, un año después, la regla de multiplicación de
Heisenberg que ya he relatado en este blog. Ver: Dos anotaciones sobre el
trabajo fundacional de Heisenberg, http://fisicahistoriayasuntosuniversitarios.blogspot.mx/2011/06/dos-anotaciones-acerca-del-trabajo.html
Entre
1923 y 1924, Louis de Broglie encontró que para evitar una contradicción entre
la teoría cuántica y la teoría de la relatividad especial, cada partícula
debería llevar asociada una onda, lo cual sería consecuencia de un movimiento
interno periódico.
El triunfo del enfoque basado en
sistemas cerrados y la reaparición de la energía del punto cero.
Sabemos
que la mecánica cuántica nació entre julio de 1925 y enero de 1926, con el
trabajo pionero de Heinsenberg y la mecánica ondulatoria de Erwin Schrodinger.
Se llegó a ella sin revisar la hipótesis
de los sistemas cerrados que hemos expuesto al principio. Y así, nació la
teoría que se estudia y usa ahora, sin recurrir a los sistemas abiertos.
En
ese paso se olvidó el movimiento interno periódico de Louis de Broglie, y
también, la razón fundamental por la cual Heisenberg había introducido su ley
de multiplicación.
Entre
las tortas que traía bajo el brazo la niña recién nacida estaba la solución al
problema del oscilador armónico, en el cual la energía traía un término extra:
la energía del punto cero. Podemos concluir que ésta no había muerto
irremediablemente, como escribiera Einstein en 1913. Digamos que simplemente
andaba de parranda.
Éste
es un punto muy importante. En atención a la crítica metodológica que
planteamos al principio, el resultado de la mecánica cuántica madura, con la
energía del punto cero como uno de sus resultados, sugiere que apareció como
una conclusión la idea que pudo haber sido el punto de partida. Tomando
prestadas las ideas de Carl Sagan, vale la pena decir que ésta es una
especulación científicamente válida, como veremos más adelante.
Entre
las conclusiones modernas de la teoría cuántica se reconoce que el llamado:
vacío, en realidad no lo está. Como se puede leer en un artículo de la revista
estadounidense de difusión científica, Scientific American,
“Lejos
de estar vacío, la física moderna supone
que un vacío está lleno de ondas electromagnéticas que nunca pueden ser
completamente eliminadas, como un océano con olas que siempre están presentes y
nunca podemos detener.”
Más
adelante agrega: “Esas ondas vienen en todas las longitudes de onda posibles, y
su presencia implica que el espacio vacío contiene una cierta cantidad de
energía – una energía que no podemos utilizar, pero que siempre está allí.”
Estamos
entonces frente a la consecuencia de una decisión muy importante: no cuestionar
el trabajo con sistemas cerrados, para ceñirse a esa hipótesis y buscar, hasta
encontrar, la formulación de la mecánica cuántica como ahora la conocemos,
termina produciendo una energía del punto cero que resulta de ciertas
fluctuaciones del vacío, las cuales consisten de unos “fotones que son virtuales”.
El lenguaje le choca a cualquier persona con sentido crítico, que esté
dispuesta a exigir de las teorías físicas imágenes más claras y lenguajes que
no sean ambiguos.
La teoría cuántica de campos y el
problema de ¿qué es una partícula?
A
partir de 1928 se inicia el desarrollo de la teoría cuántica del campo. Ésta
parte de un teorema matemático atribuido a Fourier, el cual establece que todas
las funciones periódicas pueden ser representadas por medio de senos y cosenos
cuya frecuencia varía y tal que estas funciones participan con diferente peso
(o importancia). Usando la expresión de Euler para relacionar a estos senos y
cosenos con exponenciales que contienen un número i en el exponente, se pueden
traducir a una combinación lineal de funciones exponenciales complemas como se
ve en la siguiente figura. Cada uno de los términos que aparecen en ella son
considerado como un oscilador armónico descrito por la mecánica clásica pero
con frecuencia diferente.
Para
entender el papel que juegan los coeficientes ab podemos comentar que si el
color azul es más intenso que el rojo en una luz determinada, los valores ab correspondientes al azul
toman valores mayores que los del rojo. Toda la teoría clásica de la luz
descansa sobre expresiones como la de la figura anterior.
A
partir de este punto, en 1928 se toma una decisión que es congruente con la
idea de mantenerse trabajando con sistemas cerrados. Se cuantiza el campo
mediante el procedimiento que consiste en cambiar a cada oscilador armónico
clásico por un oscilador armónico cuántico. En términos generales, se trata de
cambiar los coeficientes ab por una herramienta nueva a partir de 1926, los operadores. Estos
son elementos matemáticos con un álgebra diferente a la que estamos
acostumbrados. Los operadores no conmutan de modo que la acción de uno de
ellos, seguido por la acción de otro, no produce el mismo resultado que si
cambiamos el orden.
Como
puede verse, el problema se resuelve, pero el grado de abstracción se
incrementa.
La
opción que es dejada de lado consiste en admitir, como ya dijimos, que es
imposible aislar nuestros sistemas físicos del resto del universo, tal que las
cargas eléctricas presentes en él siempre están influyendo sobre el sistema que
deseamos estudiar. Si aceptamos este hecho, entonces pensaremos en la radiación
electromagnética como una radiación estocástica. Siendo así, el paso directo es
considerar a los coeficientes ab como variables aleatorias con
propiedades estadísticas específicas.
Así
como ocurrió con la energía del punto cero, que fue declarada muerta para que
apareciera de nuevo (viva) en la mecánica cuántica madura. La idea basada en
estocastizar los campos no fue completamente abandonada. En un trabajo que se
mantiene desde 1960 hasta 1972, el físico Robert Bourret desarrolla un trabajo
que explora la posibilidad de establecer equivalencias entre los campos cuantizados
y los campos estocásticos. Su trabajo fructifica en 1970, cuando demuestra que
a cada campo cuantizado le corresponde uno estocastizado de acuerdo a la regla
establecida en la expresión de la siguiente figura.
Ver: U. Frisch, y R. Bourret, “Parastochastics”, Journal of
Mathematical Physics 11, 364-390 (1970).
Dos años después, en 1972,
Robert Bourret demuestra que los únicos casos que tienen sentido físico son
justamente los correspondientes a l=1 y l =0, que responden, respectivamente, al caso de los bosones y
de los fermiones. Justamente los dos tipos de partículas distinguidos en la
física por sus propiedades estadísticas.
Los operadores planteados
por Bourret son de la misma naturaleza que los utilizados en la teoría cuántica
de campos. Los operadores A destruyen partículas, mientras que los operadores B
las crean. Así, cualquier campo estocástico da lugar a partículas que son
puramente conceptuales, en el sentido de que permiten formular los problemas
mediante la creación y aniquilación de partículas que no necesariamente
corresponden a objetos reales en la naturaleza.
La frase anterior es clara
si mantenemos una posición filosófica apegada al realismo científico, pero si
nos movemos hacia una actitud ligada a la filosofía positivista, entonces lo
único que importa son mis mediciones, de modo que el concepto de realidad no
tiene que ver con objetos en ese mundo real externo del que se habla en
realismo. Siendo así, no se logra una diferencia precisa entre el electrón, el
protón y el neutrón, por una parte, y los fonones, los plasmones, los
polaritones, por otra.
En ese mismo sentido,
todas las partículas elementales que se han venido “detectando” (las comillas
son intencionales) caen dentro del mismo rango. No hay diferencia entre un
fonón, que es puramente conceptual, y un electrón, que de acuerdo al realismo,
existe en una naturaleza externa a nosotros.
De hecho, la especialista en física de altas
energías, Lily Asquith, desarrolla el siguiente galimatías
cuando trata de responder a la pregunta ¿por qué decae el bosón de Higgs?
“Cuando
hablamos acerca de cualquier partícula ‘fundamental’ tal como la de Higgs, la
razón para su decaimiento es realmente mucho más simple. Una partícula tal no
es un ‘objeto’ en el sentido imaginado usualmente, pienso que es descrito de
manera más precisa como una ‘posibilidad’. La pregunta de ‘¿qué es real?’ es
una que he evitado con empeño desde un dolor de cabeza particularmente malo que
tuve hace tres años, pero una idea muy general es que no podemos describir
cualquier cosa sin algunas propiedades bien definidas, y en física de
partículas esas propiedades son los números cuánticos. Un conjunto de números
cuánticos, combinado con alguna información adicional, nos da una cantidad
descriptiva llamada una función de onda, la cual describe completamente un
estado de ‘materia’ en su forma más fundamental. El decaimiento de una
partícula tal como el Higgs puede ocurrir si su función de onda es idéntica a
la función de onda combinada de otras dos partículas. Son siempre dos: debe ser
así debido a las configuraciones posibles de los números cuánticos.”
En
esencia, la partícula más buscada en los últimos años, y en la que más se ha
gastado para tratar de descubrirla, no tiene el grado de realidad que el común
denominador de la gente piensa, sea porque es un realista ingenuo, o un
realista bien informado (científico). Incluso, la actitud de la especialista
acerca de qué es lo real es francamente evasiva.
Así,
hemos llegado hasta un punto en el que se necesita reflexionar cuidadosamente,
en alguna clase de enlace entre los profesionales de la física y los
profesionales de la filosofía de la física. En los hechos, ya se están
presentando posiciones tan críticas como la de Eliano Pessa, quien afirma que
“el concepto ingenuo de partícula, adoptado por la mayoría de los practicantes
de la teoría cuántica de campos, evidencia contradicciones intrínsecas, y por
consiguiente, debería ser abandonado.”
Una teoría con una calidad predictiva
muy grande.
Todo
lo anterior se suma al malestar que genera entre muchos físicos la
interpretación usual de la mecánica cuántica. El problema no tiene que ver con
la calidad predictiva de la teoría, sino con la forma en que se interpretan sus
resultados. Nos explicaremos enseguida acerca de estos dos temas.
En la
notación científica se acostumbra escribir un digito seguido de un punto y los
decimales que corresponda. Todo multiplicado por el número diez elevado a una
potencia que puede ser positiva o negativa. Por ejemplo, la velocidad de la luz
es de 299 792 458 metros por segundo, es decir, 299 millones 792 mil 458 metros
por segundo; sin embargo, no se acostumbra escribirlo así. En lugar de ese
lenguaje típico de la prensa, o de los manejos contables de un gobierno, o de
una empresa, se dice que la velocidad de la luz es de 2.99792458×10⁸ metros por
segundo. Así mismo, se escribe que el electrón tiene una carga igual a
1.60217733×10⁻¹⁹ coulombs, en lugar de escribir un 0, un punto, y después 18
ceros más, antes de que aparezcan el número 1 y el s.
Ayudados
con el lenguaje anterior, sabemos que las predicciones hechas con la mecánica
cuántica
Indicando
con el símbolo # a cada dígito, resulta que los números del tipo: #.#X10-10
permiten expresar la calidad de la precisión de la teoría cuántica, en el
sentido de que hasta ese grado ha sido posible hacer mediciones experimentales
que corroboran acuerdo con la predicción teórica.
Para
comprender la magnitud de la calidad predictiva de la mecánica cuántica podemos
agregar que en la ingeniería usual, los dígitos de la forma #.#X10-3
son consideradod como ingeniería de precisión. A su vez, la ingeniería ligada a
los fenómenos ópticos tiene el potencial de llegar a una precisión de #.#X10-4
, pero éste es un logro difícil de alcanzar que es catalogado como altamente
exitoso.
Ver: Luis de la Peña y Ana María Cetto, “Metafísica experimental y
mecánica cuántica”, Ciencias 66, abril-junio 2002.
¿Pero qué significan físicamente los
elementos contenidos en la teoría cuántica?
El
problema está en otra parte, como escribí arriba, se trata de la inconsistencia
de la mecánica cuántica con la teoría de la relatividad especial, en lo oscuro
de su significado cuando se pretende aplicar la teoría a una sola partícula,
afirmando, incluso, que la naturaleza es no local. Pasaremos a explicar qué es
esto.
En la
mecánica cuántica se reconoce que las partículas llevan asociada una onda de
longitud l, por
lo tanto, un electrón se conduce como onda cuando pasa por en medio de ventanas
cuya anchura es del mismo orden que l. Entonces, el haz de electrones que es
lanzado contra las ventanas mencionadas (llamadas rejillas de difracción) se
abre y golpea una pantalla en zonas específicas que forman algo llamado un
patrón de difracción que consiste de regiones donde llegan muchos electrones y
otras donde llegan muy pocos.
Este
patrón de difracción es descrito mediante una función matemática llamada
densidad de probabilidad y con ella se logra predecir la conducta de los
electrones que golpean la pantalla. El problema empieza cuando se desea aplicar
la descripción a solamente un electrón. En este caso, el electrón tiene
asociada una probabilidad antes de chocar con la pantalla, y otra diferente
cuando choca. Esta última consiste en asociar probabilidad 1 al punto en el
cual golpea el electrón, de modo que se cambia instantáneamente de una función
de onda a otra.
De
acuerdo a la teoría cuántica toda la pantalla “registra” el dato, se
“actualiza” el estado físico y la probabilidad se hace cero en el resto del
espacio. Todo ocurre instantáneamente, superando así la velocidad de
propagación límite, que es la de la luz.
Quienes
se dedican a defender que la mecánica cuántica es aplicable a una sola
partícula presentan una defensa basada en que se está transmitiendo
información, de modo que no es un fenómeno físico. Dicho de otra forma,
consideran que puede haber transmisión de información sin que medie ningún
proceso físico.
Sin
embargo, decir que es la información lo que se transmite, es uno de los más
grandes gazapos cometidos por quienes pretenden negar el carácter no relativista
de la mecánica cuántica. Comprender qué es la información es un asunto
extremadamente complicado, de modo que no pasa de ser una forma de evadir el
cuestionamiento. En este afán evasivo, se traslada el problema – muchas veces
si saberlo – a una gama muy amplia de conceptos diferentes, entre los que se
encuentran: los estados cuánticos entrelazados (entanglement states en Inglés),
la no localidad de la teoría cuántica y la teoría de la información.
Otra
actitud consiste en esconderse detrás del teorema en el cual se establecen las
desigualdades de Bell. Pero en verdad, este es otro tema que consideran
resuelto a fuerza de no escuchar los puntos de vista diferentes.
El
problema es entonces el siguiente:
¿Realmente se comprendió el problema
o los fundadores de la mecánica cuántica madura crearon formalismos que no
pudieron entender?
Tanto
la teoría de la Relatividad Especial, como la Relatividad General, descansan
sobre un principio de contigüidad en el espacio y en el tiempo. Eso significa
que los procesos físicos ocurren mediante una acción (que puede ser mutua)
entre elementos contiguos en su situación espacial, a la vez que se presentan
en un tiempo continuo. Una teoría que cumple con este principio se llama una
teoría local.
En
cambio, la no localidad, en cualquier teoría física, significa que un cuerpo
puede actuar a distancia sobre otro. Es exactamente lo contrario del principio
de contigüidad. Como ya escribí, uno de los fundamentos de la Teoría General de
la Relatividad.
En
palabras de Luis de la Peña, “…el formalismo cuántico usual no es consistente
con la teoría de la relatividad – deficiencia que se corrige con una versión
relativista de la teoría. Sin embargo, dada su naturaleza, esta interacción a
distancia no desaparecería aun en la versión relativista.”
Y
acerca de la ausencia de localidad en la teoría cuántica, agrega que se nos
propone asumir “…la no localidad cuántica como algo que nos impone la
naturaleza …”
Más
adelante ironiza que es algo “…que debemos aceptar, gústenos o no. Si ello
contradice nuestra intuición o visión filosófica, peor para nosotros, …”
Consultar
la obra citada previamente: Luis de la Peña y Ana María Cetto, “Metafísica
experimental y mecánica cuántica”, Ciencias 66, abril-junio 2002.
La pregunta jamás resuelta: ¿por qué son
estables los estados estacionarios de la teoría cuántica?
Uno
de los problemas planteados en los primeros modelos atómicos (el de Rutherford
y el de Bohr, así como la generalización de Sommerfeld a órbitas elípticas) fue
la estabilidad del movimiento de los electrones en torno al núcleo.
A
decir verdad, Rutherford jamás planteó que los electrones se movían de algún
modo fuera del núcleo. Era tan riguroso que, como sus experimentos eran
explicables con una expresión matemática en la cual la carga eléctrica aparece
elevada a la cuarta potencia, borrando así el signo de la carga, prefirió no
hacer una hipótesis extra para afirmar que el núcleo sería positivo y las
cargas exteriores deberían ser negativas para tener un átomo eléctricamente
neutro. Fue Bohr quien cometió el atrevimiento de afirmar que eran los
electrones los que se encontraban fuera del núcleo.
Pero
no se quedó allí, además postuló que se movían en órbitas circulares
estacionarias. Dejando de lado la explicación referente a por cuál razón no
colapsaban contra el núcleo, luego de gastarse su energía en radiar ondas
electromagnéticas.
Cuando
surgió la mecánica cuántica madura apareció el concepto de estado físico
estacionario, desplazando al concepto de órbitas estables. Sin embargo, el
problema siguió abierto.
Si se
acepta la energía del punto cero como real, en el sentido del realismo
científico, y se admite que es la manifestación de las fluctuaciones aleatorias
del campo de radiación electromagnética, (incongelable como ya escribí),
entonces se tiene que volver a escribir la ecuación de movimiento basada en la
segunda ley de Newton. Es la siguiente
En
este caso, z(t) es el vector de posición de la partícula y la tercera derivada
respecto al tiempo es una forma aproximada de incluir la pérdida de energía por
radiación. El término entre llaves es la fuerza aplicada por el campo de
radiación de fondo.
Hace
casi cincuenta años, Trevor Marshall y Timothy Boyer explicaron que el estado
base del átomo de hidrógeno podría ser estable si se aceptaba que el electrón
en movimiento en torno al núcleo sí radía, pero sin colapsar contra el núcleo
debido a que, al mismo tiempo, absorbe energía a partir del campo de radiación
de fondo.
En el
año 2003, y posteriormente en 2006, Daniel C. Cole publicó un par de reportes
sobre soluciones numéricas de la siguiente ecuación diferencial, que se
distingue de la de la figura anterior en que no incluye al campo magnético por
tratarse de un efecto muy pequeño.
El
resultado era esperado por los teóricos que habían adelantado la explicación
desde hace varias décadas, pero de todos modos es sorprendente, como se aprecia
en la siguiente figura
En la
horizontal se contabiliza el tiempo en segundos y en la vertical el radio de
giro del electrón en centímetros. Si se desea, se puede traducir fácilmente a
nanómetros o a angstroms. El movimiento inicia en 5 nanómetros al tiempo cero, y
cuando se resuelve numéricamente la ecuación sin incluir la radiación de fondo,
la partícula cae al centro en menos de 15 picosegundos. Es la curva señalada
con la frase “no radiation acting”. En cambio, cuando se resuelve la ecuación
con el campo de radiación de fondo incluido, aparece la curva aleatoria que se
aprecia arriba. Como se puede ver, en ese caso el electrón no colapsa contra el
núcleo, sino que se mantiene girando a distancias que aumentan y disminuyen al
azar, pasando más tiempo en unas regiones que en otras.
Además,
en la parte superior derecha se aprecia un recuadro en el cual el investigador
presenta el conteo de tiempo que la partícula estuvo en cada distancia r.
resulta que esta casi coincide con la predicción que da la mecánica
cuántica.
Ver: Daniel
C. Cole, “Simulation Results Related to Stochastic Electrodynamics”, : AIP
Conf. Proc.
810, 99 (2006); doi: 10.1063/1.2158714. View online:
http://dx.doi.org/10.1063/1.2158714.
En
palabras de Th. Boyer:No hay parámetros libres en el cálculo de Cole y Zou; los
valores para la masa del electrón, la carga, y la escala de la radiación del
punto cero son todas fijadas por otros experimentos. El trabajo es una sorprendente sugerencia del
poder una teoría clásica”
Más
adelante agrega: “Concluimos que la simulación numérica de Cole y Zou ha
encontrado realmente la aproximación no relativista al estado base del átomo de
hidrógeno clásico en la radiación electromagnética clásica del punto cero ”.
Ver: Timothy
H. Boyer, Any Classical Description of Nature Requires Classical Electromagnetic
Zero-Point Radiation, en: http://arxiv.org/pdf/1107.3455.pdf
Los enigmas modernos de la física
Vamos
enumerarlos uno por uno, sin que eso signifique que los incluimos todos. En
primer lugar:
Primer enigma de la física moderna. El
problema de la expansión del universo.
La
explicación de la expansión del universo es un problema abierto. La versión más
aceptada para encontrar una respuesta es que hubo una gran explosión, donde se
creó el universo y se inició el tiempo. Se trabaja con la Relatividad General,
sobre la base de que el universo es homogéneo e isotrópico. Se acostumbra
partir de una reformulación de las ecuaciones de Einstein para el campo
gravitacional, que se llaman ecuaciones de Friedmann porque fueron encontradas
por Alexander Friedmann en 1922. El universo es considerado como si estuviera
formado de una nube de polvo donde cada pequeña partícula es el análogo de una
galaxia. Así, una de las predicciones inmediatas es que el universo se expande,
pero con una velocidad que depende de la densidad de masa-energía existente. La
siguiente imagen muestra la ecuación diferencial que permite describir la
evolución temporal del parámetro de escala.
figura
expansión del universo
Los posibles escenarios de la expansión del
universo son modelados por medio de la densidad de materia presente en éste.
Las posibilidades son varias, como se ilusta en la figura anterior desarrolada
por mí, a partir de la gráfica presentada por la NASA para explicar este tema.
La curva naranja nos muestra una curva con
la evolución de un universo cerrado, en el cual la densidad de masa-energía es
tan alta que se expande para contraerse enseguida.
La curva verde muestra un universo plano.
La curva azul muestra un universo abierto, con una densidad tan baja que la
expansión está siendo frenada muy lentamente, pero nada más.
La curva superior, de color rosa, muestra
un universo en expansión, pero tal que ésta ocurre de manera cada vez más
acelerada.
Las observaciones astronómicas favorecen
esta última opción, de tal modo que la pregunta acerca de la masa-energía
causante de este fenómeno es tanta que la materia visible, más la radiación
electromagnética disponible, no son suficientes. Así ha surgido como propuesta
que debería existir fuentes extra, que podrían ser la materia oscura más la
radiación oscura.
El problema es que no ha sido detectada
ninguna de las dos.
Dicho
de otra forma, el modelo inicial, basado en las ecuaciones de Friedmann, funcionó
bien, pero diversas observaciones dejan claro que se hace necesario considerar
aportaciones para la energía, que no son simplemente las masas de las galaxias
detectadas y la radiación electromagnética presente. El caso de la expansión
cada vez más acelerada del universo, y el dilema de las galaxias con
velocidades de rotación tan altas que ya deberían haberse dispersado, se
pretende resolver con la inclusión de otras formas de energía.
Recalcando,
es por esta clase de razones, que las ideas de la materia oscura y de la
energía oscura aparecen como una necesidad en el estudio de estos fenómenos.
Lo
anterior no significa que ésta es la única explicación física disponible, por
ejemplo, vale la pena citar el siguiente artículo, escrito por Wun-Yi Shu, intitulado: “Cosmological
Models with No Big Bang”:
En ese trabajo se desarrolla un modelo cosmológico que explica la aceleración cósmica sin
la introducción de la constante cosmológica en las ecuaciones de Einstein y sin
energía oscura, pero también, sin big bang y sin muerte térmica del universo.
En cambio, introduce que la magnitud de la velocidad de la luz, y la constante
de la gravitación universal, no son constantes conforme evoluciona el universo.
Wun-Yi Shu
concluye que el tiempo no tiene principio ni fin y que el universo experimenta
fases de aceleración y de desaceleración.
La
observación del autor acerca de la naturaleza infinita del tiempo es
interesante dentro del contexto de otra plática que impartí en el Departamento
de Física de la Universidad de Sonora y que se encuentra en este blog:
Ver: El
concepto de tiempo cíclico, en: http://fisicahistoriayasuntosuniversitarios.blogspot.mx/2011/10/el-concepto-de-tiempo-ciclico.html
Regresando
a la explicación más aceptada, y que ha recibido más esfuerzos para tratar de
completar, esa donde la energía oscura es necesaria, aunque su origen sigue
siendo desconocido. Podemos decir que han surgido varias propuestas, una de las
cuales será presentada ahora.
La
idea planteada por Helge Kragh, referente a que la constante cosmológica puede
ser interpretada como una densidad de energía del vacío, se enfrentó con el problema de que la
radiación del punto cero proporcionaba una energía extremadamente superior a la
que, de acuerdo a los astrónomos, es necesaria para explicar la expansión
acelerada del universo. Por esa razón fue desechada como candidata para
ayudarnos a entender qué es la energía oscura.
Helge Kragh aparece en la foto siguiente:
Helge Kragh aparece en la foto siguiente:
Parte
del problema reside en lo siguiente:
De acuerdo a la teoría usual, la radiación
electromagnética es un conjunto infinito de osciladores armónicos que portan
energía. Por ejemplo, cuando la luz verde predomina, se debe a que las
frecuencias de ese color tienen más importancia (o más peso, como suele
decirse). En el caso de la radiación de fondo ocurre lo mismo, pero para que
sea invariante de Lorentz, se requiere que crezca como la frecuencia al cubo,
lo cual da por consecuencia que mientras más rápido oscile el campo, más
importancia tiene. A la hora de sumar todas las contribuciones eso da como
resultado un infinito con el cual nadie ha sabido qué hacer.
A la importancia de cada frecuencia (o peso
como ya escribí) se le llama espectro de potencias. A veces se le llama también
densidad espectral, aunque no necesariamente son sinónimos, no entraremos en la
discusión del tema.
Algunos
investigadores han sido muy perseverantes y han buscado la forma de corregir
este dilema. Por ejemplo, en el año 2008 Christian Beck y Michael C. Mackey, publicaron un artículo intitulado "Electromagnetic
dark energy", donde desarrollan una idea que es capaz de regresar a la
radiación del punto cero a la palestra.
Ver: Christian Beck y Michael C. Mackey,
"Electromagnetic dark energy", International Journal of Modern
Physics D, Vol. 17, (2008), p. 71-80.
Ellos
plantean que las fluctuaciones de vacío son gravitacionalmente activas si y
solo si son medibles en términos de un espectro de potencias físicamente
relevante en un detector macroscópico o mesoscópico.
En su
propuesta, las fluctuaciones de vacío que son gravitacionalmente activas son
aquéllas que contribuyen a la
medida de la densidad de energía oscura
del universo. Eso debe modificar el espectro de potencias.
Dichas
fluctuaciones del vacío son relevantes porque son aquéllas que inducen un
espectro de potencias de ruido cuántico medible con un detector de tamaño macroscópico o microscópico y para
encontrar cuál es ese espectro de potencias realizan una operación matemática
que se llama: “transición de fase de fotones activos a inactivos”. Se trata de
un método desarrollado por Landau, que ha sido aplicado ampliamente en la
materia condensada.
El
resultado es que el proceso de suma de aportaciones de todas las frecuencias,
en las cuales se considera el producto de la energía del punto cero, por el
número de modos de vibración, debe presentar una modificación porque aparece un
tercer factor que contiene una función que no había sido tomada en cuenta. Esta
se puede apreciar en la diapositiva siguiente:
Christian Beck y Michael C. Mackey
concluyen que solamente contribuyen los fotones que tienen ciertas frecuencias,
eliminando las que son demasiado altas. Así lo muestra la figura de la
diapositiva siguiente:
A los fotones que sí contribuyen a la
energía oscura les llaman fotones gravitacionalmente activos y el proceso de
suma (integral) de las contribuciones de todas las frecuencias da una densidad
de energía que sí coincide con la que los astrónomos estiman necesaria.
Si la explicación anterior es correcta,
significa que la energía oscura es únicamente la energía del punto cero, pero
con la condición de que solamente contribuyen los fotones que no tienen
energías demasiado altas. Es decir, los fotones que no son medibles con los
aparatos ideales que una civilización puede construir, no existen. Nótese las
implicaciones filosóficas de esta afirmación.
Segundo enigma de la física moderna: ¿cuál es el origen de la
masa?
Empezaré explicando por qué dejaré de lado
el bosón de Higgs como explicación del origen de la masa.
Cuando se plantea la pregunta sobre cuál es
el origen de la masa, la respuesta inmediata trae a colación el famoso bosón de
Higgs. Éste concepto surge en un procedimiento matemático usual en la teoría de
campos y consiste en combinar (acoplar) dos campos diferentes por medio de una
técnica que se llama mecanismo de Anderson y Higgs. El resultado es que, si al
principio se dispone de un campo cuantizado con partículas sin masa, se obtiene
un campo cuantizado de partículas con masa.
El procedimiento involucra el aprendizaje
de algo que en matemáticas se llaman transformaciones lineales, ligadas a un
concepto tomado de la geometría elemental, que se llama: simetría. Se parte de
un campo de dos componentes, que pueden ser dibujadas en un plano y que tienen
un tipo especial de simetría cuyo destino es romperla, es decir, que ya no se
cumpla, para ser sustituida por otra más general. En ese proceso se cambia de
una descripción donde no hay masa presente a otro donde si la hay. W. N.
Cottingham y D. A. Greenwood lo escriben como sigue:
“Como consecuencia de la ruptura de la
simetría local, el campo de norma adquiere una masa …”
Esta afirmación es importante para la
conclusión que presentaré al final de esta sección.
Un estudiante del séptimo semestre de una
licenciatura en física puede estudiar la ecuación de onda del campo
electromagnético y aprender a cuantizar el campo para obtener los fotones que,
se dice, forman la luz. Mediante un procedimiento matemático (que no es el
mecanismo de Anderson y Higgs) el estudiante puede resolver un problema que
consiste en modificar su ecuación de onda para obtener otra que recibe el
nombre de ecuación de Klein-Gordon. Ésta se parece a la anterior, pero contiene
un término nuevo, el cual impide que la fuerza sea de largo alcance. Cuando
este nuevo campo es cuantizado, resulta que las partículas resultantes tienen
masa. Así, se asocia la existencia de masa con el alcance de una fuerza.
Mientras más grande es la masa de la partícula que resulta al cuantizar el
campo, más corto es su alcance.
En el mismo sentido, pero muchísimo más
complicado, el mecanismo de Anderson y Higgs permite obtener campos en los
cuales aparecen dos tipos de partículas cargadas llamadas W+ y W-,
además de una neutra (sin carga) que se llama Z.
Es casi desconocido que este mecanismo se
desarrolló primero en el estudio de la materia condensada, cuando se trataba de
explicar el fenómeno de la superconductividad. De donde fue tomado para
resolver problemas muy complicados en la teoría de partículas.
Desde mi punto de vista, el mecanismo de
Anderson y Higgs sirve para encontrar nuevas descripciones de campos que podrían
existir en la naturaleza, pero eso no significa que estás explicando el origen
de la masa.
En este caso tenemos una nueva confusión de
términos. La inocencia filosófica de la inmensa mayoría de los físicos los
lleva a pasar saltando sobre las siguientes frases:
1)
La física requiere explicar los
experimentos.
2)
Por lo tanto, en las teorías
físicas me importa lo que se puede medir.
3)
Para mi trabajo teórico sólo
importa lo que mido.
4)
En mi trabajo teórico sólo
existe lo que mido.
5)
La realidad es lo que mido.
6)
Las expresiones matemáticas
planteadas en la teoría física explican la realidad si predicen correctamente
lo que mido.
Y así, en el punto seis ya no se sabe a
ciencia cierta qué cosa es la realidad, de modo tal que termina siendo
confundida con las mediciones, y todavía peor, con los desarrollos matemáticos
hechos para explicar esas mediciones.
Por esa razón, cuando se aplica el
procedimiento de Anderson y Higgs para obtener una descripción en la cual las
partículas tienen masa, se termina pensando que han encontrado la partícula
que, como hada madrina con su varita mágica, le da masa a todas las demás
partículas.
Hecha esta aclaración, conviene pasar a una
explicación que ha llamado mucho la atención en los últimos quince años, hasta
el punto en que el portal del California Institute of Technology le dedica una
parte de su espacio a darle seguimiento a los desarrollos (muy pocos por
cierto) en los que se abunda sobre esta opción para comprender de dónde viene
la masa inercial.
Uso la frase: “masa inercial” solamente
para coincidir con su uso cotidiano en este contexto, pero la realidad es que
jamás se ha logrado separar los tres conceptos siguientes: a) masa inercial, b)
masa gravitacional, y c) masa como energía empaquetada.
La masa como una consecuencia de la radiación del punto cero.
La idea básica para explicar el origen de
la masa está en comprender que el espectro de potencias que es invariante de
Lorentz, y es una función cúbica de la frecuencia, se percibe como tal si nos
encontramos en un sistema de referencia inercial. En cambio, cuando el sistema
no es inercial, como ocurre con una partícula que se acelera, el campo de radiación de fondo ya no se percibe
igual. Ahora, su espectro de potencias (o densidad espectral) se modifica y
presenta un término nuevo que, está relacionado con la aceleración.
A consecuencia de lo anterior, la partícula
que se mueve en el espacio a través de la radiación de fondo percibe una
modificación en el flujo de energía a través del volumen que ocupa. Esto se
traduce en una fuerza que se opone a su movimiento, es proporcional a la
aceleración y el factor multiplicativo que la acompaña se interpreta como la
masa inercial producida por el campo de radiación de fondo.
Ver: A. Rueda, B. Haisch, Inertia as a
reaction of the vacuum to accelerated motion, Arxiv
B. Haisch, A. Rueda & Y. Dobyns,
Inertial Mass and the quantum vacuum fields, Annalen der Physik, 10, 393-414
(2001).
Tercer enigma de la física moderna: ¿cuál es el origen del espín?
El espín del electrón surgió como una
necesidad planteada por el estudio experimental de la luz emitida por ciertos
materiales cuyos átomos son clasificados como alcalinos. Estos fueron
estudiados antes y después de que se le aplicaba al sistema físico un poderoso
campo magnético y el resultado era que en lugar de cada frecuencia de luz
observada antes de la aplicación del campo, aparecían varias de ellas en
racimos muy cercanos a la original. El descubridor del efecto fue Pieter Zeeman
y su descurbrimiento había sido parcialmente explicado por Hendrik Lorentz,
quien logró describir el caso en que surgían tres frecuencias a partir de la
original.
El problema era que no salían tres siempre,
por el contrario, lo más común era que surgieran más de tres, de modo que ante
la ausencia de una explicación, le llamaron efecto Zeman anómalo.
En 1913, Niels Bohr trabajó con órbitas
circulares para diseñar un modelo atómico del átomo de hidrógeno. Introdujo un
número cuántico que permitía enumerar cada una de las energías accesibles al
átomo. Cuando Arnold Sommerfeld generalizó este modelo, agregando a la
descripción las órbitas elípticas, aparecieron tres números cuánticos. Eso fue
en 1916.
Varios investigadores, entre ellos: Alfred Landé,
Arnold Sommerfeld y Wolfgang Pauli, trataron de explicar la supuesta anomalía en
el efecto Zeeman. Para ello introdujeron un cuarto número cuántico, mismo que
Landé y Sommerfeld trataban de asociar con el núcleo del átomo. Por su parte,
Pauli logró plantear argumentos para hacer ver que no podía ser así, ya que
mediante el intercambio exclusivo de electrones podía ocurrir que el número de
frecuencias distintas de la luz emitida se modificaba.
En otro orden de cosas, Otto Stern y
Walther Gerlach desarrollaron en 1922 un experimento que consistía en hacer
pasar vapor de plata a través de un campo magnético muy poderoso. El resultado
fue que el haz se separaba en dos, formando un par de manchas distintas en un
plato receptor.
La conclusión fue que los átomos de plata
debían tener una propiedad llamada dipolo magnético, con la salvedad de que
éste solamente podía tener dos valores diferentes.
Albert Einstein y Paul Eherenfest hicieron
un estudio del problema y encontraron que la alineación de los átomos que
estaba siendo observada no se podía entender con los métodos teóricos
conocidos, pues tomaría más de 100 años para que los átomos se alinearan.
Entonces ellos propusieron que había dos posibilidades para lograr una
explicación:
Primera: El mecanismo debía incluir que los
átomos nunca pueden estar en un estado en el que no estén completamente
cuantizados.
Segunda: Se llega a los estados observados por
medio de efectos muy rápidos sobre la orientación de los átomos.
La unión de ambas problemáticas llevó a
que, por un lado, Pauli propusiera que el número cuántico debía asociarse al
electrón y no al núcleo, y por otra parte, a que en 1925 George Uhlenbeck y Samuel
Goudsmith propusieran que el electrón giraba sobre si mismo, de tal modo que
tenía un momento angular, y debido a ello, un momento dipolar magnético. Lo
cual explicaría el origen del cuarto numéro cuántico y también el experimento
de Stern y Gerlach.
El problema fue, como apuntó pronto Hendrik
Lorentz, que para lograr esa magnitud de momento angular, la superficie del
electrón debería tener una velocidad tangencial diez veces superior a la de la
luz.
Cuando Pauli logró incluir el espín del
electrón en la descripción de la mecánica cuántica madura, se obtuvo un
formalismo matemático extremadamente útil para calcular niveles de energía y
predecir frecuencias de emisión de luz en las distintas circunstancias de los
experimentos. Pero no se explicó cuál era el origen de ese momento angular.
El misterio continúa hasta ahora.
En 1928, Paul Dirac logró encontrar una
ecuación que vino a ser la versión relativista de la de Schrödinger. Con eso el
espín del electrón quedó incluido automáticamente. Posteriormente, Schrödinger
hizo un estudio de una clase de soluciones de la ecuación de Dirac que reciben
el nombre de paquetes de onda. Encontrándose con la novedad de que el electrón
debería ejecutar un movimiento en el que debía avanzar, pero temblando. El
introdujo la palabra zitterbewegung para este efecto.
En 1952, K, Huang explicó que dicho
zitterbewegung podía ser analizado como un momento angular.
En 1977, A. Barducci, R. Casalbuon y L.
Lusanna utilizaron una matemática que recibe el nombre de álgebra de Grasmann y
explicaron que, con esa herramienta, el espín del electrón era interpretable
como consecuencia de trayectorias geométricas.
En 1981, A. O. Barut y N. Zanghi
desarollaron un modelo clásico del electrón en el que se proponía una
interpretación geométrica en la cual se asociaba al espín con un movimiento
periódico similar al del zitterbewegung descubierto por Schrödinger y
reinterpretado por Huang.
También en 1981 L. de la Peña y A.
Jáuregui, basados en la inclusión del campo de radiación de fondo en la
ecuación clásica para describir el electrón, encontraron que el electrón debía
presentar un momento angular como resultado de su interacción con cada una de
las dos polarizaciones circulares de dicho campo.
Entre 1991 y 2010, D. Hestenes ha insistido
en que a partir de la ecuación de Dirac para describir al electrón se desprende
la existencia de una geometría interna en el movimiento del electrón.
Todos los resultados anteriores apuntan a
la necesidad de recordar que Louis de Broglie había hablado de la necesidad de
incorporar un movimiento interno periódico.
El interés ha continuado, en 2012, K.
Muraldihar ha tratado de unir la visión de Hestenes sobre la geometría
escondidad en la ecuación de Dirac, con el campo de radiación de fondo como
productor del espín.
Ver: K. Muraldihar, The spin bivector and
zeropoint energy in geometric algebra, Adv. Studies Theor. Phys. Vol. 6, 2012,
No. 14, 675-686.
De todos los trabajos anteriores, el que
descansa de forma más clara sobre la existencia de la radiación del punto cero
es de Luis de la Peña y Antonio Jáuregui. Como se ve en la siguiente figura,
ellos escribieron la ecuación de movimiento de la partícula con un campo
eléctrico aleatorio incluido, mismo que separaron en dos componentes
circulares, una que podemos llamar: derecha, y otra que podemos llamar:
izquierda.
Ellos encontraron que cuando se considera
solamente una de las dos polarizaciones, la partícula ejecuta un movimiento con
una tendencia a rotar, lo cual da por consecuencia que adquiera un momento
angular en una dirección. En cambio, si la partícula está bajo la acción de la
otra polarización circular, entonces la tendencia a rotar es en la dirección
opuesta. Eso explicaría por qué razón el espín del electrón puede tomar dos
valores. Además, si se consideran las dos polarizaciones simultáneamente,
entonces el movimiento aleatorio no muestra una dirección de rotación
preferencial.
Lo anterior es muy interesante porque trae
a colación la redacción original utilizada por Wolfgang Pauli cuando escribió
su artículo sobre el cuarto número cuántico para explicar el efecto Zeeman y
dar base física a la clasificación de todos los elementos químicos en la tabla
periódica. Siempre escribió “… bajo la acción de un campo poderoso …”. Esto
significa que la idea de independizar al espín de la presencia de un campo de
gran magnitud apareció después, y si somos sinceros, sin ninguna evidencia
física que demuestre que el electrón tiene un espín cuando no hay un campo
externo que lo afecte.
Ver artículo original traducido al Inglés
en: http://www.chemteam.info/Chem-History/Pauli-1925/Pauli-1925.html
En esta referencia se puede leer la traducción al Inglés de su famoso principio de exclusión: “There can never be two or more equivalent electrons in an atom for which in strong fields the values of all quantum numbers n, k1, k2, m1 (or, equivalently, n, k1, m1, m1) are the same. If an electron is present in the atom for which these quantum numbers (in an external field) have definite values, this state is’occupied’.”.
Con base en lo anterior, sostengo que la
posible separación en dos polarizaciones circulares distintas ocurre cuando hay
un campo externo actuando sobre el espín, como podría ser el caso del campo
magnético del experimento Stern-Gerlach, de los distintos experimentos sobre el
efecto Zeeman, o también, cuando un electrón se encuentra en la presencia de
otro electrón.
En pocas palabras el espín, se manifiesta
cuando un campo externo rompe la isotropía del espacio. De esta forma se puede
visualizar la siguiente situación geométrica en la cual el electrón sí tiene
una trayectoria:
La imagen apropiada para el espín del
electrón no es el de una rotación en torno a su propio eje, como sugirieron
Uhlenbeck y Goudsmith, sino un movimiento aleatorio en el que un electrón que
viaja como partícula libre no tiene un espín. Este aparece únicamente cuando un
campo externo rompe la simetría del espacio, como podría ocurrir porque se le
aplica un campo magnético para medirlo, o bien, cuando se acerca a otro
electrón, o a un núcleo.
Esta situación geométrica nos dice también
cómo es que se forman los enlaces covalentes en las moléculas. Dos electrones
se acoplan mutuamente en un baile que se puede asemejar al baile de una pareja
experta en tango. Sus movimientos están sincronizados de tal forma que existe
un acoplamiento en el que un movimiento de uno de los integrantes induce otro
movimiento en su acompañante. (Ver las dos figuras de la figura anterior y la
siguiente)
Figura de bailando tango
El modelo desarrollado por Luis de la Peña
y Antonio Jáuregui está basado en una teoría no relativista, de modo que el
factor de ¾, que debería ser 1, no puede esgrimirse como un argumento en
contra, pues existe la posibilidad de que un tratamiento relativista proporcione
el resultado cuantitativamente correcto.
Conclusiones:
Existen
argumentos metodológicos para concluir que tratar los sistemas físicos del
mundo microscópico como sistemas cerrados no es una idea correcta.
La mecánica cuántica y la teoría cuántica
de campos resultaron de aferrarse al tratamiento del micromundo mediante
sistemas cerrados.
A cada campo cuantizado, le corresponde un
campo estocástico equivalente.
El movimiento interno periódico introducido
por Louis de Broglie podría ser la temblorina descubierta por Schrödinger
(zitterbewegung). Éste movimiento en torno a su trayectoria podría ser causado
por el campo de radiación de fondo.
La energía oscura del universo podría ser
considerada como energía electromagnética del vacío ordinario.
El origen de la masa podría deberse a que
la partícula acelerada se enfrenta al flujo del campo electromagnético de
fondo. (Sugerencia de Sakharov para ligar la gravedad con el vacío cuántico,
1968)
El origen del espín puede ser la temblorina
mencionada, pero con la radiación de fondo como causa.
No hay comentarios:
Publicar un comentario