martes, 23 de octubre de 2012

Los enigmas modernos de la física a la luz de una idea centenaria



Sistemas cerrados como hipótesis de trabajo inapelable.

En el transcurso del desarrollo de la física moderna se fueron dejando una cantidad importante de conceptos tirados en el camino. Si estos son revisados a la luz de las matemáticas modernas, y del trabajo de cómputo que ahora sí se puede hacer, se trata de conceptos que verdaderamente decían algo importante. Éste es el caso de la energía del punto cero y del trabajo con sistemas físicos abiertos.

La física moderna del siglo XX nos ofrece un panorama muy hermoso, similar al de una carretera panorámica diseñada para admirar una sierra con montes llenos de pinos y riachuelos en el fondo de los barrancos. El problema es que cuando uno mira con más cuidado, se encuentra con una cantidad de cosas tiradas por allí y por acá. Entonces a uno lo invade la impresión de que la construcción de la autopista panorámica ha sido encargada a una de esas compañías mineras depredadoras del ambiente.

Esta contribución al blog relata una conferencia impartida por mi en el Departamento de Física de la Universidad de Sonora el 10 de octubre de 2012, pero como es costumbre en la administración de esta universidad, el evento no fue cubierto por el sistema de comunicación social dirigido desde la Dirección de Comunicación, dirigida por José Peralta Montoya.

Entremos en materia.

Razonando sobre la base de la posición filosófica del realismo científico, existe una crítica metodológicamente importante a la forma en que se abordó, en las primeras tres décadas del siglo XX, el problema de la descripción del ahora llamado micromundo.

Aquí habremos de llamar realidad a lo que se entiende por ella en el realismo científico. Desde este punto de vista, la realidad que se enfrenta en cualquier laboratorio de mecánica, para describir el problema mediante la segunda ley de Newton



Involucra como hipótesis previa la existencia de un universo vacío en el cual solamente está presente mi sistema físico.

En la realidad, estamos rodeados de una gran cantidad de masas y de cargas eléctricas distribuidas al azar en el universo, de modo que mi hipótesis es únicamente una idealización



¿Cuándo funciona bien esta hipótesis de trabajo?

 Es una pregunta que podemos discutir considerando las constantes de acoplamiento en el caso de la gravitación universal y de la constante de Coulomb para las interacciones eléctricas. Encontramos que esta última es mayor por veinte órdenes de magnitud. Así, resulta que la fuerza eléctrica es muchísimo más poderosa que la gravitacional.

También conviene considerar que las masas involucradas en las interacciones gravitacionales es un número que se escribe con 24 ceros a la derecha, mientras que en el caso del electrón es un número que se escribe con 31 ceros a la izquierda. Es decir, hay una diferencia de 56 órdenes de magnitud. En conclusión, la fuerza eléctrica, siendo más poderosa, actúa sobre masas mucho más pequeñas.

Un tercer aspecto a tomar en cuenta es que en la teoría electromagnética aparecen dos clases de campos: a) los campos estáticos, que cuando nos alejamos de la fuente que los produce disminuyen como 1 entre el cuadrado de la distancia, y b) los campos dinámicos, que disminuyen como 1 entre la distancia. Las ondas electromagnéticas, de las cuales podemos apreciar como luz, en un intervalo de frecuencias, perteneces a esta clase de campos. Esto da por consecuencia que el efecto de los segundos llegue muy lejos, mientras que los primeros son de alcance relativamente corto. Ésta es la razón por la cual de las estrellas nos llega solamente su luz, pero no los efectos electrostáticos y magnetostáticos.



La siguiente gráfica muestra la diferencia cualitativa entre la disminución de intensidad de los campos estáticos con respecto a los dinámicos. En el caso de los fenómenos gravitacionales, la teoría newtoniana solamente nos ofrece campos estáticos.



En síntesis. La hipótesis que supone un universo vacío, donde solamente existe mi sistema físico, puede ser de utilidad en la aplicación de la mecánica al movimiento de los astros, a lo cual suele llamársele con el nombre de mecánica celeste. La razón es que se trata de campos muy débiles a causa de la constante de la pequeñez de la constante de la gravitación universal, a que las masas involucradas son muy grandes y a que los campos presentes son de alcance no muy largo si se compara con la distancia de nuestro Sol al resto de estrellas de la galaxia.

En cambio, suponer que la misma hipótesis se puede trasladar a la mecánica de los cuerpos microscópicos, como el electrón y los núcleos de los átomos, implica una situación en la que ocurre exactamente lo contrario: los campos son muy poderosos debido a la constante de Coulomb, las masas involucradas son extremadamente pequeñas, y además, las distancias de los campos con forma de ondas electromagnéticas son de alcance muy largo.

El campo de radiación de fondo, o dicho de otra forma, la imposibilidad de desconectarse del resto del universo.

Es plausible la existencia de campos electromagnéticos con propiedades de homogeneidad y de isotropía, que además, cumplen con la invarianza de Lorentz. Algo típico del espacio que hemos postulado como vacío. Este campo promediaría cero, pero su energía de fluctuación podría ser diferente de cero, de tal modo que resultaría imposible la presencia de una radiación electromagnética de fondo que persistiría, inclusive, a temperatura de cero grados Kelvin.



Siendo así, podríamos imaginar al supuesto vacío como algo similar a una alberca (piscina en otros países de habla hispana) en la que la superficie del agua presenta un plano cuando nadie ha entrado al agua. En cambio, la presencia de la primera persona generará un conjunto de anillos que se propagan en ella (ondas en el agua)



La situación será diferente si muchas personas entran en el agua. En esa nueva situación el movimiento de la superficie del agua se presentará al azar, como se aprecia en la siguiente figura



La figura referente al campo electromagnético aleatorio, presentada arriba, indica una superposición aleatoria de muchas ondas senoidales, que encimadas al azar, unas sobre otras, no permiten captar que se trata de fenómenos oscilatorios simples.



El éxito de la mecánica celeste convence de que es posible desconectarse del universo.

En el desarrollo histórico de la física, la mecánica celeste, basada en campos gravitacionales estáticos, explicó exitosamente los movimientos de los cuerpos en el cielo, con las mismas ecuaciones que se podían usar para los fenómenos aquí en la Tierra. La idea de la quintaesencia, que provenía desde la época de los griegos, desapareció por ser innecesaria.

Así, la mecánica celeste logró explicar los movimientos de los planetas, con tal grado de precisión, que cuando se detectaron diferencias entre los datos de la órbita de Urano y las predicciones de la teoría física, se buscó la explicación en la presencia de algún otro planeta desconocido que estaría más lejos del Sol. La posibilidad de dudar de la teoría no fue una opción a considerar seriamente.




Lo mismo ocurrió cuando se encontraron diferencias entre los datos de la órbita de Neptuno y la predicción de la mecánica celeste. De nueva cuenta, en lugar de dudar de la teoría se postuló la existencia de un nuevo planeta, más allá de la órbita de de éste. Se buscó, hasta que Plutón fue encontrado.

El éxito en la mecánica celeste generó tal grado de confianza que a nadie se le ocurrió dudar de su aplicabilidad para estudiar el micromundo. Cuando el electrón fue descubierto en 1897, la teoría del físico holandés Hendrik Lorentz encontró aplicación inmediata en la explicación del efecto Zeeman. Sin embargo, el hecho de que la descripción era parcialmente exitosa, apenas sirvió de aviso de que algo andaba mal.





En el mismo sentido, Paul Drude, un físico alemán, desarrolló un modelo clásico para explicar la propiedad conductora de los metales. Trató a los electrones libres en el interior de esos materiales mediante una ecuación acorde a la mecánica de Newton y como si formaran parte de un gas ideal. La teoría obtuvo resultados parcialmente correctos, pero el hecho de que no fueran completamente correctos, no resultó muy preocupante.

El mismo modelo fue revisado posteriormente por Hendrik Anton Lorentz, con una extensión de su teoría del electrón. Con esos avances, lograron explicar la teoría del índice de refracción en dieléctricos, además de la conductividad de los materiales. Aparentemente, los métodos aplicados a la mecánica celeste funcionaban (o casi) en los objetos microscópicos.

Los científicos de inicios del siglo XX estaban engolosinados con los métodos de la mecánica celeste, en el sentido de que la hipótesis consistente en trabajar con sistemas cerrados habría de funcionar siempre. El modelo atómico de Nagaoka, de 1903; el de Rutherford, desarrollado entre 1907 y 1911; el de Niels Bohr, presentado en 1913; respetaron siempre ese sistema de trabajo.

Los vaivenes de los científicos en torno a la energía del punto cero.

En este contexto, Max Planck hizo esfuerzos infructuosos por obtener su propia ley de radiación sin necesidad de recurrir a la hipótesis de intercambio de energía a base de paquetes. Uno de esos intentos fue la a veces llamada Segunda Teoría de Planck, en la cual utilizó un modelo matemático en el cual un átomo esférico de la pared de una cavidad se deforma ante la presencia de radiación electromagnética y responde como si se tratara de un dipolo eléctrico. Trabajó con una ecuación de segundo orden en la cual estaban presentes: una fuerza lineal (típica de los resortes que llamamos osciladores armónicos), una fuerza de amortiguamiento con la que se busca incorporar el hecho de que la partícula cargada que se acelera radía y pierde parte de su energía, y además, una fuerza eléctrica proveniente de la radiación encerrada en una cavidad.




La segunda teoría de Planck fue rechazada muy pronto, pues entre sus hipótesis introducía una asimetría entre el proceso de absorción y el de emisión de radiación, lo cual entró pronto en contradicción con el modelo atómico de Niels Bohr, en el cual tal asimetría no estaba presente.

Sin embargo, había en la nueva fórmula de Planck un término novedoso que no había estado presente antes.




Se trataba de un término que no dependía de la temperatura, de modo que la energía de un oscilador de la pared nunca se iba a cero si la temperatura se acercaba al cero absoluto. Esto es lo que después se llamó la energía de radiación de fondo.

Vale la pena aclarar que no tiene relación con la radiación cuya temperatura es de T=2.7 grados Kelvin y que es considerada un vestigio de la gran explosión que (se acepta comúnmente) creó el universo. En el caso del término encontrado por Planck, es una radiación presente incluso en el cero absoluto. Es incongelable.
Dicho de otra forma, en la realidad tu puedes enfriar una porción del universo hasta alcanzar temperaturas récord de 10-9 grados Kelvin, pero es imposible que logres enfriar el universo completo.

El argumento de plausibilidad planteado originalmente, que sugiere la existencia de una radiación electromagnética proveniente del resto del universo, y que te obligaría a tratar los sistemas físicos como sistemas abiertos, se acomoda perfectamente al resultado de Planck que acabamos de presentar.

La segunda teoría de Planck fue rechazada pero la presencia de ese término misterioso se mantuvo. En el año de 1912, se estaba investigando la aportación a la capacidad calorífica del hidrógeno por parte de la energía de rotación las moléculas de H2. Modernamente esto se ubica dentro del contexto de la termodinámica clásica y de la física estadística, las cuales nos dicen que si conocemos el espectro de energía de una molécula, podemos clasificar varios tipos de aportaciones a la capacidad calorífica, la cual se puede calcular mediante una derivada de la expresión de la energía con respecto a la temperatura. Quien sepa un poco de cálculo diferencial comprenderá de qué estamos hablando. Las aportaciones son: 1) la energía de traslación de la molécula, que es la principal aportadora, 2) la energía de vibración de un átomo de hidrógeno con respecto al otro, lo cual se puede modelar mediante el oscilador armónico, que se estudia en el quinto semestre de  una licenciatura en física, 3) la energía de rotación de la molécula como si fuera una varilla.

El descubrimiento experimental provino de Arnold Eucken, quien en 1912 presentó a la Academia Prusiana de Ciencias sus resultados de las mediciones de la capacidad calorífica de un gas de hidrógeno molecular, pero justamente la parte proveniente de la energía de rotación.




Los datos obtenidos por Eucken llevaron a la conclusión de que la contribución de la energía de rotación a la capacidad calorífica se acercaba a cero conforme la temperatura iba hacia el cero absoluto.

De acuerdo a los datos modernos (mucho más precisos) se sabe que hay una diferencia entre dos tipos de moléculas de hidrógeno, el caso del parahidrógeno, en el cual la curva de la capacidad calorífica baja como lo indican las mediciones de Eucken, y el del ortohidrógeno, que presenta una joma antes de precipitarse hacia el cero.




A raíz de su experiencia en el cálculo del calor específico de los sólidos, Einstein se interesó en los resultados de Eucken y buscó una explicación teórica con la colaboración de un joven físico judío alemán que se acababa de doctorar recientemente. En esas fechas Einstein trabajaba todavía en Praga. Tomaron como punto de partida la existencia real del nuevo término de Planck para la energía de un oscilador y llevaron a cabo un cálculo que dio resultados favorables, como se puede apreciar en la siguiente gráfica:




Su conclusión fue que: “Los resultados de Eucken sobre el calor específico del hidrógeno hace probable la existencia de la energía del punto cero igual a hn/2.”

Sin embargo, la aceptación de la energía del punto cero no duró mucho, poco tiempo después, Paul Ehrenfest demostró que los mismos resultados podían obtenerse usando la física estadística, la primera ley de Planck, sin la radiación del punto cero y la muerte aparente del concepto se inició a los pocos meses de haber nacido. Einstein le escribió a Ehrenfest para decirle que la energía del punto cero estaba irremediablemente muerta.




Realmente estaba muerta la idea? Veamos una breve reseña de lo que ocurrió en los años siguientes:
En 1913 Otto Stern estudia la presión de vapor de gases monatómicos  y concluye que el calor de vaporización respalda la existencia de la energía del punto cero.




En ese mismo año, Willem Keesom sostiene la necesidad de considerar la energía del punto cero al estudiar la ecuación de estado de gases monoatómicos.

En 1923, Kurt Bennewitz y Franz Simon estudian el punto de fusión del hidrógeno, el argón y del mercurio. Afirman haber encontrado evidencia de la existencia de la energía del punto cero.

Dos años antes, en 1921, Max Planck, Kamerling Onnes, Paul Debye y Arnold Sommerfeld toman en serio esta energía. En una carta de Einstein a Ehrenfest (en 1921 también),  el primero sostiene que la energía del punto cero podría ser importante en el tratamiento  del hidrógeno y del helio.




Otras consideraciones a favor de la existencia real de la energía del punto cero son las siguientes:

En 1916, Otto Stern propuso que el espacio vacío podría estar lleno de una radiación electromagnética de punto cero.

En 1919 Einstein trata de relacionar la presión “negativa” generada por la presencia de la radiación del punto cero sobre una cáscara eléctricamente cargada.

En 1921 Emil Wiechert maneja la idea del éter, al cual le asocia una energía que relaciona con la constante cosmológica de Einstein.




De acuerdo a Helge Kragh, la interpretación de la constante cosmológica, para entenderla como una densidad de energía del vacío,  podía haber sido planteada desde 1917. En ese tiempo la Relatividad General cumplía casi dos años de edad y el debate entre el físico holandés Willem de Sitter y Einstein llevaba varios meses realizándose.

Según Kragh, la contribución que aparece en la ecuación de la diapositiva puede ser interpretada para implicar una densidad de energía del vacío asociada con la constante cosmológica y con una presión negativa proporcional a la densidad de energía.

Ver: Helge Kragh, “Preludes to dark energy: Zero-point energy and vacuum speculations”, enviado a Archive for History  of Exact Sciences.




Entre tanto, el problema cuántico seguía sin ser resuelto. Para 1922 ya se había aprendido que las reglas de cuantización de Wilson y Sommerfeld funcionaban solamente para energías suficientemente altas. Niels Bohr proponía revisar la teoría de la radiación electromagnética y hasta llegó a proponer, en 1923, que probablemente se necesitaría una nueva versión donde la energía no se conservaría. Por su parte Werner Heisenberg afirma, en su libro: Conversaciones con Einstein y otros Ensayos, que la idea de resolver el problema modificando la mecánica había sido suya. En cambio, Josef Eisinger afirma, en su libro: Einstein on the Road, que Einstein había manejado la necesidad de una nueva mecánica en una conversación con el físico Blas Cabrera, ya en febrero de 1923, en una visita suya a la ciudad de Barcelona.

Niels Bohr en 1923. La teoría cuántica de la radiación .

El tratamiento basado en sistemas, para abordar el problema cuántico, asomó ligeramente su cabeza dos años antes de la formulación madura de la mecánica cuántica. Se trató de un trabajo que introdujo la existencia de osciladores virtuales que actuarían como eslabones comunicadores de los átomos. Este enfoque apareció en una investigación de Niels Bohr, Hendrik Kramers y John Slater, quienes publicaron en 1923 un artículo cuyo título es: La Teoría Cuántica de la Radiación”. Ahora es considerado como el último intento por conciliar la teoría ondulatoria de la luz, basada en la electrodinámica clásica, y la teoría de la radiación como se había ido perfilando a raíz de las aportaciones de Einstein. Particularmente su trabajo de 1917, en el cual obtuvo la ley de radiación de Planck por medio de un modelo de dos estados de energía.
El enfoque de Einstein era presentado por el mismo, en mayo de 1925, y comparado con la teoría de de Bohr, Kramer y Slater como sigue:

“De acuerdo a la teoría de los cuantos de luz, la dispersión de la luz debe poseer también un carácter de eventos aislados, y tal que allí debe existir un electrón emitido en una dirección definida cada vez que la radiación dispersada produce un efecto secundario en la materia. De acuerdo a la teoría de los cuantos de luz, hay dependencia estadística entre la radiación dispersada en el sentido de Compton y la emisión del electrón, una dependencia que en el punto de vista de los autores [refiriéndose a Bohr, Kramers y Slater] no debe existir.”

Dos párrafos antes, Einstein había escrito:

“Recientemente N. Bohr, junto con Kramers y Slater, condujeron una interesante investigación en la cual intentaron explicar teóricamente las propiedades energéticas de la luz, sin invocar la hipótesis de que la radiación consiste de cuantos de tipo corpuscular. De acuerdo al enfoque de estos autores, uno debería seguir visualizando la radiación como ondas que se propagan en todas direcciones, y en el sentido de la teoría ondulatoria, tal que son absorbidas continuamente por la materia, pero produciendo efectos de tipo cuántico en átomos individuales que siguen leyes estadísticas, exactamente como si la radiación consistiera de cuantos de energía hn. Para sacar adelante este concepto, los autores abandonaron la validez exacta de la conservación de la energía y del momento, las cuales pasan a tener validez estadística.”

Ver: Richard A. Campos, “Still Shrouded in Mistery: The Photon in 1925”, en: http://arxiv.org/abs/physics/0401044



Las palabras escritas por Einstein se deben a que el trabajo de 1923 de Bohr y colaboradores contiene una sección intitulada: “Procesos de radiación y transición” que inicia con las siguientes palabras:

“Supondremos que un átomo dado en cierto estado estacionario se comunicará contínuamente con otros átomos a través de un mecanismo espaciotemporal que es virtualmente equivalente con el campo de radiación que, de acuerdo a la teoría clásica, sería originado a partir de osciladores armónicos virtuales que se corresponden con varias transiciones posibles hacia otros estados estacionarios. Además, supondremos que la ocurrencia de procesos de transición para el átomo dado mismo, así como por otros átomos con los cuales está en comunicación mutua, está conectado con este mecanismo por medio de leyes de probabilidad que son análogas a aquellas que se sostienen en la teoría de Einstein … ”




Un experimento de Walther Bothe y Hans Geiger demostró que la teoría de Einstein iba por el camino correcto, y así, la introducción de los osciladores virtuales para comunicar a los átomos inmersos en una radiación ondulatoria pagó el precio de atentar contra la conservación de la energía y el momento a nivel individual en el micro cosmos.
Enseguida la fotos de Geiger y de Bothe:




Pero el hecho de que fuera desechada la teoría de los osciladores virtuales como conectores entre átomos que radían, no significa que su impacto fue nulo en el desarrollo de la física. Menos de tres meses después, fue publicado un artículo de Hendrik Kramers en la revista Nature. Estaba fechado el 25 de marzo de 1924 y tenía como propósito estudiar la radiación electromagnética dispersada por átomos.

A partir de la lectura de los capítulos 10 y 11 del volumen II del libro “Lectures on Physics”, de Richard Feynman, se puede aprender que los átomos que forman un material no conductor de corriente eléctrica, agregan a la onda electromagnética incidente un vector que se llama “vector de polarización”. Así, resulta un nuevo campo que es la suma del que incide sobre la colección de átomos, más el vector ya mencionado.

H. Kramers comparó el resultado clásico, basado en un oscilador armónico tratado mediante la mecánica de Newton y la teoría electromagnética de Maxwell. Enseguida escribió la expresión de R. W. Wood y P. V. Bevan, obtenida por medio de los experimentos en 1906 y en 1910 respectivamente. A partir de la comparación concluyó que:

“La reacción del átomo contra la radiación incidente puede ser formalmente comparada con la acción de un conjunto de osciladores armónicos virtuales dentro del átomo, conjugado con las diferentes transiciones posibles a otros estados estacionarios.”

A Robert Williams Wood casi nadie lo recuerda. Su bello libro sobre Ópica es ahora considerado obsoleto. Él es el de la imagne siguiente:




El experimento de Bothe y Geiger aún no se realizaba y la idea original de Bohr estaba presente.
El trabajo de Kramers tuvo repercusión sobre Max Born, quien en junio de 1924 publicó un artículo en el cual discutía la expresión de Kramers, la comparaba con otra similar de Heisenberg y abundaba sobre la presencia de “osciladores virtuales”. Esta vez como “resonadores” seleccionados a partir de una colección infinita de osciladores disponibles a través de un formalismo de la mecánica clásica que se llama: “sistemas múltiplemente periódicos”.

Enseguida una imagen de Kramers:




Para estudiar los sistemas múltiplemente periódicos se requiere conocer a fondo la mecánica de Newton en una de sus versiones que recibe el nombre de formulación hamiltoniana.

Es justo en este contexto que surge, un año después, la regla de multiplicación de Heisenberg que ya he relatado en este blog. Ver: Dos anotaciones sobre el trabajo fundacional de Heisenberg, http://fisicahistoriayasuntosuniversitarios.blogspot.mx/2011/06/dos-anotaciones-acerca-del-trabajo.html

Entre 1923 y 1924, Louis de Broglie encontró que para evitar una contradicción entre la teoría cuántica y la teoría de la relatividad especial, cada partícula debería llevar asociada una onda, lo cual sería consecuencia de un movimiento interno periódico.

El triunfo del enfoque basado en sistemas cerrados y la reaparición de la energía del punto cero.

Sabemos que la mecánica cuántica nació entre julio de 1925 y enero de 1926, con el trabajo pionero de Heinsenberg y la mecánica ondulatoria de Erwin Schrodinger. Se llegó a ella sin revisar  la hipótesis de los sistemas cerrados que hemos expuesto al principio. Y así, nació la teoría que se estudia y usa ahora, sin recurrir a los sistemas abiertos.

En ese paso se olvidó el movimiento interno periódico de Louis de Broglie, y también, la razón fundamental por la cual Heisenberg había introducido su ley de multiplicación.




Entre las tortas que traía bajo el brazo la niña recién nacida estaba la solución al problema del oscilador armónico, en el cual la energía traía un término extra: la energía del punto cero. Podemos concluir que ésta no había muerto irremediablemente, como escribiera Einstein en 1913. Digamos que simplemente andaba de parranda.


Éste es un punto muy importante. En atención a la crítica metodológica que planteamos al principio, el resultado de la mecánica cuántica madura, con la energía del punto cero como uno de sus resultados, sugiere que apareció como una conclusión la idea que pudo haber sido el punto de partida. Tomando prestadas las ideas de Carl Sagan, vale la pena decir que ésta es una especulación científicamente válida, como veremos más adelante.

Entre las conclusiones modernas de la teoría cuántica se reconoce que el llamado: vacío, en realidad no lo está. Como se puede leer en un artículo de la revista estadounidense de difusión científica, Scientific American,

“Lejos de estar vacío,  la física moderna supone que un vacío está lleno de ondas electromagnéticas que nunca pueden ser completamente eliminadas, como un océano con olas que siempre están presentes y nunca podemos detener.”
Más adelante agrega: “Esas ondas vienen en todas las longitudes de onda posibles, y su presencia implica que el espacio vacío contiene una cierta cantidad de energía – una energía que no podemos utilizar, pero que siempre está allí.”
Estamos entonces frente a la consecuencia de una decisión muy importante: no cuestionar el trabajo con sistemas cerrados, para ceñirse a esa hipótesis y buscar, hasta encontrar, la formulación de la mecánica cuántica como ahora la conocemos, termina produciendo una energía del punto cero que resulta de ciertas fluctuaciones del vacío, las cuales consisten de unos “fotones que son virtuales”. El lenguaje le choca a cualquier persona con sentido crítico, que esté dispuesta a exigir de las teorías físicas imágenes más claras y lenguajes que no sean ambiguos.




La teoría cuántica de campos y el problema de ¿qué es una partícula?

A partir de 1928 se inicia el desarrollo de la teoría cuántica del campo. Ésta parte de un teorema matemático atribuido a Fourier, el cual establece que todas las funciones periódicas pueden ser representadas por medio de senos y cosenos cuya frecuencia varía y tal que estas funciones participan con diferente peso (o importancia). Usando la expresión de Euler para relacionar a estos senos y cosenos con exponenciales que contienen un número i en el exponente, se pueden traducir a una combinación lineal de funciones exponenciales complemas como se ve en la siguiente figura. Cada uno de los términos que aparecen en ella son considerado como un oscilador armónico descrito por la mecánica clásica pero con frecuencia diferente.




Para entender el papel que juegan los coeficientes ab podemos comentar que si el color azul es más intenso que el rojo en una luz determinada, los valores ab correspondientes al azul toman valores mayores que los del rojo. Toda la teoría clásica de la luz descansa sobre expresiones como la de la figura anterior.

A partir de este punto, en 1928 se toma una decisión que es congruente con la idea de mantenerse trabajando con sistemas cerrados. Se cuantiza el campo mediante el procedimiento que consiste en cambiar a cada oscilador armónico clásico por un oscilador armónico cuántico. En términos generales, se trata de cambiar los coeficientes ab por una herramienta nueva a partir de 1926, los operadores. Estos son elementos matemáticos con un álgebra diferente a la que estamos acostumbrados. Los operadores no conmutan de modo que la acción de uno de ellos, seguido por la acción de otro, no produce el mismo resultado que si cambiamos el orden.

Como puede verse, el problema se resuelve, pero el grado de abstracción se incrementa.

La opción que es dejada de lado consiste en admitir, como ya dijimos, que es imposible aislar nuestros sistemas físicos del resto del universo, tal que las cargas eléctricas presentes en él siempre están influyendo sobre el sistema que deseamos estudiar. Si aceptamos este hecho, entonces pensaremos en la radiación electromagnética como una radiación estocástica. Siendo así, el paso directo es considerar a los coeficientes ab como variables aleatorias con propiedades estadísticas específicas.

Así como ocurrió con la energía del punto cero, que fue declarada muerta para que apareciera de nuevo (viva) en la mecánica cuántica madura. La idea basada en estocastizar los campos no fue completamente abandonada. En un trabajo que se mantiene desde 1960 hasta 1972, el físico Robert Bourret desarrolla un trabajo que explora la posibilidad de establecer equivalencias entre los campos cuantizados y los campos estocásticos. Su trabajo fructifica en 1970, cuando demuestra que a cada campo cuantizado le corresponde uno estocastizado de acuerdo a la regla establecida en la expresión de la siguiente figura.


Ver: U. Frisch, y R. Bourret, “Parastochastics”, Journal of Mathematical Physics 11, 364-390 (1970).

Dos años después, en 1972, Robert Bourret demuestra que los únicos casos que tienen sentido físico son justamente los correspondientes a l=1 y l =0, que responden, respectivamente, al caso de los bosones y de los fermiones. Justamente los dos tipos de partículas distinguidos en la física por sus propiedades estadísticas.

Los operadores planteados por Bourret son de la misma naturaleza que los utilizados en la teoría cuántica de campos. Los operadores A destruyen partículas, mientras que los operadores B las crean. Así, cualquier campo estocástico da lugar a partículas que son puramente conceptuales, en el sentido de que permiten formular los problemas mediante la creación y aniquilación de partículas que no necesariamente corresponden a objetos reales en la naturaleza.

La frase anterior es clara si mantenemos una posición filosófica apegada al realismo científico, pero si nos movemos hacia una actitud ligada a la filosofía positivista, entonces lo único que importa son mis mediciones, de modo que el concepto de realidad no tiene que ver con objetos en ese mundo real externo del que se habla en realismo. Siendo así, no se logra una diferencia precisa entre el electrón, el protón y el neutrón, por una parte, y los fonones, los plasmones, los polaritones, por otra.

En ese mismo sentido, todas las partículas elementales que se han venido “detectando” (las comillas son intencionales) caen dentro del mismo rango. No hay diferencia entre un fonón, que es puramente conceptual, y un electrón, que de acuerdo al realismo, existe en una naturaleza externa a nosotros.

De hecho, la especialista en física de altas energías, Lily Asquith, desarrolla el siguiente galimatías cuando trata de responder a la pregunta ¿por qué decae el bosón de Higgs?

Cuando hablamos acerca de cualquier partícula ‘fundamental’ tal como la de Higgs, la razón para su decaimiento es realmente mucho más simple. Una partícula tal no es un ‘objeto’ en el sentido imaginado usualmente, pienso que es descrito de manera más precisa como una ‘posibilidad’. La pregunta de ‘¿qué es real?’ es una que he evitado con empeño desde un dolor de cabeza particularmente malo que tuve hace tres años, pero una idea muy general es que no podemos describir cualquier cosa sin algunas propiedades bien definidas, y en física de partículas esas propiedades son los números cuánticos. Un conjunto de números cuánticos, combinado con alguna información adicional, nos da una cantidad descriptiva llamada una función de onda, la cual describe completamente un estado de ‘materia’ en su forma más fundamental. El decaimiento de una partícula tal como el Higgs puede ocurrir si su función de onda es idéntica a la función de onda combinada de otras dos partículas. Son siempre dos: debe ser así debido a las configuraciones posibles de los números cuánticos.”

En esencia, la partícula más buscada en los últimos años, y en la que más se ha gastado para tratar de descubrirla, no tiene el grado de realidad que el común denominador de la gente piensa, sea porque es un realista ingenuo, o un realista bien informado (científico). Incluso, la actitud de la especialista acerca de qué es lo real es francamente evasiva.

Así, hemos llegado hasta un punto en el que se necesita reflexionar cuidadosamente, en alguna clase de enlace entre los profesionales de la física y los profesionales de la filosofía de la física. En los hechos, ya se están presentando posiciones tan críticas como la de Eliano Pessa, quien afirma que “el concepto ingenuo de partícula, adoptado por la mayoría de los practicantes de la teoría cuántica de campos, evidencia contradicciones intrínsecas, y por consiguiente, debería ser abandonado.”
Una teoría con una calidad predictiva muy grande.

Todo lo anterior se suma al malestar que genera entre muchos físicos la interpretación usual de la mecánica cuántica. El problema no tiene que ver con la calidad predictiva de la teoría, sino con la forma en que se interpretan sus resultados. Nos explicaremos enseguida acerca de estos dos temas.

En la notación científica se acostumbra escribir un digito seguido de un punto y los decimales que corresponda. Todo multiplicado por el número diez elevado a una potencia que puede ser positiva o negativa. Por ejemplo, la velocidad de la luz es de 299 792 458 metros por segundo, es decir, 299 millones 792 mil 458 metros por segundo; sin embargo, no se acostumbra escribirlo así. En lugar de ese lenguaje típico de la prensa, o de los manejos contables de un gobierno, o de una empresa, se dice que la velocidad de la luz es de 2.99792458×10⁸ metros por segundo. Así mismo, se escribe que el electrón tiene una carga igual a 1.60217733×10⁻¹⁹ coulombs, en lugar de escribir un 0, un punto, y después 18 ceros más, antes de que aparezcan el número 1 y el s.

Ayudados con el lenguaje anterior, sabemos que las predicciones hechas con la mecánica cuántica
Indicando con el símbolo # a cada dígito, resulta que los números del tipo: #.#X10-10 permiten expresar la calidad de la precisión de la teoría cuántica, en el sentido de que hasta ese grado ha sido posible hacer mediciones experimentales que corroboran acuerdo con la predicción teórica.

Para comprender la magnitud de la calidad predictiva de la mecánica cuántica podemos agregar que en la ingeniería usual, los dígitos de la forma #.#X10-3 son consideradod como ingeniería de precisión. A su vez, la ingeniería ligada a los fenómenos ópticos tiene el potencial de llegar a una precisión de #.#X10-4 , pero éste es un logro difícil de alcanzar que es catalogado como altamente exitoso.

Ver: Luis de la Peña y Ana María Cetto, “Metafísica experimental y mecánica cuántica”, Ciencias 66, abril-junio 2002.

¿Pero qué significan físicamente los elementos contenidos en la teoría cuántica?

El problema está en otra parte, como escribí arriba, se trata de la inconsistencia de la mecánica cuántica con la teoría de la relatividad especial, en lo oscuro de su significado cuando se pretende aplicar la teoría a una sola partícula, afirmando, incluso, que la naturaleza es no local. Pasaremos a explicar qué es esto.

En la mecánica cuántica se reconoce que las partículas llevan asociada una onda de longitud l, por lo tanto, un electrón se conduce como onda cuando pasa por en medio de ventanas cuya anchura es del mismo orden que l. Entonces, el haz de electrones que es lanzado contra las ventanas mencionadas (llamadas rejillas de difracción) se abre y golpea una pantalla en zonas específicas que forman algo llamado un patrón de difracción que consiste de regiones donde llegan muchos electrones y otras donde llegan muy pocos.
Este patrón de difracción es descrito mediante una función matemática llamada densidad de probabilidad y con ella se logra predecir la conducta de los electrones que golpean la pantalla. El problema empieza cuando se desea aplicar la descripción a solamente un electrón. En este caso, el electrón tiene asociada una probabilidad antes de chocar con la pantalla, y otra diferente cuando choca. Esta última consiste en asociar probabilidad 1 al punto en el cual golpea el electrón, de modo que se cambia instantáneamente de una función de onda a otra.


De acuerdo a la teoría cuántica toda la pantalla “registra” el dato, se “actualiza” el estado físico y la probabilidad se hace cero en el resto del espacio. Todo ocurre instantáneamente, superando así la velocidad de propagación límite, que es la de la luz.

Quienes se dedican a defender que la mecánica cuántica es aplicable a una sola partícula presentan una defensa basada en que se está transmitiendo información, de modo que no es un fenómeno físico. Dicho de otra forma, consideran que puede haber transmisión de información sin que medie ningún proceso físico.




Sin embargo, decir que es la información lo que se transmite, es uno de los más grandes gazapos cometidos por quienes pretenden negar el carácter no relativista de la mecánica cuántica. Comprender qué es la información es un asunto extremadamente complicado, de modo que no pasa de ser una forma de evadir el cuestionamiento. En este afán evasivo, se traslada el problema – muchas veces si saberlo – a una gama muy amplia de conceptos diferentes, entre los que se encuentran: los estados cuánticos entrelazados (entanglement states en Inglés), la no localidad de la teoría cuántica y la teoría de la información.

Otra actitud consiste en esconderse detrás del teorema en el cual se establecen las desigualdades de Bell. Pero en verdad, este es otro tema que consideran resuelto a fuerza de no escuchar los puntos de vista diferentes.

El problema es entonces el siguiente:

¿Realmente se comprendió el problema o los fundadores de la mecánica cuántica madura crearon formalismos que no pudieron entender?

Tanto la teoría de la Relatividad Especial, como la Relatividad General, descansan sobre un principio de contigüidad en el espacio y en el tiempo. Eso significa que los procesos físicos ocurren mediante una acción (que puede ser mutua) entre elementos contiguos en su situación espacial, a la vez que se presentan en un tiempo continuo. Una teoría que cumple con este principio se llama una teoría local.

En cambio, la no localidad, en cualquier teoría física, significa que un cuerpo puede actuar a distancia sobre otro. Es exactamente lo contrario del principio de contigüidad. Como ya escribí, uno de los fundamentos de la Teoría General de la Relatividad.

En palabras de Luis de la Peña, “…el formalismo cuántico usual no es consistente con la teoría de la relatividad – deficiencia que se corrige con una versión relativista de la teoría. Sin embargo, dada su naturaleza, esta interacción a distancia no desaparecería aun en la versión relativista.”
Y acerca de la ausencia de localidad en la teoría cuántica, agrega que se nos propone asumir “…la no localidad cuántica como algo que nos impone la naturaleza …”

Más adelante ironiza que es algo “…que debemos aceptar, gústenos o no. Si ello contradice nuestra intuición o visión filosófica, peor para nosotros, …”
Consultar la obra citada previamente: Luis de la Peña y Ana María Cetto, “Metafísica experimental y mecánica cuántica”, Ciencias 66, abril-junio 2002.

La pregunta jamás resuelta: ¿por qué son estables los estados estacionarios de la teoría cuántica?

Uno de los problemas planteados en los primeros modelos atómicos (el de Rutherford y el de Bohr, así como la generalización de Sommerfeld a órbitas elípticas) fue la estabilidad del movimiento de los electrones en torno al núcleo.

A decir verdad, Rutherford jamás planteó que los electrones se movían de algún modo fuera del núcleo. Era tan riguroso que, como sus experimentos eran explicables con una expresión matemática en la cual la carga eléctrica aparece elevada a la cuarta potencia, borrando así el signo de la carga, prefirió no hacer una hipótesis extra para afirmar que el núcleo sería positivo y las cargas exteriores deberían ser negativas para tener un átomo eléctricamente neutro. Fue Bohr quien cometió el atrevimiento de afirmar que eran los electrones los que se encontraban fuera del núcleo.

Pero no se quedó allí, además postuló que se movían en órbitas circulares estacionarias. Dejando de lado la explicación referente a por cuál razón no colapsaban contra el núcleo, luego de gastarse su energía en radiar ondas electromagnéticas.

Cuando surgió la mecánica cuántica madura apareció el concepto de estado físico estacionario, desplazando al concepto de órbitas estables. Sin embargo, el problema siguió abierto.

Si se acepta la energía del punto cero como real, en el sentido del realismo científico, y se admite que es la manifestación de las fluctuaciones aleatorias del campo de radiación electromagnética, (incongelable como ya escribí), entonces se tiene que volver a escribir la ecuación de movimiento basada en la segunda ley de Newton. Es la siguiente



En este caso, z(t) es el vector de posición de la partícula y la tercera derivada respecto al tiempo es una forma aproximada de incluir la pérdida de energía por radiación. El término entre llaves es la fuerza aplicada por el campo de radiación de fondo.

Hace casi cincuenta años, Trevor Marshall y Timothy Boyer explicaron que el estado base del átomo de hidrógeno podría ser estable si se aceptaba que el electrón en movimiento en torno al núcleo sí radía, pero sin colapsar contra el núcleo debido a que, al mismo tiempo, absorbe energía a partir del campo de radiación de fondo.

En el año 2003, y posteriormente en 2006, Daniel C. Cole publicó un par de reportes sobre soluciones numéricas de la siguiente ecuación diferencial, que se distingue de la de la figura anterior en que no incluye al campo magnético por tratarse de un efecto muy pequeño.



El resultado era esperado por los teóricos que habían adelantado la explicación desde hace varias décadas, pero de todos modos es sorprendente, como se aprecia en la siguiente figura




En la horizontal se contabiliza el tiempo en segundos y en la vertical el radio de giro del electrón en centímetros. Si se desea, se puede traducir fácilmente a nanómetros o a angstroms. El movimiento inicia en 5 nanómetros al tiempo cero, y cuando se resuelve numéricamente la ecuación sin incluir la radiación de fondo, la partícula cae al centro en menos de 15 picosegundos. Es la curva señalada con la frase “no radiation acting”. En cambio, cuando se resuelve la ecuación con el campo de radiación de fondo incluido, aparece la curva aleatoria que se aprecia arriba. Como se puede ver, en ese caso el electrón no colapsa contra el núcleo, sino que se mantiene girando a distancias que aumentan y disminuyen al azar, pasando más tiempo en unas regiones que en otras.

Además, en la parte superior derecha se aprecia un recuadro en el cual el investigador presenta el conteo de tiempo que la partícula estuvo en cada distancia r.  resulta que esta casi coincide con la predicción que da la mecánica cuántica.




Ver: Daniel C. Cole, “Simulation Results Related to Stochastic Electrodynamics”, : AIP Conf. Proc. 810, 99 (2006); doi: 10.1063/1.2158714. View online: http://dx.doi.org/10.1063/1.2158714.

En palabras de Th. Boyer:No hay parámetros libres en el cálculo de Cole y Zou; los valores para la masa del electrón, la carga, y la escala de la radiación del punto cero son todas fijadas por otros experimentos. El trabajo es una sorprendente sugerencia del poder una teoría clásica

Más adelante agrega: “Concluimos que la simulación numérica de Cole y Zou ha encontrado realmente la aproximación no relativista al estado base del átomo de hidrógeno clásico en la radiación electromagnética clásica del punto cero ”.




Ver: Timothy H. Boyer, Any Classical Description of Nature Requires Classical Electromagnetic Zero-Point Radiation, en: http://arxiv.org/pdf/1107.3455.pdf

Los enigmas modernos de la física

Vamos enumerarlos uno por uno, sin que eso signifique que los incluimos todos. En primer lugar:

Primer enigma de la física moderna. El problema de la expansión del universo.
La explicación de la expansión del universo es un problema abierto. La versión más aceptada para encontrar una respuesta es que hubo una gran explosión, donde se creó el universo y se inició el tiempo. Se trabaja con la Relatividad General, sobre la base de que el universo es homogéneo e isotrópico. Se acostumbra partir de una reformulación de las ecuaciones de Einstein para el campo gravitacional, que se llaman ecuaciones de Friedmann porque fueron encontradas por Alexander Friedmann en 1922. El universo es considerado como si estuviera formado de una nube de polvo donde cada pequeña partícula es el análogo de una galaxia. Así, una de las predicciones inmediatas es que el universo se expande, pero con una velocidad que depende de la densidad de masa-energía existente. La siguiente imagen muestra la ecuación diferencial que permite describir la evolución temporal del parámetro de escala.
figura expansión del universo
Los posibles escenarios de la expansión del universo son modelados por medio de la densidad de materia presente en éste. Las posibilidades son varias, como se ilusta en la figura anterior desarrolada por mí, a partir de la gráfica presentada por la NASA para explicar este tema.
La curva naranja nos muestra una curva con la evolución de un universo cerrado, en el cual la densidad de masa-energía es tan alta que se expande para contraerse enseguida.
La curva verde muestra un universo plano. La curva azul muestra un universo abierto, con una densidad tan baja que la expansión está siendo frenada muy lentamente, pero nada más.
La curva superior, de color rosa, muestra un universo en expansión, pero tal que ésta ocurre de manera cada vez más acelerada.
Las observaciones astronómicas favorecen esta última opción, de tal modo que la pregunta acerca de la masa-energía causante de este fenómeno es tanta que la materia visible, más la radiación electromagnética disponible, no son suficientes. Así ha surgido como propuesta que debería existir fuentes extra, que podrían ser la materia oscura más la radiación oscura.

El problema es que no ha sido detectada ninguna de las dos.

Dicho de otra forma, el modelo inicial, basado en las ecuaciones de Friedmann, funcionó bien, pero diversas observaciones dejan claro que se hace necesario considerar aportaciones para la energía, que no son simplemente las masas de las galaxias detectadas y la radiación electromagnética presente. El caso de la expansión cada vez más acelerada del universo, y el dilema de las galaxias con velocidades de rotación tan altas que ya deberían haberse dispersado, se pretende resolver con la inclusión de otras formas de energía.
Recalcando, es por esta clase de razones, que las ideas de la materia oscura y de la energía oscura aparecen como una necesidad en el estudio de estos fenómenos.

Lo anterior no significa que ésta es la única explicación física disponible, por ejemplo, vale la pena citar el siguiente artículo, escrito por Wun-Yi Shu, intitulado: “Cosmological Models with No Big Bang”:
En ese trabajo se desarrolla un modelo cosmológico que explica la aceleración cósmica sin la introducción de la constante cosmológica en las ecuaciones de Einstein y sin energía oscura, pero también, sin big bang y sin muerte térmica del universo. En cambio, introduce que la magnitud de la velocidad de la luz, y la constante de la gravitación universal, no son constantes conforme evoluciona el universo. Wun-Yi Shu concluye que el tiempo no tiene principio ni fin y que el universo experimenta fases de aceleración y de desaceleración.

La observación del autor acerca de la naturaleza infinita del tiempo es interesante dentro del contexto de otra plática que impartí en el Departamento de Física de la Universidad de Sonora y que se encuentra en este blog:

Regresando a la explicación más aceptada, y que ha recibido más esfuerzos para tratar de completar, esa donde la energía oscura es necesaria, aunque su origen sigue siendo desconocido. Podemos decir que han surgido varias propuestas, una de las cuales será presentada ahora.

La idea planteada por Helge Kragh, referente a que la constante cosmológica puede ser interpretada como una densidad de energía del vacío,  se enfrentó con el problema de que la radiación del punto cero proporcionaba una energía extremadamente superior a la que, de acuerdo a los astrónomos, es necesaria para explicar la expansión acelerada del universo. Por esa razón fue desechada como candidata para ayudarnos a entender qué es la energía oscura.

Helge Kragh aparece en la foto siguiente:




Parte del problema reside en lo siguiente:

De acuerdo a la teoría usual, la radiación electromagnética es un conjunto infinito de osciladores armónicos que portan energía. Por ejemplo, cuando la luz verde predomina, se debe a que las frecuencias de ese color tienen más importancia (o más peso, como suele decirse). En el caso de la radiación de fondo ocurre lo mismo, pero para que sea invariante de Lorentz, se requiere que crezca como la frecuencia al cubo, lo cual da por consecuencia que mientras más rápido oscile el campo, más importancia tiene. A la hora de sumar todas las contribuciones eso da como resultado un infinito con el cual nadie ha sabido qué hacer.

A la importancia de cada frecuencia (o peso como ya escribí) se le llama espectro de potencias. A veces se le llama también densidad espectral, aunque no necesariamente son sinónimos, no entraremos en la discusión del tema.

Algunos investigadores han sido muy perseverantes y han buscado la forma de corregir este dilema. Por ejemplo, en el año 2008 Christian Beck y Michael C. Mackey,  publicaron un artículo intitulado "Electromagnetic dark energy", donde desarrollan una idea que es capaz de regresar a la radiación del punto cero a la palestra.
Ver: Christian Beck y Michael C. Mackey, "Electromagnetic dark energy", International Journal of Modern Physics D, Vol. 17, (2008), p. 71-80.

Ellos plantean que las fluctuaciones de vacío son gravitacionalmente activas si y solo si son medibles en términos de un espectro de potencias físicamente relevante en un detector macroscópico o mesoscópico.

En su propuesta, las fluctuaciones de vacío que son gravitacionalmente activas son aquéllas que contribuyen  a la medida  de la densidad de energía oscura del universo. Eso debe modificar el espectro de potencias.

Dichas fluctuaciones del vacío son relevantes porque son aquéllas que inducen un espectro de potencias de ruido cuántico medible con un detector  de tamaño macroscópico o microscópico y para encontrar cuál es ese espectro de potencias realizan una operación matemática que se llama: “transición de fase de fotones activos a inactivos”. Se trata de un método desarrollado por Landau, que ha sido aplicado ampliamente en la materia condensada.

El resultado es que el proceso de suma de aportaciones de todas las frecuencias, en las cuales se considera el producto de la energía del punto cero, por el número de modos de vibración, debe presentar una modificación porque aparece un tercer factor que contiene una función que no había sido tomada en cuenta. Esta se puede apreciar en la diapositiva siguiente:





Christian Beck y Michael C. Mackey concluyen que solamente contribuyen los fotones que tienen ciertas frecuencias, eliminando las que son demasiado altas. Así lo muestra la figura de la diapositiva siguiente:



A los fotones que sí contribuyen a la energía oscura les llaman fotones gravitacionalmente activos y el proceso de suma (integral) de las contribuciones de todas las frecuencias da una densidad de energía que sí coincide con la que los astrónomos estiman necesaria.

Si la explicación anterior es correcta, significa que la energía oscura es únicamente la energía del punto cero, pero con la condición de que solamente contribuyen los fotones que no tienen energías demasiado altas. Es decir, los fotones que no son medibles con los aparatos ideales que una civilización puede construir, no existen. Nótese las implicaciones filosóficas de esta afirmación.

Segundo enigma de la física moderna: ¿cuál es el origen de la masa?

Empezaré explicando por qué dejaré de lado el bosón de Higgs como explicación del origen de la masa.

Cuando se plantea la pregunta sobre cuál es el origen de la masa, la respuesta inmediata trae a colación el famoso bosón de Higgs. Éste concepto surge en un procedimiento matemático usual en la teoría de campos y consiste en combinar (acoplar) dos campos diferentes por medio de una técnica que se llama mecanismo de Anderson y Higgs. El resultado es que, si al principio se dispone de un campo cuantizado con partículas sin masa, se obtiene un campo cuantizado de partículas con masa.

El procedimiento involucra el aprendizaje de algo que en matemáticas se llaman transformaciones lineales, ligadas a un concepto tomado de la geometría elemental, que se llama: simetría. Se parte de un campo de dos componentes, que pueden ser dibujadas en un plano y que tienen un tipo especial de simetría cuyo destino es romperla, es decir, que ya no se cumpla, para ser sustituida por otra más general. En ese proceso se cambia de una descripción donde no hay masa presente a otro donde si la hay. W. N. Cottingham y D. A. Greenwood lo escriben como sigue:

“Como consecuencia de la ruptura de la simetría local, el campo de norma adquiere una masa …”

Esta afirmación es importante para la conclusión que presentaré al final de esta sección.

Un estudiante del séptimo semestre de una licenciatura en física puede estudiar la ecuación de onda del campo electromagnético y aprender a cuantizar el campo para obtener los fotones que, se dice, forman la luz. Mediante un procedimiento matemático (que no es el mecanismo de Anderson y Higgs) el estudiante puede resolver un problema que consiste en modificar su ecuación de onda para obtener otra que recibe el nombre de ecuación de Klein-Gordon. Ésta se parece a la anterior, pero contiene un término nuevo, el cual impide que la fuerza sea de largo alcance. Cuando este nuevo campo es cuantizado, resulta que las partículas resultantes tienen masa. Así, se asocia la existencia de masa con el alcance de una fuerza. Mientras más grande es la masa de la partícula que resulta al cuantizar el campo, más corto es su alcance.

En el mismo sentido, pero muchísimo más complicado, el mecanismo de Anderson y Higgs permite obtener campos en los cuales aparecen dos tipos de partículas cargadas llamadas W+ y W-, además de una neutra (sin carga) que se llama Z.

Es casi desconocido que este mecanismo se desarrolló primero en el estudio de la materia condensada, cuando se trataba de explicar el fenómeno de la superconductividad. De donde fue tomado para resolver problemas muy complicados en la teoría de partículas.

Desde mi punto de vista, el mecanismo de Anderson y Higgs sirve para encontrar nuevas descripciones de campos que podrían existir en la naturaleza, pero eso no significa que estás explicando el origen de la masa.

En este caso tenemos una nueva confusión de términos. La inocencia filosófica de la inmensa mayoría de los físicos los lleva a pasar saltando sobre las siguientes frases:
1)      La física requiere explicar los experimentos.
2)      Por lo tanto, en las teorías físicas me importa lo que se puede medir.
3)      Para mi trabajo teórico sólo importa lo que mido.
4)      En mi trabajo teórico sólo existe lo que mido.
5)      La realidad es lo que mido.
6)      Las expresiones matemáticas planteadas en la teoría física explican la realidad si predicen correctamente lo que mido.

Y así, en el punto seis ya no se sabe a ciencia cierta qué cosa es la realidad, de modo tal que termina siendo confundida con las mediciones, y todavía peor, con los desarrollos matemáticos hechos para explicar esas mediciones.

Por esa razón, cuando se aplica el procedimiento de Anderson y Higgs para obtener una descripción en la cual las partículas tienen masa, se termina pensando que han encontrado la partícula que, como hada madrina con su varita mágica, le da masa a todas las demás partículas.



Hecha esta aclaración, conviene pasar a una explicación que ha llamado mucho la atención en los últimos quince años, hasta el punto en que el portal del California Institute of Technology le dedica una parte de su espacio a darle seguimiento a los desarrollos (muy pocos por cierto) en los que se abunda sobre esta opción para comprender de dónde viene la masa inercial.

Uso la frase: “masa inercial” solamente para coincidir con su uso cotidiano en este contexto, pero la realidad es que jamás se ha logrado separar los tres conceptos siguientes: a) masa inercial, b) masa gravitacional, y c) masa como energía empaquetada.

Ver: Sugerencia consultar: http://www.calphysics.org/inertia.html

La masa como una consecuencia de la radiación del punto cero.

La idea básica para explicar el origen de la masa está en comprender que el espectro de potencias que es invariante de Lorentz, y es una función cúbica de la frecuencia, se percibe como tal si nos encontramos en un sistema de referencia inercial. En cambio, cuando el sistema no es inercial, como ocurre con una partícula que se acelera, el  campo de radiación de fondo ya no se percibe igual. Ahora, su espectro de potencias (o densidad espectral) se modifica y presenta un término nuevo que, está relacionado con la aceleración.



A consecuencia de lo anterior, la partícula que se mueve en el espacio a través de la radiación de fondo percibe una modificación en el flujo de energía a través del volumen que ocupa. Esto se traduce en una fuerza que se opone a su movimiento, es proporcional a la aceleración y el factor multiplicativo que la acompaña se interpreta como la masa inercial producida por el campo de radiación de fondo.




Ver: A. Rueda, B. Haisch, Inertia as a reaction of the vacuum to accelerated motion, Arxiv
 B. Haisch, A. Rueda & Y. Dobyns, Inertial Mass and the quantum vacuum fields, Annalen der Physik, 10, 393-414 (2001).

Tercer enigma de la física moderna: ¿cuál es el origen del espín?

El espín del electrón surgió como una necesidad planteada por el estudio experimental de la luz emitida por ciertos materiales cuyos átomos son clasificados como alcalinos. Estos fueron estudiados antes y después de que se le aplicaba al sistema físico un poderoso campo magnético y el resultado era que en lugar de cada frecuencia de luz observada antes de la aplicación del campo, aparecían varias de ellas en racimos muy cercanos a la original. El descubridor del efecto fue Pieter Zeeman y su descurbrimiento había sido parcialmente explicado por Hendrik Lorentz, quien logró describir el caso en que surgían tres frecuencias a partir de la original.
El problema era que no salían tres siempre, por el contrario, lo más común era que surgieran más de tres, de modo que ante la ausencia de una explicación, le llamaron efecto Zeman anómalo.

En 1913, Niels Bohr trabajó con órbitas circulares para diseñar un modelo atómico del átomo de hidrógeno. Introdujo un número cuántico que permitía enumerar cada una de las energías accesibles al átomo. Cuando Arnold Sommerfeld generalizó este modelo, agregando a la descripción las órbitas elípticas, aparecieron tres números cuánticos. Eso fue en 1916.

Varios investigadores, entre ellos: Alfred Landé, Arnold Sommerfeld y Wolfgang Pauli, trataron de explicar la supuesta anomalía en el efecto Zeeman. Para ello introdujeron un cuarto número cuántico, mismo que Landé y Sommerfeld trataban de asociar con el núcleo del átomo. Por su parte, Pauli logró plantear argumentos para hacer ver que no podía ser así, ya que mediante el intercambio exclusivo de electrones podía ocurrir que el número de frecuencias distintas de la luz emitida se modificaba.

En otro orden de cosas, Otto Stern y Walther Gerlach desarrollaron en 1922 un experimento que consistía en hacer pasar vapor de plata a través de un campo magnético muy poderoso. El resultado fue que el haz se separaba en dos, formando un par de manchas distintas en un plato receptor.

La conclusión fue que los átomos de plata debían tener una propiedad llamada dipolo magnético, con la salvedad de que éste solamente podía tener dos valores diferentes.

Albert Einstein y Paul Eherenfest hicieron un estudio del problema y encontraron que la alineación de los átomos que estaba siendo observada no se podía entender con los métodos teóricos conocidos, pues tomaría más de 100 años para que los átomos se alinearan. Entonces ellos propusieron que había dos posibilidades para lograr una explicación:

Primera: El mecanismo debía incluir que los átomos nunca pueden estar en un estado en el que no estén completamente cuantizados.
Segunda: Se llega a los estados observados por medio de efectos muy rápidos sobre la orientación de los átomos.

La unión de ambas problemáticas llevó a que, por un lado, Pauli propusiera que el número cuántico debía asociarse al electrón y no al núcleo, y por otra parte, a que en 1925 George Uhlenbeck y Samuel Goudsmith propusieran que el electrón giraba sobre si mismo, de tal modo que tenía un momento angular, y debido a ello, un momento dipolar magnético. Lo cual explicaría el origen del cuarto numéro cuántico y también el experimento de Stern y Gerlach.

El problema fue, como apuntó pronto Hendrik Lorentz, que para lograr esa magnitud de momento angular, la superficie del electrón debería tener una velocidad tangencial diez veces superior a la de la luz.

Cuando Pauli logró incluir el espín del electrón en la descripción de la mecánica cuántica madura, se obtuvo un formalismo matemático extremadamente útil para calcular niveles de energía y predecir frecuencias de emisión de luz en las distintas circunstancias de los experimentos. Pero no se explicó cuál era el origen de ese momento angular.

El misterio continúa hasta ahora.

En 1928, Paul Dirac logró encontrar una ecuación que vino a ser la versión relativista de la de Schrödinger. Con eso el espín del electrón quedó incluido automáticamente. Posteriormente, Schrödinger hizo un estudio de una clase de soluciones de la ecuación de Dirac que reciben el nombre de paquetes de onda. Encontrándose con la novedad de que el electrón debería ejecutar un movimiento en el que debía avanzar, pero temblando. El introdujo la palabra zitterbewegung para este efecto.

En 1952, K, Huang explicó que dicho zitterbewegung podía ser analizado como un momento angular.
En 1977, A. Barducci, R. Casalbuon y L. Lusanna utilizaron una matemática que recibe el nombre de álgebra de Grasmann y explicaron que, con esa herramienta, el espín del electrón era interpretable como consecuencia de trayectorias geométricas.

En 1981, A. O. Barut y N. Zanghi desarollaron un modelo clásico del electrón en el que se proponía una interpretación geométrica en la cual se asociaba al espín con un movimiento periódico similar al del zitterbewegung descubierto por Schrödinger y reinterpretado por Huang.

También en 1981 L. de la Peña y A. Jáuregui, basados en la inclusión del campo de radiación de fondo en la ecuación clásica para describir el electrón, encontraron que el electrón debía presentar un momento angular como resultado de su interacción con cada una de las dos polarizaciones circulares de dicho campo.

Entre 1991 y 2010, D. Hestenes ha insistido en que a partir de la ecuación de Dirac para describir al electrón se desprende la existencia de una geometría interna en el movimiento del electrón.


Todos los resultados anteriores apuntan a la necesidad de recordar que Louis de Broglie había hablado de la necesidad de incorporar un movimiento interno periódico.

El interés ha continuado, en 2012, K. Muraldihar ha tratado de unir la visión de Hestenes sobre la geometría escondidad en la ecuación de Dirac, con el campo de radiación de fondo como productor del espín.

Ver: K. Muraldihar, The spin bivector and zeropoint energy in geometric algebra, Adv. Studies Theor. Phys. Vol. 6, 2012, No. 14, 675-686.


De todos los trabajos anteriores, el que descansa de forma más clara sobre la existencia de la radiación del punto cero es de Luis de la Peña y Antonio Jáuregui. Como se ve en la siguiente figura, ellos escribieron la ecuación de movimiento de la partícula con un campo eléctrico aleatorio incluido, mismo que separaron en dos componentes circulares, una que podemos llamar: derecha, y otra que podemos llamar: izquierda.

Ellos encontraron que cuando se considera solamente una de las dos polarizaciones, la partícula ejecuta un movimiento con una tendencia a rotar, lo cual da por consecuencia que adquiera un momento angular en una dirección. En cambio, si la partícula está bajo la acción de la otra polarización circular, entonces la tendencia a rotar es en la dirección opuesta. Eso explicaría por qué razón el espín del electrón puede tomar dos valores. Además, si se consideran las dos polarizaciones simultáneamente, entonces el movimiento aleatorio no muestra una dirección de rotación preferencial.



Lo anterior es muy interesante porque trae a colación la redacción original utilizada por Wolfgang Pauli cuando escribió su artículo sobre el cuarto número cuántico para explicar el efecto Zeeman y dar base física a la clasificación de todos los elementos químicos en la tabla periódica. Siempre escribió “… bajo la acción de un campo poderoso …”. Esto significa que la idea de independizar al espín de la presencia de un campo de gran magnitud apareció después, y si somos sinceros, sin ninguna evidencia física que demuestre que el electrón tiene un espín cuando no hay un campo externo que lo afecte.



Ver artículo original traducido al Inglés en: http://www.chemteam.info/Chem-History/Pauli-1925/Pauli-1925.html

En esta referencia se puede leer la traducción al Inglés de su famoso principio de exclusión: “There can never be two or more equivalent electrons in an atom for which in strong fields the values of all quantum numbers n, k1, k2, m1 (or, equivalently, n, k1, m1, m1) are the same. If an electron is present in the atom for which these quantum numbers (in an external field) have definite values, this state is’occupied’.”.

Con base en lo anterior, sostengo que la posible separación en dos polarizaciones circulares distintas ocurre cuando hay un campo externo actuando sobre el espín, como podría ser el caso del campo magnético del experimento Stern-Gerlach, de los distintos experimentos sobre el efecto Zeeman, o también, cuando un electrón se encuentra en la presencia de otro electrón.

En pocas palabras el espín, se manifiesta cuando un campo externo rompe la isotropía del espacio. De esta forma se puede visualizar la siguiente situación geométrica en la cual el electrón sí tiene una trayectoria:

La imagen apropiada para el espín del electrón no es el de una rotación en torno a su propio eje, como sugirieron Uhlenbeck y Goudsmith, sino un movimiento aleatorio en el que un electrón que viaja como partícula libre no tiene un espín. Este aparece únicamente cuando un campo externo rompe la simetría del espacio, como podría ocurrir porque se le aplica un campo magnético para medirlo, o bien, cuando se acerca a otro electrón, o a un núcleo.

Esta situación geométrica nos dice también cómo es que se forman los enlaces covalentes en las moléculas. Dos electrones se acoplan mutuamente en un baile que se puede asemejar al baile de una pareja experta en tango. Sus movimientos están sincronizados de tal forma que existe un acoplamiento en el que un movimiento de uno de los integrantes induce otro movimiento en su acompañante. (Ver las dos figuras de la figura anterior y la siguiente)
Figura de bailando tango




El modelo desarrollado por Luis de la Peña y Antonio Jáuregui está basado en una teoría no relativista, de modo que el factor de ¾, que debería ser 1, no puede esgrimirse como un argumento en contra, pues existe la posibilidad de que un tratamiento relativista proporcione el resultado cuantitativamente correcto.

Conclusiones:

Existen argumentos metodológicos para concluir que tratar los sistemas físicos del mundo microscópico como sistemas cerrados no es una idea correcta.

La mecánica cuántica y la teoría cuántica de campos resultaron de aferrarse al tratamiento del micromundo mediante sistemas cerrados.

A cada campo cuantizado, le corresponde un campo estocástico equivalente.

El movimiento interno periódico introducido por Louis de Broglie podría ser la temblorina descubierta por Schrödinger (zitterbewegung). Éste movimiento en torno a su trayectoria podría ser causado por el campo de radiación de fondo.

La energía oscura del universo podría ser considerada como energía electromagnética del vacío ordinario.

El origen de la masa podría deberse a que la partícula acelerada se enfrenta al flujo del campo electromagnético de fondo. (Sugerencia de Sakharov para ligar la gravedad con el vacío cuántico, 1968)

El origen del espín puede ser la temblorina mencionada, pero con la radiación de fondo como causa.