viernes, 23 de diciembre de 2011

El mínimo de Landau (de un relato de Boris Ioffe)





Fotos de Landau, su familia y de su diploma, además de una historia interesante, la encuentras en la siguiente dirección:


El nombre de Lev Landau llegó al conocimiento de muchos físicos mexicanos a través de sus libros de física teórica. Primero editados por la editorial soviética MIR y después por la editorial REVERTÉ, sus textos impresionaron por la calidad del material que contenían, y también, por la enorme dificultad para leerlos. Con esos textos, uno se acostumbraba a tener mucha paciencia, a leer renglón por renglón, y a reflexionar sobre cada una de las ideas plasmadas en sus libros.

El primero que empecé a leer fue el libro de Mecánica (de REVERTÉ), después gran parte del texto de Mecánica Cuántica no Relativista y enseguida uno de Teoría Clásica de Campos. Cuando estudiaba física estadística en el postgrado de la Universidad Nacional Autónoma de México me aficioné a leer el famoso volumen V de Landau, cuya temática es precisamente esa ciencia, y que en opinión del Doctor Luis de la Peña era la más exitosa de sus obras.

Por razones que no voy a mencionar, la lectura de los libros de Landau han dejado de ser un objetivo entre los estudiantes de física de México, en su lugar, me dedicaré a relatar una historia breve sobre una de las múltiples razones por las que surgieron esos textos. El famoso examen de Landau, también conocido como “el mínimo de Landau”. Debido a que se cuentan muchas historias, la mayoría de ellas falsas, aclaró que mi fuente es Boris Ioffe, quien en su artículo “Landau’s theoretical mínimum, Landau’s seminar, ITEP in the beginning of the 1950’s. Lo puedes encontrar en el arXiv y el que yo tengo está fechado el 25 de abril de 2002.

Boris Ioffe nos cuenta que, en su época de estudiante, el Departamento de Física de la Universidad de Moscú tenía profesores muy fuertes en filosofía marxista, pero la mayoría de ellos débiles en sus conocimientos en física. Nos cuenta que Landau, Igor Tamm, Mikhail Leontovich, entre otros, habían sido expulsados de esa dependencia académica. Para información del lector, agregaré brevemente quienes fueron estos dos físicos de la Unión Soviética.

Igor Tamm ganó el Premio Nobel de Física en 1958, junto con Il’ja Mikhailovich Frank y Pavel Alekseyevich Cherenkov , debido al descubrimiento e interpretación del efecto Cherenkov. Un fenómeno en el que un electrón puede viajar en un medio material, con una velocidad superior a la de la luz en ese mismo medio. El efecto se puede estudiar en los libros básicos de física.

Mikhail Leontovich fue después integrante de la Academia de Ciencias de la Unión Soviética y ganador del Premio Lenin. Durante la Segunda Guerra Mundial coordinó la fundación de varios grupos que investigaban sobre el uso de las señales de radio para la detección de aviones y de barcos, el radar. Además, desde 1951 participó en el estudio controlado de la fusión nuclear, y también en el desarrollo del trabajo experimental para el reactor de fusión Tokamak. Cuando murió, el primero de abril de 1981, el New York Times reportó su fallecimiento diciendo que recogía un reporte de la agencia de noticias Tass y agregó que en el año de 1966, Leontovich había formado parte de un grupo de intelectuales soviéticos que firmaron una carta dirigida a los líderes del Partido Comunista para oponerse a los puntos de vista que estaban buscando que la figura política de Stalin fuera rehabilitada.

Regresando al relato de Boris Ioffe, él nos cuenta que la calidad de la educación en ese departamento de física no le parecía satisfactoria, de modo que empezó a pensar en la posibilidad de convertirse en uno de los estudiantes de Landau, pero dudaba si podría tener las habilidades necesarias para ser admitido. Por fin, en el verano de 1947 se atrevió a llamar a Landau para preguntarle si podía ser su estudiante. Obteniendo así una invitación a asistir al día siguiente. Se trataba de resolver un examen de matemáticas que Ioffe logró resolver con facilidad. Landau le dio entonces los programas de ocho cursos sobre física teórica y posteriormente le aplicó un examen más de matemáticas: sobre variable compleja, funciones especiales, transformada de Laplace, entre otros temas.

Según Boris Ioffe, en ese tiempo el famoso curso de Landau no tenía aún todos los libros publicados que existen en la actualidad y tenía a su disposición: el de Mecánica, el de Teoría Clásica de Campos, el de Mecánica del Medio Contínuo y la parte clásica del libro de Física Estadística. En consecuencia, se hizo necesario basarse en artículos de investigación y en otros libros.

En cuanto a libros, menciona el libro de Blokhintsev, “Introducción a la Mecánica Cuántica”, también el de Brillouin sobre “Estadística Cuántica”, más dos capítulos de un libro de Mott y Massey sobre “La Teoría Atómica de Colisiones”. Además, enlista siete artículos de investigación de revistas como: Review of Modern Physics, Annalen der Physics, Physical Review, Soviet Physics y Proceedings of Royal Society.

Boris Ioffe cuenta también que los artículos estaban en Inglés o en Alemán, además de que algunos eran muy largos y menciona que uno de Hans Bethe tenía cerca de cien páginas. Claramente el estudiante potencial tenía que saber leer al menos esos dos idiomas, lo cual no era muy común en esas fechas.
El procedimiento para presentar los exámenes no llevaba un orden específico. Un estudiante aspirante podía llamar a Landau y decirle que le gustaría presentar un examen sobre un curso específico, para lo cual se le fijaba una fecha y una hora.

Cuando los estudiantes llegaban al departamento de Landau, guardaba sus libros, cuadernos y todo lo que llevaba en un ropero; enseguida pasaba a un cuarto pequeño, con una mesa redonda, con unas cuantas hojas de papel en blanco sobre ella. Entonces Landau podría formularle un problema y dejarlo 15 o 20 minutos, después de los cuales reaparecía y veía por encima del hombro lo que estaba haciendo el estudiante aspirante.

Boris Ioffe cuenta que si guardaba silencio y se iba, eso era un buen signo. Sin embargo, a veces expresaba un – “hmm” – lo cual era una muestra de que las cosas no se estaban haciendo bien. Nos dice que él no falló en ningún examen, pero que en una de las ocasiones estaba resolviendo un examen de física estadística por un camino que Landau no se esperaba. Cuando llegó y lo miró, expresó el ya mencionado  – “hmm” –  y se fue. Regresó 20 minutos después para ver qué había ocurrido, miró y se escuchó un segundo – “hmm” – en un tono todavía más insatisfecho que el anterior. En ese momento Eugeny Lifshitz entró al cuarto donde se desarrollaba el examen y dijo: “Dau, no pierdas el tiempo, ¡córrelo! Pero Landau replicó: “Nada más dale otros 20 minutos”. Durante ese tiempo, Boris Ioffe dio con la respuesta correcta. Landau vio la respuesta, revisó sus cálculos y estuvo de acuerdo en que todo estaba correcto. Después de eso, él y Lifshitz le hicieron algunas preguntas sencillas y el examen terminó.
Los problemas de Landau eran a veces muy complicados y el estudiante debía resolverlo en una hora y, según Ioffe, en cada sesión había dos o tres problemas. Por lo tanto, siempre según Boris Ioffe, era necesario tener mucha práctica.

Cuenta también que, para obtener esa habilidad, trató de buscar problemas para resolver en donde fuera posible. Le preguntó a Alexei Abrikosov, quien ya había aprobado el mínimo de Landau, acerca de los problemas que podría resolver. Éste le facilitó algunos, pero sin sus soluciones.  Abrikosov fue después ganador del Premio Nobel de Física (en el año 2003) por sus trabajos sobre materia condensada. Como explicó el 8 de diciembre de ese año, en la Conferencia Nobel, su trabajo partió de su conocimiento de una teoría de LevLandau y Vitalii Ginzburg, en la cual desarrollaron varios conceptos sobre teoría de la superconductividad. En especial uno que se llama “parámetro de orden”.

Hasta aquí, uno puede concluir que la escuela de Landau es mucho más que los libros que han llegado hasta nosotros, además, fue como una fragua en la que se forjaban físicos de primera categoría a nivel mundial.

Boris Ioffe escribe que después de algunos exámenes comprendió que Landau no tenía un almacén con una gran cantidad de problemas pues algunas veces le dio a él los mismos problemas que le había planteado antes a Abrikosov. Esto fue interpretado por él como sigue: “Comprendí que Landau entendía que sus estudiantes se informarían unos a otros acerca de cuáles problemas les había formulado, pero que eso no le preocupaba: para estimar la habilidad de un estudiante era suficiente observar el proceso de la solución.”

Además, Boris Ioffe menciona uno de los problemas que le tocó resolver.  Se trataba de una esfera dieléctrica con polarización eléctrica en una dirección, permitividad e1 y permeabilidad m1, inmersa en un material con permitividad e2 y permeabilidad m2; tal que había además un campo eléctrico formando un ángulo a con el vector de polarización. Se trataba de calcular el campo eléctrico y el magnético dentro y fuera de la esfera. Un dibujo ilustra el problema por si a un estudiante de física se le ocurre intentar la solución.


Escribe en su relato que le tomó dos años pasar el mínimo de Landau. En ese mismo lapso realizó dos trabajos científicos bajo la supervisión de Pomeranchuk. En junio de 1949, después del último examen, Landau lo reconoció oficialmente como uno de sus estudiantes y lo incluyó en la lista. Pero según Ioffe, eso no implicaba privilegios, solamente obligaciones. De eso escribiré en otra ocasión.


Fotos

domingo, 6 de noviembre de 2011

El empate técnico en México





Objetivos.

En el año 2006 se desarrolló en México un proceso de elección presidencial que terminó en un desorden institucional y con la declaración de un presunto ganador que no convenció a más de la mitad de la población.

En esa ocasión se diseñó una frase que se ha popularizado en todo el mundo, reza: “empate técnico”, pero no tiene un significado en términos estadísticos. En cambio, deja la impresión de que cualquier cosa puede pasar.

Los propósitos de esta contribución a mi blog son varios:
·         El primero es demostrar lo absurdo de esa frase.
·         El segundo es hacer ver que las empresas encuestadoras no son confiables en términos de moral científica.
·         El tercero es reforzar la hipótesis de que la frase “empate técnico” fue diseñada con la intención de preparar al público para cometer un fraude en las elecciones de julio de 2006 en México.

El control televisivo.
México es un país controlado por una empresa televisora que durante décadas respaldó al partido en el gobierno para terminar, en los últimos diez años, imponiéndose por encima de los partidos que lo comparten.

Más del 80% de la población mexicana se informa a través de unos cuantos minutos de noticias seleccionadas con todo rigor, a fin de hacer creer a las personas que están siendo informadas, cuando en realidad se les presenta el producto de un cuidadoso filtro. En este contexto se ubican los casos de los sistemas de encuestas con propósitos electorales.

Es bien conocida la confusión que generan mediante frases como: “encuesta de popularidad” o “intención de voto”, pero detrás de ellas se esconde un sistema de cuestionarios que nunca son dados a conocer, salvo el resultado de unas cuantas de las preguntas formuladas, dejando de lado el contexto en el cual fueron hechas. Es decir, sin mostrar cuáles fueron las preguntas anteriores y posteriores. En particular, no es lo mismo ser popular que tener intención de voto a favor pero a nivel de público televidente eso no se distingue bien y los lectores de noticias cuidan de manejarlo conforme a la línea que se les indique desde la gerencia de la empresa que los contrata para aparecer frente a las cámaras.

Las empresas encuestadoras en México.
Con el propósito de sesgarlas, las encuestas pueden ser controladas de muchas formas: una de ellas es el cuestionario mismo, otra es la forma en que es seleccionada la muestra de personas que serán encuestadas, asignando porcentajes a las capas de población y a las regiones geográficas según se considere necesario. Así, se habla de encuestas serias y de otras que no lo son, sin embargo, eso no significa gran cosa porque la palabra serio forma parte del lenguaje coloquial, de modo que puede ser entendida de formas muy distintas. Hablemos entonces de encuestas con rigor científico.

Tratándose de ciencia, el primer criterio  que se debe llenar es la posibilidad de que otros investigadores igualmente capacitados puedan reproducir los resultados. Como esto es relativamente difícil en escenarios políticos cambiantes, las empresas encuestadoras pretenden obviar esta responsabilidad que deberían tener, si de verdad se tratara de estudios fundados sobre base científica.

Sin embargo hay formas de comprobar la calidad científica de una encuesta, por ejemplo, analizando la consistencia de sus tendencias en el tiempo, así como las fluctuaciones en los porcentajes hacia arriba y hacia abajo. Además, claro está, de la formulación que se hace de los reportes mismos. El mejor ejemplo lo puede tomar uno de los estudios estadísticos sobre asuntos médicos y los trabajos experimentales sobre temas de la química, la biología y la física. La estructura de los artículos plantea siempre la formulación del problema, la muestra que se usa con todo y su grupo de control (para comparar resultados), el instrumental que se utilizó, los datos mismos, la forma en que fueron procesados, las gráficas y tablas, finalizando con una discusión, interpretación y conclusiones.

Las empresas encuestadoras no reportan nada de lo anterior, salvo sus propias conclusiones. Y debido a que la población que digiere la información a través de la televisión no sabe nada de este tema, se come la noticia como si fuera verídica. Lo que sigue es un manejo psicosociológico en el que una buena parte de la población opta por “irle al que va a ganar” porque eso de “irle al que va a perder”, no es muy aceptado.

Por lo tanto, si tenemos esta primera deficiencia en un reporte, el trabajo no puede ser considerado como científico. No pasa de ser un producto empresarial útil para quien desea o necesita consumirlo.
Uno de los productos más significativos de esta falta de seriedad es el silencio cómplice con el que las casas encuestadoras trataron en el año 2006 la frase: “empate técnico”. Aunque tuvieron la oportunidad de aclarar que se trataba de un absurdo sin fundamento matemático, callaron mientras los lectores de noticias e integrantes de partidos repetían las mismas palabras carentes de sentido. Vamos a decir enseguida por qué se trata de una tontería.

El margen de error estadístico.
El primer punto importante es cómo se calcula el margen de error de una encuesta. La forma más fácil de hacerlo es mediante la siguiente fórmula


La letra “n” representa el número de cuestionarios satisfactoriamente levantados y procesados para ser incluidos en el análisis. La letra “p” se refiere al porcentaje obtenido por el candidato cuya intención de voto se estudia. No es lo mismo el valor de “p” cuando se proyecta una encuesta que cuando ya se cuenta con el resultado. En el primero de los casos se recurre a los resultados obtenidos en semanas o meses anteriores, en cambio, cuando ya se dispone de los primeros resultados del análisis, el valor de “p” es un número conocido.

El manejo de los valores de “n” y de “p”, juegan un papel importante cuando se trata de fabricar un resultado para engañar al público e introducir la frase “empate técnico”.

Por ejemplo, supongamos que tenemos dos candidatos contendientes para una elección y que se planea una encuesta con n=1000 cuestionarios aceptables para someterlos al análisis. Si la empresa encuestadora no conoce cuáles son los posibles resultados de los porcentajes de intención de voto, lo usual es asociarle el 50% de intención de voto a cada uno. Esto se traduce en p=0.5, lo cual da un margen de error de 1.581% cuando es traducido a porcentaje.

En cambio, si ya se realizó la encuesta, y se encontró que uno de los candidatos tiene a su favor 36% de intención de voto, contra 30% del oponente, la fórmula escrita arriba significa que los respectivos márgenes de error son 1.518% para el primero y de 1.449% para el segundo. Aunque estos dos números son muy cercanos, veremos más adelante que su diferencia es muy importante a la hora de manipular la interpretación de los datos.

La confusión en la elección presidencial en 2006 y la frase empate técnico.
Cuando se trata de elecciones en las que la intención de voto está muy cercana, conviene reducir ese margen de error, a fin mejorar la calidad de la resolución. Es algo similar a lo que hacen los astrónomos cuando desean observar detalles de un planeta, mejoran la calidad del telescopio. Por ejemplo, una encuesta con 1500 cuestionarios satisfactorios para ser procesados en el análisis, me permite reducir el margen de error del candidato con 36% de intención de voto a 1.239%, mientras que la de su seguidor se reduce a 1.183%.

Si la empresa encuestadora desea contribuir a la confusión, le basta con mantener bajo el valor de “n”. Éste es uno de los elementos importantes para introducir la frase falsa: “empate técnico”.

Enseguida explicaremos cómo se resuelve el problema, o bien, cómo se abona a favor de una confusión:
Pensemos en un candidato A, con 35% de intención de voto y en un candidato B con 32% de intención de voto.

Diseño enseguida tres escenarios:
11)      Levanto una encuesta con 1000 cuestionarios satisfactorios para someterlos al análisis.
22)      Levanto la misma encuesta pero con 1 500 cuestionarios.
33)      Levanto la encuesta con solamente 900 cuestionarios.

En el primero de los casos el margen de error me lleva a afirmar que el candidato A tiene una intención de voto que se ubica entre el 33.491% como mínimo y 36.508% como máximo.

Para el candidato B mi estimación es que su intención de voto se encuentra entre 30.525% y 33.475%.

El hecho de que el máximo posible del candidato B esté a solamente 16 milésimas del mínimo del candidato A me debe preocupar si mi intención es científica, pues amerita un análisis más cuidadoso. 

Para eso tengo varias opciones y la más simple es incrementar el número de cuestionarios, así que selecciono la aplicación de 1 500 de ellos en lugar de 1000. En ese caso, mis resultados quedan como sigue:

El candidato A tiene intención de voto entre 33.768% y 36.231%.
El candidato B tiene intención de voto entre 30.796% y 33.204%

He ganado que el máximo del candidato B ya no está tan cerca del mínimo del candidato A. Así, mi afirmación en el sentido de que A es el puntero verdadero se fortalece.

En cambio, si la empresa encuestadora tiene interés en contribuir a la confusión, puede escoger el procesamiento de solamente 900 cuestionarios. En ese caso, los márgenes de error ayudan a tener el siguiente escenario de resultados:

El candidato A tiene intención de voto entre 33.410% y 36.590%.
El candidato B tiene intención de voto entre 30.445% y 33.555%.

Ahora el candidato B tiene a su disposición un margen que se traslapa con el del candidato A, de modo que la empresa encuestadora puede inducir a pensar que no hay forma de saber quién es realmente el puntero.

Si se desea hacer crecer la confusión con el apoyo de algunos integrantes del público que tengan la característica de tener algunos conocimientos de matemáticas, la empresa encuestadora puede incluir una gráfica como la que sigue para el caso de los mismos 35% y 32% pero con  1 200 cuestionarios satisfactorios para someterlos al análisis. La curva azul corresponde a la probabilidad de cada porcentaje del candidato B. La curva rojiza se refiere a la probabilidad de cada porcentaje del candidato A. La imagen muestra un traslape que parece muy importante, de modo que permite generar la idea de que no hay forma de saber quién es el verdadero candidato puntero.



Más aún, la empresa encuestadora puede procesar únicamente 900 cuestionarios y presentar la siguiente gráfica.



Estas imágenes son ópticamente importantes, buenas para ser consumidas por quienes conocen un poco de matemáticas pero ignoran, o ya no recuerdan, la teoría de la probabilidad. Hay una porción de la población mexicana que ha estudiado la teoría de funciones hasta un grado de profundidad suficiente como para comprender el significado de las gráficas, pero sin que su conocimiento sea el necesario para saber que existe una forma de enunciar correctamente la conclusión. Tampoco tienen la preparación para saber que existe una solución.

Lo interesante con toda esta gente semipreparada en matemáticas es que, siendo ingenieros en diversas disciplinas, y a veces personas con título de físico o de matemático, es que se convierten en respaldo de una situación confusa.

La interpretación estadística correcta y la solución.
Para comprender el significado de la gráfica anterior conviene plantear tres preguntas después de observarla cuidadosamente:
11)      ¿Cuál es la probabilidad de que la intención de voto del candidato A caiga a la izquierda del 37%?
22)      ¿Cuál es la probabilidad de que la intención de voto del candidato B caiga a la derecha del 30%?
33)      ¿Cuál es la probabilidad de que la intención de voto de ambos candidatos quede entre el 30% y el 37%?

Una de las primeras cosas que se aprende al iniciar el estudio de la teoría de la probabilidad es que ésta es un número que se ubica entre 0 y 1. Cuando un evento tiene probabilidad 0, significa que no ocurrirá. En cambio, cuando tiene probabilidad 1, indica que seguramente ocurrirá.
Por ejemplo, la probabilidad de que yo corra el maratón en 2 horas 10 minutos es 0, pues eso es un asunto al alcance de unos cuantos especialistas.
Así mismo, la probabilidad de que algún día llueva en Hermosillo, Sonora, es 1.

Volviendo al tema de las tres preguntas anteriores, las respuestas se obtienen mediante un procedimiento simple: Se calcula el área debajo de la curva asociada a la intención de voto de cada candidato, precisamente en el intervalo en el que ambas curvas se traslapan. Así se obtienen las respuestas a las preguntas 1 y 2. Enseguida se multiplican las dos probabilidades y se obtiene la respuesta a la tercera pregunta. Los resultados son los siguientes:
11)       La probabilidad de que la intención de voto del candidato A sea menor de 37% es 0.895. es decir, es muy probable.
22)      La probabilidad de que la intención de voto del candidato B sea superior a 30% es 0.900.
33)      La probabilidad de que la intención de voto de ambos quede entre el 30% y el 37% es de 0.806.

La conclusión correcta es que hay una probabilidad de 0.806 de que ambas intenciones de voto estén en ese intervalo, y cómo es muy alta, con esa encuesta no se puede saber quién es realmente el candidato puntero.

Para continuar, la decisión correcta no es declarar empate técnico, sino tomar el toro por los cuernos y tratar de encontrar cuál es el verdadero puntero. Eso se logra de manera sencilla si se está dispuesto a gastar más dinero en levantar el número de cuestionarios apropiado para el problema que se está enfrentando.

La gráfica que sigue nos da las distribuciones de probabilidad de las intenciones de voto de los dos candidatos si se levantan 12 000 cuestionarios satisfactorios para ser procesados en el análisis estadístico.



En este caso ya no hay traslape entre ambas curvas y la probabilidad de que las intenciones de voto se coloquen en el mismo intervalo es 0. Ahora sí se puede afirmar quién es el candidato puntero.
Los resultados anteriores demuestran que las empresas encuestadoras solamente estaban haciendo una tarea encomendada. Al mismo nivel de los estudiantes de matemáticas que se conforman con un rendimiento promedio y hacen el trabajo apenas indispensable para cumplir con la exigencia del maestro. Es precisamente este conformismo lo que los hace diferentes de los estudiantes destacados.
Pensando bien de las empresas encuestadoras, diríamos que no era económicamente rentable para ellas hacer una encuesta con 12 000 cuestionarios.

La actitud del Instituto Federal Electoral en México.
Un gobierno democrático y dispuesto a servirle a su población no puede conformarse con estas actitudes empresariales. De modo que vamos a revisar el siguiente escenario:

Supongamos que en mayo de 2006, el Instituto Federal Electoral sabía que la diferencia entre los dos candidatos punteros sería inferior al 1% de la votación.

Considerando los sistemas de conteos rápidos, en los que se toma una fotografía a las actas de las casillas y se reporta por vía inalámbrica. El IFE pudo haber ordenado el diseño de un sistema de conteo con el 23% de las casillas. Aquí ya no hay necesidad de hacer cuestionarios, basta llevar a cabo el muestreo en forma correcta, de modo que las fuentes de error se reducen mucho cuando se le compara con las posibilidades de equivocarse en las encuestas previas a la elección.

Ese porcentaje obliga a considerar 30 mil casillas, en cuyo caso el margen de error del candidato A se reduce a 0.277%, mientras que el margen de error del candidato B se reduce a 0.264%.

Este resultado es interesante, porque la suma de ambos muestra una separación de 0.542%.

Si tomamos en cuenta que la diferencia oficial entre los dos candidatos punteros en el año 2006 fue de 0.56%, encontramos que el Instituto Federal Electoral de México pudo prevenir la confusión que se armó después del 2 de julio de ese año.

En declaraciones de uno de los integrantes del Instituto Federal Electoral ante funcionarios de la Embajada de Estados Unidos en México, varias semanas antes del 2 de julio de 2006, ya estaban esperando esa posibilidad.

¿Entonces por qué no la previnieron?  La explicación más inmediata es obvia.

miércoles, 26 de octubre de 2011

Te invito a leer: RECORDAR ES VIVIR…MURIENDO





El 26 de octubre de 2010 falleció el profesor Salvador Loya Villalobos.

El 21 de noviembre de 2010, publicamos en este blog una interesantísima descripción de Salvador, escrita por nuestro amigo Ramón Santoyo Durán, quien nos ilustró sobre el conocimiento y afición de Loya para con el General Francisco Villa.

Ahora se cumple un año de su fallecimiento y esta vez el profesor Santoyo nos regala una reflexión y un poema dedicado a Salvador Loya Villalobos.

La categoría de la personalidad del finado se lleva excelentemente con la calidad literaria de Ramón Santoyo, de modo que aquí ponemos la liga de su  recién estrenado blog. Es altamente recomendable su lectura. Nada más dale click aquí:

lunes, 24 de octubre de 2011

El concepto de tiempo cíclico





Este miércoles 19 de octubre de 2011 presenté una conferencia en el Departamento de Física de la Universidad de Sonora. Oficialmente ésta no existe, pues en su sistema de tomas de decisiones por razones afectivas, los encargados de la difusión dentro de la institución en que trabajo no publicaron sobre esta actividad, que como pronto verán, es muy interesante.

A la conferencia que dicté se le pretende aplicar la misma lógica que a la matanza de las bananeras relatada por Gabriel García Márquez en “Cien Años de Soledad”. Cuando el sobreviviente relataba que habían sido más de tres mil los muertos, todos en Macondo afirmaban que allí no había pasado nada.

En mi conferencia hablé del concepto del tiempo de las civilizaciones antiguas, haciendo ver que la forma más inmediata en la que éste se percibe es como algo que se puede representar en curvas cerradas y no como un punto que se mueve a tasas constantes en una recta de números reales que viene de menos infinito y va hacia mas infinito.


Inicié con la advertencia de que el tiempo es un concepto muy complejo y que existe una concepción moderna de éste, conforme al cual se trata de un escalar asociado con el movimiento.

Dicho de otra forma, si no hay movimiento, no puedes hablar de tiempo, y a la inversa, para hablar del movimiento necesitas al tiempo. En otras palabras, forman una pareja indisoluble.

Otra de las condiciones que el tiempo tiene que cumplir es que debe fluir y distinguir el pasado del futuro.

Además, debe permitir el establecimiento de instantes de menor a mayor.

Si tu estudias teoría de funciones, puedes reconocer que se trata de las propiedades de la recta de los números reales, tal que el tiempo es un punto moviéndose por esa recta a tasas constantes.


Hasta este punto, parecería que todo está muy claro, y podríamos decir, como lo dijo Richard Feynman, que no nos importa saber qué es el tiempo, sino cómo medirlo.

Esta actitud de Richard Feyman es típica del pragmatismo estadounidense, pero no es lo más recomendable si se desea comprender qué significa el tiempo.

Por ejemplo, una de las aportaciones fundamentales de Albert Einstein en su teoría de la Relatividad Especial es que asigna un carácter objetivo al tiempo en cada sistema de referencia inercial. Con esto quiero decir que significa la misma medida, y el mismo ritmo de los relojes, para todos aquellos experimentadores que se encuentren en ese mismo sistema de referencia.

Esta posición de Einstein hizo la diferencia respecto a los físicos que le precedieron en el descubrimiento de muchas de las expresiones matemáticas que él encontró en su memorable artículo de 1905. Por ejemplo, Hendrik Lorentz y Henry Poincaré, solamente le asignaron al tiempo en los distintos sistemas de referencia el carácter de parámetros matemáticamente útiles.

Sabemos también que las mediciones realizadas en distintos sistemas de referencia inerciales están relacionadas por expresiones matemáticas, pero aquí empieza la polémica. Para los físicos con posiciones filosóficas que llamamos realistas, se trata de relaciones objetivas; en cambio para quienes adoptan la filosofía del idealismo subjetivo, sucede exactamente lo contrario. Por ejemplo, para Kurt Gödel, un tiempo relativo no podía ser objetivo.


El tema es francamente complejo, pues al considerar las teorías físicas en su conjunto, aprendemos que tanto para la mecánica clásica, como para le mecánica cuántica, sean estas las versiones válidas a bajas velocidades comparadas con la de la luz, o bien la versión relativista, que es correcta para cualquier velocidad de un móvil, ocurre que cuando se cambia la variable tiempo “t” por “-t”, no pasa nada. Es decir, las ecuaciones de movimiento de las partículas son invariantes ante cambios en el tiempo.

¿Entonces por qué hay diferencia entre pasado y futuro? La respuesta nos la da la termodinámica con su segunda ley, pero ésta, desde el punto de vista de la física estadística, significa que la diferencia entre pasado y futuro es producida por el hecho de que se trata de un efecto colectivo de muchas partículas.

Otro enredo peor se forma cuando, desde el punto de vista de la interpretación ortodoxa de la Mecánica Cuántica, resulta que a nivel microscópico el tiempo no existe, dejando como única opción que éste exista en sentido macroscópico.

Hechas las advertencias anteriores, que indican la importancia de hablar acerca de la filosofía, pasé a explicar algunas fotografías que tomé en los últimos diez meses, mismas que me permiten afirmar que es posible organizar un centro de difusión de la ciencia y de promoción del estudio de la historia antigua de los habitantes de la América del Norte

En las dos fotos anteriores tomé fotografías de la salida del Sol en las fechas que se indican. Se trata del solsticio de invierno, cuatro días antes de navidad y del día en que inició la primavera (aproximadamente) en 2011. Puede verse que el punto donde amaneció el Sol se movió hacia la izquierda. Es decir, hacia el norte.

En la siguiente diapositiva presente dos fotografías más. En la de la izquierda se aprecia que tuve que cambiarme de lugar porque el Sol apareció tan al norte, que una pared me estorbó para tomar mi fotografía. Nótese que el punto donde salió el Sol seis meses antes ni siquiera aparece. La verdad es que habría necesitado una cámara con un lente especial para poderlo captar.

En cambio, en la fotografía de la derecha tengo la imagen del 21 de septiembre. Se puede ver que el Sol sale detrás del arbolito, igual que seis meses antes. El punto del amanecer se devolvió. Después de avanzar hacia el norte, se regresó el 21 de junio.

El Sol sale por donde mismo, pero no es la misma foto, como puedes apreciar porque en la del 21 de septiembre ya hay pasto que nació como consecuencia de las ligeras lluvias de verano.



Los antiguos habitantes de la América del Norte se percataron de todo lo anterior. De aquí resulta que se puede medir cuántos días tiene el año por el método de observar por dónde sale el Sol. Así surgen los llamados calendarios de horizonte. Pero hay algo más, de aquí no se concluye que podemos representar el tiempo con base en la recta de los números reales, como dijimos antes.

Todavía hay algo más. Me puse a medir en la foto dónde salió el Sol el día 17 de octubre de 2011. está señalado con una flecha que dice “real”. Si llamamos 100% al punto donde saldrá el Sol el próximo 21 de diciembre, ocurre que el lunes pasado apareció a una distancia que es de más del 38% con respecto al total que deberá recorrer.

Sin embargo, si el movimiento de ese punto ocurriera a tasas constantes, debería haber estado en el 28.5%, como se indica con la línea verde y la flecha correspondiente. Ocurre algo similar a lo que sabemos que sucede con la lenteja de un péndulo, que avanza más rápido cerca del punto del equilibrio y más lento en los extremos. En este caso, el sitio detrás del arbolito es por donde pasa más rápido. Es cuando ocurren los equinoccios.

¿Qué es lo que esto significa?
Que la idea de avance a tasas constantes del punto con el que representamos al tiempo en la recta real, tampoco aparece directamente a partir de las observaciones de la vida cotidiana.



Lo anterior demuestra que la idea de un tiempo representable en ciclos, con tasas variables, es una conclusión más obvia.

¿Por qué no utilicé el atardecer?
Por una razón práctica. En las dos fotos que sigue se presenta lo que teníamos el 21 de diciembre de 2010. Enseguida la de seis meses después. En diciembre el Sol se puso a un lado de una torre de comunicaciones, en tanto que en la de la derecha se ve dónde se metió el 21 de junio. El camino de terracería indica la enorme diferencia. De nuevo, cuando tomé la foto de la derecha ya no apareció la torre, que había quedado muy al sur como para salir en la fotografía.



Se puede ver que no tengo disponibles accidentes naturales, de modo que habría necesitado una técnica similar a la utilizada por los Mayas en Yucatán, de la cual hablé posteriormente.

Enseguida pasé a otro asunto ¿cómo buscar el norte?
No te creas el cuento de la brújula, la realidad es que la brújula es una mala idea para encontrar el norte con precisión. Ninguna civilización confió totalmente en ella, pues nada más una aproximación útil cuando se necesita saber con urgencia hacia dónde está el norte. Es el caso de los marineros que superaban vientos rápidos en sus barcos de vela y tenían cielo nublado. Cuando no tienes una necesidad urgente, toma todo con calma y usa el método del gnomo, que consiste en una estaca clavada en el suelo y colocada de manera vertical. Se usan dos curvas, una en la que registras la punta de la sombra de la estaca conforme pasa el día, y otra que es un semicírculo trazado por tí.

Revisa dónde se cruzan, traza una línea entre ambos puntos y busca el centro. Enseguida dibujas la línea blanca que ves, desde el pie de la estaca hasta el punto medio que has encontrado. Así se ubica el norte.

Este método lo he usado con niños de pimero y de segundo grado de primaria y funciona muy bien. Puede servir también para que niños de quinto o sexto año de educación primaria, pero pidiéndoles que estudien los triángulos que se van formando allí.

Tratándose de niños de secundaria se les puede pedir la medición de ángulos por medio de técnicas de la trigonometría. Calcular las dos velocidades angulares que se pueden considerar y aprender en la práctica que los conocimientos de matemáticas sí sirven.

También es posible construir un reloj solar, lo cual constituye un proyecto más complicado. Apropiado para estudiantes de bachillerato.

¿Cuál es mi propuesta? Aprovechar esta clase de actividades para atraer a los estudiantes hacia una preparación más profunda en matemáticas. Una motivación que les indique que realmente sirve para algo.

También se puede aprovechar para que aprendan a valorar a las etnias de la América del Norte, donde este método se manejó con altísima precisión.



Enseguida hablé de la cultura Anasazi, que floreció en lo que ahora es el Estado de Nuevo México y parte del que hoy es Arizona. Hay muchos observatorios en el Cañón del Chaco y enseguida mencioné dos asuntos muy interesantes sobre ellos. Observa el mapa, pero si escribes Chaco Canyon, vas fácilmente al sitio oficial que busca preservar lo que aún queda de esta cultura. Además, tratan de rescatar su historia. Allí hay ilustraciones excelentes y fotografías de gran calidad.



Los habitantes prehispánicos de esta región, que ahora es el sureste de los Estados Unidos, subían al cerro que se aprecia en la fotografía de la siguiente diapositiva, y en un farallón que se encuentra en la cara este, como se ve en la foto de la derecha, labraron dos espirales en la piedra y colocaron tres losas como se ve en el dibujo que se encuentra abajo a la derecha


El acomodo de las losas permitía pasar la luz a través de las rendijas, dibujando sobre las espirales figuras iluminadas con la forma de dagas. Los solsticios de verano, equinoccios de septiembre y solsticios de invierno, eran detectados como se ve en los dibujos que siguen en la próxima diapositiva.



El juego de luces mostraba una daga atravesando el centro de la espiral cada solsticio de verano (aproximadamente el 21 de junio de nuestro calendario). Tres meses después, en el equinoccio de otoño, la daga se colocaba hacia la derecha y aparecía una nueva daga, más pequeña, en la espiral de menor tamaño del lado izquierdo y hacia arriba, como se puede ver en la figura de enmedio. Finalmente, los solsticios de invierno eran detectados porque las dos dagas que habían aparecido tres meses antes se acomodaban en forma tangente a la espiral, como se ve en la figura de abajo a la derecha de la diapositiva.



Con este fenómeno repetitivo los sabio de la cultura Anasazi lograron detectar el tiempo y medirlo. Así podían predecir las temporadas en que se realizarían las distintas actividades necesarias para su sobrevivencia. En su concepción del mundo, los rituales que nosotros llamamos religiosos están tan ligados a su vida cotidiana, que no los diferencian de los aspectos prácticos. De acuerdo a las personas que han estudiado esta cultura, no existe en su lengua una palabra que nosotros podamos traducir como religión.

En otro sitio del mismo Cañón del Chaco se encuentran unas ruinas como las de la diapositiva siguiente. Aunque la mayor parte de la construcción ya está derrumbada, aún se aprecia lo suficiente como para que los expertos comprendan, y nos expliquen, que aquí se se medía el avance de las fechas estudiando la evolución de la sombra en las paredes.



Mucho más interesante es la construcción de Casa Rinconada,donde un sistema de nichos en las paredes del oeste de esta estructura circular permite prever, desde siete semanas antes, la llegada del solsticio de verano. Esto se lograba porque una ventana en el lado este dejaba pasar la luz para que se iluminara el nicho que estamos marcando con el número 25.

Después, ya en el solsticio de verano, la luz del Sol entraba por dicha ventana para iluminar el nicho marcado con la letra E.



Dejamos el tema de la civilización Anasazi para pasar al México Antiguo. Al sur de Cuernavaca, en el Estado de Morelos, se encuentra un sistema de pirámide que tiene en sus paredes unas grabaciones que, de acuerdo a los expertos, relatan la realización de un congreso científico en ese sitio. Al parecer, el propósito fue el estudio del calendario, y por supuesto, el aprendizaje acerca de cómo proceder para marcar el tiempo en cada sitio, pues como sabemos ahora, depende de la latitud. El ángulo que se mide con respecto al ecuador.

Un mapa del sitio donde se encuentra Xochicalco se aprecia a continuación.



En la parte superior del cerro se encuentra la pirámide mencionada. Una fotografía de la misma se ve arriba a la izquierda. A un lado de esa pirámide se construyó en la antigüedad una cámara oscura que registra el paso del Sol por el cenit y permite señalar las fechas que se indican en el dibujo de la derecha.



Así, los habitantes del México Antiguo optaron por registrar un hecho que se presenta únicamente en la franja de la Tierra que se encuentra entre el trópico de Capricornio y el de Cáncer. Al sur de la primera línea, o al norte de la segunda, nunca ocurre.

Este hecho fue tan importante para las civilizaciones mexicanas que existe un observatorio para registrar el cenit justo en el paralelo conocido como trópico de cáncer, de donde resulta que tenían clara conciencia de la dependencia de latitud en las observaciones que hacían.

El avance de los Mayas es un punto cúspide del conocimientos de los habitantes del México Antiguo, En el caso de Chichén Itzá, Antonio Aveni, entre otros investigadores, ha encontrado que la forma del observatorio astronómico que conocemos como el Caracol, tiene perforaciones alineadas para seguir los movimientos de Venus. Sus posiciones fueron registradas en el llamado Código de Dresden y durante muchos años se han estudiado sus tablas y sus reglas de corrección de posiciones predichas en ellas.



En la diapositiva que sigue se puede apreciar una gráfica hecha por Ivan Sprajc, en la que consigna el movimiento de los puntos más altos en el horizonte alcanzados por Venus, refleja la complejidad del problema y plantea la pregunta acerca de las razones que motivaban a los sabios mayas a realizar estos esfuerzos. El recurso fácil de que eran objetivos religiosos es solamente una parte de la respuesta. Toda la visión cosmogónica de esta civilización no debe restringirse a una frase que evade penetrar en el tema. Para nuestro interés en la plática impartida, el punto fundamental está en que estaban marcando ciclos de Venus para representar otra rueda del tiempo.



Mientras los Anasazi recurrieron a gravar en la piedra y a colocar el sistema de tres lozas, o a la estructura de Casas Rinconada; los Mayas, evidentemente una civilización más antigua y desarrollada, alinearon pirámides enteras y templos más pequeños, que les servían para detectar las líneas de salida del Sol el 21 de junio de cada año (solsticio de verano) y también el 21 de diciembre. En medio de los dos solsticios, los equinoccios del 21 de septiembre y del 21 de marzo estaban señalados por otro templo más. Claramente tenían conciencia del rango en que se movía el punto de salida del Sol y de la rapidez con que esto ocurría.



De los hechos anteriores no es directo concluir que el tiempo tiene las propiedades que le asignamos cuando lo relacionamos con la recta de los números reales.

Yucatán es un territorio muy plano, de modo que recurrir a accidentes en el terreno, como los cerros, no es un recurso disponible. En este caso, como nos explica Antonio Aveni, los observadores del cielo en el México Antiguo recurrieron a la alineación de horquillas separadas al menos cien metros, para registrar la traslación del punto por donde amanecía el Sol y realizar movimientos de una de las horquillas para ir actualizando la alineación. La precisión que lograron los Mayas en la medición del tiempo, usando esta clase de métodos, es impresionante como se puede comprobar a partir de los siguientes datos proporcionados por León Portilla



Así mismo, George Rieke, de la Universidad de Arizona, utiliza los siguientes datos en una de las cátedras que imparte en esa institución.



La unión del tiempo con el espacio está presente en los calendarios mesoamericanos, como se ha concluido del análisis del códice Fejérváry-Mayer, que se encuentra en el museo de Liverpool en Inglaterra. Es el que presentó al lado derecho en la siguiente diapositiva. En una discusión basada en este códice, Ana Guadalupe Díaz Álvarez desarrolla una idea original de Aveni y explica que en esa obra se encuentran representados los cuatro rumbos cardinales mediante los brazos de una cruz. En el original el Oriente está situado en la parte superior, con cuatro enlaces curvos que llevan los signos de los años utilizados en el centro de México. Dichos enlaces cumplen dos papeles: el primero es conectar los puntos cardinales y el segundo es marcar los puntos del horizonte donde se coloca el Sol en los solsticios. Según Díaz Álvarez, cada brazo de la cruz, que se puede distinguir perfectamente en el códice, marca una región del espacio en que estará el Sol conforme transcurra el año.

En sus palabras, el códice Fejérváry-Mayer “... se vuelve un sistema dinámico que se activa al iniciar el movimiento del tiempo sobre el sustrato material previamente ordenado: el espacio.” Así, en la cosmogonía mesoamericana el tiempo y el espacio estarían íntimamente ligados.

A la izquierda de la misma diapositiva se muestran las ruedas dentadas que se usan para explicar el paso del tiempo y se consigna el hecho, bien conocido, de que los Mayas hacían coincidir dos calendarios, uno con ciclos de 260 días, con trece meses de 20 días cada uno; y otro de 365 días. Hacían coincidir ambos en 73 ciclos del primero y 52 del segundo, para formar 18 mil 980 días. Todo incrustado de una cuenta que ahora recibe el nombre de: la cuenta larga.



Sostengo que las vivencias y las mediciones de los pueblos del México Antiguo, incluídos allí los Anasazi, concibieron la idea de que el tiempo era cíclico, como los hechos que ocurrían en la naturaleza, a la cual ellos se consideraban indisolublemente ligados.

La profunda relación en la que estos pueblos se consideraban ligados a los fenómenos naturales está presente no solo en las construcciones de las grandes ciudades, sino también en las de los hogares, como hace ver Antonio Aveni en su libro “People and the Sky (our ancestors and the cosmos)”. A los hombres modernos nos cuesta trabajo creer que el tiempo puede ser cíclico, no solo porque estamos aculturados por casi 2 mil años de la tradición que ahora llaman occidental, sino también porque nosotros no nos concebimos ligados a la naturaleza en un sentido de fusión con ella.

Otro punto interesante es que también algunos pensadores griegos, como Aristóteles, concebía también el carácter cíclico del tiempo. Así lo hace ver Dan Falk en su libro “In Search of Time”. De allí tomo dos párrafos suyos y los inserto en la siguiente diapositiva:


La civilización occidental está ligada a la evolución del cristianismo, pero en la etapa en que esta religión se liga al poder para convertirse en la visión oficial del estado romano. Se hace entonces una selección en la que el pensamiento de Aristóteles está parcialmente presente, como ocurre con el de Platón.



En esa selección se introduce el concepto del alma proporcionada a los seres humanos por la divinidad. Hasta el punto de llegar a creer, como sucede con los racistas de la supremacía blanca, que el alma ha sido otorgada a los seres humanos, pero sin incluir a los negros.

La idea de un alma es difícil de captar, porque por un lado es entregada al ser humano por un ser inmortal, pero por otra parte, los hombres nacen y mueren, lo cual es un ejemplo, pero nada más, de que todo tiene principio y tiene fin.

En el contexto anterior se ubica la selección que se hace de las soluciones a las ecuaciones de Einstein de la Relatividad General. Aquí existe una confusión en la mayoría de los especialistas que hacen uso de ésta para tratar de comprender el universo. 



Es indispensable comprender la diferencia entre una teoría y un modelo. De acuerdo a David Hestenes, una teoría cumple un conjunto de requisitos que él expone en su libro “New Foundatios for Classical Mechanics”, primera edición. A partir de la teoría, afirma él, es posible generar modelos que expliquen fenómenos de naturales con el grado de precisión que requieran los aparatos de medición disponibles.

Sin embargo, en el abuso que se hace del lenguaje, se nos cuenta que la teoría de la Relatividad General refuerza la conclusión, obtenida por otros enfoques, de que el universo en expansión proviene de una gran explosión. Éste es un hecho muy bien documentado por los resultados científicos, pero de allí a asociar al big bang con un nacimiento del universo, en el sentido de que hubo un día sin ayer, para después pasar a considerar la presunta muerte térmica del universo, hay algo más que un salto mortal. Aquí entra ya la ideología.

En el punto anterior se ubica a la métrica de Friedmann, como aquella que nos proporciona todos los elementos necesarios para calcular la evolución en el tiempo de un factor de escala que nos indica que el universo se está expandiendo. Ésta es una verdad científica que nadie se atrevería a discutir.

Sin embargo, conviene llamar la atención sobre la cautela con la que se ha expresado el comité del Premio Nobel de Física en el año 2011. En su comunicado de prensa, afirmaron lo siguiente: “For almost a century, the Universe has been known to be expanding as a consequence of the Big Bang about 14 billion years ago. However, the discovery that this expansion is accelerating is astounding. If the expansion will continue to speed up the Universe will end in ice.

The acceleration is thought to be driven by dark energy, but what that dark energy is remains an enigma - perhaps the greatest in physics today. What is known is that dark energy constitutes about three quarters of the Universe. Therefore the findings of the 2011 Nobel Laureates in Physics have helped to unveil a Universe that to a large extent is unknown to science. And everything is possible again.”.


Tengo interés en destacar la frase que traduzco como sigue: “Si la expansión continúa a rapidez creciente el Universo terminará en hielo”. El si condicional, es importante. En la etapa actual se considera que existe una aceleración en la rapidez de la expansión, pero el conocimiento no permite afirmar que ésta es permanente.


Lo apropiado es afirmar que la Relatividad General permite generar modelos, uno de los cuales es el de Friedmann, y además, que los seres humanos que se dedican a esto, utilizan su criterio para seleccionar el número todavía desconocido de opciones que se presentan. Jirí Bicák lo ha reconocido así en su artículo “Selected solutions of Einstein field equations: their role in general relativity and astrophysics. Sus palabras las transcribo en la siguiente diapositiva



Sintetizando, la teoría de la Relatividad General produce modelos, que resultan de las consideraciones que los especialistas hacen para resolver las ecuaciones. Por ejemplo, Schwarzschild consideró un punto muy masivo, alrededor del cual el espaciotiempo es isotrópico y estático. Con eso se logra modelar todo lo que ocurre en torno a estrellas como el Sol, y también en los alrededores de agujeros negros en los que ni la carga eléctrica ni su rotación son importantes.

En cambio, si se agrega la necesidad de admitir que hay casos en los cuales la carga eléctrica es importante y el momento angular también, la métrica anterior ya no es suficiente.

Así también, para considerar el estudio del universo en expansión, se utiliza una hipótesis que casi nadie se atreve a cuestionar, la homogeneidad y la isotropía del universo. Sin embargo, esto es cierto a escalas extremadamente grandes, unas en las que cada galaxia puede ser considerada como una partícula de polvo. En todos los casos, las evidencias proporcionadas por la astrofísica nos marcan el camino a seguir, pero debe reconocerse que en la toma de decisiones hay seres humanos inmersos en concepciones personales en las que se han ido formando.



¿Cómo se trabaja en la Relatividad General? En la siguiente diapositiva planteo un ejemplo, si alguien desea más información, puede escribirme para recibir una explicación personalizada.



La métrica de Friedmann surge del conjunto de hipótesis previamente mencionadas, por eso se trata de un modelo evitable si se regresa a revisar los supuestos sobre los cuales ha sido construido. Pero no se ha hecho eso, en su lugar, se ha confundido al modelo con la teoría y se han estado intentando diferentes caminos: 1) es agregar términos extra en la ecuación que describe la velocidad de expansión e introduciendo los conceptos de materia y de masa oscura, 2) otro es reformular la teoría General de la Relatividad sobre la hipótesis de que ésta ha sido probada únicamente para nuestro sistema solar, sin embargo, hay estudios a nivel de racimos de galaxias que indican la validez de la teoría.


Mientras no se detecten la materia y la masa oscura, el problema sigue abierto. Pero el sabor a parches introducidos ad hoc es demasiado poderoso.

Hay otro problema más, que fue señalado por Natan Rosen hace más de veinte años, pero que no ha sido tomado en cuenta, el concepto de tiempo que se está manejando, supuestamente dentro del contexto de la Relatividad General, es el marco en reposo del universo newtoniano, con espacio y tiempo absolutos.



La crítica de Natan Rosen es muy suave, pero Kurt Gödel no se anduvo con rodeos, según comenta Dan Falk, expresamente afirmó que él no creía que un tiempo que resulta de un promedio sobre un volumen de tamaño arbitrario existe realmente.

En este punto yo agrego una pregunta que deberían considerar todos los físicos que defienden la Interpretación de Copenhague de la Mecánica Cuántica: ¿cuál es el observador que mide ese tiempo?



Cuando se trata de explicar el fenómeno de expansión del universo, el proceso de selección que se hace de las posibles soluciones de las ecuaciones de Einstein para el campo gravitacional, excluye a otras porque las consideramos absurdas: entre ellas cito la de Kurt Gödel y la de Kip Thorne, que escribo en la siguiente diapositiva.


Alguien dirá que no explican ninguna expansión del universo. Es verdad, en su formulación original no producen modelos de universo en expansión, pero por ejemplo, si en el trabajo de Gödel se elimina el equilibrio entre la fuerza centrífuga producida por la rotación y la gravitación misma, es posible construir modelos de universo que se expanden o se contraen. Pero entonces nos enfrentamos al comentario de que nadie ha observado que el universo rote. Pues sí, eso es verdad, pero tampoco ha encontrado nadie la materia ni la energía oscura. Así que estamos parejos. ¿Cuál es el problema?

El problema está en que la métrica de Gödel incluye itinerarios en el espaciotiempo en los que, avanzando hacia el futuro, puedes regresar a tu pasado. Eso no cabe dentro de nuestro concepto de tiempo lineal.

El problema es como sigue: en la Relatividad Especial se utilizan los conos de luz para indicar las regiones del espaciotiempo de Minkowski que contienen vectores espacialoides y temporaloides. Estos últimos son puntos que están accesibles a cualquier masa puntual que pase por el cono. El eje del cono es la coordenada tiempo.

En la Relatividad Especial todos los ejes de conos son paralelos, lo cual indica que comparten el pasado y también el futuro.



Wolfgang Rindler, autor de las llamadas coordenadas de Rindler y uno de los científicos que impulsaron el uso de los espinores en la Relatividad General, ilustra el problema de que los ejes de los conos pudieran no coincidir. Su dibujo es como se ve en la siguiente diapositiva



Los estudiosos de la obra científica de Einstein nos cuentan que desde 1912 hasta 1915 le preocupó que no podía demostrar la inexistencia de trayectorias (itinerarios) en el espaciotiempo de la Relatividad General. Después de la obra de Gödel sabemos que Einstein no pudo demostrar su inexistencia porque sí existen, como ocurre en la métrica obtenida por este matemático célebre. En ella se pueden seguir trayectorias como la de la siguiente diapositiva. Es la curva de color azul con flechas. Siguiendo conos acomodados como dicen las flechas, es posible ir pasando de un cono a otro, pero como están torcidos (no tienen ejes parelelos) el viajero avanza hacia el futuro pero puede maniobrar para ir a su pasado.



Como digo en la diapositiva, en el mundo moderno creemos en un tiempo lineal y los religiosos se atreven a decir que el big bang fue el día que no tuvo ayer, mientras que si la aceleración es permanente, entonces indica – según ellos – que habrá un día sin mañana.

Mi observación consiste en que si los Mayas hubieran sobrevivido con todo y su cosmogonía del mundo, sin la contaminación de las ideas de quienes vinieron a convertirlos al cristianismo – por las buenas o por las malas – seguramente se sentirían muy cómodos discutiendo las opciones que les ofrecerían métricas como las de Kurt Gödel, o como las estudiadas por Kip Thorne en sus trabajos sobre máquinas del tiempo.

En su libro: “Black Holes & Time Warps (Einsteinś outrageous legacy”, explica cómo se introdujo en estos asuntos, debido a una pregunta que le hiciera Carl Sagan al terminar su novela “Contacto”. Platica también cómo sus colegas se asustaron cuando se enteraron de lo que estaba trabajando con sus estudiantes. La preocupación de sus compañeros de trabajo por la salud mental de Thorne los llevó a hablar por teléfono con su esposa para saber si ella había notado algo extraño en la conducta de su marido (Thorne) en las últimas semanas.

No solo escribió este libro, además, en la revista científica American Journal of Physics hay trabajos sobre los agujeros de gusano. Es decir, publicaciones que pasaron la prueba del los réferis.

Todas las ideas que mencioné en mi conferencia sobre “El concepto de tiempo cíclico” generan discusión, pero de eso es de lo que se trata. Mi propuesta consiste en aprovechar los juegos de haces luminosos y de sombras que usaron los pobladores del México Antiguo, trabajando con sistemas hechos de madera y de cartón, en al menos un recinto oficial donde se realicen prácticas desde la infancia hasta la adolescencia. Todo con el objetivo de educar a los profesores de primaria, secundaria y bachillerato, en los contenidos que pueden regresar a los estudiantes citadinos al contacto con la naturaleza que los rodea.

También, sugerí que es posible establecer exposiciones permanentes de la historia de los avances científicos de las etnias originarias de estas tierras. Pienso que los integrantes actuales de estos pueblos estarían de acuerdo. Estoy hablando de algo similar a un museo con exposiciones de la obra científica de ellos.



Por razones ideológicas, y de intereses de clase, la derecha mexicana en el poder ha intentado desterrar a la filosofía de la enseñanza. Por eso ha encumbrado a personas cuya ignorancia es proporcional al poder que han alcanzado, por ejemplo, Antonio Gago Huguet, Secretario Académico de la Asociación Nacional de Universidades de 1977 a 1986, dice que la filosofía puede ser impartida por un veterinario. Ver entrevista a Gabriel Vargas en La Jornada: http://www.jornada.unam.mx/2011/08/09/sociedad/040n1soc)

Este hombre es uno de los artífices de las barbaridades con que se llenan la boca ahora los funcionarios supuestamente académicos de universidades y secretarías de educación, y de tantos puestos burocráticos nacidos en torno a la necesidad que tiene nuestra sociedad de educar.

Por eso pienso que la filosofía debería ser estudiada y discutida en ambientes ricos para el estudio de temáticas como las que he expuesto en mi conferencia del 19 de octubre de 2011.

Por supuesto que no creo en un proyecto que presuntamente pudiera ser aprobado por la administración actual de la Universidad de Sonora. Mandaron a un individuo a tomar fotografías mientras daba mi plática y luego no publicaron nada en el sitio de internet de su propiedad. Digo, de la Universidad de Sonora.



Están son mis propuestas, que quedan como testimonio de que es posible hacer trabajos interdisciplinarios entre tres líneas de pensamiento: la física con todo y matemáticas, la historia científica de los pueblos del México Antiguo y la filosofía, esa clase de lentes que te pones para reflexionar sobre la vida, la naturaleza y la sociedad.