domingo, 21 de septiembre de 2025

Física en el Sismo del 19 de septiembre de 1985 en México

 

Física en el Sismo del 19 de septiembre de 1985 en México


Las anteriores son fotos publicadas por el diario La Jornada, que ha retomado el 20 de septiembre de 2025, como parte de sus trabajos conmemorativos de la tragedia ocurrida 40 años antes. El día posterior a la tragedia. En la segunda fotografía aparece el Hotel Regis convertido en escombros.

Inicio con un par de anécdotas: siete días antes, el 12 de septiembre de 1985, yo había estado hospedado allí mientras realizaba un conjunto de contactos con dirigentes políticos y sindicales en representación del sindicato de personal académico al que he estado afiliado. El día 19 de septiembre, como culminación de los trabajos sindicales, el secretario general de nuestro sindicato estaba en esa ciudad y tenía reservación para ese mismo hotel. Nunca ocupó la habitación que le habíamos reservado porque el cheque para sus viáticos no salió a tiempo, y como consecuencia, se hospedó gratuitamente en el departamento de un amigo suyo.

Objetivo y hechos relevantes

En esta contribución al blog de Vox Populi de la Ciencia se abordan algunos aspectos de la física que ayuda a entender mejor la característica tremendamente destructiva del sismo ocurrido en México a las 7 horas con 19 minutos de la ciudad de México. Aunque se consultan otras fuentes, me baso principalmente en el trabajo publicado en la revista Nature, Vol. 326, del 23 de abril de 1987, con la autoría de Jorge Andrés Flores Valdés, Octavio Novaro Peñalosa y Thomas Henry Seligman Schurch como autores. Con agradecimientos a Rafael Pérez Pascual, Tomás Brody y Bernhard Lesche, de la Universidad Nacional Autónoma de México y Fernando del Rio y M. Chávez de la Universidad Autónoma Metropolitana. Probablemente se trata de Margarita Chávez Martínez. El título del artículo es “Possible resonance effect in the distribution of earthquake damege in Mexico City”.

El sismo se originó frente en la costa del Océano Pacífico, cerca de la desembocadura del río Balsas, a 350 kilómetros de la Ciudad de México. La onda sísmica golpeó los poblados cercanos a Ciudad Lázaro Cárdenas a las 7 de la mañana con 17 minutos y dos minutos después llegó a la Ciudad de México. la siguiente figura, perteneciente a la USGS, muestra el sitio dónde se originó el sismo.



En el trabajo de: Moreno J M (1995), The 1985 Mexico EarthQuake. Geofis. Colomb. 3:5-19 ISSN 0121-2974 se presenta una gráfica de la forma en que el movimiento de la placa de Cocos fue presionando sobre la placa de Norte América hasta generar (entre otros efectos distribuidos en el tiempo) el movimiento sísmico que estamos analizando desde un punto de vista poco conocido por el público.


Antes del sismo de 1985 se había registrado en México otro sismo al cual se le atribuye también una magnitud de 8.1 grados en la escala de Richter. Ocurrió en 1932 en Jalisco y lo he discutido brevemente en otra contribución a este blog.

Según Moreno J M, el sismo causó más de 10 mil muertes en la Ciudad de México y 250 mil personas sin casa. Cifras más recientes ofrecen una discrepancia importante entre las afirmaciones del gobierno mexicano y las estimaciones de las organizaciones no gubernamentales que se han ocupado del tema. Los datos se ofrecen en la siguiente tabla:

Categoría

Cifras oficiales del Gobierno de México

Estimaciones independientes (ONG)

Fallecidos

Del orden de 10 000

De 20 000 a 30 000

Personas sin vivienda

Del orden de 250 000

De 250 000 a 300 000

Población afectada en general

Del orden de 400 000

De 700 mil a un millón

Edificios colapsados

Del orden de 3 000

De 3 000 a 5 000

Edificios con daños graves

Del orden de 30 000

De 30 000 a 50 000

 

Dos días después, a las 7 horas de la tarde del 21 de septiembre, otro sismo proveniente de la misma región volvió a golpear la ciudad con una magnitud de 7.5 en la escala de Richter.

Conceptos y datos relevantes para la explicación desde la perspectiva de la física

Las magnitudes de la aceleración durante un sismo

Las aceleraciones provocadas por los sismos sobre los objetos localizados en la superficie terrestre se miden en submúltiplos de la aceleración de la gravedad g = 9.81 metros sobre segundo al cuadrado. Los acelerógrafos distribuidos en el Valle de México registraron aceleraciones muy variadas. Por ejemplo, en la zona sur del mismo, donde el suelo es muy duro porque está formado por camas de lava, la aceleración fue de a1 = 0.07g, que es 0.686 metros sobre segundo al cuadrado. En cambio, en el centro de la ciudad, se llegaron a registrar aceleraciones de a2 = 0.2g que corresponde a 1.96 metros sobre segundo al cuadrado.

Para comprender la magnitud de esta aceleración, podemos imaginar un automóvil sobre una carretera recta que arranca desde velocidad cero. Si se acelera con magnitud a2  alcanzará una velocidad de 100 kilómetros por hora en 14.17 segundos.

En sismología es usual reportar las aceleraciones en una unidad de medida llamada “gal” y corresponde a 1 centímetro sobre segundo al cuadrado. Convirtiendo al sistema internacional usado en física, 1 gal es igual a 0.01 m sobre segundo al cuadradado. Si se quiere reportar la aceleración g de la gravedad, se tiene que g = 980 gals.

Un terremoto moderado puede registrar aceleraciones de 100-500 gal y un sismo destructivo como el de Japón en el año 2011 superó los 2 000 gal en algunas zonas. Regresando a la comparación de 0.2g, resulta que ésta no puede ser superada por un joven que corre satisfactoriamente 100 metros. Para convencernos de que es así, necesitaríamos considerar la carrera de Usain Bolt, el corredor plusmarquista de Jamaica. Cuando impuso el récord de 9.58 segundos en 100 metros, en Berlín en el año 2009, logró una velocidad promedio de 10.44 metros por segundo, pero cuando había recorrido 52.5 metros llevaba una velocidad de 12.32 metros por segundo. De lo anterior resulta que la aceleración desarrollada fue de 2.35 metros sobre segundo al cuadrado, es decir 235 gal.

Las ondas P (longitudinales) y las ondas S (transversales)

Las ondas sísmicas son vibraciones del terreno similares a las que ocurren en sólidos y se clasifican con base en su orientación respecto a la dirección de propagación de la onda. Pueden ser longitudinales o transversales. Cuando ocurre un sismo, las ondas longitudinales son más rápidas y llegan primero al sitio en que se encuentra un poblado o una estación de monitoreo sísmico. Por esa razón les llaman ondas P (de primarias). Las ondas transversales son más lentas y reciben el nombre de ondas S, debido a que llegan después al sitio de registro (secundarias). Si se tienen datos suficientes, las diferencias entre los tiempos de llegada de ellas ayuda a hacer una estimación del sitio dónde se originó el sismo.

Cuando las ondas sísmicas alcanzan un conjunto de edificios, generan un movimiento horizontal que se siente como un balanceo horizontal de los edificios y las construcciones las resisten mejor. Cuando llegan las ondas P se inicia un movimiento hacia arriba y hacia abajo, pero con la característica de que son más destructivas debido a su mayor energía y porque las construcciones son menos resistentes a esos movimientos.

La figura que sigue muestra cómo son las vibraciones de ambos tipos de ondas:



La estructura de capas del suelo en la Ciudad de México

La información que se usa se basa en los resultados disponibles hace varias décadas y en la actualidad están superadas por los estudios especializados modernos. Por consiguiente, deben tomarse como una descripción cualitativa que resulta suficiente para el objetivo de esta contribución a mi blog.

Según Juan Manuel Moreno Murillo, en su artículo "The 1985 México Earthquake", la moderna Ciudad de México se asienta sobre el antiguo lecho del lago de Texcoco. Esto está compuesto por gruesas arcillas lacustres del Pleistoceno pertenecientes a la Formación Tacubaya. Esta arcilla es montmorillonita e illita que resultó de la ceniza volcánica depositada en el lago. El espesor de la arcilla varía a lo largo del lecho del lago, pero generalmente se encuentra entre 7 y 37 metros de profundidad. Después sigue la primera capa dura, que tiene de 1 a 3 metros de espesor y consiste principalmente de arena. A una profundidad de 50 metros se encuentra una segunda capa dura, formada también de arena. Después existe un complejo conglomerado de suelo que contiene muchos tamaños de granos, incluyendo rocas grandes, hasta llegar a la roca madre.

Las partes occidental y noroeste de la ciudad se encuentran fuera del antiguo límite del lago y están situadas sobre arenas y limos de la Formación Tarango, que es una secuencia geológica formada por depósitos sedimentarios de origen fluvial, intercalados con materiales volcánicos. Se encuentra en el área del valle y las laderas bajas de las montañas circundantes. Esta formación tiene un espesor de aproximadamente 600 metros.

Muchos edificios altos de la Ciudad de México, localizados en el lecho del lago, tienen cimientos hechos con pilotes que atraviesan las arcillas suaves de Tacubaya y están enterrados hasta las capas más compactas de la Formación Tarango. La parte sur de la ciudad descansa sobre flujos de lava basáltica, siendo los más recientes de hace aproximadamente 2400 años. A estos flujos de lava generalmente se les denomina “pedregal”.

La amplificación de las ondas

La amplificación de una onda es el aumento en la amplitud del movimiento de oscilación del suelo debido a las propiedades locales del terreno. Cuando una onda sísmica llega a un suelo blando crece la amplitud de la onda, dando la impresión a la población de que el movimiento es más poderoso, pero independientemente de las sensaciones personales, la oscilación es más agresiva contra las edificaciones de esa zona. En cambio los suelos duros, como la roca volcánica o los suelos compactos, no amplifican tanto las ondas, dando lugar a que el movimiento se perciba más débil. La Ciudad de México es un ejemplo de esta índole: la zona lacustre tiene suelo arcilloso y es muy blando, con lo cual se obtiene una amplificación más alta. Allí la vibración de los edificios es mayor en magnitud. En cambio, en la zona de transición hacia la zona más dura, localizada principalmente en el sur y el poniente de la ciudad, la amplificación es más moderada. En el otro extremo, en la zona sur y occidental, que tiene roca basáltica y suelos firmes las vibraciones sísmicas tienen una amplificación mucho menor.

Cuando la onda sísmica llega al Valle de México cruza montañas con suelo duro y al entrar en la zona blanda, donde se encuentra el centro de la ciudad, la amplitud de la oscilación crece como se muestra en la figura que sigue. En ésta, la zona de suelo duro corresponde a los valores negativos en la horizontal, mientras que la zona blanda se representa en los valores positivos la coordenada horizontal.

Gráfico

El contenido generado por IA puede ser incorrecto.

El reporte de Flores y colaboradores publicado en Nature en 1986

Flores y colaboradores prestaron atención al hecho de que el terremoto había causado daños con un patrón en el que la destrucción se concentró en la región del antiguo lago y muy especialmente donde estuvieron los canales que tenía la gran Tenochtitlán y que fueron rellenados por orden de los gobernantes españoles. En un mapa de daños se pudo notar que había zonas dañadas intercaladas con otras, muy cercanas, que habían quedado casi intactas. Notaron que se parecía a un fenómeno con ondas estacionarias, lo plantearon como hipótesis de trabajo para ser analizada y dedicaron su esfuerzo a resolver un problema similar. Es decir, buscaron un modelo simplificado que, a juicio de ellos, retuviera los aspectos más importantes del fenómeno real. Obviamente, tratando de conservar las propiedades que consideraron más importantes.

Estudiaron una superficie elástica cuya forma se asemejara lo más posible a la zona del antiguo lago, con las zonas duras como fronteras. Enseguida tomaron las ecuaciones de Navier–Stokes, que aunque fueron formuladas originalmente para fluidos. Suelen ser aprovechadas para describir materiales blandos, como geles, gelatinas, polímeros blandos o suspensiones coloidales. Realizaron varias aproximaciones para llevarlas a un problema más sencillo que consistió en dos ecuaciones de Poisson acopladas: una para las ondas P y otra para las ondas S.

Con la tecnología de la época pudieron resolver el problema mediante métodos numéricos y calcularon las deformaciones que podría tener la superficie gelatinosa.

El enfoque matemático pudo proporcionar vibraciones con varias frecuencias distintas, pero a partir de los datos sobre aceleraciones disponibles podían determinar que las ondas tenían una frecuencia dominante: una oscilación cada dos segundos. La siguiente figura está tomada del artículo de Flores y colaboradores. Presenta los valores de las aceleraciones en la componente vertical y el tiempo en la componente horizontal.

Imagen que contiene Gráfico

El contenido generado por IA puede ser incorrecto.

El tiempo que dura una oscilación se llama periodo y en este caso resultó sumamente relevante, pues de acuerdo a los especialistas de la ingeniería es esa la frecuencia de oscilación de los edificios de 5 hasta 15 pisos. Por eso ocurrió que, durante los dos minutos que duró el sismo, se presentó un fenómeno que en física llamamos resonancia. Es justo lo que ocurre cuando llevamos a un niño a pasear en un columpio. Lo empujamos suavemente para que la amplitud de la oscilación aumente hasta el punto donde la seguridad del infante no se pone en riesgo pero logramos que se sienta divertido.

En el caso de los edificios de la Ciudad de México ocurrió que las ondas sísmicas transmitieron energía de vibración a los edificios conforme transcurría el tiempo, haciendo que los límites de resistencia fueran superados.

El planteamiento matemático de Flores y colaboradores se llama en los métodos matemáticos de la física: un problema de eigenvalores. Cuando se resuelve ofrece varios números que pueden ser las frecuencias de vibración del sistema que estás tratando de resolver, y en su caso, tomaron aquella frecuencia que se acercara más a los datos del acelerograma.

El punto importante para aquella época fue que la distribución de la onda en el espacio de la gelatina pudo ser graficado para obtener un patrón de oscilación con valores máximos y mínimos. Una gráfica con la tecnología moderna, de un problema mucho más sencillo, es la siguiente:

Gráfico, Gráfico de burbujas

El contenido generado por IA puede ser incorrecto.

En ésta los colores amarillos muestran las zonas de oscilación más amplia y los colores oscuros las de oscilación menos amplia.

La tecnología de hace 40 años no podía ofrecer tanta capacidad ilustrativa. El reporte de Flores y colaboradores mostró la gráfica de la figura 3 de su artículo:

Forma

El contenido generado por IA puede ser incorrecto.

En la figura 3 del artículo que venimos tomando como base se muestran varias letras, que corresponden a los siguientes sitios:

Letra

Zona de la Ciudad de México

A

Tlatelolco

B

Tepito

C

El Zócalo

D

La Alameda

E

Cruce de Avenida Reforma con Insurgentes.

F

Centro Médico

G

Edificio de la SCT

 

Un mapa moderno con los sitios indicados se aprecia enseguida:

Mapa

El contenido generado por IA puede ser incorrecto.

Los sitios más afectados de la lista indicada en la tabla fueron Tlatelolco, Tepito y el Centro Médico, junto con el edificio de la SCT. El Zócalo y la Alameda son superficies planas, una con roca y la otra con árboles, de modo que allí no hubo daños, pero las zonas cercanas tuvieron daños graves. En el cruce de Reforma con Insurgentes hubo afectaciones pero no llegaron a tener la magnitud de daño de los sitios anteriores.

Durante los últimos cuarenta años el estudio de la sismología de la Ciudad de México ha progresado mucho, de modo que los resultados anteriores han sido plenamente superados. Especialmente porque el modelo utilizado tiene limitaciones importantes y porque los especialistas de la geofísica han desarrollado mucha más información, con más y mejores datos.

La utilidad del modelo que se comenta en esta contribución al blog muestra cómo puede trabajarse en física para acercarse a otras disciplinas científicas.

martes, 29 de julio de 2025

Cien años de la Mecánica Cuántica (el nacimiento de la mecánica matricial)

 

Imagen que contiene Interfaz de usuario gráfica

El contenido generado por IA puede ser incorrecto.


Hace cien años, el 29 de julio de 1925, se recibió en la revista Zeistchrift für Physics el primer artículo fundacional de la que vino a ser la formulación matricial de la mecánica cuántica.

Catorce días antes, en carta de Max Born a Albert Einstein, el primero le hacía saber acerca de varios trabajos que se estaban realizando en Gotinga, Alemania. Entre varias informaciones que se llevaban a cabo en ese año en ese centro de investigación, Born le escribió lo siguiente:

"El nuevo artículo de Heisenberg, que saldrá publicado pronto, resulta bastante enigmático, pero sin duda es correcto y profundo."

Imagen que contiene texto, periódico

El contenido generado por IA puede ser incorrecto.

Se trata de la carta #49 del volumen intitulado “Born–Einstein Letters, 1916–1955”

En dicho libro, Born agreta un extenso comentario al final de la carta.

“Heisenberg me dio su manuscrito el dia 11 o 12 de julio, pidiéndome que decidiera si se debería publicar o si yo podría hacer algún otro uso de él. No lo leí de inmediato porque estaba cansado y ciertamente lo leí antes de escribirle a Einstein..."

Student Secretariat 7308

Imagen oficial en el sitio de la universidad donde se aloja el Institut für Theoretische Physik


¿pero qué es la mecánica cuántica?

Es la teoría que permite describir los fenómenos que ocurren a nivel atómico y con partículas subatómicas. Permite calcular y predecir fenómenos asombrosos. Por ejemplo:

·         Es bien conocida la naturaleza discreta de la luz emitida por los gases. 


en lugar del espectro continuo de las lámparas y de diversos emisores de luz.

·         Antes del advenimiento de la teoría cuántica se separaba la física para estudiar cuerpos y partículas del estudio de las ondas, como el sonido, las olas y la luz, pero ahora los experimentos y razonamientos teórico-cuánticos obligaron a unir ambas descripciones en una sola. La razón es que la luz presenta las dos conductas, y como se descubrió después, lo mismo ocurre con los electrones. Imagen que contiene Texto

El contenido generado por IA puede ser incorrecto.

·         Otro fenómeno interesante es el paso de partículas a través de barreras de energía que de acuerdo a la teoría clásica no podrían superar y en su lugar rebotarían como lo hace una pelota de juguete contra una pared. Éste se llama efecto túnel y es de uso cotidiano en los circuitos integrados de la electrónica moderna. Diagrama

El contenido generado por IA puede ser incorrecto.

En el área industrial, los semiconductores, los instrumentos ópticos, la química industrial y farmacéutica, los materiales avanzados que recurren a la nanotecnología, la energía solar.

 

En un libro de la autoría de Heisenberg intitulado “Encuentros y conversaciones con Einstein y otros ensayos” publicado por Alianza Editorial, éste relata cómo surgió la idea de la famosa regla de multiplicación que posteriormente sería reconocida como una multiplicación de matrices y que daría la pauta para la formulación de la teoría cuántica con base en esta herramienta matemática.

Imagen que contiene interior, libro, caja, tabla

El contenido generado por IA puede ser incorrecto.


Heisenberg menciona un artículo de Max Born, publicado en el año 1924, en el que se usó por primera vez la frase “mecánica cuántica”. El artículo se llamó justamente “Sobre la mecánica cuántica” y en opinión de Heisenberg se establecía claramente la diferencia entre la mecánica clásica y la cuántica estribaba en sustituir las ecuaciones diferenciales de la teoría clásica por ecuaciones de diferencias de la mecánica cuántica. Por eso me encomendó la tarea de estudiar la teoría de cuaciones de fierencias, muy desarrollada ya por los matemáticos. Lo cual hice con enorme placer estético, pero no sin la sensación  de que los problemas físicos nunca podrían resolverse desde la matemática pura. El verdadero impedimento – que a la sazón ya intuíamos, pero no comprendíamos – era el hecho de que todavía hablábamos, y teníamos que hablar, de órbitas electrónicas; porque las trayectorias electrónicas eran visibles en la cámara de nieblas, así que en el interior del átomo también tenía que haber órbitas electrónicas.

Más adelante, Heisenberg explica que en el otoño invierno de 1924-1925 había estado trabajando en Copenhague con Kramers acerca de la teoría de dispersión de la luz en materiales. Escribió “En relación con esto habían aparecido en las fórmulas del efecto Raman ciertas expresiones matemáticas que en la teoría clásica eran productos de series de Fourier, mientras que en la teoría cuántica había que sustituirlas evidentemente por análogos productos de series que tenían que ver con las amplitudes teórico-cuánticas de las líneas de emisión y absorción. La ley de multiplicación de estas series parecía sencilla y convincente. Tras regresar a Gotinga en el semestre de verano de 1925, una de las primeras discusiones con Born nos llevó a la conclusión de que debería yo itentar adivinar las amplitudes e intensidades correctas del hidrógeno a partir de las correspondientes fórmulas (según el principio de correspondencia) de la teoría clásica.”

Para aprender un poco sobre las series de Fourier y las amplitudes que menciona Heisenberg, recomiendo ir al final de este escrito para consultar una explicación breve sobre el tema.

En lo referente a los recuerdos de Heisenberg que he citado, cabe aclarar que, si bien él se refería a un trabajo desarrollado por él y Kramers, en ese tiempo el efecto Raman no existía enunciado como tal. En ese trabajo Heisenberg y Kramers desarrollaron un modelo semi clásico de la dispersión de luz, de modo que sistemas físicos que eran iluminados con una frecuencia luminosa podían emitir en otras frecuencias diferentes. El efecto Raman fue enunciado hasta 1928 pero había sido predicho teóricamente por el físico austriaco Adolf Gustav Stephan Smekal, quien publicó un artículo en 1923 en la revista Naturwissenschaften. Allí analizaba la interacción de la luz con materiales. Utilizando conceptos cuánticos disponibles en la época, logró demostrar que podía haber dispersión de luz en la cual la frecuencia emitida podría cambiar. La teoría de Heisenberg y Kramers no explica directamente el efecto, pero contiene las herramientas conceptuales para su interpretación con base en la teoría cuántica.

Para enterarse de qué se trata el efecto Raman, he añadido al final de este relato una explicación al respecto.

Regresando al trabajo fundacional de Heisenberg, éste abordó el problema sugerido Max Born, pero lo encontró demasiado complicado, de modo que optó por un sistema físico más simple pero que no fuera demasiado trivial. Para ese propósito agregó un término extra a la ecuación del oscilador armónico.

Diagrama, Esquemático

El contenido generado por IA puede ser incorrecto.


Hacia fines de mayo, o principios de junio de 1925, Heisenberg adquirió una enfermedad que suele llamarse fiebre del heno, que es una rinitis alérgica causada por una reacción del organismo a sustancias como el polen, los ácaros del polvo o el moho. Sus síntomas suelen incluir secreción nasal, picazón en los ojos, congestión y estornudos frecuentes. Lo curioso es que no es cierto que producen fiebre. Para recuperarse le pidió permiso a Born para retirarse a la isla de Helgoland, que se encuentra en el mar del Norte, al occidente de la actual línea divisoria de Dinamarca con Alemania.

Mapa

El contenido generado por IA puede ser incorrecto.

A la izquierda un mapa de Alemania con sus fronteras actuales. Gotinga se marca en rojo. A la derecha la isla del Helgoland, marcada con un punto amarillo.


Lejos de campos llenos de flores, Heisenberg se recuperó y se dedicó a trabajar en el problema que tenía planteado. Sustituyó las coordenadas de posición por unas amplitudes que debían corresponder a las series de Fourier clásicas y escribió el término no lineal, x3, usando la regla de multiplicación que ya había utilizado junto con Kramers en sus estudios de teoría de dispersión de la luz

Diagrama

El contenido generado por IA puede ser incorrecto.


Sin embargo, al desechar las trayectorias se deshacía también de la regla de cuantización que había introducido Arnold Sommerfeld para generalizar la teoría de Niels Bohr para el átomo de hidrógeno, de modo que ahora tenía que encontrar una regla que ocupara su lugar.

Según Heisenberg, cuando le mostró el trabajo a Max Born, éste lo encontró interesante pero algo extraño porque el concepto de órbita había sido eliminado por completo. Aún así, decidió enviarlo a la revista Zeitschrift für Physik (Revista de Física), que había sido fundada en 1920 por la editorial Springer-Verlag y que después de una serie de fusiones desapareció para dar lugar a European Physical Journal C en los años 1990.

Entregado el trabajo, Heisenberg partió a atender invitaciones de Paul Ehrenfest y Ralph H. Fowler para dar conferencias en Holanda y en Inglaterra. Cuando regresó a Gotinga, se encontró con que su regla de multiplicación era un producto entre matrices. Una herramienta matemática desarrollada en el Reino Unido por James Joseph Sylvester hacia el año 1850 y  habían sido formalizadas por Arthur Cayley. Como se sabe ahora, en el siglo III antes de cristo algunos matemáticos chinos las habían inventado para trabajar con un método de solución de ecuaciones algebraicas, que es muy similar al ahora conocido como método de eliminación de Jordan. Lo interesante era que, inicialmente, Max Born había sido matemático, aprendió las matrices en Cambridge y después en Gotinga, donde además tenía la ventaja de estar en contacto con el gran matemático David Hilbert, y en menor medida, con Felix Klein.

Otro de los estudiantes de Max Born era Pascual Jordan, quien había colaborado con Robert Courant en la escritura de sus libros sobre Métodos Matemáticos de la Física, de modo que fueron justamente Born y Jordan quienes iniciaron la formalización de la nueva teoría cuántica por medio de matrices, dando origen a lo que ahora se llama formulación matricial de la mecánica cuántica. Heisenberg se incorporó algunos meses después, justo a tiempo para contribuir al artículo que da forma final a la formulación matricial de la teoría cuántica. En ocasiones se le llama “el artículo de los tres grandes” y fue publicado en el volumen 35 de la Zeitschrift für Physik. El facsímil del mismo establece que fue recibido el 16 de noviembre de 1925.

Foto en blanco y negro de un hombre con un traje de color negro

El contenido generado por IA puede ser incorrecto.


El viaje de Heisenberg no fue en vano. En Cambridge dictó una conferencia sobre su más reciente trabajo y dejó a Ralph H. Fowler una copia del artículo que contenía la regla de multiplicación. El joven Paul Dirac no estuvo presente, pero tan pronto como regresó recibió la copia del trabajo de Heisenberg con el encargo de que lo leyera. Así lo hizo, y de manera paralela, en los meses siguientes elaboró su propia teoría de la mecánica cuántica.

El trabajo de Dirac llevaba como título “The Fundamental Equations of Quantum Mechanics” y fue recibido por el Proceedings of the Royal Society A el 7 de noviembre de 1925. Él había trabajado con ideas similares a las de Heisenberg, pero lo había realizado de manera independiente y en total soledad. Establecía la conexión entre los conmutadores cuánticos y los corchetes de Poisson de la mecánica clásica.

 

Imagen en blanco y negro de una persona con los brazos cruzados

El contenido generado por IA puede ser incorrecto.


¿Qué son las series de Fourier de las que hablaba Heisenberg?

Éstas se basan en las ondas senoidales, que son las más elementales posibles como se aprecia en la figura que sigue:

Diagrama

El contenido generado por IA puede ser incorrecto.


La de la parte superior es media onda, la que le sigue es una onda completa y la que se ubica hasta abajo son cuatro ondas y media. Si hablamos de sonido, la superior es un sonido más grave, similar a las teclas de la izquierda en un piano, en tanto que la de abajo equivale a un sonido más agudo, como las teclas de la derecha en un piano.

Texto

El contenido generado por IA puede ser incorrecto.


En el caso de las guitarras los sonidos graves se producen usando la cuerda sexta y los agudos mediante la cuerda primera.

Cuando se emite un sonido musical se trata de una combinación de muchas ondas senoidales, pero cada una con distinto peso, que se representan mediante las magnitudes bn, que son las amplitudes a las que se refería Heisenberg, aunque el trataba con ondas de luz. Éstas varían de una onda a otra, como es el caso de la función f(x) que aparece en la fórmula del lado derecho.

Interfaz de usuario gráfica, Diagrama

El contenido generado por IA puede ser incorrecto.


¿qué es el efecto Raman?

Cuando vemos el amanecer en una zona desértica, como se aprecia en la siguiente fotografía tomada por Julio Saucedo recientemente:



tenemos que predominan tonalidades rojas. Esto se debe a un efecto de dispersión de la luz solar cuando atraviesa zonas de la atmósfera con una alta densidad de partículas de polvo extremadamente pequeñas. Se llama dispersión de Rayleigh y se caracteriza por el hecho de que la luz que llega a la partícula de polvo, o a una molécula, tiene la misma frecuencia al llegar y al salir, como se ve en la figura siguiente:



Ésta fue la primera que se estudió desde el siglo XIX y es la más intensa. Por esa razón fueron necesarios avances en la instrumentación lo suficientemente eficientes para encontrar que, además, aparecían otras frecuencias diferentes. Como se puede observar en la figura que sigue:

¿Qué es la espectroscopia Raman? | Soluciones analíticas

 


hay ondas luminosas con frecuencias diferentes. Eso es el efecto Raman.

Diagram Of The Raman Effect - Raman Effect Png, Transparent Png - kindpng


martes, 22 de julio de 2025

Algunos recuerdos personales y varios datos poco conocidos sobre el Apolo 11.

 

Algunos recuerdos personales y varios datos poco conocidos sobre el Apolo 11.

Imagen en blanco y negro

El contenido generado por IA puede ser incorrecto.

Imagen del Google Earth que muestra la parcela que sembrábamos. 

Ya se parece al tango Caminito, de Carlos Gardel.

Contexto familiar.

El 20 de julio de 1969 nos encontrábamos mi hermano, mi papá y yo, en una parcela de cinco hectáreas que se regaba (cuando llovía) con el agua de un pequeño arroyo que nacía cerca de un cerro llamado “El Zacatoso”, a pocos kilómetros de allí.

Vivíamos a 75 kilómetros al sur de Hermosillo, siguiendo la línea del ferrocarril. Era un caserío llamado Estación Moreno, que fue fundado porque el  tren movido con máquinas de vapor,necesitaba agua disponible cada 25 o 30 kilómetros aproximadamente. Se había aprovechado que a 150 metros de la estación  pasaba un arroyo con una cuenca más grande, y por consiguiente, con un manto acuífero aceptable para las necesidades de esas máquinas.

Desde nuestra casa hasta la parcela que nos prestaban había un kilómetro de distancia. La naturaleza era malvada con nosotros, pero no teníamos más opción que insistir en sembrar, a sabiendas de que el fracaso era siempre lo más probable.

Información básica sobre el sistema para volar de la Tierra a la Luna.

El método diseñado para alcanzar la Luna consistió en colocar todo el sistema en una órbita terrestre relativamente baja. A grandes rasgos, el proceso fue como sigue:

El despegue se inició el 16 de julio de 1969 y el APollo 11 tomó una órbita casi circular alrededor de la Tierra. Su perigeo era de 185 kilómetros y su apogeo de 190 kilómetros. Su periodo orbital era de 90 minutos.

Después de una órbita y media se encendió el tercer motor del sistema para cambiar la velocidad de 7.8 km/s a cerca de 10.8 km/s, tomando una nueva órbita que intersectaría con la Luna 76 horas después.

Una vez cerca de la Luna, el 19 de julio, se encendió el motor de la parte del sistema llamado "módulo de servicio" para cambiar la velocidad a 2.4 km/s respecto a la Luna. Los pasajeros eran tres astronautas.

Esta nueva órbita tenía forma de una elipse muy alargada, con 110 km de apolunio y sólo 15 kilómetros de perilunio.

A partir de este último punto se inició la maniobra conocida como "Powered Descent Initiation (PDI)", con sólo dos pasajeros a bordo del módulo lunar.

Algunos detalles desconocidos sobre el vuelo del Apolo 11.

El año 1969 lo recuerdo por la casi nula lluvia que tuvimos y porque ese año ocurrió el esperado vuelo que ahora estamos relatando con mucha brevedad. Era el Apolo 11, que hizo su alunizaje a la 1:17 de la tarde (hora de Hermosillo) y el contacto a pie del astronauta Neil Amstrong a las 7:56 del 20 de julio.

Los reportes históricos mencionan el 21 de julio, pero eso se debe a que el tiempo oficial de la misión era la hora del meridiano de Greenwich, conocido también como Tiempo Universal Coordinado.

En mi familia era tiempo de cierre de la siembra porque las lluvias solían iniciar a mediados de julio. Nos enteramos del alunizaje por las noticias del medio día y desde muy temprano nos habíamos llevado un radio de baterías que captaba las señales de onda larga de la amplitud modulada emitidas desde radiodifusoras comerciales en Guaymas, en Obregón y sobre todo desde Hermosillo. Así vivimos paso a paso la traducción al Español de la narración que se emitía en vivo. Era nuestro único medio disponible, pues nosotros no teníamos electricidad, y de hecho, en Estación Moreno nunca la hubo, a pesar de que a 300 metros de nuestra casa pasaba la línea de corriente que abastecía a Hermosillo. En las ciudades, en cambio, las familias se reunieron frente al televisor para presenciar el resultado de una hazaña tecnológica sin precedentes.

Reliving the Apollo 11 Moon Landing in Pictures - The New York Times

El módulo lunar en foto de la NASA. Publicada en el New York Times.


Lo que nunca nos contaron fue las vicisitudes que vivieron cuando intentaban colocar el módulo lunar en la superficie:

En primer lugar, la computadora a bordo de la pequeña nave falló, y en segundo, el sitio designado para el aterrizaje estaba lleno de rocas y tenía un cráter, lo cual dio lugar a que el piloto (Neil Amstrong) tuviera que manejar manualmente el módulo para encontrar visualmente una alternativa mientras el combustible disponible se acababa.

En el plan original no estaban esas acciones y la improvisación llevó a tener que gastar el combustible hasta un límite en el que ya no hubieran podido regresar si se tardaban 30 segundos más en encontrar un sitio adecuado para el alunizaje.

El primer sobresalto fue la sobrecarga de la computadora. Ésta era una máquina que se llamaba Apollo Guidance Computer y en 1969 era un gran avance tecnológico. Su memoria RAM era 2KB (kilobytes), su memoria fija (ROM) era 36 KB, la velocidad de su reloj era 1 megahertz, tenía una velocidad de casi 85 mil operaciones por segundo. Estaba en una caja de 24x30x12 centímetros y pesaba cerca de 30 kilogramos.

undefined

Foto encontrada en Wikipedia. A la izquierda la caja que albergaba la computadora que se aprecia a la derecha.

Podemos darnos una idea de lo limitado de ese sistema si comparamos con la capacidad de cómputo de un celular moderno (año 2025), éste tiene una memoria RAM que es 4 millones de veces superior, memoria de almacenamiento que ya no se mide en kilobytes, sino en gigabytes y su peso es de 150 a 200 gramos

Cuando faltaban 19 minutos para el alunizaje, se veía la superficie desde el módulo lunar (llamado Eagle) y se encontraban a 15 mil 200 metros de altura sobre la superficie con una velocidad horizontal de mil 600 metros por segundo, muy similar a la velocidad que alcanza una bala de cañón moderna capaz de perforar el blindaje de un tanque.

Cuando empezaron el descenso se iniciaron las alarmas de la computadora, que mandaba los códigos de error 1201 y 1202. Estos son:

1201: Desbordamiento del ejecutor - sin conjuntos principales.

1202: Desbordamiento del ejecutor - sin áreas VAC.

Se referían a que la memoria era insuficiente y a que no había operaciones prioritarias.

 El error 1201 comunicaba sobre una inesperada sobrecarga de la computadora y a que no podía asignar memoria de trabajo. Significaba que tenía tantas tareas simultáneas que ya no podía encontrar bloques disponibles de memoria para continuar procesando datos como normalmente lo hacía.

El error 1202 se refería también a la sobrecarga de la computadora y a que no podía asignar espacio temporal para cálculos. El problema era que estaba recibiendo más datos de los que podía procesar y estos provenían de un radar que estaba enviando información redundante.

Afortunadamente, la computadora tenía un sistema de prioridades en el que eliminaba tareas secundarias para dedicarse al procesamiento de las tareas críticas del alunizaje y ésta fue la razón por la que, a pesar de las alarmas, la misión pudo continuar hasta tener un alunizaje exitoso.

undefined

Interfase de la computadora a bordo del módulo lunar Eagle.

Casi sin necesidad de agregarle mucho drama, el diálogo entre los astronautas y el centro de control en Houston sería propio de una película de Hollywood.

La alarma del primer error fue dada por Edwin Eugene Aldrin (más conocido como Buzz Aldrin), quien era el segundo de a bordo como piloto del módulo y controlaba la computadora guía, proporcionaba listas de verificación, monitoreaba los parámetros de navegación y supervisaba las alarmas.

Neil Amstrong agregó: "Es un 1202".

Desde Houston se repitió el mismo mensaje y se hizo saber que estaban revisando la alarma.

Casi un minuto y medio después Amstrong repitió. "Alarma de programa. Es un 1201”.

Menos de 10 segundos después se hizo saber que la misión continuaría.

Los registros indican que la orden fue dada por el ingeniero controlador del vuelo. Se llamaba Steve Bales, un joven de 26 años nacido en Iowa, quien basado en la información proporcionada por su equipo de colaboradores, tomó la decisión de no abortar la misión y continuar.

undefined

Prototipo del módulo lógico de la computadora a bordo del Eagle.

Iniciaron la fase de desaceleración cuando faltaban 18 minutos para el alunizaje y 2 minutos después ajustaron la trayectoria.

Estaban a 10 kilómetros de la superficie cuando entraron de lleno en la fase de frenado.

A 5 kilómetros de altura iniciaron la fase de maniobra final, y cuando estaban a 2 kilómetros con 600 metros de la superficie, Amstrong empezó la búsqueda visual del lugar para el alunizaje. El sitio seleccionado de antemano no era útil.

A la altura de 1 kilómetro el vuelo pasó a ser completamente manual porque estaban evitando cráteres porque la zona era demasiado escarpada y no permitía el alunizaje.

A 400 metros de altura disminuyeron la velocidad vertical y a 300 metros se inició una fase de desplazamiento lateral.

Faltando 3 minutos para el alunizaje empezaron el descenso final desde una altura de 100 metros sobre la superficie lunar en una región que sí era lo suficientemente plana.

A 60 metros confirmaron que el sitio era seguro y a 20 metros de altura se realizó un movimiento vertical que se tomó 1 minuto hasta tocar la superficie. Habían gastado tanto combustible que sólo les quedaba un margen de 30 segundos más de operaciones de descenso. Un segundo más allá de eso implicaba que no tendrían propulsión suficiente para el regreso hacia la cápsula que orbitaba la Luna.

El resto de la historia es bien conocido. Hasta julio de 1969 Estados Unidos había gastado 25 mil 400 millones de dólares de la época, que tenían un poder adquisitivo 8.6 veces superior a la actual, lo cual nos dice que eran 220 mil millones de dólares del año 2025.

Puede ser una imagen de eclipse

Foto de Julio Saucedo. Tomada de su sitio de facebook.

Cuando Neil Amstrong bajó a tocar la superficie y pronunció su famosa frase, para nosotros hacía mucho que se había ocultado el Sol. En la parcela ya estábamos en la oscuridad y habíamos terminado de construir unos bordos pequeños para controlar el agua del arroyo (si llovía). La Luna estaba resplandeciente, casi llena, e iluminaba el camino de regreso. Caminamos con el radio de batería en una mano, y en la otra, una vara delgada y larga delante de nosotros para rascar el suelo y prevenir la aparición de alguna víbora de cascabel. Al día siguiente sería Luna llena.