A ver qué encuentra

La máquina del espectrómetro magnético Alfa (AMS)

 

El transbordador espacial Endeavour (Emprendimiento) despegó del Centro Espacial Kennedy a las 8:56 ET del lunes 16 de mayo en su último viaje (penúltimo del programa; el Atlantis cerrará la larga y mayormente exitosa serie en junio). Se dirige a la Estación Espacial Internacional, a la que llevará equipo y otros suministros. El equipo principal, la máquina AMS (por sus siglas del inglés: Alpha Magnetic Spectrometer), será instalado en la estación con el propósito de llevar a cabo experimentos que pudieran detectar antimateria y/o materia oscura. Se trata de un equipo de fabricación internacional a un costo de dos mil millones de dólares.

El tamaño del AMS comparado con nosotros

Un concepto de antimateria fue formulado ya a fines del siglo XIX. Luego de nociones más o menos nebulosas de Willam Hicks, el físico británico (nacido en Alemania) Arthur Schuster habló de antimateria y antiátomos en dos cartas de 1898 a la revista Nature, en las que llegó a visualizar la aniquilación de materia y antimateria al encontrarse. La formulación moderna es la de Paul Adrien Maurice Dirac, quien predijo en 1928 un antielectrón, una partícula idéntica al electrón en todas sus propiedades (masa, espín) salvo en su carga eléctrica, que sería en su caso positiva, o contraria a la del electrón. En 1932, Carl D. Anderson confirmó experimentalmente la predicción de Dirac y llamó positrones (por su carga eléctrica positiva) a las partículas que pudo observar. Más adelante, el concepto fue generalizado para postular que toda partícula subatómica tiene su correspondiente antipartícula, y así dar actualidad a la idea de una antimateria. Por su mayor parte, la materia observable en el universo es, justamente, materia; la cantidad de antimateria sería más bien minúscula, y esta asimetría en la distribución de materia y antimateria es uno de los acertijos no resueltos de la física. Cuando materia y antimateria se encuentran, se produce su aniquilación mutua, quedando en su lugar energía en forma de radiación electromagnética.

Lo de la materia oscura es algo enteramente distinto, y bastante más misterioso. De hecho, la materia oscura y la más abundante energía oscura son una sorpresa incómoda para la cosmología, pues entre ambas constituirían  más del 90% de la masa presente en el universo. Sólo 4,6% de ésta correspondería a materia cuya naturaleza es la que laboriosamente ha llegado a ser comprendida durante más de un siglo de física subatómica o de partículas. Lo que se creía la coronación de esta rama de la física, el Modelo Estándar propuesto por Murray Gell-Mann, es aplicable a menos de 5% de la masa-energía existente en el cosmos. En una digresión sobre las virtudes de un buen político, (El político virtuoso, 18 de octubre de 2007), propuse que esta situación de la física, la más matemática, la más rigurosa de las ciencias experimentales era una lección de modestia:

El primer día de este mes de octubre, la revista Newsweek reportaba sobre los problemas novísimos que ha traído a la Física la constatación de que el cosmos contiene inconmensurables cantidades de materia y energía “oscuras”, las que son muchísimo mayores que la materia y energía para las que existen teorías más o menos aceptables. Es decir, que ignoramos cómo es y cómo se comporta el 96% de la materia y la energía contenida en el universo. Nuestra ciencia más avanzada ha conseguido, a duras penas, articular explicación acerca del comportamiento de sólo el 4% del cosmos. Newsweek escogió el siguiente título para el artículo referido: “En la ‘energía oscura’, humildad cósmica”.

Y en Tiempo de incongruencia, la sección final de un trabajo de febrero de 1985, ya anticipaba:

Ese nuevo actor político, pues, requiere una valentía diferente a la que el actor político tradicional ha estimado necesaria. El actor político tradicional parte del principio de que debe exhibirse como un ser inerrante, como alguien que nunca se ha equivocado, pues sostiene que eso es exigencia de un pueblo que sólo valoraría la prepotencia. El nuevo actor político, en cambio, tiene la valentía y la honestidad intelectual de fundar sus cimientos sobre la realidad de la falibilidad humana. Por eso no teme a la crítica sino que la busca y la consagra.

Y es que en la misma matemática, por excelencia la reina del conocimiento humano, nos topamos con límites fundamentales. Así puse, en comentario sobre los famosos teoremas de Kurt Gödel (1931) de un trabajo de diciembre de 1990:

En términos generales, el límite göde­liano constituye una sobria advertencia, puesto que, si ni siquiera la “reina de las ciencias”, el conocimiento más frío y seguro está libre de inconsistencia, no puede admitirse de otras cien­cias—digamos de las políticas, por poner un caso—la pretensión que fue negada a la matemá­tica.

Claro, no abundan en el mundo, menos en Venezuela, los políticos modestos. LEA


El despegue del Endeavour, hoy a las 8:56 ET

_________

 

Share This:

Sinfonía alpina

<i> El lago Lemán y los Alpes, escenario del LHC de CERN</i>

El lago Lemán y los Alpes suizos, escenario del LHC de CERN

La energía lograda el martes 30 de marzo de 2010 en el Gran Colisionador de Hadrones de CERN, 7 TeV, es la combinación de las energías de dos haces a 3,5 TeV cada uno, enfrentados el uno contra el otro para establecer su colisión creadora.

Abajo se reproduce, tomados de YouTube, dos videos, el primero de los cuales muestra momentos de las fases finales de la instalación y calibración del colisionador. Son atisbos de la inmensidad y complejidad del dispositivo, cuya ingeniería de detalle y, por ende, su instalación, son prodigiosas, alucinantes, mind blogging. Es casi inconmensurable la cantidad de horas-hombre, de horas-inteligencia que llevaron al resonante éxito de CERN.

En un ambiente científico tan riguroso, no obstante, el intercambio libre e informal es intencionalmente estimulado, pues las ideas más innovadoras y brillantes pueden surgir de esa informalidad. Un caso especial es el previsto por los arquitectos del Stanford Research Institute, en Menlo Park, área de la Bahía de San Francisco que es homónima de la localización de Nueva Jersey donde Thomas Alva Edison (el Mago de Menlo Park), quizás el inventor más grande de la historia, estableciera sus famosos laboratorios. El diseño del cuartel general de SRI introdujo una rigidez insólita en el tránsito interno de sus investigadores: la única manera de acceder a su nutrida biblioteca desde cualquiera de sus oficinas y laboratorios es atravesar la cafetería del instituto. La intención es clara: maximizar los encuentros informales, no programados, de quienes ponen sus cerebros a la orden del progreso tecnológico.

En el segundo video de los mostrados acá—que registra el momento exacto del logro del récord energético para felicidad de un grupo de investigadores—, justamente al final, puede verse un refinamiento ulterior introducido por CERN: las mesas de su cafetería tienen una superficie vidriada en la que los científicos pueden dibujar diagramas y escribir ecuaciones, con ayuda de los marcadores dejados allí adrede, mientras comparten comida y bebida. La creatividad y la libertad son los mejores socios, y conviven paradójica y felizmente con la metódica disciplina de la ciencia. LEA

………

_________

En homenaje a los científicos, ingenieros y técnicos de CERN, la sección Eintritt in den Wald (Entrada en el bosque) de la Sinfonía Alpina (Eine Alpensinfonie) de Richard Strauss. Dirige Herbert Von Karajan a la Filarmónica de Berlín.

____________

Share This:

Física del siglo XX – (1)

physics

La física a finales del siglo XIX y principios del XX. La unificación de electricidad y magnetismo por obra de James Clerk Maxwell. Los primeros experimentos atómicos: Rutherford y Thomson. El experimento crucial de Michelson-Morley que hace tambalear los supuestos newtonianos de movimiento absoluto y tiempo absoluto. La “catástrofe violeta” y la hipótesis cuántica original de Max Planck en 1900.

La ciencia de la Física puede ser considerada como la más fundamental de las llamadas ciencias naturales o experimentales. Trata de la estructura y la dinámica de los entes materiales, sin tomar en cuenta—hasta cierto punto—la composición química o la actividad biológica de los mismos. Para la Mecánica, por ejemplo, una de sus ramas, da lo mismo que un móvil en consideración sea una piedra, un cuerpo animal o un planeta. (Con mayor rigor, la Física sí pone atención a la composición química en ciertos casos. Por ejemplo, la Astrofísica y la Cosmología deben explicar la evolución de una estrella en términos de las reacciones atómicas del hidrógeno, el helio, etcétera, y la del mismo universo apela a las proporciones observables de estos elementos para verificar la correspondencia de predicciones teóricas con los fenómenos que describen o explican. En el fondo, la división entre Física y Química es una decisión arbitraria, como lo es cualquier taxonomía de las ciencias. La existencia de ciencias híbridas o intermedias—físico-química, bioquímica, física matemática—es  evidencia de tal cosa).

El siglo XIX fue definitivamente un siglo crucial para la Física. Hasta éste, para empezar, la Física se identificaba con la Filosofía Natural. (Naturphilosophie. Aristóteles escribió su Física, y a pesar de que Newton acabó con el paradigma aristotélico en el campo, continuaba pensándose como filósofo. No es por otra cosa que su obra cimera, en la que expone la exitosa Teoría de la Gravitación Universal, se llamara Principia Mathematica Philosophiæ Naturalis. Del lado de la Biología, quienes investigaban los sistemas dotados de vida entendían hacer Historia Natural, aunque también entraban en ésta los estudios que hoy llamaríamos Geología). Es en el siglo XIX cuando se presenta la noción de “ciencia positiva” (Comte), o ciencia verificada por los hechos positivos o experimentales. El desarrollo de esta postura llevará al Empirismo y Positivismo Lógico, lo que incluyó las posiciones extremas de Ernst Mach, de gran influencia sobre Albert Einstein).[1]

Por otra parte, durante el siglo XIX predominó, sin ser retada o significativamente aumentada, la Mecánica de Newton[2], pero sí hubo grandes desarrollos en otros campos. Las investigaciones calóricas del siglo XVIII dieron paso a la Termodinámica, montada sobre la Teoría Cinética de los Gases y ayudada por la Estadística y, sobre todo, los fenómenos eléctricos y magnéticos encontraron una explicación general y rigurosa en la obra del físico escocés James Clerk Maxwell. (1831-1879).

En opinión de Einstein, la obra de Maxwell fue el aporte más profundo en Física desde la época de Newton, lo que se justificaba porque la propia obra einsteniana no habría sido posible sin la plataforma proporcionada por el escocés. Maxwell atacó varios problemas, incluyendo la teoría cinética de los gases, la percepción del color y hasta la “invención” de la fotografía a color. (En realidad, la obtención de tres placas convencionales de un mismo objeto fotografiado con tres filtros de distinto color. La proyección simultánea de las placas restituía una razonable reproducción a color). Su obra fundamental, sin embargo, trató del fenómeno del electromagnetismo, al que proporcionó una completa formulación matemática.

Antes de Maxwell, el gran experimentalista inglés Michael Faraday—a quien se debe el inicio de la ingeniería eléctrica sin ser él mismo muy ducho en matemáticas—había demostrado la existencia de una relación entre la luz  y el magnetismo. Aplicando un campo magnético a un haz de luz polarizada—que oscila en un solo plano—logró comprobar que podía rotar el plano de polarización. Igualmente había descubierto el fenómeno de inducción eléctrica: la generación de electricidad en un conductor que se moviera dentro de un campo magnético. (De hecho, se debe a Faraday la invención de un generador eléctrico o dínamo, basado en el fenómeno de inducción).

A pesar de sus limitaciones—conocía el álgebra elemental y algo de trigonometría—Faraday logró formular una ecuación que Maxwell rescataría más adelante, y postuló la existencia de “líneas de flujo” magnético, introduciendo de este modo la noción de “campo magnético”: la región del espacio en la que se manifiestan alteraciones generadas por los imanes. (La noción de campo se aplica igualmente a los fenómenos eléctricos, y más generalmente existe una “teoría de campos”, esencialmente matemática). La “Ley de Faraday” establece que un campo magnético que varía en el tiempo genera una fuerza electromotriz que varía proporcionalmente. La expresión precisa requiere cálculo integral. La forma diferencial de la ecuación es la siguiente:

Ecuación 1

En ella se expresa que la fuerza electromotriz E es proporcional al cociente del incremento de la densidad de flujo magnético B entre el incremento de tiempo t. Esta Ley de Faraday se convirtió en una de las ecuaciones de Maxwell.

Lo que se conoce hoy como las ecuaciones de Maxwell es un conjunto de cuatro fórmulas esenciales, aunque al inicio (1864) el físico presentó un conjunto de veinte ecuaciones[3]. Las restantes son concebidas ahora como fórmulas auxiliares de las cuatro principales. Éstas son: la relación cuantitativa de un campo eléctrico con la carga eléctrica que lo produce (electricidad estática); la relación cuantitativa entre un campo o corriente eléctrica variable y el campo magnético que producen; el fenómeno inverso, es decir, la relación cuantitativa entre un campo magnético variable y el campo o corriente eléctrica que produce (Ley de Faraday); la formulación cuantitativa de por qué no se observa experimentalmente un “monopolo” magnético. (Es posible observar una carga eléctrica positiva en ausencia de cargas negativas, así como lo inverso, pero hasta ahora no se ha observado un cuerpo que manifieste un polo norte magnético sin estar acompañado de un polo sur. Todo imán posee ambos polos).

Tan sólo por presentarlas visualmente—gente como Einstein o Dirac apreciaría la estética “simple” de las fórmulas—he aquí las cuatro ecuaciones en su forma diferencial (en cálculo integral se escriben diferentemente) y en el orden expuesto:

Ecuaciones

En verdad, cada una de las fórmulas corresponde a leyes propuestas por científicos anteriores a Maxwell. Además de la encontrada por Faraday (la tercera), fue Gauss quien formulara la primera y la cuarta (Ley de Gauss del magnetismo o ausencia de monopolos), mientras que la segunda es la llamada Ley de Ampère. (Cada uno de estos investigadores fue inmortalizado en la escogencia de unidades del campo electromagnético: existen el maxwell, el faradio, el gauss y el amperio, así como el ohmnio—por Ohm—el vatio—por Watt—y el voltio por el pionero Alessandro Volta, inventor de la pila eléctrica. Galvani, antecesor de éste que demostró la interacción de electricidad y tejido muscular, se perpetúa en el verbo galvanizar).

Corresponde a Maxwell, por tanto, no el descubrimiento de los fenómenos cuantificados en esas cuatro ecuaciones, sino la demostración de su íntima trabazón y dependencia recíproca, así como su formulación matemática rigurosa.

Apoyado de nuevo en una intuición de Faraday—la interacción de luz y magnetismo a partir de sus experimentos con luz polarizada[4]—Maxwell daría entonces un salto crucial: la postulación de que la luz es, en realidad, radiación de carácter electromagnético, y su idea o predicción de la propagación de ondas electromagnéticas en el espacio.

Nos resulta hoy tan familiar entender la luz como un segmento del espectro electromagnético, que se nos dificulta visualizar la magnitud del logro conceptual de Maxwell. Faraday, por caso, sabía que la luz y el magnetismo interactuaban, tal como lo hacían el magnetismo y la electricidad. Pero para él se trataba de fenómenos separados, por más que se influyesen mutuamente. La genialidad de Maxwell, así como su capacidad matemática, permitió la generalización y la primera gran “unificación” de la Física: electricidad y magnetismo, antaño entendidos como fenómenos distintos, eran las dos caras de una misma moneda, una misma cosa, y la luz era electromagnetismo, desde su porción calórica, infrarroja, hasta su porción más energética, ultravioleta[5]. De hecho, Maxwell fue capaz de concebir ondas electromagnéticas más allá de los “rayos” ultravioleta.

Pero no sólo predijo la propagación de esas ondas por el espacio, sino que extrajo de sus ecuaciones una magnitud para la velocidad de esa propagación. Así la calculó en 310.400 kilómetros por segundo. La coincidencia de este valor con la medición más reciente de la velocidad de la luz[6] llevó a Maxwell a la siguiente declaración: “Esta velocidad es tan próxima a la de la luz, que parece que tenemos fuertes razones para concluir que la luz misma (incluyendo el calor radiante, y cualquiera otra radiación) es una perturbación electromagnética en forma de ondas que se propagan a través del campo electromagnético de acuerdo con las leyes electromagnéticas”.

No mucho después de la muerte de Maxwell se obtendría confirmación experimental de su genial conjetura: Hertz demostraría la transmisión de las ondas previstas por Maxwell—por un tiempo se las llamó “ondas hertzianas”—en 1888, transmitiéndolas a una frecuencia[7] de la banda de 4 metros que hoy conocemos como UHF. (Ultra High Frequency). Este resultado, al que el propio Hertz no le concedía utilidad práctica alguna—“sólo sirve este experimento para probar que el maestro Maxwell tenía razón”—llevaría a la invención de la radio por el emprendedor italiano Guillermo Marconi en 1895[8]. (Precedido, en realidad, por el serbio Nikola Tesla).

Para las concepciones físicas del siglo XIX, si se hablaba de ondas se implicaba la existencia de alguna materia o medio que oscilara. Las ondas del mar requieren agua, las ondas sonoras o acústicas que el aire se expanda y contraiga, etcétera. Los físicos del siglo XIX creían en la existencia de una hipotética sustancia, el éter, que convenía postular como única entidad que permitiría un marco de referencia absoluto, requerido por los conceptos newtonianos de espacio y tiempo absolutos. Al presunto medio se atribuyó entonces, a partir de Maxwell, la propiedad de oscilar como consecuencia de las perturbaciones electromagnéticas, y se le llamó “éter luminífero”. (Que lleva luz).

El hipotético éter, sin embargo, debía tener propiedades que eran mutuamente contradictorias—gran rigidez junto con gran elasticidad y permeabilidad—y el intento por comprobar su existencia, como veremos, condujo a un resultado inesperado y en principio nada bienvenido: la súbita obsolescencia—conceptual, pero no práctica—de la física de Isaac Newton.

………

Ernest Rutherford (1871-1937), junto con su grupo de asistentes, se convirtió en el pionero o padre de la física nuclear. Este neozelandés mudado primero a Canadá y luego a Inglaterra, concibió y dirigió el experimento crucial que demostraría la existencia del núcleo atómico y descubriría una de sus partículas fundamentales: el protón. Antes, sin embargo, uno de los maestros de Rutherford, el físico inglés J. J. (Joseph John) Thomson, descubriría el electrón y formularía el primer modelo de la estructura del átomo.

Pero todavía antes, hacia 1805, el químico inglés John Dalton formularía la primera versión consistente de una teoría atómica en tiempos modernos a fuerza de puro razonamiento. Después de desarrollar su teoría, Dalton la expuso en una obra de 1808 que llevaba el nombre, característico de la episteme de la época, de New System of Chemical Philosophy.

Lo que Dalton postulaba era que cada elemento natural se componía en realidad de pequeñas partículas—“átomos”, porque no podían dividirse—todas idénticas entre sí, pero diferentes a las que constituían elementos diferentes. Estos átomos se combinaban para formar compuestos, y cada compuesto tenía siempre la misma composición. Ignorante de la noción posterior de “valencia”, creyó sin embargo que los compuestos binarios (formados por dos elementos) se componían de un solo átomo de un elemento y uno solo del otro. (Por ejemplo, que el agua se constituía con un átomo de hidrógeno y uno de oxígeno). Esta idea era, en el fondo, la única errónea en su teoría, pero como no correspondía con los datos aportados por los análisis químicos cuantitativos, se convirtió en el principal obstáculo para la aceptación más generalizada de su teoría atómica. (A pesar de esto, las más grandes mentes de la Química de la época—Lavoisier, notablemente—se convirtieron a la doctrina atomista).

Así las cosas, hizo su entrada en la escena J. J. Thomson. En una serie de experimentos con rayos catódicos—que emanan del cátodo en un tubo sellado al vacío, por el que se fuerza una corriente eléctrica entre dos electrodos metálicos—llegó a la conclusión de que tales rayos eran realmente haces de partículas de masa mucho menor que la de los átomos constituyentes de los electrodos, y que portaba cada una carga eléctrica negativa. Fue a estas partículas a las que se llamó electrones, luego de que Thomson anunciara sus resultados y su explicación en 1897. El mismo Thomson los llamó “corpúsculos”; de lo que sí estaba consciente era de que había hallado partículas de escala subatómica[9].

Comoquiera, sin embargo, que los átomos mismos eran eléctricamente neutros, la única explicación para este hecho parecía ser que los electrones eran compensados, en el interior del átomo, por una carga positiva equivalente. ¿Dónde estaba? Thomson imaginó que la estructura del átomo se asemejaba a un budín de ciruelas, donde los electrones serían las frutas nadando en crema, la que llevaría la carga positiva. (Plum-pudding model, 1904). No veía Thomson que la carga positiva estaría asimismo en partículas; simplemente la sopa de crema sería mayor para aumentar la carga positiva compensatoria cuando crecía el número de electrones. La vigencia del modelo no duraría mucho; su alumno Rutherford se encargaría de suprimirlo.

Rutherford, en verdad, contribuyó con más de un concepto y hallazgo a la naciente Física Nuclear. Por ejemplo, se hizo un estudioso de la radioactividad, la radiación espontánea de ciertos materiales o elementos. Una sustancia como el radio emite tres clases de radiación, dos de las cuales están constituidas por partículas con carga eléctrica y una es de carácter electromagnético. Fue Rutherford quien las bautizara radiación alfa (de carga positiva; núcleos de átomos de helio formados, se sabe hoy, por dos protones y dos neutrones), radiación beta (electrones, de carga negativa) y radiación gama (electromagnética, más energética que los ya descubiertos rayos X).

También fue quien observara que una muestra de material radioactivo tomaba siembre el mismo tiempo para reducir su radioactividad a la mitad, dando origen al concepto de vida media (half life), que pronto iba a ser empleado en métodos de fechar geológica, paleontológica y arqueológicamente.

Pero fue el “experimento de la hoja de oro”, y las conclusiones que de él extrajo, la cumbre de su obra. Bajo su dirección, Geiger y Marsden, sus asistentes en la Universidad de Manchester, bombardearon una delgada lámina de oro[10] (luego otros elementos) con partículas alfa, encontrando que la mayoría de las veces estos proyectiles atravesaban el material imperturbados o con una pequeña desviación de su trayectoria, pero ocasionalmente rebotaban en ángulos incluso mayores de 90º.

De este histórico hallazgo de 1909, Rutherford dedujo que la carga eléctrica positiva del átomo no estaba dispersa en una “nube” o crema que rodeaba a los electrones, como pensaba Thomson, sino que, por lo contrario, estaba concentrada en una reducida parte central del átomo, a la que llamó núcleo. (El tamaño de un núcleo al de una pelota de béisbol es como el tamaño del átomo al de un estadio).

También derivó de la observación un nuevo modelo de átomo: similar a un sistema solar donde el núcleo sería el sol de unos planetas-electrones orbitando a su alrededor, retenidos en la relativa proximidad del núcleo por atracción electrostática de sus cargas de distinto signo. (Este modelo planetario tampoco se sostendría mucho tiempo, y fue sustituido por el adelantado por Niels Bohr, el próximo líder de la física nuclear. En sus conversaciones con Bohr, Rutherford conjeturó la existencia del neutrón, que no sería descubierto hasta 1932 por James Chadwick).

………

Después de la obra de Maxwell la actividad en materia de la velocidad de la luz y su hipotético medio de propagación continuó febrilmente. En 1887 dos investigadores norteamericanos, Albert Michelson y Edward Morley, condujeron el experimento “fracasado” (de resultado nulo) más ilustre de la historia de la ciencia.

Como hemos visto, una de las consecuencias de la noción de movimiento absoluto en la física de Newton era la noción del “éter”, hipotética sustancia que permitiría una referencia fija para medir contra ella los movimientos aparentes de los astros, todos—incluido el de la misma Tierra—obviamente relativos. Este planeta, como cualquier otro cuerpo celeste, debía sentir los efectos de un “viento del éter” al trasladarse en el seno de tal sustancia, del mismo modo que en un paraje sin ninguna brisa uno siente viento en la cara si se desplaza en un automóvil y saca el rostro afuera por la ventanilla. En el caso del éter, dado que se le postulaba igualmente como el medio en el que la luz era transmitida, el viento del éter se manifestaría en variaciones de la velocidad de la luz.

Según lo implicado por la Philosophiæ Naturalis de Newton, uno debía medir una velocidad superior si la Tierra se acercaba a la fuente luminosa y una menor si se alejaba de ella.

Michelson (físico germano-americano) y Morley (químico estadounidense) se propusieron realizar un cuidadoso experimento con la idea de detectar el famoso viento del éter y lo llevaron a cabo en 1887. Para esto se valieron de un interferómetro, un instrumento capaz de detectar la más mínima diferencia de velocidad entre haces de luz tendidos sobre direcciones diferentes. (En esencia un conjunto de espejos y semiespejos separaba un mismo haz en dos diferentes que recorrían exactamente la misma distancia pero en trayectorias que en un segmento eran perpendiculares entre sí).

Michelson

Diagrama del aparato de Michelson y Morley

Michelson y Morley no lograron detectar ningún viento del éter.[11] El resultado nulo amenazaba con socavar irremisiblemente las bases fundamentales del edificio newtoniano. Así escribieron: “Si ahora fuese legítimo concluir del presente trabajo que el éter está en reposo con respecto a la superficie de la Tierra, de acuerdo con Lorentz no podría haber un potencial de velocidad y su propia teoría fracasa también”.

De inmediato se suscitó una carrera por explicar teóricamente el resultado nulo sin abandonar la idea del éter. Una interpretación adecuada tendría que esperar por el año de 1905, cuando Albert Einstein ofreciera una solución radical.

………

Desde la época de Newton se estudiaba sistemáticamente el espectro luminoso, presente en el fenómeno del arco iris y generado por prismas y cristales. Más tarde se pensó que el espectro representaba un continuum de radiación electromagnética de energía o frecuencia crecientes. La radiación calórica infrarroja tenía menor energía y oscilaba con una frecuencia menor. (Su longitud de onda era más larga). Al otro extremo, la radiación ultravioleta exhibía mayor frecuencia, que aumentaba, en apariencia continuamente, desde el rojo en dirección al violeta.

A mediados del siglo XIX Gustav Kirchoff inventó (en conjunto con Bunsen, en 1859) el espectroscopio—un uso instrumental de un prisma junto con oculares que permitían ver el espectro generado por la incandescencia de los distintos elementos químicos. Cada uno arroja un espectro diferente, su huella digital, por decirlo así, pues cada elemento absorbe luz a distintas frecuencias. La invención resultó ser una poderosa herramienta analítica, pues permitía determinar la composición química de cuerpos iluminados distantes, como en el caso del Sol. En el espectro del Sol y las estrellas fue posible comprobar la existencia de sustancias presentes en la Tierra, con lo que se determinó que una sola química gobernaba el universo. Más aún, el elemento helio fue descubierto en el Sol (1868) antes que en la Tierra; de allí su nombre, el del dios griego representado por nuestra más próxima estrella.

Kirchoff logró establecer, por otra parte, que si un elemento, al calentarse, emite luz de ciertas longitudes de onda, al enfriarse absorbe luz que tiene precisamente esas mismas longitudes de onda. Ahora bien, si hubiera un objeto que absorbiese toda la luz que recibiera, por la misma razón irradiaría a todas las frecuencias. Esto se llamó un “cuerpo negro”, pues al absorber todas las frecuencias no reflejaría ninguna y se vería negro.

El concepto de cuerpo negro suscitó gran interés, y los físicos se dispusieron a estudiar la radiación de un cuerpo así. (Black-body radiation). Como las longitudes de onda son más amplias hacia el rojo que hacia el violeta, hay muchas más longitudes de onda—“caben” más—en el extremo ultravioleta que en todo el espectro visible, y si un cuerpo negro irradia a todas las frecuencias, entonces debiera irradiar más luz en las porciones superiores del espectro que en las más bajas. A fines del siglo XIX el inglés Lord Rayleigh desarrolló una ecuación que parecía corresponder con esa predicción: el cuerpo negro debía emitir violentamente la mayor parte de su luz irradiada a las longitudes de onda superiores de la región violeta y ultravioleta.

Como esta “catástrofe violeta” no había sido observada jamás, se argumentaba que ningún cuerpo absorbía realmente toda la luz incidente. Ninguno era un cuerpo negro. Habría que inventar uno para experimentar con él. El honor del invento cupo al físico alemán Wilhelm Wien.

Wien se dio cuenta de que el interior de una caja provista de un pequeño orificio actuaría como un absorbedor perfecto, pues la luz que entrase por el agujero sería absorbida al incidir en la superficie interna, de una vez, o tarde o temprano al reflejarse varias veces, rebotando dentro de la cámara hasta ser absorbida. En consecuencia, la luz que saliera por el orificio al calentar la cámara, equivaldría a la radiación de un cuerpo negro.

Cavity

Cavidad que funciona como "hueco negro"

Al efectuar el calentamiento, no obstante, el fenómeno previsto no se presentó. No fue posible causar la catástrofe violeta. En efecto, la radiación se hacía más intensa con mayores frecuencias (menores longitudes de onda), pero siempre se alcanzaba una longitud de onda específica en la que la radiación era máxima, y después de ese punto la radiación decrecía. A medida que se calentaba el dispositivo a temperaturas mayores, la longitud de onda de radiación máxima era más corta, aunque en ningún momento se obtenía la temida catástrofe. Wien no pudo hallar alguna ecuación que se ajustara a los resultados experimentales. La solución sería proporcionada por su compatriota, Max Planck, quien atacó el asunto en 1899 y presentó su explicación justo cuando concluía el siglo, a fines de 1900. Para esto echó mano de una conjetura revolucionaria.

Como hemos visto, a partir de Dalton comenzó a aceptarse que la materia era corpuscular, granular, discontinua. Pero se creía que la energía era una magnitud continua, infinitamente divisible en cantidades cada vez menores. La brillante hipótesis de Planck consistía en afirmar que la energía también era irradiada en unidades discretas. Esto es, que estos quanta—plural de quantum—tenían un tamaño mínimo o unitario, por debajo del cual no era posible conseguir cantidades menores de energía.

En un paso ulterior, Planck concibió que la magnitud de los cuantos de energía variaba proporcionalmente con la longitud de onda: mientras menor era la longitud de onda (mayor frecuencia) el cuanto era mayor. Esta última hipótesis permitió una fácil explicación de la radiación observada del cuerpo negro. Es de Isaac Asimov la siguiente descripción analógica:

“Al cuerpo negro le sería fácil reunir suficiente energía para formar cuantos pequeños; por eso, radiaría fácilmente longitudes de onda largas, que son las que requieren cuantos más modestos. Las longitudes de onda cortas, por el contrario, no podrían ser radiadas a menos que se acumularan cuantos mayores, que serían más difíciles de reunir.

Es como si nos encontráramos en unos grandes almacenes y nos dijeran que podíamos comprar lo que quisiéramos, con tal de pagar en monedas. Comprar un artículo de una peseta no plantearía problemas; pero en cambio sería gravoso (en los dos sentidos de la palabra) adquirir algo por valor de diez mil pesetas, porque lo más probable es que no pudiéramos acarrear el peso de tantas monedas… Es cierto que calentando la cámara del cuerpo negro a temperaturas más altas habría más energía disponible, con lo cual se podrían producir longitudes de onda más cortas, compuestas de cuantos más grandes. Pero, aun así, siempre habría una longitud de onda que fuese demasiado corta, incluso para un cuerpo negro fuertemente calentado; y entonces sería imposible emitir los grandes cuantos que eran necesarios. Por consiguiente, nunca podría haber una catástrofe violeta, que sería como decir que siempre habría un artículo demasiado caro para la cantidad de monedas que pudiésemos acarrear”.

La energía de un quantum en particular se obtiene multiplicando su frecuencia por la constante h, o constante de Planck—una magnitud expresada en unidades de “acción” (ergios o joules por segundo)—la que a partir de entonces aparecería en casi toda ecuación de la física “cuántica” que se desarrollaría en el siglo XX. Ésta es la simplísima y poderosa relación de Planck:

Einstein

El valor aceptado para la constante de Planck , una de las constantes más fundamentales del universo, es de 6,6262 x 10—27 ergios por segundo. Se trata de una magnitud verdaderamente muy pequeña, lo que explica por qué las variaciones de energía se interpretaban como las de una magnitud continua. (La constante de Planck se consigue frecuentemente en su forma “reducida”, la que se obtiene al dividir h por 2π).

Nada sería igual en la Física después de Max Planck. Tituló a su trabajo original “Sobre la ley de la distribución de la energía en el espectro normal”. Fue publicado en el volumen 4 de Annalen der Physik, en 1901. Cuatro años más tarde la prestigiosa revista publicaría cuatro revolucionarios trabajos de un revisor de patentes en Berna, el físico alemán de 26 años que respondía al nombre de Albert Einstein. LEA


[1] Augusto Comte, fundador de la Sociología, dio cuenta de esta división entre ciencia positiva y Filosofía o Metafísica en su Course de philosophie positive, que a su vez tenía por científico sólo lo que pudiera ser sostenido con base en la experiencia—ciencia positiva—y lo que fuese elaborado dentro de las ciencias formales como la Matemática y la Lógica. Más adelante, el Empirio-Criticismo, el Positivismo Lógico y el Empirismo Lógico fueron variantes o fases del Positivismo original. La concepción llega en el siglo XX a constituir la Filosofía Analítica y Lingüística.

[2] William Hamilton, en 1833, presentó una reformulación de la mecánica newtoniana que en cierto sentido es continuación de otra presentación, postulada por Joseph Louis Lagrange a fines del siglo XVIII. (1788, o un año antes de la Toma de la Bastilla). En esencia la mecánica lagrangiana y la hamiltoniana sustituían las matemáticas empleadas por Newton con otras de orden superior—lo que simplificó los cálculos de muchos problemas—pero no introdujeron contradicción alguna de Newton.

[3] Se las puede presentar también en forma de vectores (cálculo vectorial), y en este caso destaca la simetría de los campos eléctrico y magnético, o en una notación presentada posteriormente por el propio Maxwell en términos de “cuaternios”, la que no prosperó.

[4] Un haz de luz común oscila en muchos planos perpendiculares a su sentido de propagación. La luz polarizada está restringida a un solo plano, y ella fue posible mediante el uso de cristales especiales, como el famoso “prisma de Nicole”, empleado en espectroscopios. La invención por Edwin Land de una película que polariza la luz, condujo a la patente de Polaroid® y a la fabricación—entre otras cosas—de lentes de sol que funcionan suprimiendo la transmisión de luz salvo en un plano, con lo que se reduce considerablemente la incidencia lumínica sobre los ojos.

[5] La radiación infrarroja fue asociada con la luz casi de inmediato, a partir de la experiencia común de un metal que se calienta al fuego (que despide luz) hasta que se pone “al rojo vivo” y luego “rojo blanco” con más calor. La radiación ultravioleta fue demostrada por Ritter en 1801. Para su época se creía que la luz se componía de tres elementos: un componente calórico y oxidante (infrarrojo), uno iluminante (el espectro del arco iris), y uno químico o reductor (ultravioleta).

[6] En 1849 Fizeau había reportado la velocidad de la luz a 313.000 kilómetros por segundo. Hoy en día—“por definición”—se la computa en 299.792 kilómetros por segundo. (En 1983 el metro fue definido como la distancia cubierta por la luz—en el vacío—en 1/299792458 de segundo).

[7] La unidad de frecuencia de las ondas electromagnéticas, de un “ciclo” por segundo, fue bautizada en 1930 como herzio (hertz, en inglés) en honor de Heinrich Rudolf Hertz.

[8] En 1901, el primer año del siglo XX, Marconi tuvo aparentemente éxito en transmisión transatlántica de código Morse desde Cornualles, Inglaterra, a Terranova. (Este hecho se disputa). El 12 de octubre de 1931 Getulio Vargas inauguraba en el monte Corcovado, en Río de Janeiro, la monumental estatua de Cristo Redentor, que se suponía iba a ser iluminada por una señal transmitida por Marconi desde Nápoles. Las condiciones atmosféricas no lo permitieron y el monumento debió ser iluminado manualmente.

[9] El nombre electrón había sido propuesto años antes por George Johnstone Stoney para referirse a la unidad de carga eléctrica. En griego la palabra significa ámbar, sustancia que a la frotación adquiere carga eléctrica.

[10] El átomo de oro tiene una masa de 197 unidades atómicas, mientras que una partícula alfa tiene una de 4 unidades. Las balas eran bastante más pequeñas que el blanco.

[11] En realidad, pequeñas discrepancias fueron encontradas, pero tan inferiores a lo predicho por la teoría, que podían ser perfectamente atribuidas a “error” experimental. El interferómetro, que mediría la diferencia por la formación de “anillos de interferencia” en caso de que la velocidad de los dos haces discrepara significativamente, fue montado sobre un bloque de mármol que flotaba en un estanque de mercurio sito en un sótano, a fin de minimizar el efecto de vibraciones. El mercurio permitía rotar el aparato sin dificultad. (Michelson hizo por su cuenta el experimento en 1881, antes de hacerlo con Morley en 1887 con mucha más precisión).

Share This:

Física del siglo XX – (2)

physics

La contracción de Lorentz-FitzGerald: un intento por salvar a Newton. El annus mirabilis de 1905. Albert Einstein y la Teoría Especial de la Relatividad. (Sobre la electrodinámica de los cuerpos en movimiento, en Annalen der Physik). Su interpretación cuántica del efecto fotoeléctrico.

___________________________

Isaac Newton no ignoraba que los movimientos aparentes de los astros eran relativos. Esto era obvio de móviles terrestres, pero también de la Luna y los planetas conocidos en el sistema solar. Hasta el Sol se movía. ¿Cómo sería posible encontrar un marco de referencia absoluto (en reposo) a partir del cual se pudiera medir un movimiento absoluto y un tiempo absoluto, requeridos por los axiomas de la mecánica newtoniana?

El “éter luminífero”, presunto portador de las ondas electromagnéticas de Maxwell, era el único candidato disponible, pero el experimento de Michelson-Morley determinó que ciertos efectos (viento del éter) de esta entidad hipotética no eran detectables. Parecía que el edificio newtoniano estaba a punto de derrumbarse por colapso de sus bases.

En socorro de Newton, un físico irlandés, George Francis FitzGerald, y uno holandés, Hendrik Antoon Lorentz, propusieron independientemente la existencia del fenómeno que se conoció luego como “contracción de Lorentz-FitzGerald”. Así, adelantaron que los resultados nulos del experimento de Michelson y Morley[1] podían coexistir con la idea de que la Tierra viaja a través del éter si se presumía que los cuerpos en traslación acortaban su tamaño en la dirección de su movimiento. (La dimensión perpendicular a esta dirección no se vería afectada). Además postularon que este acortamiento o contracción se incrementaría a medida que el móvil se moviera con velocidad creciente hasta alcanzar la velocidad de la luz, momento en que el cuerpo en cuestión estaría completamente achatado.

La explicación parecía funcionar. En términos de Newton, las velocidades relativas se computan con una simple suma algebraica. Si alguien lanza hacia mí una pelota que sale de su mano a 100 kilómetros por hora, mientras me muevo en su dirección a 10 kilómetros por hora, debo recibirla más pronto que si permaneciera estacionario, pues la suma de velocidades implica que la bola me llegaría a la velocidad relativa de 110 kilómetros por hora. Esto era lo que se esperaba detectar, para la velocidad de la luz proveniente del espacio, con el interferómetro de Michelson. La velocidad de la luz proveniente de una fuente a la que la Tierra se acercara, debía ser mayor que la de una fuente relativamente estacionaria o de la que nuestro planeta se alejara.

Pero no se observó diferencia en la velocidad de la luz, independientemente del movimiento de la Tierra o la orientación del interferómetro. Lo que FitzGerald y Lorentz adujeron fue que el efecto no se observaba porque la distancia recorrida por la luz de una fuente en aproximación sería mayor, al haberse “alejado” la superficie de la Tierra de la fuente por contracción de su tamaño.

Las magnitudes involucradas eran realmente pequeñas, dada la enorme diferencia entre la velocidad de la luz y la velocidad de traslación de la Tierra, y Lorentz y FitzGerald ajustaron sus números para que cuadraran exactamente con lo observado. De este modo propusieron que el acortamiento vendría expresado por una proporción equivalente a la raíz cuadrada de 1—v2/c2, donde v corresponde en este caso a la velocidad de traslación de la Tierra y c a la velocidad de la luz. Es obvio que la fracción v2/c2 tiende a cero, puesto que el cuadrado de un número pequeño como v es muchísimo menor que el cuadrado de c. Si esto es así, el valor de la expresión 1—v2/c2 tiende a 1 (igualmente, la raíz cuadrada de 1 es 1), para valores de v relativamente pequeños. Y multiplicar una suma algebraica de velocidades newtoniana por 1 la deja idéntica. Newton se había salvado.

En cambio, cuando el valor de v se aproxima al de c la cosa es distinta. Si se igualan ambas velocidades, la fracción v2/c2 se iguala a 1, y entonces la expresión 1—v2/c2 se iguala a 0, así como su raíz cuadrada. Esta condición expresa el achatamiento total, en la dirección de su movimiento, de un cuerpo que se moviese a la velocidad de la luz. Es claro que, en condiciones normales, ningún cuerpo conocido se desplaza a velocidades cercanas a las de la luz, razón por la que la contracción de Lorentz-FitzGerald pasaría inadvertida.

Lorentz produjo un conjunto de ecuaciones conocido como “transformaciones de Lorentz”[2], que implicaban fenómenos realmente extraños. Si las variaciones en la velocidad de la luz fuesen determinadas, no por interferómetro, sino por un reloj extraordinariamente preciso, entonces habría que concluir que los relojes que se mueven por el éter se retrasan exactamente por el mismo factor de la raíz cuadrada de 1—v2/c2. Todo reloj, todo instrumento de medida, como una regla, quedaría sistemáticamente afectado por la traslación. (Idealmente, si debemos medir con una regla gigantesca el acortamiento del diámetro de la Tierra, la regla misma debe acompañarla en su traslación a su misma velocidad, y por tanto se achicaría exactamente en la misma proporción, lo que haría la contracción indetectable). De hecho, Lorentz proponía distinguir entre un movimiento “aparente” y uno “verdadero”, mientras sostenía que las “verdaderas” dimensiones y el tiempo “verdadero” no podrían determinarse jamás por procedimientos experimentales[3].

Tales pretensiones configuraban un estado de cosas nada satisfactorio, sobre todo para Albert Einstein, filosóficamente influido por el positivismo extremo de Ernst Mach[4], que exigía descartar cualquier aseveración que no estuviera sustentada en la observación directa. Einstein, que desde su adolescencia se preguntaba cómo aparecería el mundo ante un observador que cabalgara sobre un rayo de luz, cortó por lo sano, al preservar las transformaciones de Lorentz mientras echaba por la borda la noción del éter en uno de cuatro trabajos publicados en 1905 en Annalen der Physik. (Sobre la electrodinámica de los cuerpos en movimiento).

………

El año de 1905 puede ser tenido, con toda propiedad, por el annus mirabilis de Alberto Einstein, y en verdad, de la ciencia física. Una sola cabeza había producido y publicado, en la revista mensual de la Sociedad Alemana de Física (Annalen der Physik), cuatro trabajos[5] de la mayor importancia teórica e impacto. Ya el primero, con el que proporcionaba una explicación del movimiento browniano (de partículas en suspensión en un medio líquido), habría bastado para destacarle como físico de importancia. Los otros tres fueron verdaderas revoluciones.

En “Sobre un punto de vista heurístico concerniente a la producción y transformación de la luz”, Einstein propuso que la luz (la radiación electromagnética en general) está compuesta por cuantos que le confieren ciertas propiedades de partículas, además de sus propiedades ondulatorias. Más adelante se acuñaría el nombre de “fotones” para designar a estos cuantos, y se les reconocería como una de las partículas fundamentales del universo. El trabajo ofrecía una explicación perfecta al fenómeno conocido como “efecto fotoeléctrico”—la generación de una corriente eléctrica cuando ciertos materiales reciben luz incidente—y proporcionó la base conceptual para tecnologías que tardarían cincuenta años en emerger: los masers y los lasers[6]. Cuando Einstein fuese honrado con el Premio Nóbel de Física, en 1921, fue por su ley del efecto fotoeléctrico y por su trabajo “en el campo de la Física teórica”. La Academia Sueca no se atrevió aún a mencionar sus teorías—especial y general—de la relatividad.

La teoría especial de la relatividad fue formulada en el tercero de los cuatro grandes trabajos: Zur Elektrodynamik bewegter Körper (Sobre la electrodinámica de los cuerpos en movimiento). Se la llama especial porque trata de cuerpos en movimiento que no experimentan aceleración. (La teoría general, publicada en la misma revista once años más tarde, trataría de cuerpos acelerados, y superaría en poder explicativo a la mismísima teoría de la gravitación de Isaac Newton).

En este tercer trabajo, de extraordinaria simplicidad y rareza—no contenía ni una sola referencia bibliográfica—Einstein regresó sobre el problema del éter y los resultados del experimento de Michelson-Morley. Tomando el toro por los cuernos, construyó un esquema revolucionario a partir de dos simples postulados: que la velocidad de la luz es una constante universal, y que las leyes de la Física son asimismo las mismas en cualquier parte del universo.

Einstein se percató de que la noción clave del problema era la idea de simultaneidad para las comparaciones entre diferentes observadores en movimiento y sus correspondientes marcos de referencia. (Sus sistemas de coordenadas, dentro de los que miden velocidades y tiempos). Eventos que parecerían sucederse simultáneamente para un observador en particular, serían percibidos como ocurriendo en momentos distintos por observadores en diferentes estados de movimiento respecto del primero. La simultaneidad era, por tanto, un concepto relativo; de ahí el nombre de la teoría.

Supóngase un observador que percibe como simultáneas las apariciones de dos estrellas nuevas en el firmamento. En este caso no puede estar seguro de su simultaneidad real, porque se requiere saber la distancia de ambas estrellas al observador. Es posible, incluso, que en “este momento” (momento local del observador), ya una de las estrellas ni siquiera exista, lo que no se puede saber porque a lo mejor se encuentra a una distancia tan grande que la luz, el fenómeno de mayor velocidad en el universo, tarde decenas o cientos de miles de años en recorrerla.

Los hallazgos de FitzGerald y Lorentz fueron reinterpretados a partir de esta nueva concepción: cuando quiera que dos observadores, asociados a sus respectivos marcos de referencia inerciales—no acelerados, que no modifican su velocidad—se encuentran en movimiento relativo el uno respecto del otro, las mediciones que hagan de intervalos temporales y distancias entre eventos diferirán sistemáticamente, sin que pueda afirmarse que el uno está en lo cierto y el otro equivocado. Tampoco puede decirse que uno de ellos está en reposo respecto del éter y el otro en movimiento. Si pudieran comparar sus relojes cada uno conseguiría que su propio reloj marchaba más rápido que el del otro, y si comparasen reglas de medir cada uno sostendría que la regla del otro se había acortado. Una sola cosa permanecería fija y constante: la velocidad de la luz en relación con cualquier marco de referencia y en cualquier dirección.

Esta interpretación relativista ponía en duda la existencia del éter de Maxwell, puesto que no puede verificarse el estado de su movimiento por ningún método o experimento concebible. La noción del éter como medio portador de la radiación electromagnética había sido borrada para siempre.

Varias consecuencias se derivaban de la teoría especial de la relatividad. Una de ellas puede entenderse a través de un experimento imaginario[7]. Imagínese una nave cohete que nunca agota su combustible. A medida que se aleja de la Tierra, viaja cada vez más rápidamente. Cuando esta velocidad se aproxima a la de la luz, predomina una dilación.

Desde el punto de vista de alguien que permanece en la Tierra, la rata a la que el cohete consume combustible comienza a disminuir. De hecho, cuando la velocidad del cohete es muy próxima a la de la luz, el motor parece apagarse. El efecto de la dilación del tiempo es justamente suficiente para asegurar que un astronauta nunca logre quemar esos últimos litros de combustible que requiere para lograr los últimos kilómetros por segundo que le separan de la velocidad de la luz. (Dicho de otro modo, tomaría un número infinito de años trabajando contra la dilación temporal para quemar el combustible necesario para alcanzar la velocidad de la luz). La velocidad de la luz es un límite máximo; según la teoría, no existe cuerpo material—o señal alguna transmitida—que pueda exceder la velocidad de la luz[8].

Continuando en analogías astronáuticas, puede imaginarse lo que ocurre en el caso de un viaje interestelar a muy altas velocidades. Considérese, por ejemplo, a dos jóvenes gemelos de 20 años de edad. Uno de los dos, Pepe, digamos, sube a una nave capaz de viajar a una velocidad equivalente al 98% de la de la luz, mientras su hermano gemelo, Juan, permanece en la Tierra. El gemelo astronauta viaja a una velocidad constante de 98% de la velocidad de la luz y regresa luego de recorrer una distancia total de 50 años luz. Para Juan, el reloj de Pepe se ha hecho más lento; según las transformaciones de Lorentz, un segundo en el reloj de Pepe equivale a cinco segundos del reloj de Juan. Dado que Pepe cubre la distancia de 50 años luz a una velocidad muy cercana a la de la luz, según los relojes terrestres el viaje ha tardado 51 años, de modo que Juan tiene 71 años de edad cuando recibe al gemelo viajero. Por otra parte, como los relojes de la nave se han retrasado, desde el punto de vista de Pepe sólo estuvo viajando 10 años y, en consecuencia, tiene la edad de 30 años al reencuentro de su anciano gemelo.

Esta descripción corresponde a la llamada “paradoja de los gemelos”. Puesta en otros términos más cercanos a la terminología relativista, puede ser reformulada así: Dado un marco de referencia inercial y dos sistemas materiales similares (“gemelos”)—por ejemplo, dos relojes atómicos de idéntico diseño—supóngase que uno de estos relojes permanece en reposo en el marco dado, mientras que el otro se mueve a alta velocidad, primero en una dirección que lo aleja del otro y después en la dirección contraria hasta que ambos relojes están juntos de nuevo. Si se aplica las transformaciones de Lorentz, el segundo reloj se ha retrasado respecto del primero, por lo que mostrará un lapso menor que el que señala el que permaneció en reposo. La lectura de los relojes permitiría decir cuál reloj estuvo en reposo y cuál se trasladó. Se habla acá de paradoja porque el razonamiento conduce a una aparente violación del principio de equivalencia, según el cual no hay diferencias entre distintos marcos de referencia: en todos se cumplen las leyes físicas de la misma manera.

El argumento es falaz, puesto que en realidad el marco de referencia del segundo reloj no es inercial. Recuérdese que la teoría especial de la relatividad se aplica a sistemas que no experimentan aceleración, y el cohete que llevó a Pepe por el espacio debió haber sufrido una aceleración en cuanto cambió de rumbo para regresar a la Tierra. Ergo, no se viola el principio de equivalencia y la paradoja desaparece. (Lo que no obsta para que cierta ciencia ficción no muy rigurosa continúe empleándola).

………

Todavía publicaría Einstein en 1905 un trabajo adicional, este vez un desarrollo matemático ulterior, casi una nota al pie, de la teoría especial de la relatividad. Éste era su título: “¿Depende la inercia de un cuerpo de su contenido energético?” (Ist die Trägheit eines Körpers von seinem Energieinhalt abhängig?)

Como residuo de una serie matemática de la que se eliminaban todos sus términos menos uno, emergía la más famosa y sobrecogedora de las fórmulas en toda la historia de la Física:

E = m.c2

La masa de un cuerpo es una medida de su resistencia a un cambio en su estado de movimiento por causa de una fuerza que se le aplique. Mientras mayor sea la masa, menor será la aceleración resultante de la aplicación de la fuerza. Si un cuerpo se mueve a una velocidad cercana a la de la luz, ofrecerá una resistencia creciente a cualquier aceleración para no cruzar el umbral de c, la velocidad de la luz. La teoría especial de la relatividad conduce a la conclusión (matemática) de que la masa m de un cuerpo en movimiento está en función de la masa m0 que tendría en reposo, según una fórmula en la que m es igual a m0 dividida por la raíz cuadrada de 1 menos la fracción v2/c2.

Este valor cambiante de la masa de un cuerpo en movimiento es llamado la masa relativística. A medida que v se aproxima a c, el valor de 1— v2/c2 se aproxima a cero, y por tanto m = m0 / 0, lo que sería un número infinitamente grande. (Una masa infinitamente grande que ofrecería una resistencia infinita).

La fórmula para la masa relativística puede ser reformulada para indicar que ésta excede su masa en reposo m0 por una cantidad equivalente a su energía cinética E dividida por el cuadrado de la velocidad de la luz:

m— m0 = E / c2

De aquí el corolario de que, en general, la energía es c2 veces la masa, lo que se expresa como E = m. c2, y que la energía y la masa son, de hecho, conceptos físicos equivalentes, que difieren tan sólo en términos de la escogencia de las unidades con las que se expresan[9].

La interconvertibilidad de masa y energía ha sido demostrada dramáticamente con la energía nuclear, especialmente desde acontecimientos como la destrucción de Hiroshima y Nagasaki como efecto de una única bomba atómica en agosto de 1945. Un gramo de materia o masa es en verdad la concentración de una asombrosa cantidad de energía. El procedimiento inverso al observado en una explosión nuclear es también pan de cada día en los laboratorios de física subatómica: la creación de partículas (masa) a partir del choque de haces de radiación electromagnética. De hecho, estas evidencias son comprobaciones experimentales entre muchas que se atienen a las predicciones extraíbles de la teoría especial de la relatividad, que hoy en día es de universal aceptación.

………

Con posterioridad al año de 1905, Einstein y otros físicos continuaron refinando la teoría. Uno de los desarrollos más fructíferos fue aportado por el físico-matemático lituano Hermann Minkowski. En 1907, dos años antes de morir, Minkowski reformuló la teoría de la relatividad en términos de un concepto hermoso: el continuo espacio-tiempo. Esto es, trató al tiempo como una cuarta dimensión, adicional a las tres dimensiones convencionales del espacio. Este “espacio de Minkowski”, aunque parecía ser sólo una mejora terminológica, estimuló y facilitó la proposición posterior de una teoría general de la relatividad. Así como masa y energía eran las dos caras de una misma moneda, el tiempo y el espacio ya no tenían sentido como entidades independientes, sino como dimensiones inseparables de una sola entidad geométrica.

NOTA HISTÓRICA:

La noción misma de relatividad se remonta, al menos, hasta Galileo. En el Diálogo concerniente a los Dos Principales Sistemas del Mundo, su polémico—herético—libro de 1632, propuso el ejemplo de lo que ocurriría bajo cubierta de un barco grande que se moviera con cualquier velocidad. Estipulando que el movimiento fuera uniforme, concluyó que de ningún fenómeno que ocurriera bajo cubierta podría deducirse si el barco se encontraba en movimiento. Galileo quería con esta observación refutar a quienes se oponían a la noción del movimiento de la Tierra, que sostenían que si ella se moviera los objetos en su superficie se “quedarían atrás”.

En una carta de Descartes de 1644, se enfatiza la relatividad: “…de dos hombres, uno de los cuales se mueve con un barco y el otro está parado en la costa… no hay nada más positivo en el movimiento del primero que en el reposo del último”.

Newton, en los Principia, dedica sólo un corolario al asunto, en el que dice: “Los movimientos relativos de dos cuerpos en un espacio dado son idénticos sea que este espacio esté en reposo o se mueva uniformemente en línea recta con respecto a las estrellas fijas sin movimiento circular”.

Mach, en su Ciencia de la Mecánica, comentó que Newton afirmaba así el principio de relatividad, pero luego había abandonado lo fáctico para postular la existencia de un espacio absoluto.

Einstein 2

Albert Einstein, fotografiado en su escritorio de la Oficina de Patentes de Berna, por la época de la publicación de la Teoría Especial de la Relatividad. En 1905 Einstein tenía 26 años de edad.


[1] En realidad, ambos postularon la contracción independientemente—primero FitzGerald y luego Lorentz cinco meses más tarde—en 1882, sobre los resultados de una primera versión del experimento llevada a cabo sólo por Michelson en Potsdam en 1881. La crítica de las condiciones experimentales, especialmente por Lorentz, llevó a la cooperación de Michelson con Morley para la versión más refinada y controlada de 1887 en Cleveland. Es decir, ya para 1882 existía la explicación ad hoc del resultado nulo.

[2] El mayor desarrollo matemático de Lorentz determinó que su nombre antecediera al de FitzGerald al bautizar la contracción, a pesar de que éste precediera al primero por cinco meses con la conjetura.

[3] Lewis Carroll, en Through the Looking Glass, había formulado un “inobservable” como ése en los siguientes versos: But I was thinking of a plan to dye one’s whiskers green, and always use so large a fan that they could not be seen.

[4] Cuyo nombre designa la unidad de velocidades relativas a la del sonido. Mach 1 es la velocidad del sonido, 340 metros por segundo; Mach 2 el doble de ésta, etcétera.

[5] En realidad fueron cinco artículos, aunque el primero—“Una nueva determinación de las dimensiones moleculares”—con el que obtuvo el grado de Doctor en Filosofía de la Universidad de Zürich, es usualmente pasado por alto ante la grandeza de los otros cuatro.

[6] La palabra maser es la sigla de Microwave Amplification by Stimulated Emission of Radiation. Laser corresponde a Light Amplification by Stimulated Emission of Radiation.

[7] Gedanken experimenten. Albert Einstein era muy dado al tipo de análisis que se ayuda de experimentos imaginados.

[8] En sentido estricto, lo que la teoría de Einstein predica es que ningún cuerpo puede ser acelerado más allá de la velocidad de la luz. Si en las ecuaciones de Einstein se sustituyen cantidades reales por cantidades imaginarias—un número imaginario es un número real multiplicado por la raíz cuadrada de —1, o la cantidad i—entonces puede hablarse de velocidades superiores a la de la luz que nunca podrían ser desaceleradas por debajo de c. En ambos casos la velocidad de la luz actúa como límite. La operación de las ecuaciones de Einstein con valores imaginarios permite postular partículas hipotéticas que siempre se desplazarían más rápido que la luz. (Taquiones).

[9] En física nuclear la unidad de masa es el electrón-voltio, que es una unidad de energía.

Share This:

Física del siglo XX – (3)

physics

La generalización de la Teoría de la Relatividad. (1915-1916). La teoría de la gravitación de Newton como caso límite o especial. (El “límite newtoniano”). Las expediciones de Eddington en 1919: primer triunfo experimental de la Teoría General de la Relatividad.

La teoría general de la relatividad, contentiva de una nueva y radical solución para la interpretación física del fenómeno de la gravitación, fue expuesta en Annalen der Physik en 1916. A fines del año anterior, Albert Einstein había presentado sus conclusiones a este respecto en tres sesiones sucesivas ante la Academia Prusiana de Ciencias. El camino hasta acá desde la formulación de la teoría especial había sido largo—once años—y de gran dificultad conceptual y matemática. Había valido la pena. Como lo puso A. P. French[1] en The story of general relativity: “…de todos los grandes logros científicos de Einstein, la teoría general de la relatividad es quizás suprema en su originalidad y grandeza intelectual”.

La experiencia de la gravedad es, naturalmente, tan vieja como la conciencia más primitiva. A un perro se le caen las cosas de la boca, y un ave no debe hacer esfuerzo especial para aterrizar. El peso de nuestros cuerpos es propiedad que nos acompaña siempre, y un proyectil que lancemos al aire con nuestras manos regresa siempre al suelo. En la época de la filosofía griega clásica se había encontrado una explicación a este universal fenómeno.

La explicación, proporcionada en su Physika por Aristóteles, encajaba perfectamente, como era de esperar, en la episteme de la época, la que incluía una cierta “química” y ciertas nociones respecto del tema de la causalidad. La química griega—de hecho, la química desde su época hasta el Renacimiento—reconocía en la naturaleza cuatro sustancias o elementos fundamentales: aire, fuego, tierra y agua. (Los astrólogos de hoy día todavía hablan de signos de tierra, de aire, de agua y de fuego). Una quinta sustancia, el éter, no se encontraba en la tierra, pero llenaba los espacios celestes, o firmamento—la palabra alude a la idea de que los astros estaban fijos en su “esfera”—y, así vimos antes, como idea sobrevivió a los comienzos de la Química moderna hasta 1905, cuando Einstein decretara su defunción al explicar rotundamente el resultado negativo de Michelson y Morley. Cada elemento, por otra parte, tenía su “lugar natural”. (El lugar natural del fuego, por ejemplo, era justamente el de los astros o luminarias del cielo, obviamente constituidos por fuego, dado que emitían luz parecida a la de una hoguera).

Además, Aristóteles postulaba no sólo la existencia de causas antecedentes obvias, sino también “causas finales”, que no estaban al inicio de un proceso, sino a su término y actuaban como un imán que atraía cuerpos y procesos hacia sí.

La combinación de ambos conjuntos de conceptos proporcionaba la explicación para la gravedad. Lo que Aristóteles sostenía era que los cuerpos tendían, por acción de causas finales, a moverse hasta descansar en su lugar natural. Como el lugar natural del fuego era la esfera de los astros, y el del aire la atmósfera que nos rodea, las llamas y el humo—que evidentemente está hecho de aire—ascienden siempre. Como el agua tiende hacia su lugar natural—el océano—las aguas del cielo caen para formar ríos que van a reposar en el mar. Como las substancias duras y secas, obviamente hechas del elemento tierra, buscan descansar en su lugar natural, la Tierra, caen hacia el suelo. En todos los casos el movimiento se produce para buscar el reposo, el estado considerado perfecto.

Esta física fue suficiente para el pensamiento occidental desde la época de Aristóteles (384-322 a. C.) hasta la de Newton (1642-1727). Dos mil años duró la vigencia del paradigma aristotélico en materia de la gravedad. El asedio a esta estructura conceptual comenzaría con los pacientes y valientes trabajos de un italiano originario de Pisa, Galileo Galilei. (1564-1642; el año de su muerte es el del nacimiento de Newton).

Galileo puede ser tenido como el primer físico experimentalista; un observador de los fenómenos que construía experimentos con el objeto de realizar mediciones rigurosas. Sus experimentos con objetos en caída sobre planos inclinados, le permitieron arribar a una fórmula cuantitativa de la aceleración de los cuerpos.

Por su parte, el astrónomo alemán Johannes Kepler (1571-1630), en observaciones astronómicas guiadas por el modelo heliocéntrico del sistema solar del polaco Copérnico (1473-1543), encontró que las órbitas descritas por los planetas no eran circulares sino elípticas, a las que dio una precisa formulación matemática.

Los resultados de Kepler y Galileo, que no parecían contradecir la noción aristotélica de gravedad de causa final, fueron finalmente explicados en la teoría de la gravitación universal de Isaac Newton (1687) mediante un nuevo paradigma. Propuso Newton que ambos fenómenos, la circunvalación del sol por los planetas y la caída de los cuerpos hacia la superficie terrestre, se debían a una misma causa, una fuerza de atracción universal que actuaba a distancia y se transmitía instantáneamente por el espacio. Esta fuerza, más allá de ser postulada, recibió una precisa formulación cuantitativa: resultaba de la multiplicación de las masas de dos cuerpos que se atrajesen mutuamente, dividida por el cuadrado de la distancia que los separaba. (Mientras más masivos los cuerpos, mayor sería la fuerza de atracción; mientras más separados estuvieran, la atracción sería menor). La hermosa fórmula de Newton predecía las elipses de Kepler, y de ella se deducía la ley de los cuerpos en caída de Galileo. Aristóteles había adquirido rango cuasirreligioso, al haber sido asumida in toto su filosofía por la escolástica católica, a partir de su integración en el pensamiento del más grande de los doctores de la iglesia: Santo Tomás de Aquino. Con Newton, un gigante[2] se había manifestado en todo su esplendor para dejar a la Física de Aristóteles en el olvido.

Digresión

El impacto causado por la obra de Newton fue gigantesco, y no sólo sobre la comunidad científica. El poeta y satírico inglés—To err is human, to forgive divine—Alexander Pope (1688-1744) evidenció su admiración por el genio en los siguientes versos pareados:

Nature and Nature’s laws lay hid in night

God said Let Newton be! And all was light.

en evidente y feliz parodia del texto del Génesis. Pero no todos pensaban como él. William Blake (1757-1827), poeta, pintor y grabador inglés, acusaba a Newton—así como a Locke y Bacon—de haber dejado a Dios fuera de su excesivo racionalismo. (Escribió que eran “los tres grandes maestros del ateísmo, o la doctrina de Satán”).

Dos famosos grabados de Blake ilustran su adversaria opinión sobre Newton:

Blake

Dios e Issac Newton por William Blake

En el primero, su frontispicio para Europe: A Prophecy, muestra a Dios dando luz al universo mientras determina sus leyes con un compás. En el grabado de la derecha (“Newton”, 1795), el científico trabaja igualmente con un compás, pero no sobre el mundo sino sobre un pergamino, y su figura, a la que se le ve un solo ojo—Blake alardeaba de tener visión cuádruple y opinaba que Newton tenía visión única—hace transición desde la rica roca iluminada hacia la oscuridad. Para Blake, la visión newtoniana, solitaria y desnuda de religión y sentimiento, traía not light, but night, exactamente lo contrario de lo estimado por Pope.

La médula, pues, de la revolución newtoniana consistía en una fuerza universal de atracción que actuaba instantáneamente a distancia (no local), y éste era el paradigma que sustituía al paradigma aristotélico: los cuerpos hechos del elemento tierra que eran atraídos al reposo desde la causa final de su lugar natural.

………

El paradigma newtoniano sería a su vez suplantado por el nuevo paradigma propuesto por Einstein: nada podía transmitirse instantáneamente en el universo, pues la velocidad máxima era la de la luz, que si bien es muy grande en términos de velocidades terrestres y pedestres, no es infinita. Ésta era una condición ya anticipada por la teoría especial de la relatividad. Por otro lado, no había ninguna fuerza que atrajera los cuerpos. Éstos describían trayectorias curvilíneas en torno a cuerpos de masa mayor, porque la presencia de masa en el espacio producía en éste una curvatura. (Más precisamente, en el continuo espacio-tiempo, el espacio de Minkowski, uno de los profesores de Einstein en el Politécnico de Zürich). Lo que se curvaba no era la trayectoria sino el territorio. Y esto fue la revolución paradigmática de la teoría general de la relatividad de 1916.

La búsqueda de la generalización a sistemas acelerados—con gravitación—había comenzado desde el mismo año de 1905, cuando Einstein derivase la equivalencia de masa y energía. En efecto, la teoría especial había logrado la fusión de electromagnetismo y mecánica, pero en marcos de referencia en estado uniforme de movimiento. Faltaba traer la gravitación al esquema relativista. En sus Notas autobiográficas (1946), comentó Einstein: “Que la teoría especial de la relatividad era sólo el primer paso de un desarrollo necesario se me hizo completamente claro sólo con mis esfuerzos por representar la gravitación en el marco de esta teoría”. Luego explica cómo reconoció que una teoría satisfactoria debía incluir los siguientes resultados: 1) el requerimiento de la teoría especial de que la masa inercial de un cuerpo dependa de su energía total, y que aquélla aumente al aumentar la energía cinética, lo que Einstein había propugnado en su “cuarto” trabajo de 1905, en el que estableciera E = m.c2; 2) experimentos de gran precisión habían demostrado que la masa gravitacional de un cuerpo es exactamente proporcional a su masa inercial.

Al combinar ambos resultados, se sigue que el peso de un cuerpo depende en una forma precisamente determinada de su energía total. Einstein comentaría después: “Si la teoría no obtenía esto o no pudiera hacerlo de forma natural, sería rechazada”. La teoría especial de la relatividad no podía derivar esa conclusión, pero al cabo Einstein llegó a pensar la idea crucial: “El hecho de la igualdad de las masas inercial y gravitacional, es decir, el hecho de que la aceleración gravitacional es independiente de la naturaleza de la sustancia que cae, puede ser expresado como sigue: en un campo gravitacional (de pequeña extensión espacial) los objetos se comportan como lo harían en un espacio libre de gravitación si uno introduce, en lugar de un ‘sistema inercial’, un sistema de referencia que es acelerado respecto de un sistema inercial”.

Había nacido el famoso “principio de equivalencia”, el que establece que un campo de fuerza gravitacional es precisamente equivalente, dentro de una región limitada, a un campo de fuerza artificial asociado con una aceleración general del marco de referencia.

El principio de equivalencia se comprende fácilmente al considerar otro experimento imaginario propuesto por el propio Einstein: una persona que estuviera en un compartimiento cerrado, no podría distinguir diferencia si este compartimiento reposara sobre el suelo o se encontrase en el espacio acelerado hacia arriba por una fuerza equivalente en magnitud a la de la gravitación[3].

Ascensor

En caída libre no se experimenta peso

Einstein publicó una larga descripción del principio de equivalencia en Jahrbuch (Anuario) der Radioaktivität. (1907). Cuatro años más tarde, Einstein publicó un trabajo que ya comentaba acerca del efecto de la gravedad sobre la propagación de la luz. En este paper se predecía que los rayos de luz que pasaran cerca de la superficie del Sol se desviarían en su trayectoria por un ángulo de 0,85 segundos de arco. Este valor correspondía a un análisis newtoniano, que trataba la luz como compuesta de partículas de masa m viajando a la velocidad de la luz c. La desviación teórica equivalía a calcular el término 2GM / c2R, donde M y R son la masa y el radio del Sol, c es la velocidad de la luz y G es la constante de gravitación universal de Newton. (980 centímetros sobre segundo al cuadrado).

El valor calculado para la desviación era más o menos la mitad de lo que Einstein propondría en 1916, una vez que desarrollara por completo la teoría general. Para esto tendría que darse cuenta de que el espacio “no es meramente el escenario en el que los objetos materiales se mueven e interactúan, sino que la geometría fundamental del espacio depende de la presencia y distribución de la materia””[4]. Como lo pone Edmund Whittaker, que “la gravedad es debida a un cambio en la curvatura del espacio-tiempo causado por la presencia de materia”.

Llevar estas ideas a una formulación física rigurosa, sin embargo, requería matemáticas muy avanzadas (análisis de “tensores”, una entidad matemática análoga a los vectores), y aquí Einstein contó con la ayuda del geómetra Marcel Grossmann, su amigo y antiguo compañero de estudios. Con él publicó conjuntamente en 1913 una comunicación preliminar: “Esquema de una teoría generalizada de la relatividad y una teoría de la gravitación”. Mudado de Zürich a Berlín, donde iba a ocupar una cátedra profesoral, Einstein continuó trabajando en las consecuencias que se derivarían de la construcción. Poco después publicaría solo (1916) “Los fundamentos de la teoría general de la relatividad” (Die Grundlagen der allgemeinen Relativitätstheorie) en la acostumbrada Annalen der Physik. Y en este trabajo ya estaba el cálculo nuevo de la desviación de los rayos de luz que pasaran cerca de la superficie solar: el nuevo valor predicho era de 1,75 segundos de arco.

Este artículo de Einstein contenía al final tres consecuencias de la nueva teoría que podrían ser comprobadas experimentalmente, y entre éstas la más dramática era justamente la de la desviación de la luz en las cercanías de un fuerte campo gravitacional. La observación a realizar era relativamente simple: bastaba fotografiar la posición de un grupo de estrellas cuando éste se encontrase rozando, por decirlo así, el borde de la superficie solar, para compararla con la posición que tendría cuando estuviese alejado del Sol. Naturalmente, la luminosidad del Sol impediría registrar la posición de las estrellas cercanas… a menos que la medición se realizara durante un eclipse solar, cuando la superficie del astro estuviera oscurecida. La primera oportunidad había sido desaprovechada, cuando Einstein todavía era newtoniano y había predicho un efecto de sólo 0,85 segundos de arco, antes de haber migrado del espacio newtoniano al de Minkowski, razón por la que se salvó de ser expuesto con un error de 100%.

Luego se interpuso la Gran Guerra cuando Einstein, entonces en Berlín, había encontrado, una vez liberado de su atadura conceptual, el valor correcto de 1,75 en 1915.  El conflicto no impidió que llegara una copia del artículo de Einstein (1916) a manos de Arthur Eddington, a través del astrónomo holandés Willem de Sitter. El gobierno inglés aprobó el proyecto presentado por Eddington para la medición del efecto predicho por Einstein, con lo que se quitó de encima la costosa decisión de internar a Eddington, que tenía una postura pacifista de conciencia. La fecha caería en 1919, una vez terminada la guerra. Eddington organizó una expedición a Sobral, en Brasil, y una a la isla de Príncipe, a las afueras del golfo de Guinea. Ambas registraron, el 29 de mayo de 1919, una asombrosa fidelidad entre lo predicho teóricamente y los hechos observados. Los resultados no serían conocidos por Einstein hasta el 27 de septiembre, de telegrama que le enviara Hendrik Lorentz. Ese día escribió a su madre: “H. A. Lorentz me ha telegrafiado que las expediciones británicas han confirmado definitivamente la desviación de la luz por el Sol”.

La noticia del acontecimiento corrió como reguero de pólvora por el planeta.

………

Es conocido que Einstein pareció siempre tener una relación muy cómoda con Dios, a quien mencionaba a cada rato para afirmar puntos de física teórica, lo que llevó a Niels Bohr a solicitarle que dejara de decir a Dios lo que tenía que hacer. En una de sus más conocidas enunciaciones dijo: “Dios es refinado, pero no es malicioso”. (Raffiniert ist der Herr Gott, aber boshaft ist Er nicht). Preguntado por lo que habría dicho de Dios si los experimentos de Príncipe y Sobral hubieran resultado diferentes, contestó: “Lo hubiera sentido mucho por él”.

Relativity God

El culto a Einstein, tanto como el de Pope por Newton.

Igualmente estuvo cómodo con la física de Newton. Poco antes de la publicación de su artículo cumbre escribió en una carta a Arnold Sommerfeld (noviembre de 1915): “Este último mes he vivido el período más excitante y exigente de mi vida; y también sería verdad decir que también ha sido el más fructífero… La cosa maravillosa que ha ocurrido es que no sólo la teoría de Newton resultaba de ella [la relatividad general] como primera aproximación, sino también el movimiento del perihelio de Mercurio como segunda aproximación”.

Lo que Einstein expresaba acá, por una parte, es que la mecánica newtoniana se preservaba intacta como un caso especial o límite[5] de sus más generales ecuaciones, por un lado, y que su propia teoría lograba predecir correctamente un fenómeno que Newton no podía computar: la precesión de la órbita de Mercurio. Los planetas no sólo interactúan gravitacionalmente con el Sol, sino también entre ellos mismos, y una de las consecuencias de este hecho es que los ejes de sus órbitas elípticas rotan muy lentamente. Las ecuaciones de Newton no podían justificar completamente este efecto, el que era más notable en el caso de Mercurio, dada su mayor cercanía al Sol. (Mercurio exhibe una órbita pequeña de gran excentricidad; esto es, su órbita es más elíptica que circular comparada con la de los restantes planetas). Los cálculos computaban un exceso residual de unos 42 segundos de arco de precesión (por siglo) que no podía ser explicado por Newton[6].

Esa precesión residual de la órbita de Mercurio podía explicarse en caso de que la fuerza gravitacional debida al Sol no siguiese exactamente la fórmula de Newton, de proporcionalidad inversa a la distancia. La curvatura del espacio-tiempo introducía, en efecto, un término extra en el cálculo, y al hacer los cómputos según las ecuaciones de Einstein, se obtuvo un acuerdo prácticamente perfecto con los valores observados. La observación proporcionaba un valor promedio de 43,11 ± 0,45 segundos de arco por siglo, mientras la teoría general de la relatividad pronosticaba una tasa de precesión de 43,03. Este resultado, y otros predichos por la teoría, contribuyeron a asentar el mayor respeto por ella. Einstein, que había logrado en 1905 integrar mecánica y electromagnetismo, sumaba ahora a su poderosa síntesis una explicación satisfactoria de la gravitación. Faltaba sólo incorporar los nuevos campos observados a escala subatómica, y a esta tarea (teoría del campo unificado) dedicó infructuosamente los últimos años de su vida. Es una tarea aún por realizar, mientras la Física busca todavía una theory of everything. (TOE). LEA


[1] Profesor de Física en Massachusetts Institute of Technology y Presidente de la Comisión Internacional de Educación en Física para el centenario del nacimiento (1979) de Albert Einstein.

[2] Newton escribió, en carta a Robert Hooke, la siguiente frase: “Si vi más lejos fue porque subí sobre los hombros de gigantes”, en alusión, precisamente, a Galileo y Kepler.

[3] Un cuerpo en caída libre y aceleración uniforme no está sujeto a fuerza gravitacional. Éste es el caso de los astronautas que flotan dentro de sus naves y, si a ver vamos, el de los planetas, incluida en ellos la Tierra. La masa de la Tierra sigue siendo enorme en comparación a la nuestra, pero su peso (la fuerza con la que sería atraída “hacia abajo”) es exactamente cero. En un ascensor cuyos cables se rompieran súbitamente se experimentaría la misma sensación de ingravidez.

[4] A. P. French, de quien se toma la cita de Whittaker.

[5] Después de la teoría einsteniana de la gravitación, contenida en su teoría general de la relatividad, su aplicación al campo cosmológico ha suscitado un cierto número de teorías alternas, todas relativistas, que se diferencian de ella en el valor de algunos parámetros. (Brans-Dicke, por ejemplo). A estas teorías se les exige, entre otras cosas, que sean compatibles con la teoría especial de la relatividad y que respeten el “límite newtoniano”, es decir, que incluyan la mecánica de Newton como caso especial en los límites de sus ecuaciones.

[6] Era posible tomar en cuenta, con Newton, las interacciones interplanetarias, que introducían pequeñas perturbaciones en las órbitas del sistema solar. De hecho, el análisis newtoniano de la perturbación de la órbita de Urano condujo al descubrimiento de Neptuno en 1846, en lo que constituyó una dramática reivindicación de los Principia.

Share This:

Física del siglo XX – (4)

physics

La formulación generalizada de la física cuántica entre 1921 y 1927. La interpretación de Copenhague. Bohr, Heisenberg (principio de incertidumbre o indeterminación), Schrödinger. Partículas y ondas. Einstein toma un camino solitario.

A partir de 1900, luego de que Max Planck presentara los cuantos al mundo y Einstein los convirtiera en fotones, comenzaron a desmoronarse los primitivos modelos del átomo, sus constituyentes y su radiación. Incluso el modelo atómico propuesto por el llamado padre de la Física Nuclear, Ernest Rutherford, tuvo corta vida. El papado de esa ciencia pasaría pronto a manos del danés Niels Bohr, su alumno, quien iba a formular el primer modelo cuántico del átomo. (Más específicamente, del átomo de hidrógeno).

El modelo de Rutherford había concebido un átomo que era la analogía a escala submicroscópica de un sistema solar. Los electrones serían los planetas de un sol equivalente al núcleo atómico. Desde el principio, sin embargo, fue evidente que esa metáfora no podía sostenerse: los electrones portaban carga eléctrica y al moverse perderían energía cinética ineludiblemente, por lo que terminarían colapsados sobre el esférico lecho nuclear. Como esto no era lo observado—el propio Rutherford había establecido que en términos atómicos había una distancia enorme y aparentemente persistente entre los electrones y el núcleo—una nueva explicación se hacía necesaria.

Niels Bohr (1885-1962) fue el encargado de aportarla, y su solución sería sofisticada e insuficiente a la vez, aunque precursora de lo que vendría. En el primitivo modelo de Bohr (1913) el átomo sigue consistiendo de un pequeño núcleo cargado positivamente rodeado por una nube o corona de electrones, sólo que éstos ya no son entendidos como minúsculos planetas individualizados, sino como ondas que se extienden por toda la órbita de cada uno. La característica más importante del modelo era, sin embargo, su “cuantización” de estas órbitas electrónicas.

No toda órbita era posible, sino unas pocas órbitas específicas. En cada una el electrón en cuestión poseía un nivel de energía específico. Cada electrón podía saltar de una a otra órbita mediante la absorción de un cuanto de radiación electromagnética (fotón) o la emisión de uno. El tamaño del cuanto venía determinado por la diferencia entre los niveles de energía de las órbitas. Las órbitas permitidas se calculan a partir de los valores cuantizados (discretos) del momento orbital angular[1] L según la siguiente fórmula:

 L = n{h \over 2\pi} = n\hbar

 

donde n corresponde a 1, 2, 3… y h es la constante de Planck.  En la órbita de menor energía, la más cercana al núcleo, n es igual a 1.

Al momento orbital angular calculado por la ecuación de Bohr se le denomina ahora “número cuántico principal”, y su solución tuvo éxito en explicar la fórmula empírica de Rydberg para las precisas líneas espectrales de emisión del átomo de hidrógeno, que se obtuvo experimentalmente sin que se contara con una fundamentación teórica.

A pesar de modificaciones introducidas por Sommerfeld al modelo de Bohr, éste no lograba explicar todo—por ejemplo, por qué debe ser cuantizado el momento angular—y finalmente fue suplantado definitivamente por la más completa explicación de la mecánica cuántica que se desarrollaría más tarde. Hoy en día el modelo de Bohr, tenido por semiclásico[2], es un caso límite[3] o especial de la mecánica cuántica, y el átomo de hidrógeno es calculado a partir de la ecuación de onda (1925) del físico austriaco Erwin Schrödinger.

Niels-Erwin

Niels Bohr - Edwin Schrödinger

En 1920, ya profesor de la Universidad de Copenhague, Niels Bohr asumió la dirección del recién creado Instituto de Física Teórica (más tarde Instituto Niels Bohr), donde las futuras luminarias de la física nuclear—Werner Heisenberg y Wolfgang Pauli entre ellas—estudiaron bajo su prestigiosa guía. A Bohr le fue concedido el Premio Nóbel de Física en 1922, un año después de Einstein, “por sus servicios en la investigación de la estructura de los átomos y de la radiación que emana de ellos”.

Para aquel momento, entonces, tres escalones de la escalera cuántica[4] habían sido trepados: la intuición original de Planck en 1900, la aplicación de Einstein a la luz y el efecto fotoeléctrico y la primera descripción cuántica de un átomo, debida a Bohr. El próximo aporte fue suministrado por el físico francés Louis de Broglie, quien destacó la naturaleza dual de las entidades subatómicas—de comportamiento a un tiempo corpuscular y ondulatorio—en su tesis doctoral de 1924, en la que introdujo, para el electrón, la noción de ondas de materia[5]. (Recherches sur la théorie des quanta). Bohr recogió esta postulación en su “principio de complementaridad”, que estipulaba que cualquier entidad cuántica puede manifestarse como onda o como partícula, aunque no simultáneamente como ambas cosas, dependiendo del método de observación. El camino indicado por de Broglie daba paso a una concepción “filosófica” central de la nueva física y seguiría la bifurcación onda-partícula[6] para permitir el paso de dos formulaciones alternas de los fundamentos generales de la física cuántica.

En efecto, al año siguiente de la disertación por de Broglie, dos mecánicas cuánticas distintas y consistentes fueron propuestas independientemente por Werner Heisenberg y Erwin Schrödinger. El primero propuso en 1925 un esquema construido con matrices (mecánica matricial) o grupos de números asociados, mientras que el segundo adelantó una “mecánica de ondas” (wave mechanics). Ambas construcciones eran equivalentes, como señalaría el propio Schrödinger y más tarde la unificación (la teoría de la transformación) propuesta por P. A. M. (Paul Adrien Maurice) Dirac. En el fondo del asunto estaba una característica esencial del mundo subatómico: la imposibilidad de tratarlo como una entidad clásica y determinista, pues sus dimensiones se manifestaban difusas, no determinables con fija exactitud, sino como expresión de una distribución de probabilidades. A la escala subatómica es imposible predecir con una precisión arbitraria: la entidad del electrón, por caso, no puede ser imaginada como ocurriendo en un punto determinado del espacio (modelo planetario de Rutherford), sino como llenando con densidad variable toda la “extensión” de la órbita, (Modelo de Bohr).

Así, Schrödinger imaginaba a la carga eléctrica del electrón como una “nube” borrosa distribuida por toda su órbita. Cupo a Max Born la gloria de sugerir que la tal nube, “retratada” en la ecuación de onda, no debía ser entendida como una entidad física, sino como una distribución de probabilidades. Mientras no se observaba, lo mejor que podía decir la física cuántica era una probabilidad acerca de la ubicación exacta de una partícula en el espacio, y esto se manifestaba como una ecuación de onda que “colapsaba” una vez que se determinaba esa posición.

Heisenberg llevaría esta situación un poco más allá: en 1927 formuló[7] lo que se conocería de allí en adelante como “principio de incertidumbre” o “principio de indeterminación”. (Esta última designación fue propuesta por Bohr). Que si fuera posible medir la posición q de una partícula con el grado requerido de precisión, entonces ya no sería posible determinar su momento p, y viceversa. Wolfgang Pauli, otro físico alemán que asistía, como Heisenberg, al instituto dirigido por Bohr y era amigo del joven autor de la mecánica matricial, escribió a éste una carta en la que describía gráficamente la situación: “Puedes ver el mundo con el ojo-p así como puedes verlo con el ojo-q, pero si tratas de abrir ambos ojos a la vez te volverás loco”. (En términos algo más técnicos, no se puede medir con arbitraria precisión los valores de cantidades “conjugadas” , es decir, de observables que ocurren pareados, como la posición y la velocidad o el momento de una partícula. En la formulación matemática de esta condición fundamental de la mecánica cuántica volvía a aparecer la aparentemente inevitable y ubicua constante de Planck:

Incertidumbre

Lo que dice la fórmula de Heisenberg es que el producto de la incertidumbre en la posición Dx por la desviación estándar (una medida estadística de dispersión) del momento Dp, el resultado no será inferior a la mitad de la constante de Planck dividida por 2p.[8] El cociente establece un límite fundamental a la precisión con la que pueden ser determinadas las cantidades conjugadas. Aunque este límite es muy pequeño en términos de lo macroscópico, a escala subatómica introduce una indeterminación insalvable.

La suma de teorías cuánticas, sin embargo, requería una interpretación, es decir, explicar de qué estaban hablando los científicos del instituto liderado por Bohr. La “Interpretación de Copenhague” sería expuesta primero en un simposio reunido en Como en septiembre de 1927 para conmemorar el centenario de la muerte de Alessandro Volta. Allí Bohr ofreció su gran conferencia, titulada “El postulado del cuanto y más recientes desarrollos en física atómica”, en representación del equipo. (Formado por el mismo Bohr, Heisenberg, Born, Pauli y Pascual Jordan). Un mes más tarde se celebró por quinta vez la Conferencia Solvay en Bruselas—la primera tuvo lugar en 1911—y allí tuvo la novísima interpretación su prueba de fuego.

La naturaleza estadística e indeterminada de la nueva física resultó indigerible para el venerado Alberto Einstein, quien la combatiría hasta el final de sus días. De este modo el gran patriarca de la física del siglo XX se hizo anacoreta. Max Born habló por la comunidad de físicos entera al escribir: “Muchos entre nosotros ven esto como una tragedia—para él, mientras busca a tientas su camino en soledad, para nosotros, que echamos en falta a nuestro líder y portaestandarte”.

Wolfgang-Werner-Enrico

Wolfgang Pauli, Werner Heisenberg, Enrico Fermi. Lago de Como, septiembre de 1927. Fotografía de archivo del Centro Europeo para la Investigación Nuclear (CERN).

La palabra “interpretación” no es de selección arbitraria. En el campo lógico-lingüístico es posible construir un lenguaje “formal” consistente en meros símbolos y sus reglas de combinación. No es necesario que signifiquen nada. Al “interpretarlo” se dota de contenido “semántico” (significado) a los símbolos y fórmulas obtenidas en el lenguaje formal. Las fórmulas y ecuaciones del “formalismo” cuántico son en sí mismas entidades abstractas útiles, por ejemplo, para calcular la probabilidad de encontrar una partícula dada en una cierta región del espacio. Su poder reside en su capacidad de modelar fenómenos que es imposible deducir de las teorías clásicas. Entre éstos se encuentran la cuantización de ciertas cantidades físicas (número discreto de órbitas electrónicas, por ejemplo), la dualidad onda-partícula y la relación de incertidumbre. Por la época del desarrollo de la interpretación de Copenhague, existía una intensa actividad en lógica, lingüística y filosofía de la ciencia (Wittgenstein, Círculo de Viena, Russell, Hilbert), así como algunos físicos, entre ellos Ernst Mach, Alberto Einstein y el mismo Niels Bohr, tenían posiciones filosóficas muy firmes, y no ignoraban el vivo debate epistemológico de los tiempos.

Einstein, en particular, sostenía que la mecánica cuántica era una teoría “incompleta”, en el sentido de no proporcionar una explicación para todo “elemento de la realidad” física. (1935). Hacía cuatro años que Kurt Gödel hubiera demostrado sus teoremas de incompletitud y el término estaba en el aire. Por su parte, Bohr, el otro polo de la polémica, se limitaba a reiterar la correspondencia de la teoría con los hechos y su propia interpretación de ella.

Una vez que él y Heisenberg extendieran la interpretación probabilística de la función de onda adelantada por Max Born, rechazaban sistemáticamente que ciertas cuestiones tuvieran sentido, puesto que la Física, al decir de Bohr, no tiene por objeto decirnos cómo es el mundo en realidad, sino sólo predecir exitosamente los resultados de los experimentos. William Blake hubiera considerado a ésta, la más desnuda entre las posturas, la esencia última del satanismo.

DIGRESIÓN

(Quien escribe asistió a la conferencia de un físico yugoslavo—de nombre olvidado y que fuera alumno todavía de Max Planck—en el Centro de Física del Instituto Venezolano de Investigaciones Científicas, IVIC, en 1981 o 1982. La conferencia versó sobre los principios generales de la física cuántica. En esa ocasión el suscrito planteó al profesor visitante la siguiente cuestión: en 1931 Gödel mostró que los sistemas matemáticos de riqueza equivalente o superior a la de la aritmética o teoría de los números, no podían ser a la vez completos y consistentes. Comoquiera que la física cuántica empleaba un formalismo matemático más complejo que la mera aritmética, habría transpuesto el “umbral gödeliano”, y por tal razón sufriría de incompletitud o inconsistencia. Tal vez, entonces, la incertidumbre de Heisenberg tenía una raíz lógico-lingüística. El conferencista se mostró impactado por la idea y no pudo ofrecer respuesta satisfactoria al asunto).

En todo caso, la física cuántica ha sido sometida a numerosísimas verificaciones experimentales. De todas ha salido airosa. En particular, ha tenido extraordinario éxito predictivo, y también en tanto guía de desarrollos tecnológicos diversos, que pueblan el mundo de nuestra cultura material, desde la criptografía hasta la generación de imágenes por resonancia magnética nuclear, pasando por el transistor y el rayo láser. Desarrollos sucesivos han integrado el tratamiento cuántico con la teoría especial de la relatividad—teoría cuántica del campo o quantum field theory—y también han producido una teoría satisfactoria de la interacción nuclear o fuerte—cromodinámica cuántica—que mantiene a los nucleones (el protón y el neutrón) confinados al núcleo del átomo, así como una unificación—teoría electrodébil—de la electrodinámica con la “interacción débil”. (Responsable en los átomos de la emisión de partículas beta—electrones—en el proceso conocido como decaimiento beta: beta decay).

Es el objetivo más profundo de la Física en nuestros días la unificación de la mecánica cuántica y la teoría general de la relatividad. En este esfuerzo el propio Einstein, y Heisenberg, con su muy preliminar e incompleta “teoría general de la materia”, que contendría la fórmula universal de la Física, fracasaron.  La actual candidata, la “teoría de cuerdas”, es una estructura tan compleja y tan poco intuitiva, que habría horrorizado a Einstein, eterno creyente en la simplicidad y belleza de las fórmulas incrustadas en la creación divina.

NOTAS HISTÓRICAS

1. Heisenberg trabajó en su teoría general o unificada de la materia por más de cinco años, durante los cuales contó con la colaboración, a veces a distancia, de su muy entrañable amigo y colega, Wolfgang Pauli.

Las matemáticas involucradas en el estudio eran tan enrevesadas que generó un constante ir y venir de correcciones, y el trabajo no pudo ser publicado, como Heisenberg planeó, en Zeitscrift für Naturforschung, y sólo circuló en unas pocas copias como pre-print, una forma semiprivada de comunicación científica preliminar de uso común en los Estados Unidos. El envío de las copias tuvo lugar el 27 de febrero de 1958, tres días después de que Heisenberg presentara el asunto en el Coloquio de Física de la Universidad de Gotinga. A este evento asistió una nutrida concurrencia, en la que se encontraba un periodista con algún barniz de conocimientos físicos. Al día siguiente la Agencia Alemana de Prensa transmitía un despacho que llegó a los periódicos: “El ganador del premio Nóbel, profesor Werner Heisenberg, ha hecho.. un anuncio sensacional. El director y su equipo en el Instituto de Física de la Sociedad Max Planck han descubierto una ecuación que podría, por primera vez en la historia de la Física, servir como base para la deducción de la Física entera…”

Al saber esto, Pauli reaccionó ácidamente, enviando a un grupo de colegas una hoja de papel en blanco en la que aparecía dibujado un rectángulo. Sobre la figura había una leyenda que decía: “Esto es para mostrar al mundo que puedo pintar como Tiziano”. Y debajo: “Sólo faltan detalles técnicos”.

Heisenberg jamás llegó a su ansiada teoría general. Irónicamente, cuando supo que Murray Gell-Mann intentaba la comprensión de las partículas elementales como compuestas de entidades aun más pequeñas (quarks), creyó que el nuevo enfoque estaba fundamentalmente equivocado. Hoy los quarks son la piedra angular del llamado “modelo estándar” que explica la existencia de las partículas subatómicas. Como antes Einstein se separó de la corriente principal de la Física al perseguir sin éxito un error básico en la mecánica cuántica, Heisenberg también se había quedado atrás, aunque tales circunstancias no desdigan un ápice de los dos grandes físicos del siglo XX.

2. En 1998 se estrenó en Londres la obra teatral premiada de Michael Frayn, “Copenhague”, que relata el transcurrir de una visita que Heisenberg hiciera a Bohr—de raíz judía—en una Dinamarca ocupada por los nazis. Heisenberg dirigía el programa de investigación nuclear de Alemania, y de la reunión cada interlocutor ofreció una distinta versión de los hechos. Bohr negó la relación de Heisenberg, que quiso se interpretara el encuentro como la ocasión en la que dio seguridades al primero de que el programa que dirigía no fabricaría una bomba atómica.

En 2002 Howard Davies dirigió una adaptación de la obra para televisión. El papel de Heisenberg fue asumido por Daniel Craig, el nuevo intérprete de Bond, James Bond, en próxima película. LEA


[1] El momento de un cuerpo viene dado al multiplicar su masa por su velocidad. En un movimiento orbital se trata de una velocidad angular, de allí la aparición de π en la ecuación. La energía es el producto de la masa por el cuadrado de la velocidad.

[2] La física “clásica”, incluida en ella la teoría de la relatividad, es la previa a la física cuántica. Es determinística en lugar de probabilística, como la última.

[3] Tal como la mecánica de Newton es considerada un caso límite o especial de la teoría general de la relatividad.

[4] A diferencia de la teoría de la relatividad, que fue esencialmente aportada por el genio solitario de Einstein, la mecánica cuántica fue construida con los aportes de un buen número de investigadores, quienes fueron añadiendo, en rápida sucesión, escalones adicionales.

[5] Generalizada esta idea, una onda característica está asociada incluso a una masa como la de la Tierra, aunque a su escala las propiedades ondulatorias sean enteramente despreciables. Es a la escala subatómica cuando las manifestaciones ondulatorias se hacen notables.

[6] En inglés se ha acuñado el término wavicle para referirse a estas entidades de dos caras, a partir de la contracción de las palabras wave y particle.

[7] Über den anschaulichen Inhalt der quantentheoretischen Kinematik und Mechanik.

[8] Al cociente de la constante de Planck dividida por 2p se le conoce como constante de Planck reducida, término que Bohr había introducido en la fórmula del momento orbital angular y se designa con el símbolo .

Share This: