La física a finales del siglo XIX y principios del XX. La unificación de electricidad y magnetismo por obra de James Clerk Maxwell. Los primeros experimentos atómicos: Rutherford y Thomson. El experimento crucial de Michelson-Morley que hace tambalear los supuestos newtonianos de movimiento absoluto y tiempo absoluto. La “catástrofe violeta” y la hipótesis cuántica original de Max Planck en 1900.
La ciencia de la Física puede ser considerada como la más fundamental de las llamadas ciencias naturales o experimentales. Trata de la estructura y la dinámica de los entes materiales, sin tomar en cuenta—hasta cierto punto—la composición química o la actividad biológica de los mismos. Para la Mecánica, por ejemplo, una de sus ramas, da lo mismo que un móvil en consideración sea una piedra, un cuerpo animal o un planeta. (Con mayor rigor, la Física sí pone atención a la composición química en ciertos casos. Por ejemplo, la Astrofísica y la Cosmología deben explicar la evolución de una estrella en términos de las reacciones atómicas del hidrógeno, el helio, etcétera, y la del mismo universo apela a las proporciones observables de estos elementos para verificar la correspondencia de predicciones teóricas con los fenómenos que describen o explican. En el fondo, la división entre Física y Química es una decisión arbitraria, como lo es cualquier taxonomía de las ciencias. La existencia de ciencias híbridas o intermedias—físico-química, bioquímica, física matemática—es evidencia de tal cosa).
El siglo XIX fue definitivamente un siglo crucial para la Física. Hasta éste, para empezar, la Física se identificaba con la Filosofía Natural. (Naturphilosophie. Aristóteles escribió su Física, y a pesar de que Newton acabó con el paradigma aristotélico en el campo, continuaba pensándose como filósofo. No es por otra cosa que su obra cimera, en la que expone la exitosa Teoría de la Gravitación Universal, se llamara Principia Mathematica Philosophiæ Naturalis. Del lado de la Biología, quienes investigaban los sistemas dotados de vida entendían hacer Historia Natural, aunque también entraban en ésta los estudios que hoy llamaríamos Geología). Es en el siglo XIX cuando se presenta la noción de “ciencia positiva” (Comte), o ciencia verificada por los hechos positivos o experimentales. El desarrollo de esta postura llevará al Empirismo y Positivismo Lógico, lo que incluyó las posiciones extremas de Ernst Mach, de gran influencia sobre Albert Einstein).[1]
Por otra parte, durante el siglo XIX predominó, sin ser retada o significativamente aumentada, la Mecánica de Newton[2], pero sí hubo grandes desarrollos en otros campos. Las investigaciones calóricas del siglo XVIII dieron paso a la Termodinámica, montada sobre la Teoría Cinética de los Gases y ayudada por la Estadística y, sobre todo, los fenómenos eléctricos y magnéticos encontraron una explicación general y rigurosa en la obra del físico escocés James Clerk Maxwell. (1831-1879).
En opinión de Einstein, la obra de Maxwell fue el aporte más profundo en Física desde la época de Newton, lo que se justificaba porque la propia obra einsteniana no habría sido posible sin la plataforma proporcionada por el escocés. Maxwell atacó varios problemas, incluyendo la teoría cinética de los gases, la percepción del color y hasta la “invención” de la fotografía a color. (En realidad, la obtención de tres placas convencionales de un mismo objeto fotografiado con tres filtros de distinto color. La proyección simultánea de las placas restituía una razonable reproducción a color). Su obra fundamental, sin embargo, trató del fenómeno del electromagnetismo, al que proporcionó una completa formulación matemática.
Antes de Maxwell, el gran experimentalista inglés Michael Faraday—a quien se debe el inicio de la ingeniería eléctrica sin ser él mismo muy ducho en matemáticas—había demostrado la existencia de una relación entre la luz y el magnetismo. Aplicando un campo magnético a un haz de luz polarizada—que oscila en un solo plano—logró comprobar que podía rotar el plano de polarización. Igualmente había descubierto el fenómeno de inducción eléctrica: la generación de electricidad en un conductor que se moviera dentro de un campo magnético. (De hecho, se debe a Faraday la invención de un generador eléctrico o dínamo, basado en el fenómeno de inducción).
A pesar de sus limitaciones—conocía el álgebra elemental y algo de trigonometría—Faraday logró formular una ecuación que Maxwell rescataría más adelante, y postuló la existencia de “líneas de flujo” magnético, introduciendo de este modo la noción de “campo magnético”: la región del espacio en la que se manifiestan alteraciones generadas por los imanes. (La noción de campo se aplica igualmente a los fenómenos eléctricos, y más generalmente existe una “teoría de campos”, esencialmente matemática). La “Ley de Faraday” establece que un campo magnético que varía en el tiempo genera una fuerza electromotriz que varía proporcionalmente. La expresión precisa requiere cálculo integral. La forma diferencial de la ecuación es la siguiente:
En ella se expresa que la fuerza electromotriz E es proporcional al cociente del incremento de la densidad de flujo magnético B entre el incremento de tiempo t. Esta Ley de Faraday se convirtió en una de las ecuaciones de Maxwell.
Lo que se conoce hoy como las ecuaciones de Maxwell es un conjunto de cuatro fórmulas esenciales, aunque al inicio (1864) el físico presentó un conjunto de veinte ecuaciones[3]. Las restantes son concebidas ahora como fórmulas auxiliares de las cuatro principales. Éstas son: la relación cuantitativa de un campo eléctrico con la carga eléctrica que lo produce (electricidad estática); la relación cuantitativa entre un campo o corriente eléctrica variable y el campo magnético que producen; el fenómeno inverso, es decir, la relación cuantitativa entre un campo magnético variable y el campo o corriente eléctrica que produce (Ley de Faraday); la formulación cuantitativa de por qué no se observa experimentalmente un “monopolo” magnético. (Es posible observar una carga eléctrica positiva en ausencia de cargas negativas, así como lo inverso, pero hasta ahora no se ha observado un cuerpo que manifieste un polo norte magnético sin estar acompañado de un polo sur. Todo imán posee ambos polos).
Tan sólo por presentarlas visualmente—gente como Einstein o Dirac apreciaría la estética “simple” de las fórmulas—he aquí las cuatro ecuaciones en su forma diferencial (en cálculo integral se escriben diferentemente) y en el orden expuesto:
En verdad, cada una de las fórmulas corresponde a leyes propuestas por científicos anteriores a Maxwell. Además de la encontrada por Faraday (la tercera), fue Gauss quien formulara la primera y la cuarta (Ley de Gauss del magnetismo o ausencia de monopolos), mientras que la segunda es la llamada Ley de Ampère. (Cada uno de estos investigadores fue inmortalizado en la escogencia de unidades del campo electromagnético: existen el maxwell, el faradio, el gauss y el amperio, así como el ohmnio—por Ohm—el vatio—por Watt—y el voltio por el pionero Alessandro Volta, inventor de la pila eléctrica. Galvani, antecesor de éste que demostró la interacción de electricidad y tejido muscular, se perpetúa en el verbo galvanizar).
Corresponde a Maxwell, por tanto, no el descubrimiento de los fenómenos cuantificados en esas cuatro ecuaciones, sino la demostración de su íntima trabazón y dependencia recíproca, así como su formulación matemática rigurosa.
Apoyado de nuevo en una intuición de Faraday—la interacción de luz y magnetismo a partir de sus experimentos con luz polarizada[4]—Maxwell daría entonces un salto crucial: la postulación de que la luz es, en realidad, radiación de carácter electromagnético, y su idea o predicción de la propagación de ondas electromagnéticas en el espacio.
Nos resulta hoy tan familiar entender la luz como un segmento del espectro electromagnético, que se nos dificulta visualizar la magnitud del logro conceptual de Maxwell. Faraday, por caso, sabía que la luz y el magnetismo interactuaban, tal como lo hacían el magnetismo y la electricidad. Pero para él se trataba de fenómenos separados, por más que se influyesen mutuamente. La genialidad de Maxwell, así como su capacidad matemática, permitió la generalización y la primera gran “unificación” de la Física: electricidad y magnetismo, antaño entendidos como fenómenos distintos, eran las dos caras de una misma moneda, una misma cosa, y la luz era electromagnetismo, desde su porción calórica, infrarroja, hasta su porción más energética, ultravioleta[5]. De hecho, Maxwell fue capaz de concebir ondas electromagnéticas más allá de los “rayos” ultravioleta.
Pero no sólo predijo la propagación de esas ondas por el espacio, sino que extrajo de sus ecuaciones una magnitud para la velocidad de esa propagación. Así la calculó en 310.400 kilómetros por segundo. La coincidencia de este valor con la medición más reciente de la velocidad de la luz[6] llevó a Maxwell a la siguiente declaración: “Esta velocidad es tan próxima a la de la luz, que parece que tenemos fuertes razones para concluir que la luz misma (incluyendo el calor radiante, y cualquiera otra radiación) es una perturbación electromagnética en forma de ondas que se propagan a través del campo electromagnético de acuerdo con las leyes electromagnéticas”.
No mucho después de la muerte de Maxwell se obtendría confirmación experimental de su genial conjetura: Hertz demostraría la transmisión de las ondas previstas por Maxwell—por un tiempo se las llamó “ondas hertzianas”—en 1888, transmitiéndolas a una frecuencia[7] de la banda de 4 metros que hoy conocemos como UHF. (Ultra High Frequency). Este resultado, al que el propio Hertz no le concedía utilidad práctica alguna—“sólo sirve este experimento para probar que el maestro Maxwell tenía razón”—llevaría a la invención de la radio por el emprendedor italiano Guillermo Marconi en 1895[8]. (Precedido, en realidad, por el serbio Nikola Tesla).
Para las concepciones físicas del siglo XIX, si se hablaba de ondas se implicaba la existencia de alguna materia o medio que oscilara. Las ondas del mar requieren agua, las ondas sonoras o acústicas que el aire se expanda y contraiga, etcétera. Los físicos del siglo XIX creían en la existencia de una hipotética sustancia, el éter, que convenía postular como única entidad que permitiría un marco de referencia absoluto, requerido por los conceptos newtonianos de espacio y tiempo absolutos. Al presunto medio se atribuyó entonces, a partir de Maxwell, la propiedad de oscilar como consecuencia de las perturbaciones electromagnéticas, y se le llamó “éter luminífero”. (Que lleva luz).
El hipotético éter, sin embargo, debía tener propiedades que eran mutuamente contradictorias—gran rigidez junto con gran elasticidad y permeabilidad—y el intento por comprobar su existencia, como veremos, condujo a un resultado inesperado y en principio nada bienvenido: la súbita obsolescencia—conceptual, pero no práctica—de la física de Isaac Newton.
………
Ernest Rutherford (1871-1937), junto con su grupo de asistentes, se convirtió en el pionero o padre de la física nuclear. Este neozelandés mudado primero a Canadá y luego a Inglaterra, concibió y dirigió el experimento crucial que demostraría la existencia del núcleo atómico y descubriría una de sus partículas fundamentales: el protón. Antes, sin embargo, uno de los maestros de Rutherford, el físico inglés J. J. (Joseph John) Thomson, descubriría el electrón y formularía el primer modelo de la estructura del átomo.
Pero todavía antes, hacia 1805, el químico inglés John Dalton formularía la primera versión consistente de una teoría atómica en tiempos modernos a fuerza de puro razonamiento. Después de desarrollar su teoría, Dalton la expuso en una obra de 1808 que llevaba el nombre, característico de la episteme de la época, de New System of Chemical Philosophy.
Lo que Dalton postulaba era que cada elemento natural se componía en realidad de pequeñas partículas—“átomos”, porque no podían dividirse—todas idénticas entre sí, pero diferentes a las que constituían elementos diferentes. Estos átomos se combinaban para formar compuestos, y cada compuesto tenía siempre la misma composición. Ignorante de la noción posterior de “valencia”, creyó sin embargo que los compuestos binarios (formados por dos elementos) se componían de un solo átomo de un elemento y uno solo del otro. (Por ejemplo, que el agua se constituía con un átomo de hidrógeno y uno de oxígeno). Esta idea era, en el fondo, la única errónea en su teoría, pero como no correspondía con los datos aportados por los análisis químicos cuantitativos, se convirtió en el principal obstáculo para la aceptación más generalizada de su teoría atómica. (A pesar de esto, las más grandes mentes de la Química de la época—Lavoisier, notablemente—se convirtieron a la doctrina atomista).
Así las cosas, hizo su entrada en la escena J. J. Thomson. En una serie de experimentos con rayos catódicos—que emanan del cátodo en un tubo sellado al vacío, por el que se fuerza una corriente eléctrica entre dos electrodos metálicos—llegó a la conclusión de que tales rayos eran realmente haces de partículas de masa mucho menor que la de los átomos constituyentes de los electrodos, y que portaba cada una carga eléctrica negativa. Fue a estas partículas a las que se llamó electrones, luego de que Thomson anunciara sus resultados y su explicación en 1897. El mismo Thomson los llamó “corpúsculos”; de lo que sí estaba consciente era de que había hallado partículas de escala subatómica[9].
Comoquiera, sin embargo, que los átomos mismos eran eléctricamente neutros, la única explicación para este hecho parecía ser que los electrones eran compensados, en el interior del átomo, por una carga positiva equivalente. ¿Dónde estaba? Thomson imaginó que la estructura del átomo se asemejaba a un budín de ciruelas, donde los electrones serían las frutas nadando en crema, la que llevaría la carga positiva. (Plum-pudding model, 1904). No veía Thomson que la carga positiva estaría asimismo en partículas; simplemente la sopa de crema sería mayor para aumentar la carga positiva compensatoria cuando crecía el número de electrones. La vigencia del modelo no duraría mucho; su alumno Rutherford se encargaría de suprimirlo.
Rutherford, en verdad, contribuyó con más de un concepto y hallazgo a la naciente Física Nuclear. Por ejemplo, se hizo un estudioso de la radioactividad, la radiación espontánea de ciertos materiales o elementos. Una sustancia como el radio emite tres clases de radiación, dos de las cuales están constituidas por partículas con carga eléctrica y una es de carácter electromagnético. Fue Rutherford quien las bautizara radiación alfa (de carga positiva; núcleos de átomos de helio formados, se sabe hoy, por dos protones y dos neutrones), radiación beta (electrones, de carga negativa) y radiación gama (electromagnética, más energética que los ya descubiertos rayos X).
También fue quien observara que una muestra de material radioactivo tomaba siembre el mismo tiempo para reducir su radioactividad a la mitad, dando origen al concepto de vida media (half life), que pronto iba a ser empleado en métodos de fechar geológica, paleontológica y arqueológicamente.
Pero fue el “experimento de la hoja de oro”, y las conclusiones que de él extrajo, la cumbre de su obra. Bajo su dirección, Geiger y Marsden, sus asistentes en la Universidad de Manchester, bombardearon una delgada lámina de oro[10] (luego otros elementos) con partículas alfa, encontrando que la mayoría de las veces estos proyectiles atravesaban el material imperturbados o con una pequeña desviación de su trayectoria, pero ocasionalmente rebotaban en ángulos incluso mayores de 90º.
De este histórico hallazgo de 1909, Rutherford dedujo que la carga eléctrica positiva del átomo no estaba dispersa en una “nube” o crema que rodeaba a los electrones, como pensaba Thomson, sino que, por lo contrario, estaba concentrada en una reducida parte central del átomo, a la que llamó núcleo. (El tamaño de un núcleo al de una pelota de béisbol es como el tamaño del átomo al de un estadio).
También derivó de la observación un nuevo modelo de átomo: similar a un sistema solar donde el núcleo sería el sol de unos planetas-electrones orbitando a su alrededor, retenidos en la relativa proximidad del núcleo por atracción electrostática de sus cargas de distinto signo. (Este modelo planetario tampoco se sostendría mucho tiempo, y fue sustituido por el adelantado por Niels Bohr, el próximo líder de la física nuclear. En sus conversaciones con Bohr, Rutherford conjeturó la existencia del neutrón, que no sería descubierto hasta 1932 por James Chadwick).
………
Después de la obra de Maxwell la actividad en materia de la velocidad de la luz y su hipotético medio de propagación continuó febrilmente. En 1887 dos investigadores norteamericanos, Albert Michelson y Edward Morley, condujeron el experimento “fracasado” (de resultado nulo) más ilustre de la historia de la ciencia.
Como hemos visto, una de las consecuencias de la noción de movimiento absoluto en la física de Newton era la noción del “éter”, hipotética sustancia que permitiría una referencia fija para medir contra ella los movimientos aparentes de los astros, todos—incluido el de la misma Tierra—obviamente relativos. Este planeta, como cualquier otro cuerpo celeste, debía sentir los efectos de un “viento del éter” al trasladarse en el seno de tal sustancia, del mismo modo que en un paraje sin ninguna brisa uno siente viento en la cara si se desplaza en un automóvil y saca el rostro afuera por la ventanilla. En el caso del éter, dado que se le postulaba igualmente como el medio en el que la luz era transmitida, el viento del éter se manifestaría en variaciones de la velocidad de la luz.
Según lo implicado por la Philosophiæ Naturalis de Newton, uno debía medir una velocidad superior si la Tierra se acercaba a la fuente luminosa y una menor si se alejaba de ella.
Michelson (físico germano-americano) y Morley (químico estadounidense) se propusieron realizar un cuidadoso experimento con la idea de detectar el famoso viento del éter y lo llevaron a cabo en 1887. Para esto se valieron de un interferómetro, un instrumento capaz de detectar la más mínima diferencia de velocidad entre haces de luz tendidos sobre direcciones diferentes. (En esencia un conjunto de espejos y semiespejos separaba un mismo haz en dos diferentes que recorrían exactamente la misma distancia pero en trayectorias que en un segmento eran perpendiculares entre sí).
Michelson y Morley no lograron detectar ningún viento del éter.[11] El resultado nulo amenazaba con socavar irremisiblemente las bases fundamentales del edificio newtoniano. Así escribieron: “Si ahora fuese legítimo concluir del presente trabajo que el éter está en reposo con respecto a la superficie de la Tierra, de acuerdo con Lorentz no podría haber un potencial de velocidad y su propia teoría fracasa también”.
De inmediato se suscitó una carrera por explicar teóricamente el resultado nulo sin abandonar la idea del éter. Una interpretación adecuada tendría que esperar por el año de 1905, cuando Albert Einstein ofreciera una solución radical.
………
Desde la época de Newton se estudiaba sistemáticamente el espectro luminoso, presente en el fenómeno del arco iris y generado por prismas y cristales. Más tarde se pensó que el espectro representaba un continuum de radiación electromagnética de energía o frecuencia crecientes. La radiación calórica infrarroja tenía menor energía y oscilaba con una frecuencia menor. (Su longitud de onda era más larga). Al otro extremo, la radiación ultravioleta exhibía mayor frecuencia, que aumentaba, en apariencia continuamente, desde el rojo en dirección al violeta.
A mediados del siglo XIX Gustav Kirchoff inventó (en conjunto con Bunsen, en 1859) el espectroscopio—un uso instrumental de un prisma junto con oculares que permitían ver el espectro generado por la incandescencia de los distintos elementos químicos. Cada uno arroja un espectro diferente, su huella digital, por decirlo así, pues cada elemento absorbe luz a distintas frecuencias. La invención resultó ser una poderosa herramienta analítica, pues permitía determinar la composición química de cuerpos iluminados distantes, como en el caso del Sol. En el espectro del Sol y las estrellas fue posible comprobar la existencia de sustancias presentes en la Tierra, con lo que se determinó que una sola química gobernaba el universo. Más aún, el elemento helio fue descubierto en el Sol (1868) antes que en la Tierra; de allí su nombre, el del dios griego representado por nuestra más próxima estrella.
Kirchoff logró establecer, por otra parte, que si un elemento, al calentarse, emite luz de ciertas longitudes de onda, al enfriarse absorbe luz que tiene precisamente esas mismas longitudes de onda. Ahora bien, si hubiera un objeto que absorbiese toda la luz que recibiera, por la misma razón irradiaría a todas las frecuencias. Esto se llamó un “cuerpo negro”, pues al absorber todas las frecuencias no reflejaría ninguna y se vería negro.
El concepto de cuerpo negro suscitó gran interés, y los físicos se dispusieron a estudiar la radiación de un cuerpo así. (Black-body radiation). Como las longitudes de onda son más amplias hacia el rojo que hacia el violeta, hay muchas más longitudes de onda—“caben” más—en el extremo ultravioleta que en todo el espectro visible, y si un cuerpo negro irradia a todas las frecuencias, entonces debiera irradiar más luz en las porciones superiores del espectro que en las más bajas. A fines del siglo XIX el inglés Lord Rayleigh desarrolló una ecuación que parecía corresponder con esa predicción: el cuerpo negro debía emitir violentamente la mayor parte de su luz irradiada a las longitudes de onda superiores de la región violeta y ultravioleta.
Como esta “catástrofe violeta” no había sido observada jamás, se argumentaba que ningún cuerpo absorbía realmente toda la luz incidente. Ninguno era un cuerpo negro. Habría que inventar uno para experimentar con él. El honor del invento cupo al físico alemán Wilhelm Wien.
Wien se dio cuenta de que el interior de una caja provista de un pequeño orificio actuaría como un absorbedor perfecto, pues la luz que entrase por el agujero sería absorbida al incidir en la superficie interna, de una vez, o tarde o temprano al reflejarse varias veces, rebotando dentro de la cámara hasta ser absorbida. En consecuencia, la luz que saliera por el orificio al calentar la cámara, equivaldría a la radiación de un cuerpo negro.
Al efectuar el calentamiento, no obstante, el fenómeno previsto no se presentó. No fue posible causar la catástrofe violeta. En efecto, la radiación se hacía más intensa con mayores frecuencias (menores longitudes de onda), pero siempre se alcanzaba una longitud de onda específica en la que la radiación era máxima, y después de ese punto la radiación decrecía. A medida que se calentaba el dispositivo a temperaturas mayores, la longitud de onda de radiación máxima era más corta, aunque en ningún momento se obtenía la temida catástrofe. Wien no pudo hallar alguna ecuación que se ajustara a los resultados experimentales. La solución sería proporcionada por su compatriota, Max Planck, quien atacó el asunto en 1899 y presentó su explicación justo cuando concluía el siglo, a fines de 1900. Para esto echó mano de una conjetura revolucionaria.
Como hemos visto, a partir de Dalton comenzó a aceptarse que la materia era corpuscular, granular, discontinua. Pero se creía que la energía era una magnitud continua, infinitamente divisible en cantidades cada vez menores. La brillante hipótesis de Planck consistía en afirmar que la energía también era irradiada en unidades discretas. Esto es, que estos quanta—plural de quantum—tenían un tamaño mínimo o unitario, por debajo del cual no era posible conseguir cantidades menores de energía.
En un paso ulterior, Planck concibió que la magnitud de los cuantos de energía variaba proporcionalmente con la longitud de onda: mientras menor era la longitud de onda (mayor frecuencia) el cuanto era mayor. Esta última hipótesis permitió una fácil explicación de la radiación observada del cuerpo negro. Es de Isaac Asimov la siguiente descripción analógica:
“Al cuerpo negro le sería fácil reunir suficiente energía para formar cuantos pequeños; por eso, radiaría fácilmente longitudes de onda largas, que son las que requieren cuantos más modestos. Las longitudes de onda cortas, por el contrario, no podrían ser radiadas a menos que se acumularan cuantos mayores, que serían más difíciles de reunir.
Es como si nos encontráramos en unos grandes almacenes y nos dijeran que podíamos comprar lo que quisiéramos, con tal de pagar en monedas. Comprar un artículo de una peseta no plantearía problemas; pero en cambio sería gravoso (en los dos sentidos de la palabra) adquirir algo por valor de diez mil pesetas, porque lo más probable es que no pudiéramos acarrear el peso de tantas monedas… Es cierto que calentando la cámara del cuerpo negro a temperaturas más altas habría más energía disponible, con lo cual se podrían producir longitudes de onda más cortas, compuestas de cuantos más grandes. Pero, aun así, siempre habría una longitud de onda que fuese demasiado corta, incluso para un cuerpo negro fuertemente calentado; y entonces sería imposible emitir los grandes cuantos que eran necesarios. Por consiguiente, nunca podría haber una catástrofe violeta, que sería como decir que siempre habría un artículo demasiado caro para la cantidad de monedas que pudiésemos acarrear”.
La energía de un quantum en particular se obtiene multiplicando su frecuencia por la constante h, o constante de Planck—una magnitud expresada en unidades de “acción” (ergios o joules por segundo)—la que a partir de entonces aparecería en casi toda ecuación de la física “cuántica” que se desarrollaría en el siglo XX. Ésta es la simplísima y poderosa relación de Planck:
El valor aceptado para la constante de Planck , una de las constantes más fundamentales del universo, es de 6,6262 x 10—27 ergios por segundo. Se trata de una magnitud verdaderamente muy pequeña, lo que explica por qué las variaciones de energía se interpretaban como las de una magnitud continua. (La constante de Planck se consigue frecuentemente en su forma “reducida”, la que se obtiene al dividir h por 2π).
Nada sería igual en la Física después de Max Planck. Tituló a su trabajo original “Sobre la ley de la distribución de la energía en el espectro normal”. Fue publicado en el volumen 4 de Annalen der Physik, en 1901. Cuatro años más tarde la prestigiosa revista publicaría cuatro revolucionarios trabajos de un revisor de patentes en Berna, el físico alemán de 26 años que respondía al nombre de Albert Einstein. LEA
[1] Augusto Comte, fundador de la Sociología, dio cuenta de esta división entre ciencia positiva y Filosofía o Metafísica en su Course de philosophie positive, que a su vez tenía por científico sólo lo que pudiera ser sostenido con base en la experiencia—ciencia positiva—y lo que fuese elaborado dentro de las ciencias formales como la Matemática y la Lógica. Más adelante, el Empirio-Criticismo, el Positivismo Lógico y el Empirismo Lógico fueron variantes o fases del Positivismo original. La concepción llega en el siglo XX a constituir la Filosofía Analítica y Lingüística.
[2] William Hamilton, en 1833, presentó una reformulación de la mecánica newtoniana que en cierto sentido es continuación de otra presentación, postulada por Joseph Louis Lagrange a fines del siglo XVIII. (1788, o un año antes de la Toma de la Bastilla). En esencia la mecánica lagrangiana y la hamiltoniana sustituían las matemáticas empleadas por Newton con otras de orden superior—lo que simplificó los cálculos de muchos problemas—pero no introdujeron contradicción alguna de Newton.
[3] Se las puede presentar también en forma de vectores (cálculo vectorial), y en este caso destaca la simetría de los campos eléctrico y magnético, o en una notación presentada posteriormente por el propio Maxwell en términos de “cuaternios”, la que no prosperó.
[4] Un haz de luz común oscila en muchos planos perpendiculares a su sentido de propagación. La luz polarizada está restringida a un solo plano, y ella fue posible mediante el uso de cristales especiales, como el famoso “prisma de Nicole”, empleado en espectroscopios. La invención por Edwin Land de una película que polariza la luz, condujo a la patente de Polaroid® y a la fabricación—entre otras cosas—de lentes de sol que funcionan suprimiendo la transmisión de luz salvo en un plano, con lo que se reduce considerablemente la incidencia lumínica sobre los ojos.
[5] La radiación infrarroja fue asociada con la luz casi de inmediato, a partir de la experiencia común de un metal que se calienta al fuego (que despide luz) hasta que se pone “al rojo vivo” y luego “rojo blanco” con más calor. La radiación ultravioleta fue demostrada por Ritter en 1801. Para su época se creía que la luz se componía de tres elementos: un componente calórico y oxidante (infrarrojo), uno iluminante (el espectro del arco iris), y uno químico o reductor (ultravioleta).
[6] En 1849 Fizeau había reportado la velocidad de la luz a 313.000 kilómetros por segundo. Hoy en día—“por definición”—se la computa en 299.792 kilómetros por segundo. (En 1983 el metro fue definido como la distancia cubierta por la luz—en el vacío—en 1/299792458 de segundo).
[7] La unidad de frecuencia de las ondas electromagnéticas, de un “ciclo” por segundo, fue bautizada en 1930 como herzio (hertz, en inglés) en honor de Heinrich Rudolf Hertz.
[8] En 1901, el primer año del siglo XX, Marconi tuvo aparentemente éxito en transmisión transatlántica de código Morse desde Cornualles, Inglaterra, a Terranova. (Este hecho se disputa). El 12 de octubre de 1931 Getulio Vargas inauguraba en el monte Corcovado, en Río de Janeiro, la monumental estatua de Cristo Redentor, que se suponía iba a ser iluminada por una señal transmitida por Marconi desde Nápoles. Las condiciones atmosféricas no lo permitieron y el monumento debió ser iluminado manualmente.
[9] El nombre electrón había sido propuesto años antes por George Johnstone Stoney para referirse a la unidad de carga eléctrica. En griego la palabra significa ámbar, sustancia que a la frotación adquiere carga eléctrica.
[10] El átomo de oro tiene una masa de 197 unidades atómicas, mientras que una partícula alfa tiene una de 4 unidades. Las balas eran bastante más pequeñas que el blanco.
[11] En realidad, pequeñas discrepancias fueron encontradas, pero tan inferiores a lo predicho por la teoría, que podían ser perfectamente atribuidas a “error” experimental. El interferómetro, que mediría la diferencia por la formación de “anillos de interferencia” en caso de que la velocidad de los dos haces discrepara significativamente, fue montado sobre un bloque de mármol que flotaba en un estanque de mercurio sito en un sótano, a fin de minimizar el efecto de vibraciones. El mercurio permitía rotar el aparato sin dificultad. (Michelson hizo por su cuenta el experimento en 1881, antes de hacerlo con Morley en 1887 con mucha más precisión).
intercambios