Física del siglo XX – (2)

physics

La contracción de Lorentz-FitzGerald: un intento por salvar a Newton. El annus mirabilis de 1905. Albert Einstein y la Teoría Especial de la Relatividad. (Sobre la electrodinámica de los cuerpos en movimiento, en Annalen der Physik). Su interpretación cuántica del efecto fotoeléctrico.

___________________________

Isaac Newton no ignoraba que los movimientos aparentes de los astros eran relativos. Esto era obvio de móviles terrestres, pero también de la Luna y los planetas conocidos en el sistema solar. Hasta el Sol se movía. ¿Cómo sería posible encontrar un marco de referencia absoluto (en reposo) a partir del cual se pudiera medir un movimiento absoluto y un tiempo absoluto, requeridos por los axiomas de la mecánica newtoniana?

El “éter luminífero”, presunto portador de las ondas electromagnéticas de Maxwell, era el único candidato disponible, pero el experimento de Michelson-Morley determinó que ciertos efectos (viento del éter) de esta entidad hipotética no eran detectables. Parecía que el edificio newtoniano estaba a punto de derrumbarse por colapso de sus bases.

En socorro de Newton, un físico irlandés, George Francis FitzGerald, y uno holandés, Hendrik Antoon Lorentz, propusieron independientemente la existencia del fenómeno que se conoció luego como “contracción de Lorentz-FitzGerald”. Así, adelantaron que los resultados nulos del experimento de Michelson y Morley[1] podían coexistir con la idea de que la Tierra viaja a través del éter si se presumía que los cuerpos en traslación acortaban su tamaño en la dirección de su movimiento. (La dimensión perpendicular a esta dirección no se vería afectada). Además postularon que este acortamiento o contracción se incrementaría a medida que el móvil se moviera con velocidad creciente hasta alcanzar la velocidad de la luz, momento en que el cuerpo en cuestión estaría completamente achatado.

La explicación parecía funcionar. En términos de Newton, las velocidades relativas se computan con una simple suma algebraica. Si alguien lanza hacia mí una pelota que sale de su mano a 100 kilómetros por hora, mientras me muevo en su dirección a 10 kilómetros por hora, debo recibirla más pronto que si permaneciera estacionario, pues la suma de velocidades implica que la bola me llegaría a la velocidad relativa de 110 kilómetros por hora. Esto era lo que se esperaba detectar, para la velocidad de la luz proveniente del espacio, con el interferómetro de Michelson. La velocidad de la luz proveniente de una fuente a la que la Tierra se acercara, debía ser mayor que la de una fuente relativamente estacionaria o de la que nuestro planeta se alejara.

Pero no se observó diferencia en la velocidad de la luz, independientemente del movimiento de la Tierra o la orientación del interferómetro. Lo que FitzGerald y Lorentz adujeron fue que el efecto no se observaba porque la distancia recorrida por la luz de una fuente en aproximación sería mayor, al haberse “alejado” la superficie de la Tierra de la fuente por contracción de su tamaño.

Las magnitudes involucradas eran realmente pequeñas, dada la enorme diferencia entre la velocidad de la luz y la velocidad de traslación de la Tierra, y Lorentz y FitzGerald ajustaron sus números para que cuadraran exactamente con lo observado. De este modo propusieron que el acortamiento vendría expresado por una proporción equivalente a la raíz cuadrada de 1—v2/c2, donde v corresponde en este caso a la velocidad de traslación de la Tierra y c a la velocidad de la luz. Es obvio que la fracción v2/c2 tiende a cero, puesto que el cuadrado de un número pequeño como v es muchísimo menor que el cuadrado de c. Si esto es así, el valor de la expresión 1—v2/c2 tiende a 1 (igualmente, la raíz cuadrada de 1 es 1), para valores de v relativamente pequeños. Y multiplicar una suma algebraica de velocidades newtoniana por 1 la deja idéntica. Newton se había salvado.

En cambio, cuando el valor de v se aproxima al de c la cosa es distinta. Si se igualan ambas velocidades, la fracción v2/c2 se iguala a 1, y entonces la expresión 1—v2/c2 se iguala a 0, así como su raíz cuadrada. Esta condición expresa el achatamiento total, en la dirección de su movimiento, de un cuerpo que se moviese a la velocidad de la luz. Es claro que, en condiciones normales, ningún cuerpo conocido se desplaza a velocidades cercanas a las de la luz, razón por la que la contracción de Lorentz-FitzGerald pasaría inadvertida.

Lorentz produjo un conjunto de ecuaciones conocido como “transformaciones de Lorentz”[2], que implicaban fenómenos realmente extraños. Si las variaciones en la velocidad de la luz fuesen determinadas, no por interferómetro, sino por un reloj extraordinariamente preciso, entonces habría que concluir que los relojes que se mueven por el éter se retrasan exactamente por el mismo factor de la raíz cuadrada de 1—v2/c2. Todo reloj, todo instrumento de medida, como una regla, quedaría sistemáticamente afectado por la traslación. (Idealmente, si debemos medir con una regla gigantesca el acortamiento del diámetro de la Tierra, la regla misma debe acompañarla en su traslación a su misma velocidad, y por tanto se achicaría exactamente en la misma proporción, lo que haría la contracción indetectable). De hecho, Lorentz proponía distinguir entre un movimiento “aparente” y uno “verdadero”, mientras sostenía que las “verdaderas” dimensiones y el tiempo “verdadero” no podrían determinarse jamás por procedimientos experimentales[3].

Tales pretensiones configuraban un estado de cosas nada satisfactorio, sobre todo para Albert Einstein, filosóficamente influido por el positivismo extremo de Ernst Mach[4], que exigía descartar cualquier aseveración que no estuviera sustentada en la observación directa. Einstein, que desde su adolescencia se preguntaba cómo aparecería el mundo ante un observador que cabalgara sobre un rayo de luz, cortó por lo sano, al preservar las transformaciones de Lorentz mientras echaba por la borda la noción del éter en uno de cuatro trabajos publicados en 1905 en Annalen der Physik. (Sobre la electrodinámica de los cuerpos en movimiento).

………

El año de 1905 puede ser tenido, con toda propiedad, por el annus mirabilis de Alberto Einstein, y en verdad, de la ciencia física. Una sola cabeza había producido y publicado, en la revista mensual de la Sociedad Alemana de Física (Annalen der Physik), cuatro trabajos[5] de la mayor importancia teórica e impacto. Ya el primero, con el que proporcionaba una explicación del movimiento browniano (de partículas en suspensión en un medio líquido), habría bastado para destacarle como físico de importancia. Los otros tres fueron verdaderas revoluciones.

En “Sobre un punto de vista heurístico concerniente a la producción y transformación de la luz”, Einstein propuso que la luz (la radiación electromagnética en general) está compuesta por cuantos que le confieren ciertas propiedades de partículas, además de sus propiedades ondulatorias. Más adelante se acuñaría el nombre de “fotones” para designar a estos cuantos, y se les reconocería como una de las partículas fundamentales del universo. El trabajo ofrecía una explicación perfecta al fenómeno conocido como “efecto fotoeléctrico”—la generación de una corriente eléctrica cuando ciertos materiales reciben luz incidente—y proporcionó la base conceptual para tecnologías que tardarían cincuenta años en emerger: los masers y los lasers[6]. Cuando Einstein fuese honrado con el Premio Nóbel de Física, en 1921, fue por su ley del efecto fotoeléctrico y por su trabajo “en el campo de la Física teórica”. La Academia Sueca no se atrevió aún a mencionar sus teorías—especial y general—de la relatividad.

La teoría especial de la relatividad fue formulada en el tercero de los cuatro grandes trabajos: Zur Elektrodynamik bewegter Körper (Sobre la electrodinámica de los cuerpos en movimiento). Se la llama especial porque trata de cuerpos en movimiento que no experimentan aceleración. (La teoría general, publicada en la misma revista once años más tarde, trataría de cuerpos acelerados, y superaría en poder explicativo a la mismísima teoría de la gravitación de Isaac Newton).

En este tercer trabajo, de extraordinaria simplicidad y rareza—no contenía ni una sola referencia bibliográfica—Einstein regresó sobre el problema del éter y los resultados del experimento de Michelson-Morley. Tomando el toro por los cuernos, construyó un esquema revolucionario a partir de dos simples postulados: que la velocidad de la luz es una constante universal, y que las leyes de la Física son asimismo las mismas en cualquier parte del universo.

Einstein se percató de que la noción clave del problema era la idea de simultaneidad para las comparaciones entre diferentes observadores en movimiento y sus correspondientes marcos de referencia. (Sus sistemas de coordenadas, dentro de los que miden velocidades y tiempos). Eventos que parecerían sucederse simultáneamente para un observador en particular, serían percibidos como ocurriendo en momentos distintos por observadores en diferentes estados de movimiento respecto del primero. La simultaneidad era, por tanto, un concepto relativo; de ahí el nombre de la teoría.

Supóngase un observador que percibe como simultáneas las apariciones de dos estrellas nuevas en el firmamento. En este caso no puede estar seguro de su simultaneidad real, porque se requiere saber la distancia de ambas estrellas al observador. Es posible, incluso, que en “este momento” (momento local del observador), ya una de las estrellas ni siquiera exista, lo que no se puede saber porque a lo mejor se encuentra a una distancia tan grande que la luz, el fenómeno de mayor velocidad en el universo, tarde decenas o cientos de miles de años en recorrerla.

Los hallazgos de FitzGerald y Lorentz fueron reinterpretados a partir de esta nueva concepción: cuando quiera que dos observadores, asociados a sus respectivos marcos de referencia inerciales—no acelerados, que no modifican su velocidad—se encuentran en movimiento relativo el uno respecto del otro, las mediciones que hagan de intervalos temporales y distancias entre eventos diferirán sistemáticamente, sin que pueda afirmarse que el uno está en lo cierto y el otro equivocado. Tampoco puede decirse que uno de ellos está en reposo respecto del éter y el otro en movimiento. Si pudieran comparar sus relojes cada uno conseguiría que su propio reloj marchaba más rápido que el del otro, y si comparasen reglas de medir cada uno sostendría que la regla del otro se había acortado. Una sola cosa permanecería fija y constante: la velocidad de la luz en relación con cualquier marco de referencia y en cualquier dirección.

Esta interpretación relativista ponía en duda la existencia del éter de Maxwell, puesto que no puede verificarse el estado de su movimiento por ningún método o experimento concebible. La noción del éter como medio portador de la radiación electromagnética había sido borrada para siempre.

Varias consecuencias se derivaban de la teoría especial de la relatividad. Una de ellas puede entenderse a través de un experimento imaginario[7]. Imagínese una nave cohete que nunca agota su combustible. A medida que se aleja de la Tierra, viaja cada vez más rápidamente. Cuando esta velocidad se aproxima a la de la luz, predomina una dilación.

Desde el punto de vista de alguien que permanece en la Tierra, la rata a la que el cohete consume combustible comienza a disminuir. De hecho, cuando la velocidad del cohete es muy próxima a la de la luz, el motor parece apagarse. El efecto de la dilación del tiempo es justamente suficiente para asegurar que un astronauta nunca logre quemar esos últimos litros de combustible que requiere para lograr los últimos kilómetros por segundo que le separan de la velocidad de la luz. (Dicho de otro modo, tomaría un número infinito de años trabajando contra la dilación temporal para quemar el combustible necesario para alcanzar la velocidad de la luz). La velocidad de la luz es un límite máximo; según la teoría, no existe cuerpo material—o señal alguna transmitida—que pueda exceder la velocidad de la luz[8].

Continuando en analogías astronáuticas, puede imaginarse lo que ocurre en el caso de un viaje interestelar a muy altas velocidades. Considérese, por ejemplo, a dos jóvenes gemelos de 20 años de edad. Uno de los dos, Pepe, digamos, sube a una nave capaz de viajar a una velocidad equivalente al 98% de la de la luz, mientras su hermano gemelo, Juan, permanece en la Tierra. El gemelo astronauta viaja a una velocidad constante de 98% de la velocidad de la luz y regresa luego de recorrer una distancia total de 50 años luz. Para Juan, el reloj de Pepe se ha hecho más lento; según las transformaciones de Lorentz, un segundo en el reloj de Pepe equivale a cinco segundos del reloj de Juan. Dado que Pepe cubre la distancia de 50 años luz a una velocidad muy cercana a la de la luz, según los relojes terrestres el viaje ha tardado 51 años, de modo que Juan tiene 71 años de edad cuando recibe al gemelo viajero. Por otra parte, como los relojes de la nave se han retrasado, desde el punto de vista de Pepe sólo estuvo viajando 10 años y, en consecuencia, tiene la edad de 30 años al reencuentro de su anciano gemelo.

Esta descripción corresponde a la llamada “paradoja de los gemelos”. Puesta en otros términos más cercanos a la terminología relativista, puede ser reformulada así: Dado un marco de referencia inercial y dos sistemas materiales similares (“gemelos”)—por ejemplo, dos relojes atómicos de idéntico diseño—supóngase que uno de estos relojes permanece en reposo en el marco dado, mientras que el otro se mueve a alta velocidad, primero en una dirección que lo aleja del otro y después en la dirección contraria hasta que ambos relojes están juntos de nuevo. Si se aplica las transformaciones de Lorentz, el segundo reloj se ha retrasado respecto del primero, por lo que mostrará un lapso menor que el que señala el que permaneció en reposo. La lectura de los relojes permitiría decir cuál reloj estuvo en reposo y cuál se trasladó. Se habla acá de paradoja porque el razonamiento conduce a una aparente violación del principio de equivalencia, según el cual no hay diferencias entre distintos marcos de referencia: en todos se cumplen las leyes físicas de la misma manera.

El argumento es falaz, puesto que en realidad el marco de referencia del segundo reloj no es inercial. Recuérdese que la teoría especial de la relatividad se aplica a sistemas que no experimentan aceleración, y el cohete que llevó a Pepe por el espacio debió haber sufrido una aceleración en cuanto cambió de rumbo para regresar a la Tierra. Ergo, no se viola el principio de equivalencia y la paradoja desaparece. (Lo que no obsta para que cierta ciencia ficción no muy rigurosa continúe empleándola).

………

Todavía publicaría Einstein en 1905 un trabajo adicional, este vez un desarrollo matemático ulterior, casi una nota al pie, de la teoría especial de la relatividad. Éste era su título: “¿Depende la inercia de un cuerpo de su contenido energético?” (Ist die Trägheit eines Körpers von seinem Energieinhalt abhängig?)

Como residuo de una serie matemática de la que se eliminaban todos sus términos menos uno, emergía la más famosa y sobrecogedora de las fórmulas en toda la historia de la Física:

E = m.c2

La masa de un cuerpo es una medida de su resistencia a un cambio en su estado de movimiento por causa de una fuerza que se le aplique. Mientras mayor sea la masa, menor será la aceleración resultante de la aplicación de la fuerza. Si un cuerpo se mueve a una velocidad cercana a la de la luz, ofrecerá una resistencia creciente a cualquier aceleración para no cruzar el umbral de c, la velocidad de la luz. La teoría especial de la relatividad conduce a la conclusión (matemática) de que la masa m de un cuerpo en movimiento está en función de la masa m0 que tendría en reposo, según una fórmula en la que m es igual a m0 dividida por la raíz cuadrada de 1 menos la fracción v2/c2.

Este valor cambiante de la masa de un cuerpo en movimiento es llamado la masa relativística. A medida que v se aproxima a c, el valor de 1— v2/c2 se aproxima a cero, y por tanto m = m0 / 0, lo que sería un número infinitamente grande. (Una masa infinitamente grande que ofrecería una resistencia infinita).

La fórmula para la masa relativística puede ser reformulada para indicar que ésta excede su masa en reposo m0 por una cantidad equivalente a su energía cinética E dividida por el cuadrado de la velocidad de la luz:

m— m0 = E / c2

De aquí el corolario de que, en general, la energía es c2 veces la masa, lo que se expresa como E = m. c2, y que la energía y la masa son, de hecho, conceptos físicos equivalentes, que difieren tan sólo en términos de la escogencia de las unidades con las que se expresan[9].

La interconvertibilidad de masa y energía ha sido demostrada dramáticamente con la energía nuclear, especialmente desde acontecimientos como la destrucción de Hiroshima y Nagasaki como efecto de una única bomba atómica en agosto de 1945. Un gramo de materia o masa es en verdad la concentración de una asombrosa cantidad de energía. El procedimiento inverso al observado en una explosión nuclear es también pan de cada día en los laboratorios de física subatómica: la creación de partículas (masa) a partir del choque de haces de radiación electromagnética. De hecho, estas evidencias son comprobaciones experimentales entre muchas que se atienen a las predicciones extraíbles de la teoría especial de la relatividad, que hoy en día es de universal aceptación.

………

Con posterioridad al año de 1905, Einstein y otros físicos continuaron refinando la teoría. Uno de los desarrollos más fructíferos fue aportado por el físico-matemático lituano Hermann Minkowski. En 1907, dos años antes de morir, Minkowski reformuló la teoría de la relatividad en términos de un concepto hermoso: el continuo espacio-tiempo. Esto es, trató al tiempo como una cuarta dimensión, adicional a las tres dimensiones convencionales del espacio. Este “espacio de Minkowski”, aunque parecía ser sólo una mejora terminológica, estimuló y facilitó la proposición posterior de una teoría general de la relatividad. Así como masa y energía eran las dos caras de una misma moneda, el tiempo y el espacio ya no tenían sentido como entidades independientes, sino como dimensiones inseparables de una sola entidad geométrica.

NOTA HISTÓRICA:

La noción misma de relatividad se remonta, al menos, hasta Galileo. En el Diálogo concerniente a los Dos Principales Sistemas del Mundo, su polémico—herético—libro de 1632, propuso el ejemplo de lo que ocurriría bajo cubierta de un barco grande que se moviera con cualquier velocidad. Estipulando que el movimiento fuera uniforme, concluyó que de ningún fenómeno que ocurriera bajo cubierta podría deducirse si el barco se encontraba en movimiento. Galileo quería con esta observación refutar a quienes se oponían a la noción del movimiento de la Tierra, que sostenían que si ella se moviera los objetos en su superficie se “quedarían atrás”.

En una carta de Descartes de 1644, se enfatiza la relatividad: “…de dos hombres, uno de los cuales se mueve con un barco y el otro está parado en la costa… no hay nada más positivo en el movimiento del primero que en el reposo del último”.

Newton, en los Principia, dedica sólo un corolario al asunto, en el que dice: “Los movimientos relativos de dos cuerpos en un espacio dado son idénticos sea que este espacio esté en reposo o se mueva uniformemente en línea recta con respecto a las estrellas fijas sin movimiento circular”.

Mach, en su Ciencia de la Mecánica, comentó que Newton afirmaba así el principio de relatividad, pero luego había abandonado lo fáctico para postular la existencia de un espacio absoluto.

Einstein 2

Albert Einstein, fotografiado en su escritorio de la Oficina de Patentes de Berna, por la época de la publicación de la Teoría Especial de la Relatividad. En 1905 Einstein tenía 26 años de edad.


[1] En realidad, ambos postularon la contracción independientemente—primero FitzGerald y luego Lorentz cinco meses más tarde—en 1882, sobre los resultados de una primera versión del experimento llevada a cabo sólo por Michelson en Potsdam en 1881. La crítica de las condiciones experimentales, especialmente por Lorentz, llevó a la cooperación de Michelson con Morley para la versión más refinada y controlada de 1887 en Cleveland. Es decir, ya para 1882 existía la explicación ad hoc del resultado nulo.

[2] El mayor desarrollo matemático de Lorentz determinó que su nombre antecediera al de FitzGerald al bautizar la contracción, a pesar de que éste precediera al primero por cinco meses con la conjetura.

[3] Lewis Carroll, en Through the Looking Glass, había formulado un “inobservable” como ése en los siguientes versos: But I was thinking of a plan to dye one’s whiskers green, and always use so large a fan that they could not be seen.

[4] Cuyo nombre designa la unidad de velocidades relativas a la del sonido. Mach 1 es la velocidad del sonido, 340 metros por segundo; Mach 2 el doble de ésta, etcétera.

[5] En realidad fueron cinco artículos, aunque el primero—“Una nueva determinación de las dimensiones moleculares”—con el que obtuvo el grado de Doctor en Filosofía de la Universidad de Zürich, es usualmente pasado por alto ante la grandeza de los otros cuatro.

[6] La palabra maser es la sigla de Microwave Amplification by Stimulated Emission of Radiation. Laser corresponde a Light Amplification by Stimulated Emission of Radiation.

[7] Gedanken experimenten. Albert Einstein era muy dado al tipo de análisis que se ayuda de experimentos imaginados.

[8] En sentido estricto, lo que la teoría de Einstein predica es que ningún cuerpo puede ser acelerado más allá de la velocidad de la luz. Si en las ecuaciones de Einstein se sustituyen cantidades reales por cantidades imaginarias—un número imaginario es un número real multiplicado por la raíz cuadrada de —1, o la cantidad i—entonces puede hablarse de velocidades superiores a la de la luz que nunca podrían ser desaceleradas por debajo de c. En ambos casos la velocidad de la luz actúa como límite. La operación de las ecuaciones de Einstein con valores imaginarios permite postular partículas hipotéticas que siempre se desplazarían más rápido que la luz. (Taquiones).

[9] En física nuclear la unidad de masa es el electrón-voltio, que es una unidad de energía.

Share This:

CS #198 – El candidato de Chávez

Cartas

En su famoso curso de apreciación musical, el inolvidable maestro José Antonio Calcaño hacía referencia a los instrumentos de una orquesta sinfónica. Al tocarle el turno al corno inglés—como un oboe que termina en una boca esferoide, de sonido aun más nasal que éste—comentó que ese instrumento del grupo de las «maderas»—ya no se fabrica de este material—ni era inglés ni era corno.

La organización Alianza Popular, que tiene muy poco de alianza y nada de popular, acaba de terciar en el tema electoral para apoyar lo aprobado por el reciente Comité Directivo Nacional del agonizante partido Acción Democrática: ninguna participación en las elecciones de diciembre de este año. Esto, a pesar de que—observación debida a Luis Alberto Machado—hay al menos dos precandidatos adecos en el actual elenco de actores: Manuel Rosales, que fue dirigente acciondemocratista y ahora quiere refundar—le ha costado mucho trabajo—la socialdemocracia en Venezuela con su movimiento Un Nuevo Tiempo, por un lado, y Benjamín Rausseo, por el otro, quien encarnando al Conde del Guácharo ha admitido que en Monagas, cuando el nació, cada muchachito recibía, junto con su partida de nacimiento, un carnet de Acción Democrática.

El diario El Universal, refiriéndose a declaraciones de Oswaldo Álvarez Paz alineadas con AD, resumió su récipe así: «los venezolanos que difieren del Gobierno Nacional deben armar un frente que defienda la democracia e imponga el respeto de los derechos humanos». En cita directa: «Debemos en vez de buscar candidatos que no lograrán nada formar un frente nacional ciudadano que se mantenga alerta ante los constantes abusos que cometen las autoridades del país a todos los ciudadanos. Desde cuidar nuestras vidas, la patria, la familia y los bienes materiales». El abstencionismo frentista, entonces, integrado por ahora con AD y AP. Sus militantes se conocerán como ADAPtados.

………

En vena muy distinta terminó de definirse la esperada candidatura «única» de oposición, tal como esta publicación había previsto, con el lanzamiento de Manuel Rosales en acto que contó con la asistencia y apoyo de Teodoro Petkoff, Julio Borges, Sergio Omar Calderón, Enrique Tejera París, Cecilia Sosa, William Ojeda, Froilán Barrios y Vicente Brito. (El precandidato Pablo Medina ya había «retirado» su candidatura y expresado motivos parecidos a los expuestos por Ramos Allup y Álvarez Paz: las uvas están verdes. Hay que decir que añadió un tema sustitutivo de su candidatura: como no puede confiarse en el CNE, entonces hay que elegir una nueva asamblea constituyente. No ha explicado todavía cómo podría elegirse confiablemente un cuerpo tal en comicios organizados exactamente por el mismo órgano sospechoso).

Ahora, pues, «la oposición» dispone de un candidato «único»—la candidatura de Rosales no suprime todavía las de Roberto Smith, Benjamín Rausseo, Bernabé Castillo y el ex presidente de Fogade Jesús Caldera Infante, todas por inscribirse—que evitaría la división aborrecida por la tesis de la polarización electoral. Se trata, naturalmente, de la oposición participacionista, de aquella que no opina como Acción Democrática y Alianza Popular. El «candidato unitario» fue presentado por el latifundista político de Julio Borges, quien dijo a Rosales: «Le pongo a la orden mi partido—al mejor estilo de Jóvito Villalba: «Yo y mi partido; mi partido y yo»—y mi generación». (Como dueño que es de ésta).

La más destacada de las bajas en este proceso es, obviamente, la elección primaria que Súmate pretendió forzar. En sofista argumento, la organización aduce que la unidad candidatural fue producto de su proposición de elecciones primarias, y ya ha abandonado el tono paternal y regañón que exhibiera hasta hace poco. Ningún malabarismo retórico, sin embargo, podrá disimular que Súmate ha quedado en posición muy desairada. Quienes hayan aportado fondos importantes para la celebración de las abortadas primarias tendrán que conformarse con la poco informativa declaración de Óscar Vallés, quien asegura que la inversión realizada «no es una pérdida; ha sido una gran ganancia para la sociedad venezolana». Nada más que por intrigar, esta publicación decía la semana pasada: «Así que lo más probable es que no haya primarias (Primero Justicia y COPEI han insinuado que Súmate no puede organizar las primarias exitosamente ni en Altamira), que Súmate eche la culpa del fracaso a los candidatos (como ya lo ha venido preparando) y a la campaña del gobierno en su contra, que Carlos Blanco ya ha reclamado. Lo más probable es que sea Rosales el candidato de la terna, y Súmate tendrá que decidir si continúa cerca de él, que a fin de cuentas era su candidato preferible, o si se radicaliza consistentemente hacia las posturas abstencionistas de Acción Democrática, Pablo Medina o Álvarez Paz».

………

Manuel Rosales es una especie de Enrique Mendoza adeco. Esto es, un gobernador que fue reelegido, de oposición, que ha dejado atrás su partido matriz para construir su propio movimiento regional. (En cuanto Mendoza entrevió que era una raya ser copeyano, fabricó su propia tarjeta electoral, con un color turquesa o aguamarina que sugería verde pero se diferenciaba bastante del profundo tono esmeralda que siguen usando los socialcristianos originales).

¿Cuán formidable es la candidatura de Rosales para oponerla a la de Chávez? Podemos refrescar la memoria recordando qué decía en la madrugada del 1º de noviembre de 2004, mes y medio después del referendo revocatorio de ese año y al saberse que había resultado vencedor en las elecciones de gobernadores y alcaldes de la víspera. La Carta Semanal #111 (4 de noviembre de 2004) de doctorpolítico reportaba así:

«Muy sintomática fue la alocución de Manuel Rosales, gobernador reelecto del Zulia, poco después de la medianoche que separó el mes de octubre del mes de noviembre. Rodeado de felices partidarios, aliviado él mismo, en clásico tono mitinesco arengó a la multitud para prometer paz y amor, pan y circo. Porque lo primero que ofreció fueron abrazos y reconocimientos tendidos al general Gutiérrez y al comandante Arias Cárdenas, sus contrincantes, justificando tal gesto sobre la base de lo que, según su conocimiento, querrían los zulianos: que cesaran los partidos y se consolidara la unión.

Ante el muy visible sonrojo del mapa político nacional, Rosales no optó por correr sino por encaramarse. Esbozó la tesis de que los zulianos—¿los venezolanos?—quieren ahora olvidarse, por un tiempo al menos, de ‘estas divisiones que hemos tenido en los últimos meses’ y ponerse a trabajar. (Pan). Y como los zulianos lo que quieren hacer es trabajar, animó a la turba a que se zambullera de una vez en ¡la Feria de la Chinita! Posteriormente reiteraría su disposición circense con una anticipada invitación a prepararse para la subsiguiente temporada navideña, a disfrutar en fraterna y amnésica paz. Impecable cierre circular de un discurso improvisado pero perfecto, encaramado.

Si éste es el héroe político que Rafael Poleo encarama en la portada de su revista Zeta, si Rosales va a ser tenido como la contrafigura que ‘la oposición’ ha esperado tanto—el ‘ñero’ Morel Rodríguez no sería creíble—entonces Chávez morirá, como el general Gómez, como el general Franco, como parece que lo hará el osteoporótico comandante Castro, con el poder total en sus manos.

No poco de la motivación tras la peculiar arenga de Rosales deriva del puñal que presiona su carótida: la investigación de Danilo Anderson sobre su participación en el happening de Carmona Estanga. (En su caso no se trató de una firma descuidada sobre hojas sueltas que pudiera aducirse eran una lista de asistentes. Los videos le registran subiendo al estrado del absurdo, convocado por la voz enfebrecida de Daniel Romero y ‘en representación’ de los gobernadores de estado, a cohonestar con su pública rúbrica el golpe del 12 de abril de 2002)».

Con «estas divisiones que hemos tenido en los últimos meses» se refería Rosales a los siguientes «detalles»: los acontecimientos de abril de 2002, los forcejeos de la Mesa de Negociación y Acuerdos, el pulso del paro petrolero de 2002 y 2003, y la fracasada odisea revocatoria que culminó en 2004. Consciente de su vulnerabilidad, de la aplanadora roja de 21 gobernadores gobierneros electos, y de la reafirmación de Chávez en el poder a partir del 15 de agosto de 2004, Rosales se apresuraba, azoradamente, a ofrecer olvido, borrón y cuenta nueva, vuelta a la página, colaboración con la Presidencia de la República. Antes de que terminara ese año el gobierno nacional daba una nueva vuelta de tuerca a «la guerra contra el latifundio» y Rosales declaraba que él era también un soldado de esa lucha. Ése es el hombre.

………

Manuel Rosales es el candidato que Chávez prefería. Menos cómodos para él eran Teodoro Petkoff, también izquierdista, y Julio Borges, al que no podía acusar de cuartorrepublicano. Por eso hizo todo lo posible porque esa candidatura cuajara, no sólo con la sentencia del Tribunal Supremo de Justicia y las aclaratorias recentísimas del Consejo Nacional Electoral, que no requieren su renuncia al cargo de Gobernador del Zulia (tan sólo su separación), sino antes, con la oferta que le hiciera Isaías Rodríguez. El Fiscal General prometió, de materializarse la candidatura de Rosales, que pondría en el congelador el procedimiento que buscaba la declaración de méritos para el enjuiciamiento del zuliano, mientras dure la campaña, para que no se dijese que la Fiscalía se emplea como instrumento de presión política. Rosales ha respondido a la espuela o ha mordido el anzuelo. Si llegare hasta el final y Chávez resultare reelecto, Manuel Rosales puede contar con que Rodríguez comenzará a descongelar el asunto el mismo lunes 4 de diciembre de este año. Durante la campaña no será tocado sino por la propaganda chavista y por «La Hojilla», que se complacerá en transmitir, sin cesar, el video que le muestra firmando el decreto más efímero de nuestra historia política. Ayer mismo dijo el partidastro de Lina Ron, Unión Popular Venezolana, que Rosales es «el candidato de la oligarquía y el imperialismo».

………

Y, a todas éstas ¿qué es de la vida de Benjamín Rausseo? En su «lanzamiento» en Margarita ya dejó en la obsolescencia a esta publicación, en su observación del #197 de la semana pasada: «Rausseo, aunque no lo ha dicho, es el más genuino ofertante hacia los ‘ni-ni’, hacia el centro que es la inmensa mayoría nacional». En su discurso neoespartano—en el «parque temático» Musipán—decía 72 horas después de esa evaluación: «Aquí se perdieron las opciones. Soy el candidato del centro, los niní… Soy la alternativa para los que quieran emigrar del oficialismo. No somos de centroizquierda, no somos de centroderecha, somos centro de lomito». Y conste que él no es suscritor de esta carta.

¿Podrá Rausseo mantenerse y traer un discurso más significativo que unos chistes más o menos hábiles? Por de pronto dice la portada de la revista Zeta: «Este hombre puede echar un vainón». A Rosales, por supuesto, pero también a Chávez.

LEA

Share This:

Física del siglo XX – (3)

physics

La generalización de la Teoría de la Relatividad. (1915-1916). La teoría de la gravitación de Newton como caso límite o especial. (El “límite newtoniano”). Las expediciones de Eddington en 1919: primer triunfo experimental de la Teoría General de la Relatividad.

La teoría general de la relatividad, contentiva de una nueva y radical solución para la interpretación física del fenómeno de la gravitación, fue expuesta en Annalen der Physik en 1916. A fines del año anterior, Albert Einstein había presentado sus conclusiones a este respecto en tres sesiones sucesivas ante la Academia Prusiana de Ciencias. El camino hasta acá desde la formulación de la teoría especial había sido largo—once años—y de gran dificultad conceptual y matemática. Había valido la pena. Como lo puso A. P. French[1] en The story of general relativity: “…de todos los grandes logros científicos de Einstein, la teoría general de la relatividad es quizás suprema en su originalidad y grandeza intelectual”.

La experiencia de la gravedad es, naturalmente, tan vieja como la conciencia más primitiva. A un perro se le caen las cosas de la boca, y un ave no debe hacer esfuerzo especial para aterrizar. El peso de nuestros cuerpos es propiedad que nos acompaña siempre, y un proyectil que lancemos al aire con nuestras manos regresa siempre al suelo. En la época de la filosofía griega clásica se había encontrado una explicación a este universal fenómeno.

La explicación, proporcionada en su Physika por Aristóteles, encajaba perfectamente, como era de esperar, en la episteme de la época, la que incluía una cierta “química” y ciertas nociones respecto del tema de la causalidad. La química griega—de hecho, la química desde su época hasta el Renacimiento—reconocía en la naturaleza cuatro sustancias o elementos fundamentales: aire, fuego, tierra y agua. (Los astrólogos de hoy día todavía hablan de signos de tierra, de aire, de agua y de fuego). Una quinta sustancia, el éter, no se encontraba en la tierra, pero llenaba los espacios celestes, o firmamento—la palabra alude a la idea de que los astros estaban fijos en su “esfera”—y, así vimos antes, como idea sobrevivió a los comienzos de la Química moderna hasta 1905, cuando Einstein decretara su defunción al explicar rotundamente el resultado negativo de Michelson y Morley. Cada elemento, por otra parte, tenía su “lugar natural”. (El lugar natural del fuego, por ejemplo, era justamente el de los astros o luminarias del cielo, obviamente constituidos por fuego, dado que emitían luz parecida a la de una hoguera).

Además, Aristóteles postulaba no sólo la existencia de causas antecedentes obvias, sino también “causas finales”, que no estaban al inicio de un proceso, sino a su término y actuaban como un imán que atraía cuerpos y procesos hacia sí.

La combinación de ambos conjuntos de conceptos proporcionaba la explicación para la gravedad. Lo que Aristóteles sostenía era que los cuerpos tendían, por acción de causas finales, a moverse hasta descansar en su lugar natural. Como el lugar natural del fuego era la esfera de los astros, y el del aire la atmósfera que nos rodea, las llamas y el humo—que evidentemente está hecho de aire—ascienden siempre. Como el agua tiende hacia su lugar natural—el océano—las aguas del cielo caen para formar ríos que van a reposar en el mar. Como las substancias duras y secas, obviamente hechas del elemento tierra, buscan descansar en su lugar natural, la Tierra, caen hacia el suelo. En todos los casos el movimiento se produce para buscar el reposo, el estado considerado perfecto.

Esta física fue suficiente para el pensamiento occidental desde la época de Aristóteles (384-322 a. C.) hasta la de Newton (1642-1727). Dos mil años duró la vigencia del paradigma aristotélico en materia de la gravedad. El asedio a esta estructura conceptual comenzaría con los pacientes y valientes trabajos de un italiano originario de Pisa, Galileo Galilei. (1564-1642; el año de su muerte es el del nacimiento de Newton).

Galileo puede ser tenido como el primer físico experimentalista; un observador de los fenómenos que construía experimentos con el objeto de realizar mediciones rigurosas. Sus experimentos con objetos en caída sobre planos inclinados, le permitieron arribar a una fórmula cuantitativa de la aceleración de los cuerpos.

Por su parte, el astrónomo alemán Johannes Kepler (1571-1630), en observaciones astronómicas guiadas por el modelo heliocéntrico del sistema solar del polaco Copérnico (1473-1543), encontró que las órbitas descritas por los planetas no eran circulares sino elípticas, a las que dio una precisa formulación matemática.

Los resultados de Kepler y Galileo, que no parecían contradecir la noción aristotélica de gravedad de causa final, fueron finalmente explicados en la teoría de la gravitación universal de Isaac Newton (1687) mediante un nuevo paradigma. Propuso Newton que ambos fenómenos, la circunvalación del sol por los planetas y la caída de los cuerpos hacia la superficie terrestre, se debían a una misma causa, una fuerza de atracción universal que actuaba a distancia y se transmitía instantáneamente por el espacio. Esta fuerza, más allá de ser postulada, recibió una precisa formulación cuantitativa: resultaba de la multiplicación de las masas de dos cuerpos que se atrajesen mutuamente, dividida por el cuadrado de la distancia que los separaba. (Mientras más masivos los cuerpos, mayor sería la fuerza de atracción; mientras más separados estuvieran, la atracción sería menor). La hermosa fórmula de Newton predecía las elipses de Kepler, y de ella se deducía la ley de los cuerpos en caída de Galileo. Aristóteles había adquirido rango cuasirreligioso, al haber sido asumida in toto su filosofía por la escolástica católica, a partir de su integración en el pensamiento del más grande de los doctores de la iglesia: Santo Tomás de Aquino. Con Newton, un gigante[2] se había manifestado en todo su esplendor para dejar a la Física de Aristóteles en el olvido.

Digresión

El impacto causado por la obra de Newton fue gigantesco, y no sólo sobre la comunidad científica. El poeta y satírico inglés—To err is human, to forgive divine—Alexander Pope (1688-1744) evidenció su admiración por el genio en los siguientes versos pareados:

Nature and Nature’s laws lay hid in night

God said Let Newton be! And all was light.

en evidente y feliz parodia del texto del Génesis. Pero no todos pensaban como él. William Blake (1757-1827), poeta, pintor y grabador inglés, acusaba a Newton—así como a Locke y Bacon—de haber dejado a Dios fuera de su excesivo racionalismo. (Escribió que eran “los tres grandes maestros del ateísmo, o la doctrina de Satán”).

Dos famosos grabados de Blake ilustran su adversaria opinión sobre Newton:

Blake

Dios e Issac Newton por William Blake

En el primero, su frontispicio para Europe: A Prophecy, muestra a Dios dando luz al universo mientras determina sus leyes con un compás. En el grabado de la derecha (“Newton”, 1795), el científico trabaja igualmente con un compás, pero no sobre el mundo sino sobre un pergamino, y su figura, a la que se le ve un solo ojo—Blake alardeaba de tener visión cuádruple y opinaba que Newton tenía visión única—hace transición desde la rica roca iluminada hacia la oscuridad. Para Blake, la visión newtoniana, solitaria y desnuda de religión y sentimiento, traía not light, but night, exactamente lo contrario de lo estimado por Pope.

La médula, pues, de la revolución newtoniana consistía en una fuerza universal de atracción que actuaba instantáneamente a distancia (no local), y éste era el paradigma que sustituía al paradigma aristotélico: los cuerpos hechos del elemento tierra que eran atraídos al reposo desde la causa final de su lugar natural.

………

El paradigma newtoniano sería a su vez suplantado por el nuevo paradigma propuesto por Einstein: nada podía transmitirse instantáneamente en el universo, pues la velocidad máxima era la de la luz, que si bien es muy grande en términos de velocidades terrestres y pedestres, no es infinita. Ésta era una condición ya anticipada por la teoría especial de la relatividad. Por otro lado, no había ninguna fuerza que atrajera los cuerpos. Éstos describían trayectorias curvilíneas en torno a cuerpos de masa mayor, porque la presencia de masa en el espacio producía en éste una curvatura. (Más precisamente, en el continuo espacio-tiempo, el espacio de Minkowski, uno de los profesores de Einstein en el Politécnico de Zürich). Lo que se curvaba no era la trayectoria sino el territorio. Y esto fue la revolución paradigmática de la teoría general de la relatividad de 1916.

La búsqueda de la generalización a sistemas acelerados—con gravitación—había comenzado desde el mismo año de 1905, cuando Einstein derivase la equivalencia de masa y energía. En efecto, la teoría especial había logrado la fusión de electromagnetismo y mecánica, pero en marcos de referencia en estado uniforme de movimiento. Faltaba traer la gravitación al esquema relativista. En sus Notas autobiográficas (1946), comentó Einstein: “Que la teoría especial de la relatividad era sólo el primer paso de un desarrollo necesario se me hizo completamente claro sólo con mis esfuerzos por representar la gravitación en el marco de esta teoría”. Luego explica cómo reconoció que una teoría satisfactoria debía incluir los siguientes resultados: 1) el requerimiento de la teoría especial de que la masa inercial de un cuerpo dependa de su energía total, y que aquélla aumente al aumentar la energía cinética, lo que Einstein había propugnado en su “cuarto” trabajo de 1905, en el que estableciera E = m.c2; 2) experimentos de gran precisión habían demostrado que la masa gravitacional de un cuerpo es exactamente proporcional a su masa inercial.

Al combinar ambos resultados, se sigue que el peso de un cuerpo depende en una forma precisamente determinada de su energía total. Einstein comentaría después: “Si la teoría no obtenía esto o no pudiera hacerlo de forma natural, sería rechazada”. La teoría especial de la relatividad no podía derivar esa conclusión, pero al cabo Einstein llegó a pensar la idea crucial: “El hecho de la igualdad de las masas inercial y gravitacional, es decir, el hecho de que la aceleración gravitacional es independiente de la naturaleza de la sustancia que cae, puede ser expresado como sigue: en un campo gravitacional (de pequeña extensión espacial) los objetos se comportan como lo harían en un espacio libre de gravitación si uno introduce, en lugar de un ‘sistema inercial’, un sistema de referencia que es acelerado respecto de un sistema inercial”.

Había nacido el famoso “principio de equivalencia”, el que establece que un campo de fuerza gravitacional es precisamente equivalente, dentro de una región limitada, a un campo de fuerza artificial asociado con una aceleración general del marco de referencia.

El principio de equivalencia se comprende fácilmente al considerar otro experimento imaginario propuesto por el propio Einstein: una persona que estuviera en un compartimiento cerrado, no podría distinguir diferencia si este compartimiento reposara sobre el suelo o se encontrase en el espacio acelerado hacia arriba por una fuerza equivalente en magnitud a la de la gravitación[3].

Ascensor

En caída libre no se experimenta peso

Einstein publicó una larga descripción del principio de equivalencia en Jahrbuch (Anuario) der Radioaktivität. (1907). Cuatro años más tarde, Einstein publicó un trabajo que ya comentaba acerca del efecto de la gravedad sobre la propagación de la luz. En este paper se predecía que los rayos de luz que pasaran cerca de la superficie del Sol se desviarían en su trayectoria por un ángulo de 0,85 segundos de arco. Este valor correspondía a un análisis newtoniano, que trataba la luz como compuesta de partículas de masa m viajando a la velocidad de la luz c. La desviación teórica equivalía a calcular el término 2GM / c2R, donde M y R son la masa y el radio del Sol, c es la velocidad de la luz y G es la constante de gravitación universal de Newton. (980 centímetros sobre segundo al cuadrado).

El valor calculado para la desviación era más o menos la mitad de lo que Einstein propondría en 1916, una vez que desarrollara por completo la teoría general. Para esto tendría que darse cuenta de que el espacio “no es meramente el escenario en el que los objetos materiales se mueven e interactúan, sino que la geometría fundamental del espacio depende de la presencia y distribución de la materia””[4]. Como lo pone Edmund Whittaker, que “la gravedad es debida a un cambio en la curvatura del espacio-tiempo causado por la presencia de materia”.

Llevar estas ideas a una formulación física rigurosa, sin embargo, requería matemáticas muy avanzadas (análisis de “tensores”, una entidad matemática análoga a los vectores), y aquí Einstein contó con la ayuda del geómetra Marcel Grossmann, su amigo y antiguo compañero de estudios. Con él publicó conjuntamente en 1913 una comunicación preliminar: “Esquema de una teoría generalizada de la relatividad y una teoría de la gravitación”. Mudado de Zürich a Berlín, donde iba a ocupar una cátedra profesoral, Einstein continuó trabajando en las consecuencias que se derivarían de la construcción. Poco después publicaría solo (1916) “Los fundamentos de la teoría general de la relatividad” (Die Grundlagen der allgemeinen Relativitätstheorie) en la acostumbrada Annalen der Physik. Y en este trabajo ya estaba el cálculo nuevo de la desviación de los rayos de luz que pasaran cerca de la superficie solar: el nuevo valor predicho era de 1,75 segundos de arco.

Este artículo de Einstein contenía al final tres consecuencias de la nueva teoría que podrían ser comprobadas experimentalmente, y entre éstas la más dramática era justamente la de la desviación de la luz en las cercanías de un fuerte campo gravitacional. La observación a realizar era relativamente simple: bastaba fotografiar la posición de un grupo de estrellas cuando éste se encontrase rozando, por decirlo así, el borde de la superficie solar, para compararla con la posición que tendría cuando estuviese alejado del Sol. Naturalmente, la luminosidad del Sol impediría registrar la posición de las estrellas cercanas… a menos que la medición se realizara durante un eclipse solar, cuando la superficie del astro estuviera oscurecida. La primera oportunidad había sido desaprovechada, cuando Einstein todavía era newtoniano y había predicho un efecto de sólo 0,85 segundos de arco, antes de haber migrado del espacio newtoniano al de Minkowski, razón por la que se salvó de ser expuesto con un error de 100%.

Luego se interpuso la Gran Guerra cuando Einstein, entonces en Berlín, había encontrado, una vez liberado de su atadura conceptual, el valor correcto de 1,75 en 1915.  El conflicto no impidió que llegara una copia del artículo de Einstein (1916) a manos de Arthur Eddington, a través del astrónomo holandés Willem de Sitter. El gobierno inglés aprobó el proyecto presentado por Eddington para la medición del efecto predicho por Einstein, con lo que se quitó de encima la costosa decisión de internar a Eddington, que tenía una postura pacifista de conciencia. La fecha caería en 1919, una vez terminada la guerra. Eddington organizó una expedición a Sobral, en Brasil, y una a la isla de Príncipe, a las afueras del golfo de Guinea. Ambas registraron, el 29 de mayo de 1919, una asombrosa fidelidad entre lo predicho teóricamente y los hechos observados. Los resultados no serían conocidos por Einstein hasta el 27 de septiembre, de telegrama que le enviara Hendrik Lorentz. Ese día escribió a su madre: “H. A. Lorentz me ha telegrafiado que las expediciones británicas han confirmado definitivamente la desviación de la luz por el Sol”.

La noticia del acontecimiento corrió como reguero de pólvora por el planeta.

………

Es conocido que Einstein pareció siempre tener una relación muy cómoda con Dios, a quien mencionaba a cada rato para afirmar puntos de física teórica, lo que llevó a Niels Bohr a solicitarle que dejara de decir a Dios lo que tenía que hacer. En una de sus más conocidas enunciaciones dijo: “Dios es refinado, pero no es malicioso”. (Raffiniert ist der Herr Gott, aber boshaft ist Er nicht). Preguntado por lo que habría dicho de Dios si los experimentos de Príncipe y Sobral hubieran resultado diferentes, contestó: “Lo hubiera sentido mucho por él”.

Relativity God

El culto a Einstein, tanto como el de Pope por Newton.

Igualmente estuvo cómodo con la física de Newton. Poco antes de la publicación de su artículo cumbre escribió en una carta a Arnold Sommerfeld (noviembre de 1915): “Este último mes he vivido el período más excitante y exigente de mi vida; y también sería verdad decir que también ha sido el más fructífero… La cosa maravillosa que ha ocurrido es que no sólo la teoría de Newton resultaba de ella [la relatividad general] como primera aproximación, sino también el movimiento del perihelio de Mercurio como segunda aproximación”.

Lo que Einstein expresaba acá, por una parte, es que la mecánica newtoniana se preservaba intacta como un caso especial o límite[5] de sus más generales ecuaciones, por un lado, y que su propia teoría lograba predecir correctamente un fenómeno que Newton no podía computar: la precesión de la órbita de Mercurio. Los planetas no sólo interactúan gravitacionalmente con el Sol, sino también entre ellos mismos, y una de las consecuencias de este hecho es que los ejes de sus órbitas elípticas rotan muy lentamente. Las ecuaciones de Newton no podían justificar completamente este efecto, el que era más notable en el caso de Mercurio, dada su mayor cercanía al Sol. (Mercurio exhibe una órbita pequeña de gran excentricidad; esto es, su órbita es más elíptica que circular comparada con la de los restantes planetas). Los cálculos computaban un exceso residual de unos 42 segundos de arco de precesión (por siglo) que no podía ser explicado por Newton[6].

Esa precesión residual de la órbita de Mercurio podía explicarse en caso de que la fuerza gravitacional debida al Sol no siguiese exactamente la fórmula de Newton, de proporcionalidad inversa a la distancia. La curvatura del espacio-tiempo introducía, en efecto, un término extra en el cálculo, y al hacer los cómputos según las ecuaciones de Einstein, se obtuvo un acuerdo prácticamente perfecto con los valores observados. La observación proporcionaba un valor promedio de 43,11 ± 0,45 segundos de arco por siglo, mientras la teoría general de la relatividad pronosticaba una tasa de precesión de 43,03. Este resultado, y otros predichos por la teoría, contribuyeron a asentar el mayor respeto por ella. Einstein, que había logrado en 1905 integrar mecánica y electromagnetismo, sumaba ahora a su poderosa síntesis una explicación satisfactoria de la gravitación. Faltaba sólo incorporar los nuevos campos observados a escala subatómica, y a esta tarea (teoría del campo unificado) dedicó infructuosamente los últimos años de su vida. Es una tarea aún por realizar, mientras la Física busca todavía una theory of everything. (TOE). LEA


[1] Profesor de Física en Massachusetts Institute of Technology y Presidente de la Comisión Internacional de Educación en Física para el centenario del nacimiento (1979) de Albert Einstein.

[2] Newton escribió, en carta a Robert Hooke, la siguiente frase: “Si vi más lejos fue porque subí sobre los hombros de gigantes”, en alusión, precisamente, a Galileo y Kepler.

[3] Un cuerpo en caída libre y aceleración uniforme no está sujeto a fuerza gravitacional. Éste es el caso de los astronautas que flotan dentro de sus naves y, si a ver vamos, el de los planetas, incluida en ellos la Tierra. La masa de la Tierra sigue siendo enorme en comparación a la nuestra, pero su peso (la fuerza con la que sería atraída “hacia abajo”) es exactamente cero. En un ascensor cuyos cables se rompieran súbitamente se experimentaría la misma sensación de ingravidez.

[4] A. P. French, de quien se toma la cita de Whittaker.

[5] Después de la teoría einsteniana de la gravitación, contenida en su teoría general de la relatividad, su aplicación al campo cosmológico ha suscitado un cierto número de teorías alternas, todas relativistas, que se diferencian de ella en el valor de algunos parámetros. (Brans-Dicke, por ejemplo). A estas teorías se les exige, entre otras cosas, que sean compatibles con la teoría especial de la relatividad y que respeten el “límite newtoniano”, es decir, que incluyan la mecánica de Newton como caso especial en los límites de sus ecuaciones.

[6] Era posible tomar en cuenta, con Newton, las interacciones interplanetarias, que introducían pequeñas perturbaciones en las órbitas del sistema solar. De hecho, el análisis newtoniano de la perturbación de la órbita de Urano condujo al descubrimiento de Neptuno en 1846, en lo que constituyó una dramática reivindicación de los Principia.

Share This:

Física del siglo XX – (4)

physics

La formulación generalizada de la física cuántica entre 1921 y 1927. La interpretación de Copenhague. Bohr, Heisenberg (principio de incertidumbre o indeterminación), Schrödinger. Partículas y ondas. Einstein toma un camino solitario.

A partir de 1900, luego de que Max Planck presentara los cuantos al mundo y Einstein los convirtiera en fotones, comenzaron a desmoronarse los primitivos modelos del átomo, sus constituyentes y su radiación. Incluso el modelo atómico propuesto por el llamado padre de la Física Nuclear, Ernest Rutherford, tuvo corta vida. El papado de esa ciencia pasaría pronto a manos del danés Niels Bohr, su alumno, quien iba a formular el primer modelo cuántico del átomo. (Más específicamente, del átomo de hidrógeno).

El modelo de Rutherford había concebido un átomo que era la analogía a escala submicroscópica de un sistema solar. Los electrones serían los planetas de un sol equivalente al núcleo atómico. Desde el principio, sin embargo, fue evidente que esa metáfora no podía sostenerse: los electrones portaban carga eléctrica y al moverse perderían energía cinética ineludiblemente, por lo que terminarían colapsados sobre el esférico lecho nuclear. Como esto no era lo observado—el propio Rutherford había establecido que en términos atómicos había una distancia enorme y aparentemente persistente entre los electrones y el núcleo—una nueva explicación se hacía necesaria.

Niels Bohr (1885-1962) fue el encargado de aportarla, y su solución sería sofisticada e insuficiente a la vez, aunque precursora de lo que vendría. En el primitivo modelo de Bohr (1913) el átomo sigue consistiendo de un pequeño núcleo cargado positivamente rodeado por una nube o corona de electrones, sólo que éstos ya no son entendidos como minúsculos planetas individualizados, sino como ondas que se extienden por toda la órbita de cada uno. La característica más importante del modelo era, sin embargo, su “cuantización” de estas órbitas electrónicas.

No toda órbita era posible, sino unas pocas órbitas específicas. En cada una el electrón en cuestión poseía un nivel de energía específico. Cada electrón podía saltar de una a otra órbita mediante la absorción de un cuanto de radiación electromagnética (fotón) o la emisión de uno. El tamaño del cuanto venía determinado por la diferencia entre los niveles de energía de las órbitas. Las órbitas permitidas se calculan a partir de los valores cuantizados (discretos) del momento orbital angular[1] L según la siguiente fórmula:

 L = n{h \over 2\pi} = n\hbar

 

donde n corresponde a 1, 2, 3… y h es la constante de Planck.  En la órbita de menor energía, la más cercana al núcleo, n es igual a 1.

Al momento orbital angular calculado por la ecuación de Bohr se le denomina ahora “número cuántico principal”, y su solución tuvo éxito en explicar la fórmula empírica de Rydberg para las precisas líneas espectrales de emisión del átomo de hidrógeno, que se obtuvo experimentalmente sin que se contara con una fundamentación teórica.

A pesar de modificaciones introducidas por Sommerfeld al modelo de Bohr, éste no lograba explicar todo—por ejemplo, por qué debe ser cuantizado el momento angular—y finalmente fue suplantado definitivamente por la más completa explicación de la mecánica cuántica que se desarrollaría más tarde. Hoy en día el modelo de Bohr, tenido por semiclásico[2], es un caso límite[3] o especial de la mecánica cuántica, y el átomo de hidrógeno es calculado a partir de la ecuación de onda (1925) del físico austriaco Erwin Schrödinger.

Niels-Erwin

Niels Bohr - Edwin Schrödinger

En 1920, ya profesor de la Universidad de Copenhague, Niels Bohr asumió la dirección del recién creado Instituto de Física Teórica (más tarde Instituto Niels Bohr), donde las futuras luminarias de la física nuclear—Werner Heisenberg y Wolfgang Pauli entre ellas—estudiaron bajo su prestigiosa guía. A Bohr le fue concedido el Premio Nóbel de Física en 1922, un año después de Einstein, “por sus servicios en la investigación de la estructura de los átomos y de la radiación que emana de ellos”.

Para aquel momento, entonces, tres escalones de la escalera cuántica[4] habían sido trepados: la intuición original de Planck en 1900, la aplicación de Einstein a la luz y el efecto fotoeléctrico y la primera descripción cuántica de un átomo, debida a Bohr. El próximo aporte fue suministrado por el físico francés Louis de Broglie, quien destacó la naturaleza dual de las entidades subatómicas—de comportamiento a un tiempo corpuscular y ondulatorio—en su tesis doctoral de 1924, en la que introdujo, para el electrón, la noción de ondas de materia[5]. (Recherches sur la théorie des quanta). Bohr recogió esta postulación en su “principio de complementaridad”, que estipulaba que cualquier entidad cuántica puede manifestarse como onda o como partícula, aunque no simultáneamente como ambas cosas, dependiendo del método de observación. El camino indicado por de Broglie daba paso a una concepción “filosófica” central de la nueva física y seguiría la bifurcación onda-partícula[6] para permitir el paso de dos formulaciones alternas de los fundamentos generales de la física cuántica.

En efecto, al año siguiente de la disertación por de Broglie, dos mecánicas cuánticas distintas y consistentes fueron propuestas independientemente por Werner Heisenberg y Erwin Schrödinger. El primero propuso en 1925 un esquema construido con matrices (mecánica matricial) o grupos de números asociados, mientras que el segundo adelantó una “mecánica de ondas” (wave mechanics). Ambas construcciones eran equivalentes, como señalaría el propio Schrödinger y más tarde la unificación (la teoría de la transformación) propuesta por P. A. M. (Paul Adrien Maurice) Dirac. En el fondo del asunto estaba una característica esencial del mundo subatómico: la imposibilidad de tratarlo como una entidad clásica y determinista, pues sus dimensiones se manifestaban difusas, no determinables con fija exactitud, sino como expresión de una distribución de probabilidades. A la escala subatómica es imposible predecir con una precisión arbitraria: la entidad del electrón, por caso, no puede ser imaginada como ocurriendo en un punto determinado del espacio (modelo planetario de Rutherford), sino como llenando con densidad variable toda la “extensión” de la órbita, (Modelo de Bohr).

Así, Schrödinger imaginaba a la carga eléctrica del electrón como una “nube” borrosa distribuida por toda su órbita. Cupo a Max Born la gloria de sugerir que la tal nube, “retratada” en la ecuación de onda, no debía ser entendida como una entidad física, sino como una distribución de probabilidades. Mientras no se observaba, lo mejor que podía decir la física cuántica era una probabilidad acerca de la ubicación exacta de una partícula en el espacio, y esto se manifestaba como una ecuación de onda que “colapsaba” una vez que se determinaba esa posición.

Heisenberg llevaría esta situación un poco más allá: en 1927 formuló[7] lo que se conocería de allí en adelante como “principio de incertidumbre” o “principio de indeterminación”. (Esta última designación fue propuesta por Bohr). Que si fuera posible medir la posición q de una partícula con el grado requerido de precisión, entonces ya no sería posible determinar su momento p, y viceversa. Wolfgang Pauli, otro físico alemán que asistía, como Heisenberg, al instituto dirigido por Bohr y era amigo del joven autor de la mecánica matricial, escribió a éste una carta en la que describía gráficamente la situación: “Puedes ver el mundo con el ojo-p así como puedes verlo con el ojo-q, pero si tratas de abrir ambos ojos a la vez te volverás loco”. (En términos algo más técnicos, no se puede medir con arbitraria precisión los valores de cantidades “conjugadas” , es decir, de observables que ocurren pareados, como la posición y la velocidad o el momento de una partícula. En la formulación matemática de esta condición fundamental de la mecánica cuántica volvía a aparecer la aparentemente inevitable y ubicua constante de Planck:

Incertidumbre

Lo que dice la fórmula de Heisenberg es que el producto de la incertidumbre en la posición Dx por la desviación estándar (una medida estadística de dispersión) del momento Dp, el resultado no será inferior a la mitad de la constante de Planck dividida por 2p.[8] El cociente establece un límite fundamental a la precisión con la que pueden ser determinadas las cantidades conjugadas. Aunque este límite es muy pequeño en términos de lo macroscópico, a escala subatómica introduce una indeterminación insalvable.

La suma de teorías cuánticas, sin embargo, requería una interpretación, es decir, explicar de qué estaban hablando los científicos del instituto liderado por Bohr. La “Interpretación de Copenhague” sería expuesta primero en un simposio reunido en Como en septiembre de 1927 para conmemorar el centenario de la muerte de Alessandro Volta. Allí Bohr ofreció su gran conferencia, titulada “El postulado del cuanto y más recientes desarrollos en física atómica”, en representación del equipo. (Formado por el mismo Bohr, Heisenberg, Born, Pauli y Pascual Jordan). Un mes más tarde se celebró por quinta vez la Conferencia Solvay en Bruselas—la primera tuvo lugar en 1911—y allí tuvo la novísima interpretación su prueba de fuego.

La naturaleza estadística e indeterminada de la nueva física resultó indigerible para el venerado Alberto Einstein, quien la combatiría hasta el final de sus días. De este modo el gran patriarca de la física del siglo XX se hizo anacoreta. Max Born habló por la comunidad de físicos entera al escribir: “Muchos entre nosotros ven esto como una tragedia—para él, mientras busca a tientas su camino en soledad, para nosotros, que echamos en falta a nuestro líder y portaestandarte”.

Wolfgang-Werner-Enrico

Wolfgang Pauli, Werner Heisenberg, Enrico Fermi. Lago de Como, septiembre de 1927. Fotografía de archivo del Centro Europeo para la Investigación Nuclear (CERN).

La palabra “interpretación” no es de selección arbitraria. En el campo lógico-lingüístico es posible construir un lenguaje “formal” consistente en meros símbolos y sus reglas de combinación. No es necesario que signifiquen nada. Al “interpretarlo” se dota de contenido “semántico” (significado) a los símbolos y fórmulas obtenidas en el lenguaje formal. Las fórmulas y ecuaciones del “formalismo” cuántico son en sí mismas entidades abstractas útiles, por ejemplo, para calcular la probabilidad de encontrar una partícula dada en una cierta región del espacio. Su poder reside en su capacidad de modelar fenómenos que es imposible deducir de las teorías clásicas. Entre éstos se encuentran la cuantización de ciertas cantidades físicas (número discreto de órbitas electrónicas, por ejemplo), la dualidad onda-partícula y la relación de incertidumbre. Por la época del desarrollo de la interpretación de Copenhague, existía una intensa actividad en lógica, lingüística y filosofía de la ciencia (Wittgenstein, Círculo de Viena, Russell, Hilbert), así como algunos físicos, entre ellos Ernst Mach, Alberto Einstein y el mismo Niels Bohr, tenían posiciones filosóficas muy firmes, y no ignoraban el vivo debate epistemológico de los tiempos.

Einstein, en particular, sostenía que la mecánica cuántica era una teoría “incompleta”, en el sentido de no proporcionar una explicación para todo “elemento de la realidad” física. (1935). Hacía cuatro años que Kurt Gödel hubiera demostrado sus teoremas de incompletitud y el término estaba en el aire. Por su parte, Bohr, el otro polo de la polémica, se limitaba a reiterar la correspondencia de la teoría con los hechos y su propia interpretación de ella.

Una vez que él y Heisenberg extendieran la interpretación probabilística de la función de onda adelantada por Max Born, rechazaban sistemáticamente que ciertas cuestiones tuvieran sentido, puesto que la Física, al decir de Bohr, no tiene por objeto decirnos cómo es el mundo en realidad, sino sólo predecir exitosamente los resultados de los experimentos. William Blake hubiera considerado a ésta, la más desnuda entre las posturas, la esencia última del satanismo.

DIGRESIÓN

(Quien escribe asistió a la conferencia de un físico yugoslavo—de nombre olvidado y que fuera alumno todavía de Max Planck—en el Centro de Física del Instituto Venezolano de Investigaciones Científicas, IVIC, en 1981 o 1982. La conferencia versó sobre los principios generales de la física cuántica. En esa ocasión el suscrito planteó al profesor visitante la siguiente cuestión: en 1931 Gödel mostró que los sistemas matemáticos de riqueza equivalente o superior a la de la aritmética o teoría de los números, no podían ser a la vez completos y consistentes. Comoquiera que la física cuántica empleaba un formalismo matemático más complejo que la mera aritmética, habría transpuesto el “umbral gödeliano”, y por tal razón sufriría de incompletitud o inconsistencia. Tal vez, entonces, la incertidumbre de Heisenberg tenía una raíz lógico-lingüística. El conferencista se mostró impactado por la idea y no pudo ofrecer respuesta satisfactoria al asunto).

En todo caso, la física cuántica ha sido sometida a numerosísimas verificaciones experimentales. De todas ha salido airosa. En particular, ha tenido extraordinario éxito predictivo, y también en tanto guía de desarrollos tecnológicos diversos, que pueblan el mundo de nuestra cultura material, desde la criptografía hasta la generación de imágenes por resonancia magnética nuclear, pasando por el transistor y el rayo láser. Desarrollos sucesivos han integrado el tratamiento cuántico con la teoría especial de la relatividad—teoría cuántica del campo o quantum field theory—y también han producido una teoría satisfactoria de la interacción nuclear o fuerte—cromodinámica cuántica—que mantiene a los nucleones (el protón y el neutrón) confinados al núcleo del átomo, así como una unificación—teoría electrodébil—de la electrodinámica con la “interacción débil”. (Responsable en los átomos de la emisión de partículas beta—electrones—en el proceso conocido como decaimiento beta: beta decay).

Es el objetivo más profundo de la Física en nuestros días la unificación de la mecánica cuántica y la teoría general de la relatividad. En este esfuerzo el propio Einstein, y Heisenberg, con su muy preliminar e incompleta “teoría general de la materia”, que contendría la fórmula universal de la Física, fracasaron.  La actual candidata, la “teoría de cuerdas”, es una estructura tan compleja y tan poco intuitiva, que habría horrorizado a Einstein, eterno creyente en la simplicidad y belleza de las fórmulas incrustadas en la creación divina.

NOTAS HISTÓRICAS

1. Heisenberg trabajó en su teoría general o unificada de la materia por más de cinco años, durante los cuales contó con la colaboración, a veces a distancia, de su muy entrañable amigo y colega, Wolfgang Pauli.

Las matemáticas involucradas en el estudio eran tan enrevesadas que generó un constante ir y venir de correcciones, y el trabajo no pudo ser publicado, como Heisenberg planeó, en Zeitscrift für Naturforschung, y sólo circuló en unas pocas copias como pre-print, una forma semiprivada de comunicación científica preliminar de uso común en los Estados Unidos. El envío de las copias tuvo lugar el 27 de febrero de 1958, tres días después de que Heisenberg presentara el asunto en el Coloquio de Física de la Universidad de Gotinga. A este evento asistió una nutrida concurrencia, en la que se encontraba un periodista con algún barniz de conocimientos físicos. Al día siguiente la Agencia Alemana de Prensa transmitía un despacho que llegó a los periódicos: “El ganador del premio Nóbel, profesor Werner Heisenberg, ha hecho.. un anuncio sensacional. El director y su equipo en el Instituto de Física de la Sociedad Max Planck han descubierto una ecuación que podría, por primera vez en la historia de la Física, servir como base para la deducción de la Física entera…”

Al saber esto, Pauli reaccionó ácidamente, enviando a un grupo de colegas una hoja de papel en blanco en la que aparecía dibujado un rectángulo. Sobre la figura había una leyenda que decía: “Esto es para mostrar al mundo que puedo pintar como Tiziano”. Y debajo: “Sólo faltan detalles técnicos”.

Heisenberg jamás llegó a su ansiada teoría general. Irónicamente, cuando supo que Murray Gell-Mann intentaba la comprensión de las partículas elementales como compuestas de entidades aun más pequeñas (quarks), creyó que el nuevo enfoque estaba fundamentalmente equivocado. Hoy los quarks son la piedra angular del llamado “modelo estándar” que explica la existencia de las partículas subatómicas. Como antes Einstein se separó de la corriente principal de la Física al perseguir sin éxito un error básico en la mecánica cuántica, Heisenberg también se había quedado atrás, aunque tales circunstancias no desdigan un ápice de los dos grandes físicos del siglo XX.

2. En 1998 se estrenó en Londres la obra teatral premiada de Michael Frayn, “Copenhague”, que relata el transcurrir de una visita que Heisenberg hiciera a Bohr—de raíz judía—en una Dinamarca ocupada por los nazis. Heisenberg dirigía el programa de investigación nuclear de Alemania, y de la reunión cada interlocutor ofreció una distinta versión de los hechos. Bohr negó la relación de Heisenberg, que quiso se interpretara el encuentro como la ocasión en la que dio seguridades al primero de que el programa que dirigía no fabricaría una bomba atómica.

En 2002 Howard Davies dirigió una adaptación de la obra para televisión. El papel de Heisenberg fue asumido por Daniel Craig, el nuevo intérprete de Bond, James Bond, en próxima película. LEA


[1] El momento de un cuerpo viene dado al multiplicar su masa por su velocidad. En un movimiento orbital se trata de una velocidad angular, de allí la aparición de π en la ecuación. La energía es el producto de la masa por el cuadrado de la velocidad.

[2] La física “clásica”, incluida en ella la teoría de la relatividad, es la previa a la física cuántica. Es determinística en lugar de probabilística, como la última.

[3] Tal como la mecánica de Newton es considerada un caso límite o especial de la teoría general de la relatividad.

[4] A diferencia de la teoría de la relatividad, que fue esencialmente aportada por el genio solitario de Einstein, la mecánica cuántica fue construida con los aportes de un buen número de investigadores, quienes fueron añadiendo, en rápida sucesión, escalones adicionales.

[5] Generalizada esta idea, una onda característica está asociada incluso a una masa como la de la Tierra, aunque a su escala las propiedades ondulatorias sean enteramente despreciables. Es a la escala subatómica cuando las manifestaciones ondulatorias se hacen notables.

[6] En inglés se ha acuñado el término wavicle para referirse a estas entidades de dos caras, a partir de la contracción de las palabras wave y particle.

[7] Über den anschaulichen Inhalt der quantentheoretischen Kinematik und Mechanik.

[8] Al cociente de la constante de Planck dividida por 2p se le conoce como constante de Planck reducida, término que Bohr había introducido en la fórmula del momento orbital angular y se designa con el símbolo .

Share This:

FS #105 – No crea en cuentos

Fichero

LEA, por favor

La gentileza del doctor Gonzalo Pérez Petersen me ha permitido leer Cuentos chinos, el informativo libro de Andrés Oppenheimer, conocido comentarista de la televisión internacional y periodista de gran influencia. (Fue escogido por Forbes Media Guide como uno de los quinientos periodistas más importantes de los Estados Unidos en 1993, y la revista Poder lo incluyó en una lista de las cien personas más poderosas en América Latina en 2002). El doctor Pérez Petersen me facilitó un ejemplar de la segunda edición (marzo de 2006) de la obra editada por Random House-Mondadori en noviembre de 2005. (Colección Otras Voces, Debate).

En diez capítulos, Oppenheimer, editor de asuntos internacionales en The Miami Herald y conductor de un programa de opinión muy visto en CNN, desmonta un número equivalente de «cuentos chinos» relativos al tema del desarrollo de América Latina. (Que él escribe América latina). Cuando escribe sobre China, o Irlanda o Polonia, lo hace con la intención de extraer lecciones pertinentes a las economías latinoamericanas. Un caso de su particular interés es el venezolano.

Al proyecto político de Hugo Chávez lo denomina «narcisista-leninista», una designación tanto gráfica como sintética, y desde el primer capítulo, El desafío asiático, la emprende contra la primitiva prédica del gobierno chavista. Es de este capítulo de donde se extrae el trozo inicial para componer esta Ficha Semanal #105 de doctorpolítico.

Oppenheimer se propuso construir bases razonables para un optimismo acerca del futuro latinoamericano, sobre cuyas esperanzas de renacer apunta en su epílogo: «Claro que las hay, siempre y cuando nuestros países se miren menos el ombligo, y más a su alrededor. En la medida en que nos adentremos en lo que parece ser el siglo asiático, la clave del éxito de las naciones—cualquiera sea su ideología política—es la competitividad. Y para eso hace falta que los países, como las empresas, atraigan inversiones productivas y busquen nichos de mercado donde puedan insertarse en las economías más grandes del mundo, como lo están haciendo con gran éxito los asiáticos».

Se trata de una tesis sencilla, nada misteriosa, asentada sobre sus observaciones de experimentado periodista internacional. (Oppenheimer nació en Buenos Aires, donde estudio cuatro años de la carrera de leyes—poco menos que Benjamín Rausseo—antes de obtener una maestría en Periodismo en la Universidad de Columbia en 1978).

LEA

No crea en cuentos

Uno tiene que viajar a China, en la otra punta del mundo, para descubrir la verdadera dimensión de la competencia que enfrentarán los países latinoamericanos en la carrera global por las exportaciones, las inversiones y el progreso económico. Antes de llegar a Beijing, había leído numerosos artículos sobre el espectacular crecimiento económico de la República Popular China y de otros países asiáticos como Taiwán, Singapur y Corea del Sur. Y estaba asombrado de antemano por el éxito chino en sacar a cientos de millones de personas de la pobreza en las últimas dos décadas, desde que el país se había abierto al mundo. Sin embargo, nunca imaginé lo que vería, y escucharía, en China.

Desde el minuto en que aterricé en la capital china, me quedé boquiabierto ante las gigantescas dimensiones de todo. Todavía sentado en el avión, desde la ventanilla, advertí que mi vuelo se aprestaba a ubicarse en el hangar número 305, lo que de por sí ya era un primer motivo de asombro para un viajero frecuente acostumbrado a bajarse en la puerta B-7 del aeropuerto de Miami, que tiene apenas 107 hangares, o en el hogar 28 del aeropuerto de Ciudad de México, que tiene 42. Cuando salí del avión con el resto de los pasajeros, me encontré con un aeropuerto gigantesco, parecido a un estadio cerrado de fútbol, sólo que cinco veces mayor, y de arquitectura futurista. Por el aeropuerto de Beijing transitan nada menos que 38 millones de personas por año, y ya está quedando pequeño, según me enteré después. De allí en más, saliendo del aeropuerto, la fiebre capitalista que se está viviendo en China, disfrazada por el régimen como una «apertura económica» dentro del socialismo, me deparó una sorpresa tras otra.

Era difícil no hacer comparaciones constantes entre lo que se ve en China y lo que está ocurriendo en América latina. Horas antes de mi llegada, en el vuelo de Tokio a Beijing, había leído en uno de los periódicos en inglés que repartían en el avión una noticia breve, según la cual Venezuela acababa de cerrar por tres días los ochenta locales de McDonald’s que operan en ese país. La medida, según el cable noticioso reproducido en el periódico, había sido tomada para investigar presuntas infracciones impositivas. El autoproclamado gobierno «revolucionario» de Venezuela sostenía que no toleraría más transgresiones de las multinacionales a la soberanía del país. Y aunque la controversia todavía no había sido resuelta en la Justicia, las autoridades habían ordenado cerrar los locales, y citaban la medida como un gran logro de la revolución bolivariana. La noticia no me sorprendió demasiado: había estado en Venezuela pocos meses antes, y había escuchado varios discursos incendiarios del presidente Hugo Chávez contra el capitalismo, el neoliberalismo y el «imperialismo» norteamericano. Pero lo que me asombró fue que, al día siguiente de mi llegada a la capital china, leyendo ejemplares recientes del China Daily—el periódico oficial de lengua inglesa del Partido Comunista chino—me encontré con un titular que parecía escrito a propósito para diferenciar a China de Venezuela y de otros países «revolucionarios»: «¡McDonald’s se expande en China!», anunciaba jubilosamente. El artículo señalaba que el consejo de directores en pleno de la multinacional norteamericana estaba por iniciar una visita a China, y sería recibido por las máximas autoridades del gobierno. Durante su estadía, los ilustres visitantes de la corporación multinacional anunciarían la decisión de McDonald’s de aumentar su red actual de seiscientos locales en China a más de mil durante los próximos doce meses. «China es nuestra mayor oportunidad de crecimiento en el mundo», señalaba Larry Light, el jefe de marketing de McDonald’s, al China Daily . Qué ironía, pensé para mis adentros: mientras en China comunista le dan una bienvenida de alfombra roja a McDonald’s, en Venezuela lo espantan.

Lo cierto es que hay un enorme contraste entre el discurso político de los comunistas chinos y el de sus primos lejanos más retrógrados en el escenario político latinoamericano. Mientras los primeros se desvelan por captar inversiones, una buena parte de los políticos, académicos y empresarios proteccionistas latinoamericanos se regodean en ahuyentarlas. En China, me encontré con un pragmatismo a ultranza y una determinación de captar inversiones para asegurar el crecimiento a largo plazo. Mientras Chávez recorría el mundo denunciando el «capitalismo salvaje» y el «imperialismo norteamericano», y recibiendo aplausos en los congresos latinoamericanos, los chinos les estaban dando la bienvenida a los inversionistas norteamericanos, ofreciendo todo tipo de facilidades económicas y promesas de seguridad jurídica, aumentando el empleo y creciendo sostenidamente a tasas de casi el 10 por ciento anual. Los jerarcas chinos mantienen un discurso político marxista-leninista para justificar su dictadura de partido único, pero en la práctica están llevando a cabo la mayor revolución capitalista de la historia universal. Después del XVI Congreso del Partido Comunista de 2002, que acordó «deshacerse de todas las nociones que obstaculizan el crecimiento económico», el pragmatismo ha reemplazado al marxismo como el valor supremo de la sociedad. Y, aunque a muchos nos repugnen los excesos del sistema chino, y no quisiéramos transplantar ese modelo a América latina, no hay duda de que la estrategia está logrando reducir la pobreza a pasos agigantados en ese país.

………

En una de mis primeras entrevistas con altos funcionarios chinos en Beijing y Shanghai, Zhou Xi-an, el subdirector general de la Comisión Nacional de Desarrollo y Reforma, el poderoso departamento de planificación de la economía china, me contó que un 60% de la economía china ya está en manos privadas. Y el porcentaje está subiendo a diario, agregó. Zhou, un hombre de unos cuarenta años que no hablaba una palabra de inglés a pesar de tener un doctorado en Economía y trabajar en el sector más conectado con Occidente del gobierno chino, me recibió en el majestuoso edificio de la comisión, en la calle Yuetan del centro de la ciudad. Intrigado por cuán lejos había transitado China en su marca hacia el capitalismo, yo había ido a la cita armado de un fajo de recortes periodísticos sobre la ola de privatizaciones que estaba teniendo lugar en el país. Acostumbrado a viajar a países donde la palabra «privatización» tiene connotaciones negativas, en parte por sus resultados no siempre exitosos, pensaba que algunos de los datos que había leído sobre China eran exagerados, o por lo menos no serían admitidos públicamente por los funcionarios del gobierno comunista. Pero me equivocaba.

«¿Es cierto que ustedes piensan privatizar cien mil empresas públicas en los próximos cinco años?», le pregunté al doctor Zhou, artículo en mano, a través de mi intérprete. El funcionario meneó la cabeza negativamente, casi enojado. «No, esa cifra es falsa», replicó. E inmediatamente, cuando yo ya pensaba que me iba a dar un discurso en defensa del socialismo, e iba a acusar a los periódicos extranjeros de estar exagerando la nota sobre las privatizaciones, agregó: «Vamos a privatizar muchas más». Acto seguido, el doctor Zhou me explicó que el sector privado es «el principal motor del desarrollo económico» de China, y que hay que brindarle la mayor libertad posible. Yo no podía dar crédito a lo que estaba escuchando. El mundo estaba patas para arriba.

De ahí en más, mis entrevistas con funcionarios, académicos y empresarios en la capital china me depararían una sorpresa tras otra. Sobre todo, cuando entrevisté a los máximos expertos sobre América latina, que—sentados al lado de la bandera roja y profesando fidelidad plena al Partido Comunista—me señalaban que los países latinoamericanos necesitaban más reformas capitalistas, más apertura económica, más libre comercio y menos discursos pseudorrevolucionarios. Uno de ellos… me dijo que uno de los principales problemas de América latina era que todavía seguía creyendo en la teoría de la dependencia, el credo económico de los años sesenta según el cual la pobreza en Latinoamérica se debe a la explotación de los Estados Unidos y Europa. En la República Popular China, el Partido Comunista había dejado atrás esta teoría hacía varias décadas, convencido de que China era la única responsable de sus éxitos o fracasos económicos. Echarles la culpa a otros no sólo era erróneo, sino contraproducente, porque desviaba la atención pública del objetivo nacional, que era aumentar la competitividad, me aseguró el entrevistado. Ése era el nuevo mantra de la política china, que eclipsaba a todos los demás: el aumento de la competitividad como herramienta para reducir la pobreza.

Andrés Oppenheimer

Share This: