Dos maravillas

René Magritte dice chapeau

René Magritte dice chapeau

A comienzos de los setenta, yo trabajaba en la Corporación Industrial Montana, como asistente de Hans Neumann. Una tarde, leía en la oficina un ejemplar de Scientific American. Me invadió una emoción casi mística al ver fotografías pareadas de la colisión de galaxias reales y de su simulación en computador: eran parecidísimas. Los ojos se me humedecieron. Sentí la urgencia de enseñar al Sr. Neumann la evidencia de lo maravilloso que es el cerebro humano y fui hasta su despacho, hablándole con fervor de la noticia.

Algo más sosegadamente, he visto ayer que científicos de los vecinos Instituto de Tecnología de Massachusetts y la Universidad de Harvard* lograron un riquísimo modelo de la evolución de nuestro universo, desde 12 millones de años a partir del Big Bang hasta la fecha, 14 mil millones de años después. La simulación despliega galaxias, huecos negros, estrellas, cúmulos que además cambian según su composición química, pues el modelo incluye ese refinamiento. Aunque tendrá que ser—y podrá ser—afinado, ya es en su estado actual un resultado majestuoso. Si hoy creemos que podrá tenerse un mapa dinámico del universo entero, tal vez algún día podamos incluso repararlo.

He aquí el video promocional del Proyecto Illustris, que sólo se obtiene en inglés. (Algo ayuda activar los subtítulos—cc en la barra de control—, aunque en numerosos puntos están mal. Por supuesto, es lo más remunerador ver este video a pantalla completa).

* En realidad, el equipo agrupó investigadores de otros centros de los EEUU, Inglaterra y Alemania:

Department of Physics, Kavli Institute for Astrophysics and Space Research, Massachusetts Institute of Technology; Harvard-Smithsonian Center for Astrophysics; Heidelberg Institute for Theoretical Studies; Zentrum für Astronomie der Universität Heidelberg; Kavli Institute for Cosmology, and Institute of Astronomy, Cambridge UK; Space Telescope Science Institute, Maryland; Institute for Advanced Study, Princeton.

………

La segunda maravilla es una reciente precisión de Ramón Guillermo Aveledo, suscitada por declaraciones de Roberta Jacobson, la en general entrometida Sub Secretaria de Estado para América Latina de los Estados Unidos. La Sra. Jacobson dijo que dirigentes opositores pedían a los EEUU que no se aplicara sanciones a Venezuela.

La respuesta oficial de la Mesa de la Unidad Democrática es impecable. Ojalá nuestro Tribunal Supremo de Justicia redactara así. De seguidas, el texto de la MUD:

Con motivo de las afirmaciones de la Secretaria de Estado Adjunta Roberta Jacobson ante el Comité de Asuntos Exteriores del Senado de su país, el Secretario Ejecutivo de la Mesa de la Unidad Democrática estimó que es necesario dejar perfectamente claras varias cuestiones, las cuales pasó a enumerar:

1.- La Mesa de la Unidad trabaja por un cambio pacífico, democrático y constitucional en nuestro país. Un camino en el cual los protagonistas somos los venezolanos.

2.- La comunidad internacional puede ayudarnos en esta lucha, pero en ningún caso podemos aspirar a que nos sustituya. Existen unos valores que inspiran la convivencia entre las naciones, que deben ser defendidos eficazmente en todas partes. Para la paz y el progreso de América Latina, es necesaria una Venezuela de paz y progreso. Nuestra región, nuestro hemisferio y el mundo, entienden que el respeto a los Derechos Humanos es la base de la convivencia. Por eso se ha desarrollado la tutela internacional de los Derechos Humanos, de la cual por cierto el actual gobierno de Venezuela ha querido librarse, en perjuicio de nosotros sus ciudadanos.

La situación venezolana ha generado preocupación en el mundo entero. En su abrumadora mayoría los pronunciamientos de gobiernos, parlamentos, partidos e internacionales de partidos y organizaciones internacionales han sido por el respeto a los Derechos Humanos, la vigencia de la Constitución y la necesidad del diálogo entre venezolanos. Los cancilleres de Brasil, Colombia y Ecuador, y el Nuncio Apostólico de Su Santidad participan en el diálogo político como terceros de buena fe.

3.- En estas convicciones, la Mesa de la Unidad no cree que los ciudadanos deban pagar los fracasos y culpas del Gobierno y sufrir consecuencias perjudiciales en sus vidas, adicionales a las ya gravosas que les ocasionan las malas decisiones de las autoridades, por lo tanto ha sido consistente en su rechazo a medidas que perjudiquen al pueblo, como sanciones o embargos a toda una nación. Es nuestra posición, pública y abierta. Se refiere a cualquier país y, desde luego, al nuestro. La historia de esas políticas es una de ineficacia.

4.- Eso nada tiene que ver con las consecuencias personales que los gobernantes o cualquier titular de autoridad, debe enfrentar por sus actos. Por ejemplo, si la legislación internacional, o la de un país en el ámbito de su territorio, prevén sanciones a personas concretas por violaciones a Derechos Humanos o por actos de corrupción, nadie tiene derecho a arroparse en la bandera nacional para exigir una protección que no merece. Nunca un vocero de la Mesa de la Unidad ha planteado a funcionario de país alguno que se dicten sanciones que hagan que el pueblo pague las culpas de sus gobernantes. Tampoco que se exonere a personas de asumir la responsabilidad que acarrea su conducta.

Por todo lo anterior, dijo Aveledo, la Señora Secretaria Adjunta debe aclarar el alcance de su respuesta, pues se presta a equívocos indeseables. Las posiciones de la Unidad son públicas y conocidas. Ningún vocero de la MUD ha solicitado a funcionario norteamericano alguno lo que hoy ha trascendido en los medios. Y si alguna organización o individuo de la sociedad civil lo ha hecho, es bajo su responsabilidad y debe asumirla.

 ¡Bravo! ¡Gracias por tan clara dignidad! LEA

_______________________

Share This:

Memorias lógico-físicas

Max Planck, quien comenzó la cosa

 

A Nacha Sucre, “ese norte tan cercano”, y a la memoria de los Eduardos

____________________________

Esto es el relato de un descubrimiento en Lógica—de cuya importancia no tengo clara idea y tampoco de si alguien hubiera encontrado lo mismo antes—y de una conjetura en asunto de Física. Lo primero tiene certificación firmada y fechada, lo segundo es un grueso recuerdo; ambos recuentos requieren un preámbulo.

………

Conocí a mi esposa el 11 de mayo de 1976. Andrés Ignacio Sucre, su primo hermano, quien había sido mi alumno en la Universidad Metropolitana en su primera sede de San Bernardino, compartía conmigo amistad y gusto por la buena música. (Andrés fue pionero del Sistema de Orquestas Juveniles de Venezuela, la creación de José Antonio Abreu). Me invitó a su casa en la fecha mencionada para escuchar el concierto aniversario de un coro a cuatro voces que dirigía, con sabrosura característica, mi amigo de adolescencia y compadre, Eduardo Plaza Aurrecoechea. En el Día de las Madres del año anterior, había sonado por primera vez—en la casa del Ing. Tomás Enrique Reyna en La Floresta—y al cumplirse un año exacto del estreno conocí a Nacha Sucre, contralto. Desde entonces estoy enamorado. (Al despedirme de Andrés Ignacio, le pregunté por ella en la puerta de su casa, y al llegar a la mía sentí la maciza fiebre de un pensamiento de procedencia misteriosa y que no me abandonaba: yo debía, por encima de todas las cosas, respetar la libertad de la mujer a quien ya amaba. Entonces no conocía a su padre, el insigne pediatra Armando Sucre Eduardo, de quien escribiría mucho más tarde: “Nunca he sabido de nadie que le superase en el terco respeto que guarda por la libertad de sus semejantes”).

Bueno, el día anterior, sin sospechar siquiera la existencia de Cecilia Ignacia Sucre, me encontraba en la oficina que compartía con Eduardo Quintana Benshimol, filósofo, y Juan Forster Bonini, químico. Los había reclutado a ambos para desarrollar una metodología capaz de obtener buenos aprendedores a partir de malos aprendedores, en un proyecto financiado por la Fundación Neumann entre 1975 y 1976. El 10 de mayo de 1976 yo jugaba con la tabla de verdad—invención de Ludwig Wittgenstein en su Tractatus Logico-Philosophicus (1918)—de la función lógica de implicación: si A, entonces B.

Las tablas de verdad son un instrumento práctico para anotar las distintas posibilidades de verdad o falsedad de proposiciones lógicas combinadas, dada la verdad o falsedad de las proposiciones simples que las componen. A partir de éstas, las proposiciones complejas se construyen mediante el empleo de conectivos. Son los conectivos clásicos de la Lógica el conectivo “y”, el conectivo “o” , el conectivo “si… entonces…” (implicación) y el conectivo “…si y sólo si..” (doble implicación). Por ejemplo, el conectivo “y” (nuestra conjunción castellana) funciona de esta manera: si digo “La casa es blanca y el día es claro”, he construido una proposición combinada a partir de dos proposiciones elementales, las oraciones separadas “La casa es blanca” y, luego, “El día es claro”. Digamos que las representamos, respectivamente, por las letras “r” y “s”. La proposición conjunta “La casa es blanca y el día es claro” estaría representada, en una notación bastante extendida, por r^s.

Verdadera en una de cuatro casos

La verdad de esta proposición doble depende de la verdad de las elementales. Ella es verdadera sólo cuando las elementales son ambas verdaderas, y la tabla de verdad de la conjunción lo expresa con claridad. Hablamos con verdad al decir que “El gobierno es malo y la situación terrible” si y sólo si son verdades independientes “El gobierno es malo” y “La situación es terrible”. Basta que una de estas afirmaciones individuales sea falsa para que la proposición conjunta lo sea.

Falsa solamente en uno de cuatro casos

Como dije antes, me ocupaba el 10 de mayo de 1976 con el conectivo de implicación: “si… entonces…” Es decir, con proposiciones de esta forma: “si A, entonces B”, “si p, entonces q”, “si la casa es blanca, entonces el día es claro”, “si r, entonces s”, “si el gobierno es malo, entonces la situación es terrible”. ¿Qué quiere decir la implicación? Que si la implicación es verdadera, el hecho de que la primera proposición elemental sea verdadera obliga a que la segunda lo sea, y que si la primera afirmación es verdadera y la segunda es falsa, entonces la implicación es falsa también. Su tabla de verdad refleja lo que acabo de decir pues, en realidad, la implicación sólo dice algo significativo de los dos casos en los que la primera proposición es verdadera, y como cuando ella es falsa no puede decirse que es falsa la implicación, entonces se le asigna, por simetría, la cualidad de verdadera.

Ustedes dirán que esto es absurdo, pero así es la Lógica formal o cálculo proposicional, y es ese rigor lógico el que llevó a mi hallazgo: simplemente, comencé a añadir sucesivamente nuevas hipótesis a una implicación simple. Esto es, luego de r>s, escribí q>r>s (si q entonces si r entonces s), después si p>q>r>s (si p entonces si q entonces si r entonces s), y así sucesivamente. Por ejemplo, la serie: “Si el gobierno es malo, entonces la situación es terrible”, “Si el Presidente es un pirata, entonces si el gobierno es malo entonces la situación es terrible”, “Si el socialismo es necio, entonces si el Presidente es un pirata entonces si el gobierno es malo entonces la situación es terrible”, “Si ser pobre es bueno, entonces si el socialismo es necio entonces si el Presidente es un pirata entonces si el gobierno es malo entonces la situación es terrible”.

Ya sabemos que la implicación simple es verdadera en tres de cuatro casos (75% de éstos). La situación mejora con cada paso: la siguiente implicación es verdadera en siete de ocho casos (87,5%), la que le sigue en quince de dieciséis casos (93,75%) y “Si ser pobre es bueno, entonces si el socialismo es necio entonces si el Presidente es un pirata entonces si el gobierno es malo entonces la situación es terrible” es falsa sólo en uno entre treinta y dos casos y verdadera en treinta y uno (96, 875%).

Constancia expedida por Eduardo Quintana B. (clic amplía).

De esto trataba mi ociosidad de aquel día, y al anotarla en un Level Book S 1136—un cuaderno de topógrafos que mi padre me había regalado—, la mostré a Eduardo Quintana y le pedí que certificara con su firma el paradójico hallazgo. He aquí la imagen de la página en la que la escribí; Eduardo firmó, con bolígrafo de tinta roja, en la esquina superior derecha. Dicen las notas:

10 de mayo de 1976! la tabla de verdad (TV) de r>s contiene un F en cuatro casos posibles.

la TV de q>(r>s) contiene un F en ocho casos posibles

la TV de p>(q>(r>s)) contiene un F en dieciséis casos posibles y así sucesivamente.

Por tanto, nos podemos aproximar a una tautología tanto como sea posible mediante el expediente de introducir cada vez una implicación que contenga a la anterior.

Una tautología es una verdad lógica en todos los casos; por así decirlo, en todos los universos posibles. Por ejemplo la disyunción—una proposición construida con el conectivo o conjunción “o”—que combine una proposición y su negación: Aˆ-A (A o no A). En toda realidad imaginable es verdad que en cualquier instante “llueve o no llueve”, que un objeto será una silla o no lo será.

En el fondo, lo que encontré es un modelo de ocurrencias reales en cierto tipo de discusión en la que se rebate la proposición de alguien y éste escapa siempre, mediante la introducción de una proposición ad hoc que salva a la primera de la refutación. Los marxistas son hábiles a este respecto; si se les halla en una equivocación, la eluden diciendo, por ejemplo, que nuestro razonamiento obedece a una manera burguesa de pensar. Pero también usan ese método los astrólogos; si la cosa no resulta como predice la carta astrológica que nos hayan construido, dirán que no les proporcionamos la hora exacta de nuestro nacimiento, y así es muy difícil convencerles de su error. No es casualidad que Karl Popper encontrara que el materialismo histórico y la astrología no son discursos científicos. Todo discurso científico debe ser en principio refutable por la experiencia, y las construcciones marxistas y astrológicas son inmunes a esa posibilidad.

………

Una situación distinta se presentó en algún día de 1981, cuando ejercía la Secretaría Ejecutiva del Consejo Nacional de Investigaciones Científicas y Tecnológicas (CONICIT). Atraído por la visita al IVIC (Instituto Venezolano de Investigaciones Científicas) de un físico yugoslavo, de quien se decía era uno de los últimos alumnos de Max Planck (1858-1947, el fundador de la física cuántica), me encaminé al Centro de Física para escucharle en una conferencia de corte general. Mencionó, naturalmente, uno de los dogmas de esta ciencia: el principio de indeterminación (o incertidumbre) postulado por Werner Heisenberg. Según este principio, no es posible determinar simultáneamente la posición de una partícula subatómica y su velocidad (más propiamente, su “momento”). Si se ha determinado su posición, entonces se ignora su velocidad; si se ha medido su velocidad, entonces se ignora dónde diablos se encuentra.

Cuando los asistentes pudimos hacer preguntas, tuve el atrevimiento—propio de diletante—de plantearle lo siguiente:

En 1931 el mundo de las ciencias matemáticas fue conmovido por la explosión de una bomba termonuclear del intelecto. El episodio, de conse­cuencias profundas y extraordinarias, fue protagonizado por un matemático y lógico checo, Kurt Gödel, quien demostró lo que probablemente sean los dos teoremas más fundamentales del conocimiento abstracto.

A fines del siglo XIX el matemático alemán David Hilbert pro­puso lo que llegaría a conocerse como programa de Hilbert: el intento de montar todo el edificio de la matemática sobre una base deductiva, al estilo de la geometría de Euclides. Para esos momentos, muy po­cas partes de la matemática estaban construidas de esa manera. A partir del reto de Hilbert, los mejores entre los matemáticos se dieron a la tarea de cumplir el pro­grama. En el camino, más de una vez se toparon con hallazgos contradicto­rios.

Gödel expuso de modo definitivo la razón de las antinomias y contradicciones. Mediante un ingenioso método de “aritmetización” de proposiciones lógicas, Gödel estableció dos teoremas que, en conjunto, de­mostraron que el programa de Hilbert era, de suyo, imposi­ble.

Lo que Gödel determinó fue que no era posible la construcción de un sistema matemático deductivo, de complejidad o riqueza equivalente a la de la aritmética, que fuese completo—esto es, que contuviese como teoremas to­das las afirmaciones verdaderas en el territorio ló­gico que cubre—y que a la vez fuese consistente; es decir, que estuviese libre de contradicciones internas. O sea, si era completo era inconsistente, y si era consistente era incompleto.

El intento de construir un sistema matemático completo conduciría a un conjunto de pro­posiciones entre las cuales se hallaría al menos una pareja de proposiciones que afirmarían jus­tamente lo contrario la una de la otra, y ambas serían deducibles del mismo cuerpo de axiomas por procedimientos perfectamente lógicos.

¿No le parece, profesor, que siendo que la física cuántica está montada sobre un sistema matemático de riqueza superior a la de la aritmética, debe haber rebasado con mucho un “umbral goedeliano” y entonces el principo de Heisenberg, antes que una realidad física, pudiera ser un problema del cálculo o lenguaje lógico que emplea?

Kurt Gödel (Brno, 1906-Princeton, 1978)

No recuerdo otra cosa que el desconcierto del conferencista, cuyo nombre ni siquiera preservo. Google no ha podido encontrarme a un físico de la antigua Yugoslavia que estuviera vivo en 1981, cuando lo escuché, y pudiera haber aprendido directamente de Planck, quien murió en 1947. Hace poco intenté conseguir a alguien que pudiese saber quién era en el Centro de Física del IVIC, infructuosamente, y he sido holgazán para seguir averiguando. Menos todavía puedo contestar yo mismo la pregunta que le hice, pues no dispongo del instrumental teórico necesario. Disparé aquel día mi conjetura irresponsablemente para ver si la pegaba, animado porque la indeterminación de Heisenberg y la incompletitud de Gödel me parecían cosas parecidas. LEA

_________

Share This:

Proyecto Fénix: Teología conjetural

 

El Ave Fénix como constelación

 

Memento homo, quia pulvis es et in pulverem reverteris.

Génesis 3,19

…………………..

Charada: Mi tercera y mi cuarta son nada. Mi segunda, mi tercera y mi cuarta son menos que nada. Mi todo es lo que queda después de que no queda nada.

Solución: Cenicero.

…………………………….

El ave Fénix o Phoenix, como lo conocían los griegos, es un ave mitológica del tamaño de un águila, de plumaje rojo, anaranjado y amarillo incandescente, de fuerte pico y garras. Se trataba de un ave fabulosa que se consumía por acción del fuego cada 500 años, para luego resurgir de sus cenizas. (…) Para San Ambrosio, el ave Fénix muere consumida por el Sol, convertida en cenizas de las que renace, después de arder su cuerpo, como un pequeño animal sin miembros, un gusano muy blanco que crece y se aloja dentro de un huevo redondo, como si fuera una oruga que se vuelve mariposa, hasta que dejando de ser implume se transforma en un águila celeste que surca el firmamento estrellado.

Wikipedia en español

________________________

 

En Miércoles de Ceniza, cuando a los católicos se les recuerda que polvo son y al polvo regresarán, cabe indagar cómo sería posible renacer del polvo, de sus cenizas. Ésta es una cuestión de gran importancia existencial; esto es, posiblemente sea la angustia mayor del género humano su mortalidad, el hecho aparente de que una experiencia continua tan vívida y densa como la conciencia de sí mismo termine abruptamente y no continúe para siempre.

La Iglesia Católica ofrece una respuesta: la vida es perdurable. Jesús de Nazaret, que resucitó al tercer día de su muerte en la cruz, vendrá por segunda vez a la tierra para despertar a los muertos, para hacerlos resucitar como él lo hizo. Entonces nos mandará a la presencia eterna de su Padre, que disfrutaremos por tiempo infinito, o con igual duración al infierno para un interminable llanto y crujir de dientes. Eso enseña Benedicto XVI.

Naturalmente, eso es mitología. Alguien cuyo nombre he perdido—ni Google ha podido encontrármelo—dijo: “La paz llegará cuando alcancemos a ver la Biblia como vemos a las mitologías griega y romana, como literatura psicológicamente perspicaz”. Es pensamiento supersticioso, al que no escapan ni los papas. Clemente I o de Roma, el tercero o cuarto sucesor de San Pedro a la cabeza de las comunidades cristianas del siglo I, escribió en su Epístola a los corintios:

Consideremos la maravillosa señal que se ve en las regiones del oriente, esto es, en las partes de Arabia. Hay un ave, llamada fénix. Ésta es la única de su especie, vive quinientos años; y cuando ha alcanzado la hora de su disolución y ha de morir, se hace un ataúd de incienso y mirra y otras especias, en el cual entra en la plenitud de su tiempo, y muere. Pero cuando la carne se descompone, es engendrada cierta larva, que se nutre de la humedad de la criatura muerta y le salen alas. Entonces, cuando ha crecido bastante, esta larva toma consigo el ataúd en que se hallan los huesos de su progenitor, y los lleva desde el país de Arabia al de Egipto, a un lugar llamado la Ciudad del Sol; y en pleno día, y a la vista de todos, volando hasta el altar del Sol, los deposita allí; y una vez hecho esto, emprende el regreso. Entonces los sacerdotes examinan los registros de los tiempos, y encuentran que ha venido cuando se han cumplido los quinientos años.

Bernardino Fungai: El martirio de San Clemente (clic amplía)

Es decir, quien fuera infalible hablando ex cathedra en materia de fe y costumbres—definición del Concilio Vaticano I en 1870—aseguraba, como San Ambrosio, la existencia del Ave Fénix, enteramente mitológica. Hasta su propia muerte es mítica: según una leyenda, Clemente de Roma habría sido lanzado a las aguas del Mar Muerto con un ancla atada al cuello, aunque Eusebio de Cesárea, Padre de la Historia de la Iglesia, no se da por enterado de tal martirio en su enjundiosa Historia Ecclesiae o en el pertinente Tratado sobre los Mártires.

Como sabemos por la Antropología, por supuesto, los mitos son construcciones útiles: Mircea Eliade apunta que contienen modelos para la conducta humana, y el mito del Ave Fénix satisface, al presentarla como posible, el ansia de perdurabilidad de nosotros, habitantes de este valle de lágrimas. Si un ave es eterna, quizás nosotros lo seamos también.

………

Para una inteligencia desprejuiciada del siglo XXI, la reducción de las religiones aún existentes a la dimensión mitológica no resuelve el problema. La angustia permanece y fuera de las religiones no hay respuesta. La ciencia, en general, elude temas como el de la vida perdurable así como se niega a decir algo acerca de lo que habría ocurrido antes del Big Bang (la versión moderna de la Creación), antes de la llamada época de Planck: de 0 a 10-43  segundos.

La mayoría de los científicos que se aproximan al tema lo hace para contradecir las religiones, las que alimentan posturas irracionales como las de considerar equivalentes la teoría de la evolución de las especies y el creacionismo, una interpretación más o menos literal de lo que dice el comienzo del Génesis acerca el origen del mundo y sus inquilinos. Pero al desechar, con toda razón, las explicaciones cosmológicas o biológicas de los textos sagrados, tiende a postular un universo enteramente materialista, carente de cualquier explicación acerca de su innegable presencia. El Big Bang aporta un universo sujeto a la causalidad, pero él mismo sería un fenómeno sin causa. Al hacer esto, pues, esa mayoría incurre también en una conducta mitológica o supersticiosa, dado que le es imposible a la ciencia actual decir algo con sentido acerca del “tiempo” precedente; la Gran Explosión, la Bola de Fuego Primordial de George Gamow, el Huevo Cósmico de Georges Lemaître crearía todo: la materia pero también el espacio y el tiempo. De la nada.

Aquí, entonces, sí resulta lógicamente equivalente afirmar que el Big Bang no tiene explicación alguna o que, por lo contrario, sí la tiene en una entidad precedente—o entidades anteriores—que, por así decirlo, detona la bomba cósmica en cuya explosión vivimos. Pensar en esa entidad es una tarea para una teología del siglo XXI, que sigue a aquél del que Pierre Teilhard de Chardin dijera: “El siglo XX fue probablemente más religioso que cualquier otro. ¿Cómo pudiera no serlo, con tantos asuntos por resolver? El único problema es que todavía no ha encontrado un Dios que pueda adorar”.

El Ojo de Horus cristianizado en el Gran Sello de los EEUU

Para nuestra persona XXI, desprejuiciada, intelectualmente responsable, obligada moralmente según John Erskine a ser inteligente, no son aceptables las imágenes de un ente creador que satisfacían a un pastor israelita de hace 3.500 años—una zarza ardiendo en un desierto—o a la mente medieval: un ojo dentro de un triángulo. (“It is wrong always, everywhere, and for anyone, to believe anything upon insufficient evidence.” William Clifford, The Ethics of Belief). Aun si se creyese en un ser o seres superiores a quienes se atribuya nuestra presencia y la del cosmos que nos rodea, sería un contrasentido echar por la borda lo que la inteligencia humana ha acumulado como conocimiento rigurosamente adquirido; es decir, la ciencia. Si ésta se muestra incapaz de decir algo acerca de Dios, lo que pueda suponerse de éste con seriedad tiene que ser enteramente compatible con el conocimiento que se deriva de la actividad científica; no puede contradecirla. Y eso fue, justamente, lo que Teilhard intentó hacer en El Fenómeno Humano: “Mi único fin y mi verdadera fuerza a través de estas páginas es sólo y simplemente, lo repito, el de intentar ver; es decir, el de desarrollar una perspectiva homogénea y coherente de nuestra experiencia general, pero extendida al Hombre.  (…) Ha llegado el momento de darse cuenta de que toda interpretación, incluso positivista, del Universo debe, para ser satisfactoria, abarcar tanto el interior como el exterior de las cosas, lo mismo el Espíritu que la Materia. La verdadera Física será aquella que llegue algún día a integrar al Hombre total dentro de una representación coherente del mundo”. (En Ver, la introducción a El Fenómeno Humano).

El atrevido jesuita quiso hacer sólo lo mismo que se propuso Tomás de Aquino, grande entre los Padres de la Iglesia: una teología natural, o sea, un discurso sobre Dios proveniente de la razón empleada sobre las claves de la naturaleza de la experiencia ordinaria, que no dependiera de las Sagradas Escrituras o ninguna otra forma de revelación, ni siquiera del razonamiento a priori estrictamente filosófico. Éste es exactamente el programa teológico que se impone a la persona XXI, claro que con bastante y más fidedigna información que la disponible al Doctor Angélico en el siglo XIII. Nuestra experiencia ordinaria incluye ahora lo que encuentre el Gran Colisionador de Hadrones de CERN.

Carl Jung y Erwin Schrödinger en Eranos

Las mejores mentes debieran aplicarse a esa tarea. Hay que multiplicar a Eranos—ἔρανος, un banquete de contribución—, la reunión de intelectuales que se celebra anualmente en Suiza, en localización idílica, desde que fue fundada por la dama holandesa Olga Froebe-Kapteyn en 1933, el año en el que el austríaco Erwin Schrödinger recibía el Premio Nobel de Física por su descubrimiento de la función de onda de la mecánica cuántica. Schrödinger es de los pocos físicos que ha osado decir algo acerca de la vida perdurable. Fue invitado a una Conferencia Eranos en 1946, en la que disertó sobre El espíritu de la Ciencia Natural. Carl Gustav Jung lo hizo sobre El espíritu de la Psicología.

Pongamos acá extractos del gran físico, tomados de las lecciones que dictara—Tarner Lectures— en el Trinity College de la Universidad de Cambridge en 1956, bajo el título Mente y Materia. La primera lección fue Las bases físicas de la conciencia; la quinta Ciencia y Religión, de la cual se copia estos fragmentos:

¿Puede la ciencia conceder información sobre asuntos de religión? ¿Pueden los resultados de la investigación científica ser de alguna ayuda a la obtención de una actitud razonable y satisfactoria hacia aquellas cuestiones ardientes que asaltan a todos algunas veces? (…) Me refiero principalmente a las cuestiones que conciernen al “otro mundo”, a la “vida después de la muerte” y todo lo relativo a ellas. Noten, por favor, que no intentaré contestar estas preguntas, por supuesto, sino sólo la mucho más modesta de si la ciencia puede dar alguna información acerca de ellas o ayudar al pensamiento—para muchos de nosotros inevitable—sobre aquéllas. (…) No diré que con personas profundamente religiosas [la] iluminación tenga que esperar los mencionados hallazgos de la ciencia, pero ciertamente éstos han ayudado a erradicar la superstición materialista en tales asuntos.

Después de pasearse por el impacto filosófico y religioso de los trabajos de Albert Einstein y Ludwig Boltzmann, concluye Schrödinger el capítulo con esta frase (las mayúsculas son textuales): “…la teoría física en su fase actual sugiere fuertemente la indestructibilidad de la Mente por el Tiempo”. (Lo que equivaldría a postular la indestructibilidad de la materia, por cuanto no hay mente que se observe que no se exprese desde una base material).

………

Los científicos modernos pueden, a pesar de su irreligiosidad, aproximarse sin querer a nociones teológicas. Éste es el caso, por ejemplo, de Edward Fredkin, quien ha sido profesor en Caltech, MIT, la Universidad Carnegie Mellon y la Universidad de Boston. Sobre sus teorías en el campo de la física digital—que más recientemente él llama filosofía digital—compuso Robert Wright la primera parte (¿Es que el universo simplemente ocurrió?) de su libro de 1988: Tres científicos y sus dioses. Reporta Wright:

Pero entre más charlamos, Fredkin se acerca más a las impli­caciones religiosas que está tratando de evitar. «Siempre se supone que todo fenómeno astrofísico que ocurra es un accidente», dice. «Para mí, esto es una posición bastante arrogante, pues la inteligencia—y la computación, que a mi parecer incluye la inteligencia—es algo mucho más universal que lo que la gente cree. Me es difícil creer que todo lo que está allí es sólo un accidente». Esto suena mucho a una posición que el papa Juan Pablo II o Billy Graham asumirían, y Fredkin pasa trabajo para clarificar la suya: «Me pa­rece que lo que estoy di­ciendo es que no tengo ninguna creencia religiosa. No sé qué hay o qué podría ser. Pero sí puedo afirmar que, en mi opinión, es probable que este universo en parti­cular sea una consecuencia de algo que yo llamaría inteligencia». ¿Significa esto que hay algo por ahí que quisiera obtener la respuesta a una pregunta? «Sí». ¿Algo que inició el universo para ver qué pasaría? «En cierta forma, sí».

La filosofía digital de Fredkin es un tipo de física digital y pancomputacionalismo, el que propugna que todos los procesos físicos de la naturaleza son formas de computación o procesamiento de información en el nivel más fundamental de la realidad. En otras palabras, postula que la biología se reduce a la química, ésta a la física y esta última a la computación de información.

La visión de Fredkin es una nueva versión de las ya frecuentes identifi­caciones o corres­pondencias entre lo físico y lo informático. Todavía es al menos una curiosidad insólita, si no un misterio más profundo, que la forma matemática de la ecuación de la entropía térmica sea exactamente la misma de la ecuación fundamental de la teoría de la información, formulada por Claude Shannon en los años cuarenta del siglo pasado. La computadora cósmica de Fredkin tendría que operar, entre otras cosas, dentro de algoritmos que generarían con el tiempo la complejidad del universo observable. Dios sería, entonces y entre otras cosas, una memoria más grande que el universo, un “RAM” inagotable que preservaría, en estado de información completa, un holograma del origen y el acontecer del cosmos, cada uno de nosotros incluido. Es en esa memoria donde tendría lugar la vida perdurable.

La obra de John Hick (1922-2012)

Desde el campo de la teología propiamente dicha, los más modernos teológos asumen razonamientos muy similares a los científicos. Hace 13 días murió, a sus 90 años, John Harwood Hick, teólogo y filósofo de la religión nacido en Inglaterra, dos veces procesado infructuosamente, como Teilhard, por hereje. En una de sus obras—Muerte y vida eterna (1976)—propone el caso de una persona que deje de existir en un lugar mientras su réplica exacta aparece en otro. Si este duplicado tuviese todos los rasgos y las mismas experiencias de la persona fallecida, todos le atribuiríamos a aquél la misma identidad. En el fondo es el mismo argumento de su compatriota, el gran matemático Alan Turing, quien propuso en Maquinaria computacional e inteligencia (revista Mind, 1950) lo que se llamó luego el Test de Turing: si un computador que conversara oculto con un interrogador no pudiera ser distinguido por éste de un humano a partir de sus elocuciones, entonces habría que decir que el computador estaba pensando.

Parece ser una experiencia reiterada de la ciencia el toparse, en el lí­mite de sus especula­ciones más abstractas, con el problema de Dios. Por de pronto, muy frecuentemente los físicos emplean metáforas religiosas: el Camino Óctuple de Murray Gell-Mann (Premio Nobel de Física en 1969) para la ordenación de las partículas subatómicas, en alusión a un concepto budista con el mismo nombre, o la designación del postulado Bosón de Higgs, que dotaría de masa a toda la materia y ahora persiguen en CERN, como la Partícula de Dios. Puede que sea un importantísimo subproducto de la actividad científica moderna el de proporcionar imágenes para la meditación sobre un Dios al que ya resulta difícil imaginar bajo la forma de un anciano, ataviado con antigua túnica mientras descansa en una nube; un Dios informático para una Era de la Información.

La zarza ardiente de Mandelbrot

 

Necesitamos, para la Edad Compleja que se ha iniciado, un Dios que pueda comportarse como un ingeniero fractal. La geometría fractal es el territorio de los modelos matemáticos del caos y la complejidad. Como enseñara Benoît Mandelbrot, las estructuras más complejas, como el conjunto que lleva su nombre, pueden ser generadas a partir de ecuaciones simplísimas. (Ver en este blog El dios de Mandelbrot era el de Borges). Bastaría a la superinteligencia de Fredkin desatar el Big Bang con instrucciones de un programa fractal que desplegara la descomunal complejidad del universo. No tendría necesidad de venir al sexto día para hacer una creación especial de la especie humana. Luego, en su colosal memoria, nos preservaría en la condición descrita por Hick: con todas nuestras vivencias, sufrimientos y alegrías, odios y amores. Entonces existiríamos por siempre en alguna de sus divinas neuronas. LEA

………

Enlace para descargar el archivo en .pdf Proyecto Fénix – Teología conjetural

______________________________________________________________


Share This:

A ver qué encuentra

La máquina del espectrómetro magnético Alfa (AMS)

 

El transbordador espacial Endeavour (Emprendimiento) despegó del Centro Espacial Kennedy a las 8:56 ET del lunes 16 de mayo en su último viaje (penúltimo del programa; el Atlantis cerrará la larga y mayormente exitosa serie en junio). Se dirige a la Estación Espacial Internacional, a la que llevará equipo y otros suministros. El equipo principal, la máquina AMS (por sus siglas del inglés: Alpha Magnetic Spectrometer), será instalado en la estación con el propósito de llevar a cabo experimentos que pudieran detectar antimateria y/o materia oscura. Se trata de un equipo de fabricación internacional a un costo de dos mil millones de dólares.

El tamaño del AMS comparado con nosotros

Un concepto de antimateria fue formulado ya a fines del siglo XIX. Luego de nociones más o menos nebulosas de Willam Hicks, el físico británico (nacido en Alemania) Arthur Schuster habló de antimateria y antiátomos en dos cartas de 1898 a la revista Nature, en las que llegó a visualizar la aniquilación de materia y antimateria al encontrarse. La formulación moderna es la de Paul Adrien Maurice Dirac, quien predijo en 1928 un antielectrón, una partícula idéntica al electrón en todas sus propiedades (masa, espín) salvo en su carga eléctrica, que sería en su caso positiva, o contraria a la del electrón. En 1932, Carl D. Anderson confirmó experimentalmente la predicción de Dirac y llamó positrones (por su carga eléctrica positiva) a las partículas que pudo observar. Más adelante, el concepto fue generalizado para postular que toda partícula subatómica tiene su correspondiente antipartícula, y así dar actualidad a la idea de una antimateria. Por su mayor parte, la materia observable en el universo es, justamente, materia; la cantidad de antimateria sería más bien minúscula, y esta asimetría en la distribución de materia y antimateria es uno de los acertijos no resueltos de la física. Cuando materia y antimateria se encuentran, se produce su aniquilación mutua, quedando en su lugar energía en forma de radiación electromagnética.

Lo de la materia oscura es algo enteramente distinto, y bastante más misterioso. De hecho, la materia oscura y la más abundante energía oscura son una sorpresa incómoda para la cosmología, pues entre ambas constituirían  más del 90% de la masa presente en el universo. Sólo 4,6% de ésta correspondería a materia cuya naturaleza es la que laboriosamente ha llegado a ser comprendida durante más de un siglo de física subatómica o de partículas. Lo que se creía la coronación de esta rama de la física, el Modelo Estándar propuesto por Murray Gell-Mann, es aplicable a menos de 5% de la masa-energía existente en el cosmos. En una digresión sobre las virtudes de un buen político, (El político virtuoso, 18 de octubre de 2007), propuse que esta situación de la física, la más matemática, la más rigurosa de las ciencias experimentales era una lección de modestia:

El primer día de este mes de octubre, la revista Newsweek reportaba sobre los problemas novísimos que ha traído a la Física la constatación de que el cosmos contiene inconmensurables cantidades de materia y energía “oscuras”, las que son muchísimo mayores que la materia y energía para las que existen teorías más o menos aceptables. Es decir, que ignoramos cómo es y cómo se comporta el 96% de la materia y la energía contenida en el universo. Nuestra ciencia más avanzada ha conseguido, a duras penas, articular explicación acerca del comportamiento de sólo el 4% del cosmos. Newsweek escogió el siguiente título para el artículo referido: “En la ‘energía oscura’, humildad cósmica”.

Y en Tiempo de incongruencia, la sección final de un trabajo de febrero de 1985, ya anticipaba:

Ese nuevo actor político, pues, requiere una valentía diferente a la que el actor político tradicional ha estimado necesaria. El actor político tradicional parte del principio de que debe exhibirse como un ser inerrante, como alguien que nunca se ha equivocado, pues sostiene que eso es exigencia de un pueblo que sólo valoraría la prepotencia. El nuevo actor político, en cambio, tiene la valentía y la honestidad intelectual de fundar sus cimientos sobre la realidad de la falibilidad humana. Por eso no teme a la crítica sino que la busca y la consagra.

Y es que en la misma matemática, por excelencia la reina del conocimiento humano, nos topamos con límites fundamentales. Así puse, en comentario sobre los famosos teoremas de Kurt Gödel (1931) de un trabajo de diciembre de 1990:

En términos generales, el límite göde­liano constituye una sobria advertencia, puesto que, si ni siquiera la “reina de las ciencias”, el conocimiento más frío y seguro está libre de inconsistencia, no puede admitirse de otras cien­cias—digamos de las políticas, por poner un caso—la pretensión que fue negada a la matemá­tica.

Claro, no abundan en el mundo, menos en Venezuela, los políticos modestos. LEA


El despegue del Endeavour, hoy a las 8:56 ET

_________

 

Share This:

Sinfonía alpina

<i> El lago Lemán y los Alpes, escenario del LHC de CERN</i>

El lago Lemán y los Alpes suizos, escenario del LHC de CERN

La energía lograda el martes 30 de marzo de 2010 en el Gran Colisionador de Hadrones de CERN, 7 TeV, es la combinación de las energías de dos haces a 3,5 TeV cada uno, enfrentados el uno contra el otro para establecer su colisión creadora.

Abajo se reproduce, tomados de YouTube, dos videos, el primero de los cuales muestra momentos de las fases finales de la instalación y calibración del colisionador. Son atisbos de la inmensidad y complejidad del dispositivo, cuya ingeniería de detalle y, por ende, su instalación, son prodigiosas, alucinantes, mind blogging. Es casi inconmensurable la cantidad de horas-hombre, de horas-inteligencia que llevaron al resonante éxito de CERN.

En un ambiente científico tan riguroso, no obstante, el intercambio libre e informal es intencionalmente estimulado, pues las ideas más innovadoras y brillantes pueden surgir de esa informalidad. Un caso especial es el previsto por los arquitectos del Stanford Research Institute, en Menlo Park, área de la Bahía de San Francisco que es homónima de la localización de Nueva Jersey donde Thomas Alva Edison (el Mago de Menlo Park), quizás el inventor más grande de la historia, estableciera sus famosos laboratorios. El diseño del cuartel general de SRI introdujo una rigidez insólita en el tránsito interno de sus investigadores: la única manera de acceder a su nutrida biblioteca desde cualquiera de sus oficinas y laboratorios es atravesar la cafetería del instituto. La intención es clara: maximizar los encuentros informales, no programados, de quienes ponen sus cerebros a la orden del progreso tecnológico.

En el segundo video de los mostrados acá—que registra el momento exacto del logro del récord energético para felicidad de un grupo de investigadores—, justamente al final, puede verse un refinamiento ulterior introducido por CERN: las mesas de su cafetería tienen una superficie vidriada en la que los científicos pueden dibujar diagramas y escribir ecuaciones, con ayuda de los marcadores dejados allí adrede, mientras comparten comida y bebida. La creatividad y la libertad son los mejores socios, y conviven paradójica y felizmente con la metódica disciplina de la ciencia. LEA

………

_________

En homenaje a los científicos, ingenieros y técnicos de CERN, la sección Eintritt in den Wald (Entrada en el bosque) de la Sinfonía Alpina (Eine Alpensinfonie) de Richard Strauss. Dirige Herbert Von Karajan a la Filarmónica de Berlín.

____________

Share This:

Física del siglo XX – (1)

physics

La física a finales del siglo XIX y principios del XX. La unificación de electricidad y magnetismo por obra de James Clerk Maxwell. Los primeros experimentos atómicos: Rutherford y Thomson. El experimento crucial de Michelson-Morley que hace tambalear los supuestos newtonianos de movimiento absoluto y tiempo absoluto. La “catástrofe violeta” y la hipótesis cuántica original de Max Planck en 1900.

La ciencia de la Física puede ser considerada como la más fundamental de las llamadas ciencias naturales o experimentales. Trata de la estructura y la dinámica de los entes materiales, sin tomar en cuenta—hasta cierto punto—la composición química o la actividad biológica de los mismos. Para la Mecánica, por ejemplo, una de sus ramas, da lo mismo que un móvil en consideración sea una piedra, un cuerpo animal o un planeta. (Con mayor rigor, la Física sí pone atención a la composición química en ciertos casos. Por ejemplo, la Astrofísica y la Cosmología deben explicar la evolución de una estrella en términos de las reacciones atómicas del hidrógeno, el helio, etcétera, y la del mismo universo apela a las proporciones observables de estos elementos para verificar la correspondencia de predicciones teóricas con los fenómenos que describen o explican. En el fondo, la división entre Física y Química es una decisión arbitraria, como lo es cualquier taxonomía de las ciencias. La existencia de ciencias híbridas o intermedias—físico-química, bioquímica, física matemática—es  evidencia de tal cosa).

El siglo XIX fue definitivamente un siglo crucial para la Física. Hasta éste, para empezar, la Física se identificaba con la Filosofía Natural. (Naturphilosophie. Aristóteles escribió su Física, y a pesar de que Newton acabó con el paradigma aristotélico en el campo, continuaba pensándose como filósofo. No es por otra cosa que su obra cimera, en la que expone la exitosa Teoría de la Gravitación Universal, se llamara Principia Mathematica Philosophiæ Naturalis. Del lado de la Biología, quienes investigaban los sistemas dotados de vida entendían hacer Historia Natural, aunque también entraban en ésta los estudios que hoy llamaríamos Geología). Es en el siglo XIX cuando se presenta la noción de “ciencia positiva” (Comte), o ciencia verificada por los hechos positivos o experimentales. El desarrollo de esta postura llevará al Empirismo y Positivismo Lógico, lo que incluyó las posiciones extremas de Ernst Mach, de gran influencia sobre Albert Einstein).[1]

Por otra parte, durante el siglo XIX predominó, sin ser retada o significativamente aumentada, la Mecánica de Newton[2], pero sí hubo grandes desarrollos en otros campos. Las investigaciones calóricas del siglo XVIII dieron paso a la Termodinámica, montada sobre la Teoría Cinética de los Gases y ayudada por la Estadística y, sobre todo, los fenómenos eléctricos y magnéticos encontraron una explicación general y rigurosa en la obra del físico escocés James Clerk Maxwell. (1831-1879).

En opinión de Einstein, la obra de Maxwell fue el aporte más profundo en Física desde la época de Newton, lo que se justificaba porque la propia obra einsteniana no habría sido posible sin la plataforma proporcionada por el escocés. Maxwell atacó varios problemas, incluyendo la teoría cinética de los gases, la percepción del color y hasta la “invención” de la fotografía a color. (En realidad, la obtención de tres placas convencionales de un mismo objeto fotografiado con tres filtros de distinto color. La proyección simultánea de las placas restituía una razonable reproducción a color). Su obra fundamental, sin embargo, trató del fenómeno del electromagnetismo, al que proporcionó una completa formulación matemática.

Antes de Maxwell, el gran experimentalista inglés Michael Faraday—a quien se debe el inicio de la ingeniería eléctrica sin ser él mismo muy ducho en matemáticas—había demostrado la existencia de una relación entre la luz  y el magnetismo. Aplicando un campo magnético a un haz de luz polarizada—que oscila en un solo plano—logró comprobar que podía rotar el plano de polarización. Igualmente había descubierto el fenómeno de inducción eléctrica: la generación de electricidad en un conductor que se moviera dentro de un campo magnético. (De hecho, se debe a Faraday la invención de un generador eléctrico o dínamo, basado en el fenómeno de inducción).

A pesar de sus limitaciones—conocía el álgebra elemental y algo de trigonometría—Faraday logró formular una ecuación que Maxwell rescataría más adelante, y postuló la existencia de “líneas de flujo” magnético, introduciendo de este modo la noción de “campo magnético”: la región del espacio en la que se manifiestan alteraciones generadas por los imanes. (La noción de campo se aplica igualmente a los fenómenos eléctricos, y más generalmente existe una “teoría de campos”, esencialmente matemática). La “Ley de Faraday” establece que un campo magnético que varía en el tiempo genera una fuerza electromotriz que varía proporcionalmente. La expresión precisa requiere cálculo integral. La forma diferencial de la ecuación es la siguiente:

Ecuación 1

En ella se expresa que la fuerza electromotriz E es proporcional al cociente del incremento de la densidad de flujo magnético B entre el incremento de tiempo t. Esta Ley de Faraday se convirtió en una de las ecuaciones de Maxwell.

Lo que se conoce hoy como las ecuaciones de Maxwell es un conjunto de cuatro fórmulas esenciales, aunque al inicio (1864) el físico presentó un conjunto de veinte ecuaciones[3]. Las restantes son concebidas ahora como fórmulas auxiliares de las cuatro principales. Éstas son: la relación cuantitativa de un campo eléctrico con la carga eléctrica que lo produce (electricidad estática); la relación cuantitativa entre un campo o corriente eléctrica variable y el campo magnético que producen; el fenómeno inverso, es decir, la relación cuantitativa entre un campo magnético variable y el campo o corriente eléctrica que produce (Ley de Faraday); la formulación cuantitativa de por qué no se observa experimentalmente un “monopolo” magnético. (Es posible observar una carga eléctrica positiva en ausencia de cargas negativas, así como lo inverso, pero hasta ahora no se ha observado un cuerpo que manifieste un polo norte magnético sin estar acompañado de un polo sur. Todo imán posee ambos polos).

Tan sólo por presentarlas visualmente—gente como Einstein o Dirac apreciaría la estética “simple” de las fórmulas—he aquí las cuatro ecuaciones en su forma diferencial (en cálculo integral se escriben diferentemente) y en el orden expuesto:

Ecuaciones

En verdad, cada una de las fórmulas corresponde a leyes propuestas por científicos anteriores a Maxwell. Además de la encontrada por Faraday (la tercera), fue Gauss quien formulara la primera y la cuarta (Ley de Gauss del magnetismo o ausencia de monopolos), mientras que la segunda es la llamada Ley de Ampère. (Cada uno de estos investigadores fue inmortalizado en la escogencia de unidades del campo electromagnético: existen el maxwell, el faradio, el gauss y el amperio, así como el ohmnio—por Ohm—el vatio—por Watt—y el voltio por el pionero Alessandro Volta, inventor de la pila eléctrica. Galvani, antecesor de éste que demostró la interacción de electricidad y tejido muscular, se perpetúa en el verbo galvanizar).

Corresponde a Maxwell, por tanto, no el descubrimiento de los fenómenos cuantificados en esas cuatro ecuaciones, sino la demostración de su íntima trabazón y dependencia recíproca, así como su formulación matemática rigurosa.

Apoyado de nuevo en una intuición de Faraday—la interacción de luz y magnetismo a partir de sus experimentos con luz polarizada[4]—Maxwell daría entonces un salto crucial: la postulación de que la luz es, en realidad, radiación de carácter electromagnético, y su idea o predicción de la propagación de ondas electromagnéticas en el espacio.

Nos resulta hoy tan familiar entender la luz como un segmento del espectro electromagnético, que se nos dificulta visualizar la magnitud del logro conceptual de Maxwell. Faraday, por caso, sabía que la luz y el magnetismo interactuaban, tal como lo hacían el magnetismo y la electricidad. Pero para él se trataba de fenómenos separados, por más que se influyesen mutuamente. La genialidad de Maxwell, así como su capacidad matemática, permitió la generalización y la primera gran “unificación” de la Física: electricidad y magnetismo, antaño entendidos como fenómenos distintos, eran las dos caras de una misma moneda, una misma cosa, y la luz era electromagnetismo, desde su porción calórica, infrarroja, hasta su porción más energética, ultravioleta[5]. De hecho, Maxwell fue capaz de concebir ondas electromagnéticas más allá de los “rayos” ultravioleta.

Pero no sólo predijo la propagación de esas ondas por el espacio, sino que extrajo de sus ecuaciones una magnitud para la velocidad de esa propagación. Así la calculó en 310.400 kilómetros por segundo. La coincidencia de este valor con la medición más reciente de la velocidad de la luz[6] llevó a Maxwell a la siguiente declaración: “Esta velocidad es tan próxima a la de la luz, que parece que tenemos fuertes razones para concluir que la luz misma (incluyendo el calor radiante, y cualquiera otra radiación) es una perturbación electromagnética en forma de ondas que se propagan a través del campo electromagnético de acuerdo con las leyes electromagnéticas”.

No mucho después de la muerte de Maxwell se obtendría confirmación experimental de su genial conjetura: Hertz demostraría la transmisión de las ondas previstas por Maxwell—por un tiempo se las llamó “ondas hertzianas”—en 1888, transmitiéndolas a una frecuencia[7] de la banda de 4 metros que hoy conocemos como UHF. (Ultra High Frequency). Este resultado, al que el propio Hertz no le concedía utilidad práctica alguna—“sólo sirve este experimento para probar que el maestro Maxwell tenía razón”—llevaría a la invención de la radio por el emprendedor italiano Guillermo Marconi en 1895[8]. (Precedido, en realidad, por el serbio Nikola Tesla).

Para las concepciones físicas del siglo XIX, si se hablaba de ondas se implicaba la existencia de alguna materia o medio que oscilara. Las ondas del mar requieren agua, las ondas sonoras o acústicas que el aire se expanda y contraiga, etcétera. Los físicos del siglo XIX creían en la existencia de una hipotética sustancia, el éter, que convenía postular como única entidad que permitiría un marco de referencia absoluto, requerido por los conceptos newtonianos de espacio y tiempo absolutos. Al presunto medio se atribuyó entonces, a partir de Maxwell, la propiedad de oscilar como consecuencia de las perturbaciones electromagnéticas, y se le llamó “éter luminífero”. (Que lleva luz).

El hipotético éter, sin embargo, debía tener propiedades que eran mutuamente contradictorias—gran rigidez junto con gran elasticidad y permeabilidad—y el intento por comprobar su existencia, como veremos, condujo a un resultado inesperado y en principio nada bienvenido: la súbita obsolescencia—conceptual, pero no práctica—de la física de Isaac Newton.

………

Ernest Rutherford (1871-1937), junto con su grupo de asistentes, se convirtió en el pionero o padre de la física nuclear. Este neozelandés mudado primero a Canadá y luego a Inglaterra, concibió y dirigió el experimento crucial que demostraría la existencia del núcleo atómico y descubriría una de sus partículas fundamentales: el protón. Antes, sin embargo, uno de los maestros de Rutherford, el físico inglés J. J. (Joseph John) Thomson, descubriría el electrón y formularía el primer modelo de la estructura del átomo.

Pero todavía antes, hacia 1805, el químico inglés John Dalton formularía la primera versión consistente de una teoría atómica en tiempos modernos a fuerza de puro razonamiento. Después de desarrollar su teoría, Dalton la expuso en una obra de 1808 que llevaba el nombre, característico de la episteme de la época, de New System of Chemical Philosophy.

Lo que Dalton postulaba era que cada elemento natural se componía en realidad de pequeñas partículas—“átomos”, porque no podían dividirse—todas idénticas entre sí, pero diferentes a las que constituían elementos diferentes. Estos átomos se combinaban para formar compuestos, y cada compuesto tenía siempre la misma composición. Ignorante de la noción posterior de “valencia”, creyó sin embargo que los compuestos binarios (formados por dos elementos) se componían de un solo átomo de un elemento y uno solo del otro. (Por ejemplo, que el agua se constituía con un átomo de hidrógeno y uno de oxígeno). Esta idea era, en el fondo, la única errónea en su teoría, pero como no correspondía con los datos aportados por los análisis químicos cuantitativos, se convirtió en el principal obstáculo para la aceptación más generalizada de su teoría atómica. (A pesar de esto, las más grandes mentes de la Química de la época—Lavoisier, notablemente—se convirtieron a la doctrina atomista).

Así las cosas, hizo su entrada en la escena J. J. Thomson. En una serie de experimentos con rayos catódicos—que emanan del cátodo en un tubo sellado al vacío, por el que se fuerza una corriente eléctrica entre dos electrodos metálicos—llegó a la conclusión de que tales rayos eran realmente haces de partículas de masa mucho menor que la de los átomos constituyentes de los electrodos, y que portaba cada una carga eléctrica negativa. Fue a estas partículas a las que se llamó electrones, luego de que Thomson anunciara sus resultados y su explicación en 1897. El mismo Thomson los llamó “corpúsculos”; de lo que sí estaba consciente era de que había hallado partículas de escala subatómica[9].

Comoquiera, sin embargo, que los átomos mismos eran eléctricamente neutros, la única explicación para este hecho parecía ser que los electrones eran compensados, en el interior del átomo, por una carga positiva equivalente. ¿Dónde estaba? Thomson imaginó que la estructura del átomo se asemejaba a un budín de ciruelas, donde los electrones serían las frutas nadando en crema, la que llevaría la carga positiva. (Plum-pudding model, 1904). No veía Thomson que la carga positiva estaría asimismo en partículas; simplemente la sopa de crema sería mayor para aumentar la carga positiva compensatoria cuando crecía el número de electrones. La vigencia del modelo no duraría mucho; su alumno Rutherford se encargaría de suprimirlo.

Rutherford, en verdad, contribuyó con más de un concepto y hallazgo a la naciente Física Nuclear. Por ejemplo, se hizo un estudioso de la radioactividad, la radiación espontánea de ciertos materiales o elementos. Una sustancia como el radio emite tres clases de radiación, dos de las cuales están constituidas por partículas con carga eléctrica y una es de carácter electromagnético. Fue Rutherford quien las bautizara radiación alfa (de carga positiva; núcleos de átomos de helio formados, se sabe hoy, por dos protones y dos neutrones), radiación beta (electrones, de carga negativa) y radiación gama (electromagnética, más energética que los ya descubiertos rayos X).

También fue quien observara que una muestra de material radioactivo tomaba siembre el mismo tiempo para reducir su radioactividad a la mitad, dando origen al concepto de vida media (half life), que pronto iba a ser empleado en métodos de fechar geológica, paleontológica y arqueológicamente.

Pero fue el “experimento de la hoja de oro”, y las conclusiones que de él extrajo, la cumbre de su obra. Bajo su dirección, Geiger y Marsden, sus asistentes en la Universidad de Manchester, bombardearon una delgada lámina de oro[10] (luego otros elementos) con partículas alfa, encontrando que la mayoría de las veces estos proyectiles atravesaban el material imperturbados o con una pequeña desviación de su trayectoria, pero ocasionalmente rebotaban en ángulos incluso mayores de 90º.

De este histórico hallazgo de 1909, Rutherford dedujo que la carga eléctrica positiva del átomo no estaba dispersa en una “nube” o crema que rodeaba a los electrones, como pensaba Thomson, sino que, por lo contrario, estaba concentrada en una reducida parte central del átomo, a la que llamó núcleo. (El tamaño de un núcleo al de una pelota de béisbol es como el tamaño del átomo al de un estadio).

También derivó de la observación un nuevo modelo de átomo: similar a un sistema solar donde el núcleo sería el sol de unos planetas-electrones orbitando a su alrededor, retenidos en la relativa proximidad del núcleo por atracción electrostática de sus cargas de distinto signo. (Este modelo planetario tampoco se sostendría mucho tiempo, y fue sustituido por el adelantado por Niels Bohr, el próximo líder de la física nuclear. En sus conversaciones con Bohr, Rutherford conjeturó la existencia del neutrón, que no sería descubierto hasta 1932 por James Chadwick).

………

Después de la obra de Maxwell la actividad en materia de la velocidad de la luz y su hipotético medio de propagación continuó febrilmente. En 1887 dos investigadores norteamericanos, Albert Michelson y Edward Morley, condujeron el experimento “fracasado” (de resultado nulo) más ilustre de la historia de la ciencia.

Como hemos visto, una de las consecuencias de la noción de movimiento absoluto en la física de Newton era la noción del “éter”, hipotética sustancia que permitiría una referencia fija para medir contra ella los movimientos aparentes de los astros, todos—incluido el de la misma Tierra—obviamente relativos. Este planeta, como cualquier otro cuerpo celeste, debía sentir los efectos de un “viento del éter” al trasladarse en el seno de tal sustancia, del mismo modo que en un paraje sin ninguna brisa uno siente viento en la cara si se desplaza en un automóvil y saca el rostro afuera por la ventanilla. En el caso del éter, dado que se le postulaba igualmente como el medio en el que la luz era transmitida, el viento del éter se manifestaría en variaciones de la velocidad de la luz.

Según lo implicado por la Philosophiæ Naturalis de Newton, uno debía medir una velocidad superior si la Tierra se acercaba a la fuente luminosa y una menor si se alejaba de ella.

Michelson (físico germano-americano) y Morley (químico estadounidense) se propusieron realizar un cuidadoso experimento con la idea de detectar el famoso viento del éter y lo llevaron a cabo en 1887. Para esto se valieron de un interferómetro, un instrumento capaz de detectar la más mínima diferencia de velocidad entre haces de luz tendidos sobre direcciones diferentes. (En esencia un conjunto de espejos y semiespejos separaba un mismo haz en dos diferentes que recorrían exactamente la misma distancia pero en trayectorias que en un segmento eran perpendiculares entre sí).

Michelson

Diagrama del aparato de Michelson y Morley

Michelson y Morley no lograron detectar ningún viento del éter.[11] El resultado nulo amenazaba con socavar irremisiblemente las bases fundamentales del edificio newtoniano. Así escribieron: “Si ahora fuese legítimo concluir del presente trabajo que el éter está en reposo con respecto a la superficie de la Tierra, de acuerdo con Lorentz no podría haber un potencial de velocidad y su propia teoría fracasa también”.

De inmediato se suscitó una carrera por explicar teóricamente el resultado nulo sin abandonar la idea del éter. Una interpretación adecuada tendría que esperar por el año de 1905, cuando Albert Einstein ofreciera una solución radical.

………

Desde la época de Newton se estudiaba sistemáticamente el espectro luminoso, presente en el fenómeno del arco iris y generado por prismas y cristales. Más tarde se pensó que el espectro representaba un continuum de radiación electromagnética de energía o frecuencia crecientes. La radiación calórica infrarroja tenía menor energía y oscilaba con una frecuencia menor. (Su longitud de onda era más larga). Al otro extremo, la radiación ultravioleta exhibía mayor frecuencia, que aumentaba, en apariencia continuamente, desde el rojo en dirección al violeta.

A mediados del siglo XIX Gustav Kirchoff inventó (en conjunto con Bunsen, en 1859) el espectroscopio—un uso instrumental de un prisma junto con oculares que permitían ver el espectro generado por la incandescencia de los distintos elementos químicos. Cada uno arroja un espectro diferente, su huella digital, por decirlo así, pues cada elemento absorbe luz a distintas frecuencias. La invención resultó ser una poderosa herramienta analítica, pues permitía determinar la composición química de cuerpos iluminados distantes, como en el caso del Sol. En el espectro del Sol y las estrellas fue posible comprobar la existencia de sustancias presentes en la Tierra, con lo que se determinó que una sola química gobernaba el universo. Más aún, el elemento helio fue descubierto en el Sol (1868) antes que en la Tierra; de allí su nombre, el del dios griego representado por nuestra más próxima estrella.

Kirchoff logró establecer, por otra parte, que si un elemento, al calentarse, emite luz de ciertas longitudes de onda, al enfriarse absorbe luz que tiene precisamente esas mismas longitudes de onda. Ahora bien, si hubiera un objeto que absorbiese toda la luz que recibiera, por la misma razón irradiaría a todas las frecuencias. Esto se llamó un “cuerpo negro”, pues al absorber todas las frecuencias no reflejaría ninguna y se vería negro.

El concepto de cuerpo negro suscitó gran interés, y los físicos se dispusieron a estudiar la radiación de un cuerpo así. (Black-body radiation). Como las longitudes de onda son más amplias hacia el rojo que hacia el violeta, hay muchas más longitudes de onda—“caben” más—en el extremo ultravioleta que en todo el espectro visible, y si un cuerpo negro irradia a todas las frecuencias, entonces debiera irradiar más luz en las porciones superiores del espectro que en las más bajas. A fines del siglo XIX el inglés Lord Rayleigh desarrolló una ecuación que parecía corresponder con esa predicción: el cuerpo negro debía emitir violentamente la mayor parte de su luz irradiada a las longitudes de onda superiores de la región violeta y ultravioleta.

Como esta “catástrofe violeta” no había sido observada jamás, se argumentaba que ningún cuerpo absorbía realmente toda la luz incidente. Ninguno era un cuerpo negro. Habría que inventar uno para experimentar con él. El honor del invento cupo al físico alemán Wilhelm Wien.

Wien se dio cuenta de que el interior de una caja provista de un pequeño orificio actuaría como un absorbedor perfecto, pues la luz que entrase por el agujero sería absorbida al incidir en la superficie interna, de una vez, o tarde o temprano al reflejarse varias veces, rebotando dentro de la cámara hasta ser absorbida. En consecuencia, la luz que saliera por el orificio al calentar la cámara, equivaldría a la radiación de un cuerpo negro.

Cavity

Cavidad que funciona como "hueco negro"

Al efectuar el calentamiento, no obstante, el fenómeno previsto no se presentó. No fue posible causar la catástrofe violeta. En efecto, la radiación se hacía más intensa con mayores frecuencias (menores longitudes de onda), pero siempre se alcanzaba una longitud de onda específica en la que la radiación era máxima, y después de ese punto la radiación decrecía. A medida que se calentaba el dispositivo a temperaturas mayores, la longitud de onda de radiación máxima era más corta, aunque en ningún momento se obtenía la temida catástrofe. Wien no pudo hallar alguna ecuación que se ajustara a los resultados experimentales. La solución sería proporcionada por su compatriota, Max Planck, quien atacó el asunto en 1899 y presentó su explicación justo cuando concluía el siglo, a fines de 1900. Para esto echó mano de una conjetura revolucionaria.

Como hemos visto, a partir de Dalton comenzó a aceptarse que la materia era corpuscular, granular, discontinua. Pero se creía que la energía era una magnitud continua, infinitamente divisible en cantidades cada vez menores. La brillante hipótesis de Planck consistía en afirmar que la energía también era irradiada en unidades discretas. Esto es, que estos quanta—plural de quantum—tenían un tamaño mínimo o unitario, por debajo del cual no era posible conseguir cantidades menores de energía.

En un paso ulterior, Planck concibió que la magnitud de los cuantos de energía variaba proporcionalmente con la longitud de onda: mientras menor era la longitud de onda (mayor frecuencia) el cuanto era mayor. Esta última hipótesis permitió una fácil explicación de la radiación observada del cuerpo negro. Es de Isaac Asimov la siguiente descripción analógica:

“Al cuerpo negro le sería fácil reunir suficiente energía para formar cuantos pequeños; por eso, radiaría fácilmente longitudes de onda largas, que son las que requieren cuantos más modestos. Las longitudes de onda cortas, por el contrario, no podrían ser radiadas a menos que se acumularan cuantos mayores, que serían más difíciles de reunir.

Es como si nos encontráramos en unos grandes almacenes y nos dijeran que podíamos comprar lo que quisiéramos, con tal de pagar en monedas. Comprar un artículo de una peseta no plantearía problemas; pero en cambio sería gravoso (en los dos sentidos de la palabra) adquirir algo por valor de diez mil pesetas, porque lo más probable es que no pudiéramos acarrear el peso de tantas monedas… Es cierto que calentando la cámara del cuerpo negro a temperaturas más altas habría más energía disponible, con lo cual se podrían producir longitudes de onda más cortas, compuestas de cuantos más grandes. Pero, aun así, siempre habría una longitud de onda que fuese demasiado corta, incluso para un cuerpo negro fuertemente calentado; y entonces sería imposible emitir los grandes cuantos que eran necesarios. Por consiguiente, nunca podría haber una catástrofe violeta, que sería como decir que siempre habría un artículo demasiado caro para la cantidad de monedas que pudiésemos acarrear”.

La energía de un quantum en particular se obtiene multiplicando su frecuencia por la constante h, o constante de Planck—una magnitud expresada en unidades de “acción” (ergios o joules por segundo)—la que a partir de entonces aparecería en casi toda ecuación de la física “cuántica” que se desarrollaría en el siglo XX. Ésta es la simplísima y poderosa relación de Planck:

Einstein

El valor aceptado para la constante de Planck , una de las constantes más fundamentales del universo, es de 6,6262 x 10—27 ergios por segundo. Se trata de una magnitud verdaderamente muy pequeña, lo que explica por qué las variaciones de energía se interpretaban como las de una magnitud continua. (La constante de Planck se consigue frecuentemente en su forma “reducida”, la que se obtiene al dividir h por 2π).

Nada sería igual en la Física después de Max Planck. Tituló a su trabajo original “Sobre la ley de la distribución de la energía en el espectro normal”. Fue publicado en el volumen 4 de Annalen der Physik, en 1901. Cuatro años más tarde la prestigiosa revista publicaría cuatro revolucionarios trabajos de un revisor de patentes en Berna, el físico alemán de 26 años que respondía al nombre de Albert Einstein. LEA


[1] Augusto Comte, fundador de la Sociología, dio cuenta de esta división entre ciencia positiva y Filosofía o Metafísica en su Course de philosophie positive, que a su vez tenía por científico sólo lo que pudiera ser sostenido con base en la experiencia—ciencia positiva—y lo que fuese elaborado dentro de las ciencias formales como la Matemática y la Lógica. Más adelante, el Empirio-Criticismo, el Positivismo Lógico y el Empirismo Lógico fueron variantes o fases del Positivismo original. La concepción llega en el siglo XX a constituir la Filosofía Analítica y Lingüística.

[2] William Hamilton, en 1833, presentó una reformulación de la mecánica newtoniana que en cierto sentido es continuación de otra presentación, postulada por Joseph Louis Lagrange a fines del siglo XVIII. (1788, o un año antes de la Toma de la Bastilla). En esencia la mecánica lagrangiana y la hamiltoniana sustituían las matemáticas empleadas por Newton con otras de orden superior—lo que simplificó los cálculos de muchos problemas—pero no introdujeron contradicción alguna de Newton.

[3] Se las puede presentar también en forma de vectores (cálculo vectorial), y en este caso destaca la simetría de los campos eléctrico y magnético, o en una notación presentada posteriormente por el propio Maxwell en términos de “cuaternios”, la que no prosperó.

[4] Un haz de luz común oscila en muchos planos perpendiculares a su sentido de propagación. La luz polarizada está restringida a un solo plano, y ella fue posible mediante el uso de cristales especiales, como el famoso “prisma de Nicole”, empleado en espectroscopios. La invención por Edwin Land de una película que polariza la luz, condujo a la patente de Polaroid® y a la fabricación—entre otras cosas—de lentes de sol que funcionan suprimiendo la transmisión de luz salvo en un plano, con lo que se reduce considerablemente la incidencia lumínica sobre los ojos.

[5] La radiación infrarroja fue asociada con la luz casi de inmediato, a partir de la experiencia común de un metal que se calienta al fuego (que despide luz) hasta que se pone “al rojo vivo” y luego “rojo blanco” con más calor. La radiación ultravioleta fue demostrada por Ritter en 1801. Para su época se creía que la luz se componía de tres elementos: un componente calórico y oxidante (infrarrojo), uno iluminante (el espectro del arco iris), y uno químico o reductor (ultravioleta).

[6] En 1849 Fizeau había reportado la velocidad de la luz a 313.000 kilómetros por segundo. Hoy en día—“por definición”—se la computa en 299.792 kilómetros por segundo. (En 1983 el metro fue definido como la distancia cubierta por la luz—en el vacío—en 1/299792458 de segundo).

[7] La unidad de frecuencia de las ondas electromagnéticas, de un “ciclo” por segundo, fue bautizada en 1930 como herzio (hertz, en inglés) en honor de Heinrich Rudolf Hertz.

[8] En 1901, el primer año del siglo XX, Marconi tuvo aparentemente éxito en transmisión transatlántica de código Morse desde Cornualles, Inglaterra, a Terranova. (Este hecho se disputa). El 12 de octubre de 1931 Getulio Vargas inauguraba en el monte Corcovado, en Río de Janeiro, la monumental estatua de Cristo Redentor, que se suponía iba a ser iluminada por una señal transmitida por Marconi desde Nápoles. Las condiciones atmosféricas no lo permitieron y el monumento debió ser iluminado manualmente.

[9] El nombre electrón había sido propuesto años antes por George Johnstone Stoney para referirse a la unidad de carga eléctrica. En griego la palabra significa ámbar, sustancia que a la frotación adquiere carga eléctrica.

[10] El átomo de oro tiene una masa de 197 unidades atómicas, mientras que una partícula alfa tiene una de 4 unidades. Las balas eran bastante más pequeñas que el blanco.

[11] En realidad, pequeñas discrepancias fueron encontradas, pero tan inferiores a lo predicho por la teoría, que podían ser perfectamente atribuidas a “error” experimental. El interferómetro, que mediría la diferencia por la formación de “anillos de interferencia” en caso de que la velocidad de los dos haces discrepara significativamente, fue montado sobre un bloque de mármol que flotaba en un estanque de mercurio sito en un sótano, a fin de minimizar el efecto de vibraciones. El mercurio permitía rotar el aparato sin dificultad. (Michelson hizo por su cuenta el experimento en 1881, antes de hacerlo con Morley en 1887 con mucha más precisión).

Share This: