physics

Cosmología inflacionaria. Hiperestructuras en el espacio. El “Gran Atractor”.

La primera formulación rigurosa de una teoría del Big Bang predecía un universo perfectamente liso y homogéneo. Mientras la información empírica que soportaba esa explicación acerca del origen y evolución del universo se restringía al hallazgo de Penzias y Wilson—detección, en 1964, de una radiación uniforme y en todas las direcciones equivalente a una temperatura de 2,7 grados Kelvin (ver Física 6)—aquella predicción no representaba mayor problema. La teoría primitiva, sin embargo, no podía explicar muy bien la irregularidad del universo: la existencia de galaxias y otras estructuras y, por otra parte, las más recientes observaciones—telescopio Hubble y COBE—determinaron un cierto grado de irregularidad o anisotropía que no se derivaba fácilmente de la formulación original. Más aún, en la década de 1970, varias otras objeciones y dudas se acumularon para requerir una modificación en la teoría inicial.

Uno de estos problemas es el llamado “problema del horizonte”: la irregularidad o granularidad del universo es en realidad muy pequeña. A escalas cósmicas es en verdad bastante homogéneo. El problema de la teoría primera del Big Bang era explicar esta observación, que en términos axiomáticos se conoce como principio cosmológico: a grandes escalas el universo es homogéneo e isotrópico, no tiene direcciones preferidas ni localizaciones privilegiadas. A observadores situados en puntos distintos del espacio, el universo se aparecería esencialmente idéntico. (La aceptación axiomática del principio cosmológico, por cierto, más la hipótesis de que el universo es finito, conducen a una evolución cósmica equivalente a la postulada por la teoría del Big Bang).

Una homogeneidad semejante sería la esperada en el caso de una mezcla de gases en equilibrio térmico, encerrada en algún envase apropiado. Acá ha habido tiempo para que las moléculas del gas intercambien energía cinética hasta que todas tengan la misma temperatura. Esto es, hasta eliminar la anisotropía. Pero en el caso del Big Bang la expansión misma, sin encerramiento que la contenga, no da tiempo a que todas las regiones del universo primitivo entren en contacto, y por tanto no hay manera de que lleguen al equilibrio térmico. Si esto es así ¿cómo es que se observa un universo tan homogéneo?

Conocedor de esta dificultad, Georges Lemaître, quien primero postulara el escenario del Big Bang con su idea del “huevo cósmico” o “átomo primitivo”, creyó que la uniformidad vendría dada por una serie repetida de expansiones y contracciones: es decir, por una secuencia de Big Bangs. Esto daría tiempo para alcanzar la uniformidad. A esta hipótesis se la llamó “el universo Fénix”, pues el universo renacería y volvería a renacer con cada ciclo de expansión-contracción). En forma análoga, Richard Chase Tolman ofreció la imagen de un “universo oscilatorio”. Por su parte, Charles Misner postuló un “universo licuadora” que homogeneizaría su composición. Todas estas explicaciones crearon más problemas de los que pretendían resolver. Los ciclos de Lemaître o Tolman, por ejemplo, conducían a una acumulación de entropía que no corresponde a lo observado[1], mientras que la idea de Misner llevaba a un universo más caótico. Había que buscar otra solución.

Luego, estaba el problema del universo plano, o de la “geometría del universo”. Ésta viene determinada, según la teoría general de la relatividad, por la cantidad de materia presente en el universo. La atracción gravitacional producida por la presencia de materia actuaría como un freno a la expansión del mismo. Si hubiera suficiente materia esta expansión terminaría por anularse y se iniciaría una contracción (Big Crunch) que llevaría todo al comienzo, a la singularidad. Si, por lo contrario, la cantidad de materia fuera insuficiente, entonces el universo se expandiría eternamente. Hay un valor intermedio de esta densidad de materia, la “densidad crítica”, que haría que la rata de expansión llegara a cero, y entonces a partir de cierto punto el universo preservaría su tamaño, sin contraerse o expandirse. (La primera condición corresponde a una geometría esférica—de Riemann—a un universo cerrado que tarde o temprano se contraería. La segunda condición implicaría un universo abierto, siempre en expansión, en una geometría hiperbólica o de Lobachewtski. Si el universo ostenta exactamente la densidad crítica, entonces sería “plano”, en una geometría euclidiana. Las observaciones más recientes están más próximas de esta última hipótesis).

Tres geometrías: Riemann, Lobachewtski, Euclides

Más precisamente, la densidad crítica ha sido determinada con el valor de 1029 gramos por centímetro cúbico, y el cociente de la densidad real sobre el valor de esta densidad crítica se designa como W. Un valor de W ligeramente mayor de 1 en un universo primitivo habría conducido rápidamente al colapso; un valor ligeramente inferior a 1 habría impedido, con una expansión demasiado rápida, la formación de las galaxias y las estrellas. Las mediciones actuales del cociente W lo establecen entre 0,98 y 1,06. El universo es plano, y este resultado no podía ser predicho por la primitiva teoría del Big Bang.

Todavía recibiría esta formulación original una tercera objeción. Sus ecuaciones predecían la formación de “monopolos” magnéticos. (Un imán sin polo sur, por ejemplo). Pero nunca ha sido observado un monopolo, ni siquiera en las reacciones más energéticas en el interior de los más grandes aceleradores de partículas.

Todas estas objeciones fueron salvadas por la introducción de la teoría de la fase de expansión “inflacionaria” del Big Bang. Consistió en postular una brevísima fase de expansión mucho más acelerada que la observada por Hubble como la actual, en los primerísimos instantes después de la gran explosión, una fase de expansión exponencial. Propuesta inicialmente en 1981 por Alan Guth, fue desarrollada luego, de forma independiente, por Andreas Albrecht, Andrei Linde y Paul Steinhardt. La inflación propone que el universo observable se originó en una región relativamente pequeña que estaba causalmente conectada. (Esto es, que podía ser recorrida a la velocidad de la luz en un tiempo finito). En ella, efectos cuánticos causarían minúsculas fluctuaciones térmicas, que actuarían como “semillas” que en último término causarían la irregularidad necesaria para la formación de las galaxias y las estrellas.

Esta rapidísima expansión—por un factor de 1026—por otra parte, tiene la virtud de homogeneizar el conjunto, y de eliminar cualquier curvatura “excesiva” del universo, haciéndolo plano, como lo observamos hoy. Es decir, la hipótesis de la inflación resuelve el problema del horizonte, el problema del universo plano y también elimina la incómoda predicción de monopolos magnéticos que no han sido observados jamás.

Estamos hablando, en todo caso, de tiempos inimaginablemente breves. Los cómputos actuales de la teoría proponen una duración total de la fase de inflación de no más de 10-33 segundos. Esto habría bastado para causar el tipo de universo que observamos.

En verdad, toda la teorización acerca del origen del universo nos remite a magnitudes realmente minúsculas, presentes en lo que se denomina el universo o la escala o la época de Planck. Por ejemplo, se emplea la denominada longitud de Planck (lp), que equivale aproximadamente a 1,6 x 10-35 metros. El tiempo de Planck (10-43 segundos) se define como el que tardaría un fotón en recorrer la longitud de Planck a la velocidad de la luz. Son estas escalas las presentes al inicio del universo. De hecho, para la física cuántica, no tiene sentido hablar de ningún instante anterior a un tiempo de Planck, y para ella la realidad física comienza a los 10-43 segundos después del Big Bang.

Dicho de otra manera, las leyes físicas, incluidas las relativísticas y las cuánticas, dejan de tener sentido para duraciones menores que el tiempo de Planck o para distancias inferiores a la longitud de Planck. La época de Planck se entiende justamente como la fase entre 0 y 10-43 segundos durante la cual no existían las partículas elementales y las cuatro interacciones que hoy conocemos (fuerte, débil, electromagnética y gravitación) estaban unificadas. La época de Planck dio paso a la también brevísima fase inflacionaria, cuyo comienzo vendría marcado por la separación (decoupling) de la interacción fuerte de la electrodébil. Para dar una idea de las brevedades, un segundo después del Big Bang comenzaría la “época de la nucleosíntesis” (formación de los primeros núcleos atómicos), que habría durado no más de media hora y habría sido precedida por la “época de los leptones”, la “época de los hadrones”, la “época electrodébil” y la fase inflacionaria[2] más el tiempo de Planck.

………

Entre las predicciones más exitosas de la teoría del Big Bang (ajustada con la inflación) está la de las cantidades observadas en el universo de los distintos elementos químicos. En 1948 Ralph Alpher, bajo la dirección de George Gamow—un partidario temprano de las ideas de Lemaître—realizó cálculos acerca de las cantidades de hidrógeno, helio y otros elementos partiendo de la hipótesis del Big Bang, los que correspondían estrechamente a los valores observados[3].

A pesar de que el estudio postulaba un mecanismo de formación de elementos (captura de neutrones) que a la postre resultó insostenible, logró calcular correctamente las proporciones observadas de hidrógeno y helio, que componen el 99% de la “materia bariónica” (la que normalmente conocemos) presente en el universo.

Pero hay materia no bariónica: electrones libres, neutrinos, minúsculos cuerpos negros y otras especies exóticas de partículas. Es la existencia de esta “materia oscura”, junto con la “energía oscura” (no detectable porque ni emite ni absorbe suficiente radiación electromagnética), lo que completa la cantidad necesaria de materia para que el universo sea plano, y no uno condenado a una perpetua expansión y adelgazamiento. La materia bariónica representa sólo 4% de la energía presente en el universo, la materia oscura un 22% y la energía oscura, detectada en ciertas supernovas, el 74% restante.

Materia oscura

Diagrama de la NASA que computa la energía oscura en 70% de la masa-energía que compone al universo. Por contraste, la masa total de las estrellas corresponde a solamente 0,5% de la masa-energía universal, o la octava parte de la presente en forma de hidrógeno y helio libres en el espacio. La materia no bariónica sería una cuarta parte del total.

¿Qué puede decirse de la arquitectura a gran escala del cosmos? Data ya de cierto tiempo atrás la observación de que las galaxias son agregados de estrellas y polvo interestelar, pero también se conoce desde hace tiempo la agrupación de galaxias en agregados o superagregados (clusters, superclusters) de galaxias, separados entre sí por enormes extensiones de vacío. Durante un tiempo se supuso que los superagregados eran las estructuras de mayor escala en el universo. En 1989, sin embargo, trabajando con datos del corrimiento hacia el rojo de las galaxias, Margaret Geller y John Huchra reportaron la existencia de una “Gran Muralla”, una descomunal lámina formada por galaxias cuyas dimensiones son de 500 millones de años luz de largo por 200 de ancho y 15 de espesor.

Luego de este hallazgo, las observaciones más recientes nos retratan un universo compuesto de gigantescas “burbujas” de vacío, delimitadas por láminas como la de la Gran Muralla o por “filamentos” integrados por galaxias, en los que los superagregados de galaxias son nódulos de mayor densidad aparentes en algunas regiones. Por encima de estas megaestructuras, por ahora, no parece haber estructuras mayores. Así se habla, a la escala de las murallas y filamentos, del “Fin de la Grandeza”.

En nuestro vecindario, y hacia el centro del superagregado local al que pertenece la Vía Láctea, se ha detectado una poderosa “anomalía” gravitacional. A este fenómeno se le ha dado el nombre de Gran Atractor—si se prefiere el más hermoso femenino, la Gran Atractriz—que afecta el movimiento de las galaxias relativamente próximas en una extensión de cientos de millones de años luz de ancho. Este Gran Atractor, descubierto en 1986, debe corresponder a una concentración especialmente densa de decenas de miles de galaxias, de modo de proporcionar una atracción gravitacional tan enorme como la medida. Su posición está entre las constelaciones de Centauro e Hidra, a una distancia de nosotros de entre 150 y 250 millones de años luz.

Gran Atractor

Una fotografía tomada desde el Observatorio de Europa del Sur en la dirección del Gran Atractor. Los objetos azulados son estrellas. Varias galaxias relativamente próximas se muestran en el campo como objetos de tono rojizo.

La exploración de estas inmensidades y la “arqueología” cósmica del Big Bang conducen inevitablemente a discusiones de carácter cosmogónico o religioso. La física cuántica, como vimos, rehúsa pronunciarse sobre lo que hubiera acontecido antes de que hubiesen transcurrido 10-43 segundos desde el instante inicial del Big Bang. En otros términos, ése sería el tiempo con el que contaría Dios para crear el universo entero, si es que fue esa entidad la que puede describirse como detonador del Big Bang y determinante de las constantes físicas—la velocidad de la luz, la de la gravitación universal, la constante de Planck, la de “estructura fina”—que a su vez determinan, junto con las cuatro interacciones del cosmos, la realidad y la evolución del universo.

Una lección de la geometría fractal, sin embargo, nos advierte que es perfectamente posible crear formas matemáticas de inconmensurable riqueza y complejidad a partir de fórmulas simplísimas. La iteración de la fórmula X = X2 + c que genera el llamado conjunto o curva de Mandelbrot[4], revela esta particularidad de las estructuras fractales, y ya sabemos que las formas fractales son las adecuadas para describir y modelar estructuras complejas como las del árbol circulatorio humano o de una hoya hidrográfica. Esta situación conducirá, probablemente, a una búsqueda por determinar empíricamente el “fractal del universo”: un solo número que explique la abrumadora diversidad del cosmos, cuyo retrato se hace cada vez más complejo. LEA

Mandelbrot

El conjunto de Mandelbrot. Sucesivas ampliaciones de cualquiera de sus regiones revelan una estructura de infinita complejidad.

 


[1] La entropía es una noción clave de la termodinámica, en la que designa una medida del grado de desorden de la materia. Un cristal, más organizado que una mezcla de gases, tiene mucho menos entropía que esta última. En todo intercambio calórico la entropía aumenta, y este cambio es irreversible. Con exactamente el mismo nombre—y la misma forma matemática—Claude Shannon propuso una “entropía” de la información, en su “Teoría de la Información”, adelantada en1940.

[2] Muy poco después de la época inflacionaria habría tenido lugar la formación de los quarks y los antiquarks. Éstos permitirían la “época de los hadrones”, cuando partículas como el protón y el neutrón habrían venido a la existencia.

[3] El artículo—The Origin of Chemical Elements—fue publicado en Physical Review bajo los nombres de Alpher, Gamow y el de Hans Bethe. La inclusión de este último, que contribuyó posteriormente con la teoría, fue una travesura de Gamow, para hacer un juego de palabras: Alpher, Bethe, Gamow, como las tres primeras letras griegas: alfa, beta, gamma. En un libro de 1952 (The Creation of the Universe—Gamow explica que Bethe, al conocer algunos problemas posteriores de la teoría “consideró seriamente cambiarse el nombre a Zacarías” y que, en cambio, R. C. Herman, que ayudó a Alpher con más refinados cálculos posteriores, rehusó “tercamente cambiarse el nombre a Delter”.

[4] Benoit Mandelbrot, matemático investigador del Thomas Watson Research Center de la compañía IBM, inició una revolución conceptual con su The Fractal Geometry of Nature (1982). En lecciones sobre este tema y sobre las teorías del caos y la complejidad, describiremos sus hallazgos y aportes especiales.

Share This: