Física del siglo XX – (9)

physics

La búsqueda de una teoría del campo unificado (Einstein) y de la ecuación general (Heisenberg). A Theory Of Everything. (TOE). Hacia una relatividad cuántica. Noción de teoría de cuerdas. Cuantización del espacio y el tiempo.

En su Autobiografía, Werner Heisenberg escribió: “Hasta entonces, siempre habíamos creído en la vieja doctrina de Demócrito, que puede resumirse como: ‘En el principio era la partícula’. Se había supuesto que la materia visible estaba compuesta de unidades más pequeñas, y que si se dividía a éstas lo suficiente, debiéramos llegar a las unidades más pequeñas, que Demócrito había llamado ‘átomos’, y que ahora podían llamarse ‘partículas elementales’—es decir, ‘protones’ o ‘electrones’. Pero quizás esta filosofía estaba enteramente equivocada. Quizás no existían elementos más pequeños que ya no pudieran ser divididos. Quizás la materia podía ser dividida todavía más, hasta que finalmente ya no fuese una división real sino un cambio de energía en materia y las partes ya no fueran más pequeñas que lo que hubiera sido dividido. Pero ¿qué había al principio? ¿Una ley de la naturaleza, matemáticas, simetría?”

La última palabra de este trozo resultó ser clave en la formulación teórica del mundo subatómico, y en general en la Física. La búsqueda y matematización de simetrías fundamentales está en la base de las teorías acerca de las partículas elementales y su interacción. Heisenberg, por su parte, construía sobre la intuición de Emmy Noether, un matemático de la Universidad de Gotinga, que en 1918 adelantó la siguiente correlación: “Toda ley de conservación es una consecuencia de una simetría de las leyes naturales”.

La idea de que la naturaleza conserva ciertas magnitudes a pesar de las transformaciones es bastante antigua. Incluso Heráclito, que decía que todo estaba en movimiento—Panta rei—buscaba encontrar algo constante detrás de los cambios aparentes. Llegaría el siglo XVII para que Gottfried Wilhelm von Leibniz postulara que ese factor constante era la energía. (Conservatio virium). Las colisiones de los cuerpos cambian las direcciones del movimiento, pero la energía permanece constante, como es constante igualmente durante el movimiento de un péndulo. Pero esto se observa en la colisión de los cuerpos elásticos, no así en la de los inelásticos, en la que aparentemente desaparece una parte de la energía cinética. Parecían caber sólo dos explicaciones: o se producía una transformación de la energía al nivel de las partículas pequeñas que componen un cuerpo—lo que era inobservable para la época—o la conservación de la energía era simplemente una ilusión.

Fue a mediados del siglo XIX cuando Julius Robert Mayer retomara el asunto para declarar que la energía era una entidad que no podía ser creada o destruida. Finalmente, en 1905 Albert Einstein encontraba que materia y energía eran una misma cosa, y desde ese entonces se habla de la conservación de la materia-energía. Antes, James Clerk Maxwell había encontrado que la electricidad y el magnetismo eran dos manifestaciones de un mismo fenómeno. La unificación aparentaba ser el camino de la Física; toda la segunda mitad del siglo XX alojó una constante búsqueda por unificaciones más fundamentales.

Es así como Heisenberg emprendió, en la década de 1950, la búsqueda de una “fórmula universal” de la Física, e hizo esto a partir de las simetrías fundamentales que daban origen a las leyes de conservación. Si se establece una jerarquía de las leyes físicas, son las leyes de conservación las que ocupan el pináculo de generalidad, al ser de aplicación más universal. Así comentaba el punto Heisenberg en Der Teil und das Ganze—La parte y el todo—un recuento histórico de la aventura científica de la primera mitad del siglo XX, en la que él había sido importantísimo protagonista: “…[si] las leyes de conservación, para la energía o para la carga eléctrica, son de carácter absolutamente universal, se aplican a todas las esferas de la Física, y surgen de propiedades de simetría en todas las leyes de la naturaleza, entonces se sugiere a sí mismo el pensamiento de que estas simetrías son elementos determinantes en el plan según el que fue creada la naturaleza”.

Y en otra parte avanza: “Las partículas elementales en la filosofía de Platón recibían su simetría de lo que se llamó el ‘grupo del espacio’, el grupo de las revoluciones en el espacio tridimensional. Esto, por tanto, involucra una simetría estática, directamente intuitiva. La física moderna, no obstante, incorpora al tiempo en su observación de la naturaleza desde un principio. Desde Newton, la física se ha preocupado con la dinámica de los fenómenos. Está basada en la opinión de que, en este mundo constantemente cambiante, las leyes—antes que las formas geométricas—es lo que debe ser duradero. Estas leyes son básicamente construcciones más abstractas, que se aplican, sin embargo, al espacio y el tiempo… La teoría definitiva de la materia estará—como en Platón—caracterizada por una serie de importantes demandas de simetría… Estas simetrías ya no pueden ser elucidadas simplemente mediante figuras e imágenes, como era posible con los cuerpos platónicos, pero esto puede hacerse con ecuaciones”.

El neoplatonista que era Heisenberg procuró, armado de este punto de vista, arribar a una ecuación general de la Física de la que pudieran extraerse todas las demás. A fines de 1957 informó a su amigo y colega de toda la vida, Wolfgang Pauli, acerca de una nueva ecuación de campo a la que había arribado. El habitualmente escéptico Pauli reaccionó esta vez con entusiasmo, pero el trabajo conjunto, que convirtió la “ecuación de Heisenberg” en la “ecuación de Heisenberg-Pauli”, nunca conduciría a nada, a pesar de que una conferencia prematura de Heisenberg en Gotinga suscitara elogiosos comentarios periodísticos que anunciaban “el fin de la Física”.[1]

Heisenberg hablaba de una “teoría del campo unificado”, y hay por tanto que entender qué es un campo para la Física. Un campo es una región del espacio en la que se manifiesta alguna magnitud física, como puede ser una perturbación eléctrica o una atracción magnética. Cada punto del espacio—o si se quiere más generalmente, del espacio-tiempo einsteniano—recibe la asignación de una cantidad de esa magnitud, por lo que el campo es verdaderamente continuo y extendido sin límites. Llena, por decirlo así, todo el espacio, aunque con fuerza variable en distintas regiones. El campo eléctrico y el campo magnético, recordemos, había sido reunido en un solo campo electromagnético gracias a los trabajos de Maxwell. Lo que pretendía Heisenberg era añadir a esta unificación lo requerido para describir correctamente la conducta de las partículas.

El mismo Einstein trabajó los últimos años de su vida, justamente, en una “teoría del campo unificado”, tratando, esta vez, de unificar las ecuaciones del campo electromagnético y su teoría general de la relatividad, que había provisto una novedosa explicación del fenómeno de la gravitación. Ya asentado en el Instituto de Estudios Avanzados de Princeton, buscó, también sin éxito, esa unificación de gravedad y electromagnetismo. El intento rendía, invariablemente, valores infinitos para ciertas variables, lo que no tenía sentido físico.[2]

Después de la década de 1950, sin embargo, los físicos han tenido éxito al producir nuevas unificaciones. El trabajo implicó reunir en una sola teoría varias de las cuatro interacciones—antes llamadas “fuerzas”—fundamentales del universo observable. Estas cuatro interacciones son la interacción fuerte (que mantiene unidas las partículas integrantes del núcleo atómico a pesar de la repulsión electromagnética de los protones), la interacción débil (responsable del decaimiento beta, la radiación de electrones o partículas beta desde el núcleo), la interacción electromagnética y la gravedad. Cada una de éstas es explicada en una “teoría de calibración” (gauge theory) que postula un campo y unas partículas que “median” la interacción: es decir, la interacción se produce por el intercambio de las partículas de mediación.

Pues bien, después de la integración de Maxwell entre electricidad y magnetismo, la próxima se produjo entre el electromagnetismo y la interacción débil. Esto es, hay ahora una sola teoría de la que se deducen tanto los comportamientos electromagnéticos como las interacciones débiles, así como las partículas características de ambas interacciones: el fotón, partícula mediadora del electromagnetismo, y los bosones W y Z, que median la interacción débil.[3]

Bosones

Los distintos bosones

Una interacción débil típica es la que convierte un neutrón (ligeramente más pesado que un protón) en un protón (positivo) y un electrón (negativo) junto con un antineutrino. En esta interacción se conserva la carga eléctrica (una ley de conservación, o una simetría, operando), pues la suma de las cargas opuestas del protón y el electrón equivale a la carga cero del neutrón, y el antineutrino que se produce es eléctricamente neutro. Es esta interacción la que se conoce como decaimiento beta (beta decay) puesto que la emisión de electrones (partículas beta) desde el núcleo fue llamada así por Ernest Rutherford originalmente.

Feynman

Diagrama de Feynman del decaimiento beta. Un neutrón (a la izquierda del diagrama) pierde un bosón W negativo y se convierte en protón. El bosón da origen a un electrón y un antineutrino. (A la derecha y abajo). La línea ondulada que representa al bosón indica que se trata de una partícula “virtual”.

En cambio, la interacción fuerte que mantiene unidos los nucleones (partículas del núcleo atómico) ocurre por la mediación de partículas virtuales llamadas gluones. Éstos no portan carga eléctrica y son, como el fotón, de masa nula. La teoría electrodébil, explicativa de tanto el electromagnetismo como la interacción débil, no incluye explicación para los gluones y, por tanto, no es una teoría que explique la interacción fuerte.

La interacción fuerte requirió una teoría distinta, la cromodinámica cuántica, para dar cuenta de sus mecanismos y partículas. Estrictamente, describe la interacción entre los quarks (y antiquarks) y los gluones mismos, pero en términos amplios se la tiene como responsable de la interacción entre hadrones. (Tanto los bariones—el protón, el neutrón—como los mesones, tales como el mesón K). A este aspecto de la interacción fuerte entre hadrones se le conoce como interacción fuerte “residual”, siendo la que afecta a los quarks y los gluones mismos la interacción fuerte fundamental, o interacción de “color”.

Interacciones

Una tabla que resume las cuatro interacciones fundamentales en el universo.

La tarea de unificar las interacciones, sin embargo, no se detuvo allí. Un paso ulterior fue la construcción de una GUT (Grand Unification Theory), la que predice que a energías superiores a 1014 GeV la interacción fuerte, la interacción débil y el electromagnetismo se revelan como una sola fuerza, sujeta a una sola simetría englobante. Una sola ecuación predice la conservación de la carga eléctrica, la “fuerza débil” y la “hipercarga”. El trabajo matemático está hecho (hay varios modelos), pero no hay evidencia todavía que permita asegurar que una GUT pueda realmente describir a la naturaleza. Además, la gravitación espera aún por su integración o unificación.

En particular, el Modelo Estándar está a la espera de un peculiar bosón, el llamado bosón de Higgs, que hasta los momentos no ha sido detectado y es predicho, sin embargo, por la teoría. Los físicos de partículas albergan la esperanza de que el nuevo Gran Colisionador de Hadrones (Large Hadron Collider, LHC) que construye CERN (Comision Européenne pour la Recherche Nucléaire) logre la hazaña.

La peculiar partícula fue postulada por el físico inglés Peter Higgs (de allí su nombre) en 1964. Existiría un “campo de Higgs” que se extendería por todo el universo, en el que las perturbaciones producidas por el bosón de Higgs y sus interacciones con las restantes partículas darían origen a la más fundamental de las propiedades de la materia: la masa. (En particular, el bosón de Higgs[5] es necesitado por el Modelo Estándar para explicar la diferencia de masa entre la del electrón y las de los bosones W y Z).

Pero ni aun de esta manera se habría logrado la unificación de la cuántica con la teoría general de la relatividad. La masa que se generaría a partir del bosón de Higgs es masa inercial—la resistencia opuesta por un cuerpo a la incidencia de fuerzas—y la que maneja la teoría general de la relatividad es masa gravitacional, la causante de la atracción de la gravedad. En la práctica ambas masas son idénticas, pero los físicos no pueden explicar por qué es esto así.

Lo que sí se sabe es que la física de partículas está íntimamente ligada al origen del universo y su evolución. En el Big Bang todas las interacciones serían una sola, y de ésta irían “desacoplándose” las cuatro conocidas hoy a medida que el universo se expandía y disminuía su temperatura.

Forces evolution

Emergencia de las "fuerzas" en el tiempo

En teoría el comienzo del universo correspondería a una “era de la relatividad cuántica”, con temperaturas superiores a 1032 grados Kelvin y energías superiores a 1019 GeV. Por debajo de estas cotas se desacoplaría la gravedad y la expansión experimentaría la fase “inflacionaria” hasta que se alcanzaran 1027 grados Kelvin y las energías hubieran descendido por debajo de 1014 GeV.[6] Al descender la temperatura por debajo de estos niveles, se habrían desacoplado la interacción electrodébil y la interacción fuerte. Por último, al rebasarse la temperatura de 1015 grados Kelvin (100 GeV) la interacción débil y la interacción electromagnética se habrían separado.

Actualmente hay una candidata a ser la gran teoría unificadora, la TOE o Theory Of Everything, una teoría cuántica de la relatividad: la “teoría de supercuerdas” , que postula que las verdaderas partículas serían cuerdas verdaderamente minúsculas, cuyas oscilaciones, en un espacio no de cuatro, sino de once dimensiones, darían origen a todo lo observado. O sea, que los quarks también tendrían una estructura, y que sus componentes serían estas supercuerdas. El nivel de abstracción matemática de esta teoría es realmente elevadísimo, y conduce a especulaciones como la de la existencia de múltiples universos y la de bootstrap particles, partículas que se levantarían a sí mismas, como el Barón de Munchausen, halándose a sí mismas “hacia arriba”.

Más recientemente, ha comenzado a estudiarse la noción de que el espacio y el tiempo tampoco serían de magnitud continua sino discreta; es decir, que estarían cuantizados. Probablemente, además, las matemáticas fractales, definidas por Benoit Mandelbrot en The Fractal Geometry of Nature, comiencen a decir algo para describir la estructura diversa del universo. Si el espacio y el tiempo son pulverulentos y no entidades continuas, pueden ser tratados como estructuras fractales, que tanto éxito han tenido en el tratamiento de sistemas complejos y caóticos. Una ecuación de gran simplicidad puede dar origen a estructuras complejísimas, y entonces haya sido tal vez necesario a Dios escribir una sola ecuación para desencadenar la numerosa y rica complejidad del cosmos.

Las esperanzas—y los temores también—están puestas en Suiza, donde CERN construye el LHC que deberá entrar en funcionamiento en noviembre de 2007. Aquí se está jugando con fuego o, literalmente, con el árbol de la sabiduría, el árbol del bien y del mal. Físicos japoneses han anunciado su proyecto de crear un “universo bebé”, y hay quienes temen que el LHC pueda crear un cuerpo negro que nos hará desaparecer a todos o, incluso, al universo entero. Por ahora se invierte una ingente cantidad de fondos en su construcción.

Arthur C. Clarke, el astrofísico inglés de mente visionaria, logró una vez con un cuento de ciencia-ficción la distinción que sus colegas estimaron: la mejor narración de ciencia-ficción de todos los tiempos. Los nombres de Dios cuentan de un equipo de expertos en computación que lograron inventariar, finalmente, todos los nombres de la divinidad. Mientras descendían del monasterio tibetano donde habían llevado las computadoras que hicieron el cálculo, comenzaron a ver, de noche, cómo empezaban a apagarse las estrellas. LEA



[1] Una expresión análoga a la del libro de Francis Fukuyama, El fin de la historia.

[2] En Física, especialmente en física de partículas, se emplea un “truco” que consiste en operar con las cantidades infinitas—sumas algebraicas, promedios—para arribar a valores finitos. A este procedimiento se le conoce con el nombre de “renormalización”.

[3] El bosón Z es eléctricamente neutro. Hay un bosón W de carga positiva unitaria (W +) y un bosón W de carga unitaria negativa. (W ).

[4] Richard Feynman (1918-1988), Premio Nóbel de Física en 1965, introdujo los diagramas que llevan su nombre para presentar gráficamente las interacciones de las partículas subatómicas. Se parecen mucho a los rastros que dejan las partículas en una cámara de burbujas.

[5] En 1993 el ministro británico de Ciencias, William Waldegrave, solicitó que le explicaran “en una página”, qué demonios era el bosón de Higgs. Varias de las explicaciones aprobadas, algunas con metáforas, ayudaron a Waldegrave a juzgar la sabiduría de invertir en aceleradores de partículas más poderosos que los existentes. Pueden ser leídas en http://www.phy.uct.ac.za/courses/phy400w/particle/higgs.htm

[6] La fase inflacionaria de la expansión del universo es una corrección introducida a los primeros modelos del Big Bang para explicar las heterogeneidades que dieron origen a las galaxias.

Share This:

CS #197 – Súmate, Únete o Ercóndete

Cartas

Una cierta corriente de la Sociología entiende a esta ciencia como el estudio de los grupos, independientemente de su tamaño. (Desde una pareja hasta una nación). Y ha sido observación de este enfoque que la tríada, el grupo formado por tres entidades o personas, es uno de los grupos más inestables. En teoría, las tres comienzan como pares, pero pronto dos de las tres se encompinchan, se vuelven camaradas, se enamoran. Esto deja a la tercera excluida, relegada, obligada a seguir lo que la díada decida.

El tercero relegado se defiende entonces con una campaña de seducción sobre uno de la díada interna hasta que logra arrancarlo y formar una nueva díada, dejando un nuevo tercero excluido, undsoweiter (y así sucesivamente). Es ésa la dinámica de la tríada.

Para el término del mundial de fútbol de Alemania, el tercero excluido era Teodoro Petkoff. Rosales primero y en minutos Borges se plegaron al ultimátum primarista de Súmate, dejando a Petkoff desubicado: continuaba jugando pero se le había declarado en posición adelantada, íngrimo delante de la meta y con toda la defensa contraria en sus talones. Sus dos compañeros de ataque se habían replegado tras ésta, abandonándolo. La díada Borges-Rosales encontraba difícil reunirse con él, o asistía a sesiones acordadas con harto retraso.

Hoy sin embargo, Borges vuelve a recular y alude a la debilidad de unas primarias de baja asistencia porque «la gente tiene miedo», opina que la sentencia del Tribunal Supremo de Justicia del viernes pasado, estipulando que Rosales no debe estar en el ejercicio del cargo de gobernador si quiere postularse, debe ser tomada en cuenta y que él será el candidato único. (Dicho sea de paso, el TSJ tenía que decidir como lo hizo. La Constitución no dice nada sobre una necesaria separación de su cargo de un presidente en ejercicio que quiera reelegirse; en cambio incluye un artículo específico, el 229, que dice así: «No podrá ser elegido Presidente o Presidenta de la República quien esté de ejercicio del cargo de Vicepresidente Ejecutivo o Vicepresidenta Ejecutiva, Ministro o Ministra, Gobernador o Gobernadora y Alcalde o Alcaldesa, en el día de su postulación o en cualquier momento entre esta fecha y la de la elección». Como se ve, tampoco exige la renuncia del gobernador del Zulia, tan sólo que no esté «de ejercicio»; ni siquiera dice «en el ejercicio». Si se quiere ver en esto una injusta ley del embudo, pues hay razón, pero no debiera haber sorpresa. Como en el caso de tantos dictadores de antaño en nuestro país, la constitución que nos rige fue hecha a la medida del presidente Chávez).

Borges se descoloca él solo, porque lo que debe andar cocinándose es un pacto entre Rosales y Petkoff. Éste no puede oponer a su par zuliano que es el mejor ubicado en las encuestas: Rosales es el primero de los tres y Petkoff el último de los tres, y hay mucho menos distancia ideológica entre Petkoff y Rosales que entre Petkoff y Borges. El autor de Las dos izquierdas difícilmente podría explicar su apoyo a un candidato de centro-derecha. Y así como Borges no podía dejar de atender al llamado de Súmate, tampoco podría dejar de apoyar al líder de Únete (UNT o Un Nuevo Tiempo), si Petkoff le pica adelante.

Así que lo más probable es que no haya primarias (Primero Justicia y COPEI han insinuado que Súmate no puede organizar las primarias exitosamente ni en Altamira), que Súmate eche la culpa del fracaso a los candidatos (como ya lo ha venido preparando) y a la campaña del gobierno en su contra, que Carlos Blanco ya ha reclamado. Lo más probable es que sea Rosales el candidato de la terna, y Súmate tendrá que decidir si continúa cerca de él, que a fin de cuentas era su candidato preferible, o si se radicaliza consistentemente hacia las posturas abstencionistas de Acción Democrática, Pablo Medina o Álvarez Paz. Pero aun cuando Súmate decida esta radicalización, que la separaría del candidato unitario-trinitario, Rosales quedaría marcado como el candidato «de oposición», esto es, como el candidato del 15% de los electores. (Que a estas alturas pueden ser pensados como escindidos en un 10% de participacionistas y un 5% de abstencionistas a ultranza).

………

En ocasión reciente (Carta Semanal #190, del 15 de junio de 2006) fue mencionado acá un hallazgo del encuestador Eugenio Escuela, quien había encontrado, en registro de opinión del mes de mayo, que la mitad (50,25%) de quienes respondían a una pregunta por ubicación política se tenían por colocados en el centro. Si se añade a quienes se confesaron de centro-derecha (14,06%) y a quienes se entienden de centro-izquierda (14,42%), se llega a la suma de 78,73%, prácticamente las cuatro quintas partes de quienes respondieron. (El 70% de los entrevistados).

Después de esa perla se dio a conocer (El Nacional, Descifrado) la encuesta de Hinterlaces que presentaron a cuatro manos Oscar Schemel y el asesor político norteamericano Dick Morris, sobre datos levantados en junio. A pregunta sobre ubicación en chavismo, oposición o categoría que no es ninguna de las otras dos, 35% dijo ser chavista, 15% opositor y 49% «ni-ni». Por otro lado, el mismo estudio medía una intención de voto de 55% a favor de Chávez, 7% para Rosales, 5% por Borges y 4% por Petkoff. (Para Smith, 2%, después de ¿diez millones de pasos?) Pero también encontraba que 17% quería «otro distinto» (más que el trío BPR unido), y 10% estaba por el candidato Nosabe Ninguno Nocontesta.

La Ficha Semanal #57 (Manual del outsider, 2 de agosto de 2005) y la Carta Semanal #68 (El outsider), del 9 de enero de 2004, trataron de la atractriz del outsider, un cauce disponible como salida eficaz, como viraje pronunciado de la dinámica política en la Venezuela de estos días. Y hace dos semanas se reproducía acá (Carta Semanal #195) un capítulo escrito el año pasado para un libro (Chávez es derrotable) editado por don Fausto Masó: Tío Conejo como outsider. Éste, a su vez, refrescaba un concepto expuesto en el #131 de la Carta Semanal de doctorpolítico (31 de marzo de 2005): «Siendo que Chávez tiene el mayor control del poder posible en Venezuela—político, militar, económico—una oposición al estilo cacical debe fracasar. Es un brujo, no un cacique, quien puede suceder a Chávez a corto plazo. (2006). No es otro ‘tío tigre’ menor que pretenda discutirle la posición alfa a Tío Tigre en su manada. Es Tío Conejo». Es difícil pensar en otra figura a la que le queden mejor el disfraz y el carácter de Tío Conejo que a Benjamín Rausseo.

Er Conde der Guácharo, hasta donde se la ha visto actuar, no ha incurrido en desatinos, y desde su humor—»MVR lo que significa es Me Volví Rico», «la diferencia entre Chávez y yo, que somos ambos feos y de pelo malo, es que yo vivo en Venezuela»—ha sido el más corrosivo competidor que se haya levantado ante «el líder del proceso». Sería verdaderamente Tío Conejo si estuviera pendiente de su seguridad, pues aparentemente sólo su desaparición física impediría que sus dardos desinflen la pomposidad mussolinista de Chávez y sus pretensiones de némesis de George W. Bush.

………

De Wikipedia: «El Guácharo (Steatornis caripensis) es un ave sudamericana de la familia Steatornithidae (única especie) y son conocidos como las aves de las cavernas o los pájaros aceitosos, una derivación de su nombre en otras lenguas europeas (p.ej. latín steatornis; alemán: Fettschwalm; inglés: oilbird.) Es la única especie de su familia y género, la única ave frugívora nocturna de su orden (los Caprimulgiformes), y una de las pocas aves, y la única nocturna, que navegan por los ecos en condiciones de baja luz.

Vive en colonias en el interior de profundas cavernas. Durante el vuelo nocturno fuera de las cavernas, arranca sus principales alimentos (nueces de palma) con su poderoso pico ganchudo. Mientras vuelan en cavernas oscuras, los guácharos emplean un sistema de orientación por ecos similar al sonar, produciendo ‘cliqueos’ audibles de frecuencia de 7.000 ciclos por segundo. Se puede oír fácilmente cuando el pájaro está en vuelo. A las 10 semanas de nacidas, las crías tienen 50 por ciento más de peso que sus padres. El cuerpo de los polluelos está lleno de grasa y se sabe que éstos comen un cuarto de su peso cada noche.

El guácharo vive en varias partes de la cordillera de los Andes desde la isla de Trinidad por lo menos hasta Bolivia; también se ha reportado en Brasil.

El guácharo fue descrito por Alejandro de Humboldt durante su viaje a Sudamérica en 1799. Lo observó en la Cueva del Guácharo, en Caripe, Venezuela. El nombre científico de la especie, Steatornis caripensis, significa ‘ave grasosa de Caripe’. La Cueva del Guácharo es el centro del Parque Nacional Cueva del Guácharo, y del Monumento Nacional (el primero establecido en Venezuela) ‘Alejandro de Humboldt’.»

El 8 de mayo de 2003 se hacía en la carta #35 la siguiente observación: «Un cierto matiz avícola ha teñido recientemente la política nacional. Desde el orgulloso anuncio de la importación de tres mil toneladas de pollo que ofreciera Chávez Frías, pasando por su previo dibujo de los estratégicos gallineros verticales y las ejecutorias criminales del prócer revolucionario Manuel Arias—alias ‘Pollo Ronco’—hasta las imágenes gallináceas que maneja con insistencia Henrique Salas Römer». Pero aunque la candidatura de Rausseo es aun mucho más ornitológica que la del jefe de Proyecto Venezuela, no tiene nada de gallinácea, como acabamos de ver.

………

Al anochecer del día que el coronel Soto alcanzara su efímera fama—cuando una patrulla de policía militar quiso prenderle y debió retirarse con el rabo entre las piernas, impedida por una acción de enjambre, por una espontánea aglomeración de vehículos y ocupantes protectores—y fue a tener en hombros hasta la Plaza Francia y más tarde a las afueras de La Casona, el conductor de un programa radial llamó a un analista político para hacerle la siguiente pregunta: «Dime ¿tú crees que el coronel Soto es el líder que la sociedad civil ha estado esperando?» Semejante interpelación, por supuesto, era un signo inequívoco de la sequía dirigencial del territorio no chavista, que hasta ahora no había visto candidatos que resonaran con el alma venezolana.

En cambio, ahora asistimos al despegue de un famoso cohete que, según parece haber medido Eugenio Escuela, en cuestión de días hace que la intención de voto por Chávez haya mermado hasta 40% y alcance por su cuenta 30% a su favor. Unos cuantos días más y tendremos un empate técnico, y si el cohete continúa en ascenso, Chávez quedará asolado en el piso del 35% chavista medido por Hinterlaces y habrá sido superado por Rausseo.

Como ha apuntado acertadamente el profesor Antonio Cova, Rausseo ha cortado el nudo gordiano de la abstención al mostrar el tramojo del método ucraniano contra un intento de fraude electoral, en señal de doble filo: una advertencia al gobierno y una superación de los abstencionistas, sin siquiera discutir con ellos. E Ignacio Ávalos así lo caracteriza: «Tipo popular, de físico criollo a más no poder, ideal, argumentan, para echarle una vaina a Chávez, al margen de que no se sepa de sus ideas políticas, de su diagnóstico sobre el país, mucho menos de las proposiciones que tiene para gobernarlo. Pero no importa, es el Chávez de los que no quieren a Chávez».

Es más bien otra cosa que esto último. En un país organizado como Schemel-Morris lo han medido, la polarización entre Chávez y un «candidato único de oposición» daría el triunfo al primero, pero, en contra de lo intuitivo, en una campaña entre tres—Chávez, Rosales, Rausseo—el primero pudiera perder sin que todo su poder sea capaz de impedirlo. Rausseo, aunque no lo ha dicho, es el más genuino ofertante hacia los «ni-ni», hacia el centro que es la inmensa mayoría nacional.

Hace seis meses no quise poner atención a un amigo siempre sorprendente que me advertía: «Hay un grupo que está reuniendo un ‘pote’ para lanzar al Conde del Guácharo, pues estima que a la procacidad de Chávez sólo puede oponérsele otra, y cuidado como se convierte en un fenómeno electoral». Pero ahora estoy a punto de creer que Rausseo puede suceder a Chávez y Castro puede ser sustituido, no por su hermano Raúl, sino por Álvarez Guédez. Ya sintonizan con el eco de orientación serísimos abogados. Uno de ellos querría sugerir al bunker de Musipán que se considere el nombre del accidentado Jorge Rodríguez como Ministro de Vivienda: si fue capaz de meter dos millones de habitantes en una sola casa…

Chávez será el miedo, Rosales tomará prestado el lema teodorista «contra el miedo», Rausseo será la risa, que bastante falta nos hace y nunca pudo Salas Römer devolverle a Venezuela.

LEA

Share This:

Física del siglo XX – (10)

physics

Cosmología inflacionaria. Hiperestructuras en el espacio. El “Gran Atractor”.

La primera formulación rigurosa de una teoría del Big Bang predecía un universo perfectamente liso y homogéneo. Mientras la información empírica que soportaba esa explicación acerca del origen y evolución del universo se restringía al hallazgo de Penzias y Wilson—detección, en 1964, de una radiación uniforme y en todas las direcciones equivalente a una temperatura de 2,7 grados Kelvin (ver Física 6)—aquella predicción no representaba mayor problema. La teoría primitiva, sin embargo, no podía explicar muy bien la irregularidad del universo: la existencia de galaxias y otras estructuras y, por otra parte, las más recientes observaciones—telescopio Hubble y COBE—determinaron un cierto grado de irregularidad o anisotropía que no se derivaba fácilmente de la formulación original. Más aún, en la década de 1970, varias otras objeciones y dudas se acumularon para requerir una modificación en la teoría inicial.

Uno de estos problemas es el llamado “problema del horizonte”: la irregularidad o granularidad del universo es en realidad muy pequeña. A escalas cósmicas es en verdad bastante homogéneo. El problema de la teoría primera del Big Bang era explicar esta observación, que en términos axiomáticos se conoce como principio cosmológico: a grandes escalas el universo es homogéneo e isotrópico, no tiene direcciones preferidas ni localizaciones privilegiadas. A observadores situados en puntos distintos del espacio, el universo se aparecería esencialmente idéntico. (La aceptación axiomática del principio cosmológico, por cierto, más la hipótesis de que el universo es finito, conducen a una evolución cósmica equivalente a la postulada por la teoría del Big Bang).

Una homogeneidad semejante sería la esperada en el caso de una mezcla de gases en equilibrio térmico, encerrada en algún envase apropiado. Acá ha habido tiempo para que las moléculas del gas intercambien energía cinética hasta que todas tengan la misma temperatura. Esto es, hasta eliminar la anisotropía. Pero en el caso del Big Bang la expansión misma, sin encerramiento que la contenga, no da tiempo a que todas las regiones del universo primitivo entren en contacto, y por tanto no hay manera de que lleguen al equilibrio térmico. Si esto es así ¿cómo es que se observa un universo tan homogéneo?

Conocedor de esta dificultad, Georges Lemaître, quien primero postulara el escenario del Big Bang con su idea del “huevo cósmico” o “átomo primitivo”, creyó que la uniformidad vendría dada por una serie repetida de expansiones y contracciones: es decir, por una secuencia de Big Bangs. Esto daría tiempo para alcanzar la uniformidad. A esta hipótesis se la llamó “el universo Fénix”, pues el universo renacería y volvería a renacer con cada ciclo de expansión-contracción). En forma análoga, Richard Chase Tolman ofreció la imagen de un “universo oscilatorio”. Por su parte, Charles Misner postuló un “universo licuadora” que homogeneizaría su composición. Todas estas explicaciones crearon más problemas de los que pretendían resolver. Los ciclos de Lemaître o Tolman, por ejemplo, conducían a una acumulación de entropía que no corresponde a lo observado[1], mientras que la idea de Misner llevaba a un universo más caótico. Había que buscar otra solución.

Luego, estaba el problema del universo plano, o de la “geometría del universo”. Ésta viene determinada, según la teoría general de la relatividad, por la cantidad de materia presente en el universo. La atracción gravitacional producida por la presencia de materia actuaría como un freno a la expansión del mismo. Si hubiera suficiente materia esta expansión terminaría por anularse y se iniciaría una contracción (Big Crunch) que llevaría todo al comienzo, a la singularidad. Si, por lo contrario, la cantidad de materia fuera insuficiente, entonces el universo se expandiría eternamente. Hay un valor intermedio de esta densidad de materia, la “densidad crítica”, que haría que la rata de expansión llegara a cero, y entonces a partir de cierto punto el universo preservaría su tamaño, sin contraerse o expandirse. (La primera condición corresponde a una geometría esférica—de Riemann—a un universo cerrado que tarde o temprano se contraería. La segunda condición implicaría un universo abierto, siempre en expansión, en una geometría hiperbólica o de Lobachewtski. Si el universo ostenta exactamente la densidad crítica, entonces sería “plano”, en una geometría euclidiana. Las observaciones más recientes están más próximas de esta última hipótesis).

Tres geometrías: Riemann, Lobachewtski, Euclides

Más precisamente, la densidad crítica ha sido determinada con el valor de 1029 gramos por centímetro cúbico, y el cociente de la densidad real sobre el valor de esta densidad crítica se designa como W. Un valor de W ligeramente mayor de 1 en un universo primitivo habría conducido rápidamente al colapso; un valor ligeramente inferior a 1 habría impedido, con una expansión demasiado rápida, la formación de las galaxias y las estrellas. Las mediciones actuales del cociente W lo establecen entre 0,98 y 1,06. El universo es plano, y este resultado no podía ser predicho por la primitiva teoría del Big Bang.

Todavía recibiría esta formulación original una tercera objeción. Sus ecuaciones predecían la formación de “monopolos” magnéticos. (Un imán sin polo sur, por ejemplo). Pero nunca ha sido observado un monopolo, ni siquiera en las reacciones más energéticas en el interior de los más grandes aceleradores de partículas.

Todas estas objeciones fueron salvadas por la introducción de la teoría de la fase de expansión “inflacionaria” del Big Bang. Consistió en postular una brevísima fase de expansión mucho más acelerada que la observada por Hubble como la actual, en los primerísimos instantes después de la gran explosión, una fase de expansión exponencial. Propuesta inicialmente en 1981 por Alan Guth, fue desarrollada luego, de forma independiente, por Andreas Albrecht, Andrei Linde y Paul Steinhardt. La inflación propone que el universo observable se originó en una región relativamente pequeña que estaba causalmente conectada. (Esto es, que podía ser recorrida a la velocidad de la luz en un tiempo finito). En ella, efectos cuánticos causarían minúsculas fluctuaciones térmicas, que actuarían como “semillas” que en último término causarían la irregularidad necesaria para la formación de las galaxias y las estrellas.

Esta rapidísima expansión—por un factor de 1026—por otra parte, tiene la virtud de homogeneizar el conjunto, y de eliminar cualquier curvatura “excesiva” del universo, haciéndolo plano, como lo observamos hoy. Es decir, la hipótesis de la inflación resuelve el problema del horizonte, el problema del universo plano y también elimina la incómoda predicción de monopolos magnéticos que no han sido observados jamás.

Estamos hablando, en todo caso, de tiempos inimaginablemente breves. Los cómputos actuales de la teoría proponen una duración total de la fase de inflación de no más de 10-33 segundos. Esto habría bastado para causar el tipo de universo que observamos.

En verdad, toda la teorización acerca del origen del universo nos remite a magnitudes realmente minúsculas, presentes en lo que se denomina el universo o la escala o la época de Planck. Por ejemplo, se emplea la denominada longitud de Planck (lp), que equivale aproximadamente a 1,6 x 10-35 metros. El tiempo de Planck (10-43 segundos) se define como el que tardaría un fotón en recorrer la longitud de Planck a la velocidad de la luz. Son estas escalas las presentes al inicio del universo. De hecho, para la física cuántica, no tiene sentido hablar de ningún instante anterior a un tiempo de Planck, y para ella la realidad física comienza a los 10-43 segundos después del Big Bang.

Dicho de otra manera, las leyes físicas, incluidas las relativísticas y las cuánticas, dejan de tener sentido para duraciones menores que el tiempo de Planck o para distancias inferiores a la longitud de Planck. La época de Planck se entiende justamente como la fase entre 0 y 10-43 segundos durante la cual no existían las partículas elementales y las cuatro interacciones que hoy conocemos (fuerte, débil, electromagnética y gravitación) estaban unificadas. La época de Planck dio paso a la también brevísima fase inflacionaria, cuyo comienzo vendría marcado por la separación (decoupling) de la interacción fuerte de la electrodébil. Para dar una idea de las brevedades, un segundo después del Big Bang comenzaría la “época de la nucleosíntesis” (formación de los primeros núcleos atómicos), que habría durado no más de media hora y habría sido precedida por la “época de los leptones”, la “época de los hadrones”, la “época electrodébil” y la fase inflacionaria[2] más el tiempo de Planck.

………

Entre las predicciones más exitosas de la teoría del Big Bang (ajustada con la inflación) está la de las cantidades observadas en el universo de los distintos elementos químicos. En 1948 Ralph Alpher, bajo la dirección de George Gamow—un partidario temprano de las ideas de Lemaître—realizó cálculos acerca de las cantidades de hidrógeno, helio y otros elementos partiendo de la hipótesis del Big Bang, los que correspondían estrechamente a los valores observados[3].

A pesar de que el estudio postulaba un mecanismo de formación de elementos (captura de neutrones) que a la postre resultó insostenible, logró calcular correctamente las proporciones observadas de hidrógeno y helio, que componen el 99% de la “materia bariónica” (la que normalmente conocemos) presente en el universo.

Pero hay materia no bariónica: electrones libres, neutrinos, minúsculos cuerpos negros y otras especies exóticas de partículas. Es la existencia de esta “materia oscura”, junto con la “energía oscura” (no detectable porque ni emite ni absorbe suficiente radiación electromagnética), lo que completa la cantidad necesaria de materia para que el universo sea plano, y no uno condenado a una perpetua expansión y adelgazamiento. La materia bariónica representa sólo 4% de la energía presente en el universo, la materia oscura un 22% y la energía oscura, detectada en ciertas supernovas, el 74% restante.

Materia oscura

Diagrama de la NASA que computa la energía oscura en 70% de la masa-energía que compone al universo. Por contraste, la masa total de las estrellas corresponde a solamente 0,5% de la masa-energía universal, o la octava parte de la presente en forma de hidrógeno y helio libres en el espacio. La materia no bariónica sería una cuarta parte del total.

¿Qué puede decirse de la arquitectura a gran escala del cosmos? Data ya de cierto tiempo atrás la observación de que las galaxias son agregados de estrellas y polvo interestelar, pero también se conoce desde hace tiempo la agrupación de galaxias en agregados o superagregados (clusters, superclusters) de galaxias, separados entre sí por enormes extensiones de vacío. Durante un tiempo se supuso que los superagregados eran las estructuras de mayor escala en el universo. En 1989, sin embargo, trabajando con datos del corrimiento hacia el rojo de las galaxias, Margaret Geller y John Huchra reportaron la existencia de una “Gran Muralla”, una descomunal lámina formada por galaxias cuyas dimensiones son de 500 millones de años luz de largo por 200 de ancho y 15 de espesor.

Luego de este hallazgo, las observaciones más recientes nos retratan un universo compuesto de gigantescas “burbujas” de vacío, delimitadas por láminas como la de la Gran Muralla o por “filamentos” integrados por galaxias, en los que los superagregados de galaxias son nódulos de mayor densidad aparentes en algunas regiones. Por encima de estas megaestructuras, por ahora, no parece haber estructuras mayores. Así se habla, a la escala de las murallas y filamentos, del “Fin de la Grandeza”.

En nuestro vecindario, y hacia el centro del superagregado local al que pertenece la Vía Láctea, se ha detectado una poderosa “anomalía” gravitacional. A este fenómeno se le ha dado el nombre de Gran Atractor—si se prefiere el más hermoso femenino, la Gran Atractriz—que afecta el movimiento de las galaxias relativamente próximas en una extensión de cientos de millones de años luz de ancho. Este Gran Atractor, descubierto en 1986, debe corresponder a una concentración especialmente densa de decenas de miles de galaxias, de modo de proporcionar una atracción gravitacional tan enorme como la medida. Su posición está entre las constelaciones de Centauro e Hidra, a una distancia de nosotros de entre 150 y 250 millones de años luz.

Gran Atractor

Una fotografía tomada desde el Observatorio de Europa del Sur en la dirección del Gran Atractor. Los objetos azulados son estrellas. Varias galaxias relativamente próximas se muestran en el campo como objetos de tono rojizo.

La exploración de estas inmensidades y la “arqueología” cósmica del Big Bang conducen inevitablemente a discusiones de carácter cosmogónico o religioso. La física cuántica, como vimos, rehúsa pronunciarse sobre lo que hubiera acontecido antes de que hubiesen transcurrido 10-43 segundos desde el instante inicial del Big Bang. En otros términos, ése sería el tiempo con el que contaría Dios para crear el universo entero, si es que fue esa entidad la que puede describirse como detonador del Big Bang y determinante de las constantes físicas—la velocidad de la luz, la de la gravitación universal, la constante de Planck, la de “estructura fina”—que a su vez determinan, junto con las cuatro interacciones del cosmos, la realidad y la evolución del universo.

Una lección de la geometría fractal, sin embargo, nos advierte que es perfectamente posible crear formas matemáticas de inconmensurable riqueza y complejidad a partir de fórmulas simplísimas. La iteración de la fórmula X = X2 + c que genera el llamado conjunto o curva de Mandelbrot[4], revela esta particularidad de las estructuras fractales, y ya sabemos que las formas fractales son las adecuadas para describir y modelar estructuras complejas como las del árbol circulatorio humano o de una hoya hidrográfica. Esta situación conducirá, probablemente, a una búsqueda por determinar empíricamente el “fractal del universo”: un solo número que explique la abrumadora diversidad del cosmos, cuyo retrato se hace cada vez más complejo. LEA

Mandelbrot

El conjunto de Mandelbrot. Sucesivas ampliaciones de cualquiera de sus regiones revelan una estructura de infinita complejidad.

 


[1] La entropía es una noción clave de la termodinámica, en la que designa una medida del grado de desorden de la materia. Un cristal, más organizado que una mezcla de gases, tiene mucho menos entropía que esta última. En todo intercambio calórico la entropía aumenta, y este cambio es irreversible. Con exactamente el mismo nombre—y la misma forma matemática—Claude Shannon propuso una “entropía” de la información, en su “Teoría de la Información”, adelantada en1940.

[2] Muy poco después de la época inflacionaria habría tenido lugar la formación de los quarks y los antiquarks. Éstos permitirían la “época de los hadrones”, cuando partículas como el protón y el neutrón habrían venido a la existencia.

[3] El artículo—The Origin of Chemical Elements—fue publicado en Physical Review bajo los nombres de Alpher, Gamow y el de Hans Bethe. La inclusión de este último, que contribuyó posteriormente con la teoría, fue una travesura de Gamow, para hacer un juego de palabras: Alpher, Bethe, Gamow, como las tres primeras letras griegas: alfa, beta, gamma. En un libro de 1952 (The Creation of the Universe—Gamow explica que Bethe, al conocer algunos problemas posteriores de la teoría “consideró seriamente cambiarse el nombre a Zacarías” y que, en cambio, R. C. Herman, que ayudó a Alpher con más refinados cálculos posteriores, rehusó “tercamente cambiarse el nombre a Delter”.

[4] Benoit Mandelbrot, matemático investigador del Thomas Watson Research Center de la compañía IBM, inició una revolución conceptual con su The Fractal Geometry of Nature (1982). En lecciones sobre este tema y sobre las teorías del caos y la complejidad, describiremos sus hallazgos y aportes especiales.

Share This:

Física del siglo XX – (11)

physics

Repaso de las tecnologías de la física. Física del estado sólido. Memoria atómica y nuevos materiales y estados de la materia. Plasma, cuasicristales y microagregados.

El siglo XX y lo que va del XXI alojaron una expansión sin precedentes de las tecnologías de la Física, y ella transformó profundamente a las sociedades modernas. Antes de 1900, por supuesto, ya había unas pocas tecnologías que mejoraron importantemente la condición de vida de las gentes y las posibilidades industriales y militares. Los relojes, la imprenta, la pólvora, la máquina de vapor y el ferrocarril, el telar automático, el telégrafo, la máquina de escribir, el alumbrado eléctrico, los ascensores y escaleras mecánicas, el submarino, el automóvil, la máquina de coser, el cierre de cremallera, el frigorífico, los rayos X, el fonógrafo, la fotografía y el cine son todas tecnologías anteriores a 1900, y sin duda hicieron su impacto, pero nada es comparable a la eclosión tecnológica del siglo XX, y aunque las tecnologías de base química y biológica también transformaron y siguen transformando el mundo en que vivimos, son las tecnologías de la Física las más presentes y variadas en nuestro mundo actual.

El aeroplano, la radio, la televisión, el radar y el sonar, las computadoras electrónicas, los cohetes y los satélites artificiales, la fotografía a colores y la nueva fotografía digital, la Internet, la holografía, la criogenia y la superconductividad, los aceleradores de partículas y la energía atómica, el bolígrafo, las células fotoeléctricas, el café instantáneo, el aire acondicionado, la lámpara de neón, el electrocardiógrafo y el electroencefalógrafo, el limpiaparabrisas, las hojillas de afeitar desechables, el tractor, el Hovercraft, el helicóptero, la lavadora, el horno de microondas, el tanque de guerra, los aerosoles, el radiotelescopio y el telescopio espacial, el vidrio Polaroid, el motor a reacción, los relojes atómicos, el máser y el láser, el transistor, el reloj digital, el disco óptico, los LEDs (Light Emitting Diodes), los cajeros automáticos, las pantallas de cristales líquidos, las calculadoras de bolsillo y los iPods, el microscopio electrónico, la tomografía axial computarizada, la resonancia magnética nuclear y la ecosonografía, el teléfono celular, las videograbadoras, los sistemas GPS (Global Positioning System), el corazón artificial, el domo geodésico, el Velcro, la tostadora automática, el esquí acuático, el estabilizador giroscópico, la aspiradora, la subametralladora Thompson y el silenciador de armas de fuego, la cosechadora de algodón, las curitas, la fibra óptica, el Aqua-Lung, integran todos una lista más numerosa de invenciones que surgieron en los últimos cien años. Y esto sin mencionar las tecnologías químicas—la inmensa variedad de plásticos, por ejemplo—ni las biológicas o bioquímicas, como identificación del ADN o la ingeniería genética.

Es, por tanto, del todo imposible hacer referencia de cada una de ellas. En esta lección nos limitaremos a referir unos cuantos casos antonomásicos o representativos.

Pudiera decirse que la columna vertebral de la revolución tecnológica del siglo XX es la electrónica. A fin de cuentas, la tecnología eléctrica, electromagnética y electromecánica ya habían producido dispositivos de gran utilidad, sobre todo a la invención del motor eléctrico. (Michael Faraday, 1821). La electrónica trajo el control del flujo de electrones primero en “tubos de radio” al vacío (válvulas termiónicas), y luego en materiales semiconductores, con los que se hizo el primer transistor. Con estos materiales la electrónica comenzó a depender de lo que se llama física del estado sólido. Los dispositivos electrónicos se emplean en la transmisión de potencia eléctrica o de información.

Las unidades básicas de la electrónica son el diodo y el triodo. Los principios de ambos componentes se conocían a fines del siglo XIX, pero no es sino hasta 1900 cuando el primer receptor de radio que usara un diodo de cristal fuera inventado, por Greenleaf Whittier Pickard. El efecto del diodo es el de permitir el flujo de corriente en una dirección mientras bloquea el flujo en dirección contraria. Por esta razón, un diodo que recibe una corriente “alterna”—que oscila cíclicamente entre ambas direcciones—la transforma en corriente “directa”. (Que fluye en una sola dirección). De allí que a veces se llama “rectificador” a un diodo.

En un diodo de tubo se hace circular una corriente eléctrica hacia el cátodo, que usualmente es un filamento tratado con una mezcla de óxidos de estroncio y de bario. Al calentarse, el filamento emite electrones hacia el interior del tubo de vacío. Otro electrodo metálico, el ánodo, atrae electrostáticamente los electrones emitidos, al estar cargado positivamente. Aunque la mayoría de los diodos de hoy en día son fabricados con materiales semiconductores, todavía se usan los tubos de vacíos en algunas aplicaciones especiales, como algunos amplificadores de sonido de alta fidelidad y rectificadores en ciertas guitarras. También, naturalmente, fueron empleados en los primeros computadores electrónicos, y su tamaño y su importante descarga de calor hacían que esos computadores ocuparan cuartos enteros y requiriesen enfriamiento especial por aire acondicionado.

En 1906 Lee De Forest inventó un tubo de tres elementos al que llamó audión. Era el primer triodo, un tipo de tubo (no al vacío, sino lleno de gas) que no sólo tenía el filamento (cátodo) y la placa (el ánodo), sino un tercer elemento: la reja (grid) que permitía control sobre el flujo de electrones. Versiones posteriores hicieron del triodo el elemento amplificador por excelencia, un componente que convierte una señal eléctrica de baja potencia en una de alta potencia.

Triodo

Dibujo esquemático de un triodo

Los triodos, por otra parte, pueden funcionar como válvulas lógicas. Es decir, pueden funcionar como si fuesen conectivos lógicos—y, o, si…entonces…, …si y sólo si…—y en ese carácter se combinan en circuitos capaces de computar y decidir. Son, pues, las piezas fundamentales de los computadores electrónicos, aunque ya no son tubos de vacío, sino transistores, inventados en Alemania tan temprano como en 1928. No fue, sin embargo, sino hasta fines de 1947 cuando el primer transistor práctico fue desarrollado en los laboratorios Bell.

Transistores

Transistores

Hay diversos tipos de transistores, pero todos están basados en las propiedades intermedias—entre conductores y no conductores—de algunos materiales como el silicio, el carburo de silicio, el arsenuro de galio y el germanio. (El primer transistor fue hecho de germanio por William Shockley, John Bardeen y Walter Brattain, quienes recibieron el Premio Nóbel de Física en 1956).

Se define como semiconductor a un material sólido cuya conductividad eléctrica puede ser variada y controlada. En más de un caso sus propiedades pueden ser modificadas por la adición intencional de impurezas o contaminantes, y en este caso se habla de doping. Estas impurezas añaden electrones de fácil desprendimiento, y pueden conferir a los semiconductores una conductividad tan grande como la de un metal. Como esta conductividad puede ser variada mediante la aplicación específica de campos eléctricos, los transistores exhiben un comportamiento de gran versatilidad, lo que permite emplearlos en muchas aplicaciones prácticas.

La física de los semiconductores recurre a la cuántica para su completa explicación, y en ese sentido es una tecnología de la física cuántica. En términos más generales, la física del estado sólido es una extensión de la física cuántica. La mayor parte de la física del estado sólido trata de las propiedades de los cristales, pero materiales amorfos y de carácter intermedio también caen bajo su atención. La investigación sobre cristales ha generado diversas tecnologías; una de ellas, la cristalografía por difracción de rayos X, permitió descifrar la estructura del ácido desoxirribonucleico, el componente esencial de los genes y cromosomas, y por tanto de la herencia biológica.[1]

ADN

Una “radiografía” del ADN y una fotografía de Rosalind Franklin, la científica que empleó por primera vez esa técnica para estudiar la compleja molécula. La discriminación anti-femenina en la Universidad de Cambridge la relegó a un papel menor, por lo que no compartió los honores del Nóbel con Maurice Wilkins, su colega, y con sus competidores, James Watson y Francis Crick.

La física del estado sólido estudia también los llamados cuasicristales: materiales que presentan un orden similar al de los cristales pero sin su periodicidad. En ellos la aparición de caras en forma de pentágonos, icosaedros y otras formas bilateralmente asimétricas, determinan su carácter. Fueron descubiertos en 1984, en una aleación de aluminio y manganeso. (De hecho, la mayoría de los cuasicristales se forman con aleaciones de aluminio). Antes de su descubrimiento, el matemático inglés Roger Penrose había logrado “cubrir el plano” en una forma no periódica mediante el empleo de mosaicos de forma diferente: por ejemplo, rombos de ángulos distintos.

Penrose

Un mosaico de Penrose

Los mosaicos de Penrose funcionan, pues, como moldes dentro de los que se forman los cuasicristales al llenarse el patrón con los átomos de un elemento apropiado.

………

Los físicos también estudian un cuarto estado de la materia—ni sólido, ni líquido ni gaseoso—al que se llama plasma. Se trata de un gas ionizado, cuyas propiedades son muy diferentes a los estados normales. El plasma es un conductor eléctrico, y por tanto responde a la aplicación de campos electromagnéticos. A pesar de que no fuera descubierto hasta 1879 (por William Crookes en el tubo que inventara), es en realidad el estado más común de la materia, pues es el estado típico en el espacio interestelar e intergaláctico. También son plasmas los relámpagos y los fuegos fatuos, así como las auroras polares, el arco de la soldadura autógena y las llamas que genera una cápsula espacial en su reentrada a la Tierra.

Plasma

Descarga de una “lámpara de plasma” y descarga de la corona solar

Distintos tipos de plasma encuentran aplicaciones tecnológicas: los televisores más modernos, por ejemplo, o las técnicas de impresión o grabación de capas dieléctricas en la fabricación de circuitos integrados.

Otra sorpresa de la ciencia de los materiales es la de sustancias con memoria. El Nitinol 55, por caso, es una aleación de níquel y titanio con la que puede fabricarse, por ejemplo, alambres de ese material. Un alambre de éstos puede ser moldeado en una cierta forma, digamos para dibujar la rúbrica de una persona. Si ahora se calienta el alambre por encima de una cierta temperatura y se les estira completamente, el alambre retornará a la figura anterior al bajar la temperatura, restituyendo la firma perdida. Una estructura determinada que luego se aplana para transportarla con facilidad recupera su forma al hundirla en el mar.

Los microagregados son también considerados hoy en día otra fase o estado de la materia. Consisten en pequeños paquetes de átomos—desde dos hasta unos pocos cientos—que revelan propiedades muy distintas del mismo material a granel. Así escribían Michael Duncan y Dennis Rouvray en Scientific American en diciembre de 1989: “Divida y subdivida un sólido y los rasgos de su solidez se desvanecen uno a uno, como las cualidades del gato de Cheshire, para ser reemplazados por  características que no son las de los líquidos o los gases. Pertenecen más bien a una nueva fase de la materia, el microagregado”.

Este peculiar estado ha encontrado aplicaciones biomédicas de gran valor, como en la absorción de nutrientes o la estimulación de linfocitos T, las células principales de la inmunología.

………

Las tecnologías de la miniaturización han expandido enormemente el horizonte de las aplicaciones de la Física. Son las responsables, por supuesto, del aparentemente incontenible progreso de la computación, cuyos componentes físicos se han hecho progresivamente más pequeños, lo que permite una mayor densidad de elementos lógicos en espacios cada vez menores. No hemos hablado acá de la robótica—como tampoco de muchas otras tecnologías—pero la miniaturización la alcanza, y ahora se fabrican nanobots o robots microscópicos que prometen realizar operaciones complejas a escalas verdaderamente minúsculas. En la Universidad de Rice acaba de demostrarse un “carro” hecho de una sola molécula, cuyas ruedas están hechas de buckyballs.[2] Una vez más, la medicina espera soluciones cada vez más penetrantes de la miniaturización.

Tecnologías aún más esotéricas que las descritas realizan ahora operaciones hasta hace poco impensables, o existentes sólo en literatura de la ciencia-ficción. La física cuántica se aproxima en estos momentos a aplicaciones en el área de la información. La criptografía cuántica, por ejemplo, anticipa la construcción de sistemas de información cifrada verdaderamente inviolables, al sujetar su código a la fundamental relación de incertidumbre descubierta por Werner Heisenberg. Por otro lado, el “teletransporte cuántico” (quantum teleportation) acaba de ser demostrado en el Instituto Tecnológico de Georgia[3], en un experimento que transfirió información cuántica de dos grupos diferentes de átomos—nubes gaseosas de rubidio—a un solo fotón, que la almacenó codificado en forma de polarización óptica. Sería la primera vez que se comprueba la transferencia de información de una masa material hacia la luz. El experimento augura la construcción de computadores en red muchísimo menores en tamaño que los más miniaturizados entre los que conocemos.

Finalmente, posiblemente sea la noticia del año en Física la demostración de materiales que pueden conferir invisibilidad a cuerpos cubiertos con ellos. Se trata de los llamados “metamateriales”, cuyas propiedades electromagnéticas no dependen de su sustancia, sino de su estructura. Para que tal cosa sea posible, los rasgos estructurales del material deben ser de tamaño inferior a la longitud de onda que incida sobre ellos. Para afectar a la luz un metamaterial debe tener elementos estructurales del orden de una micra, pero para el caso de microondas—de onda mucho más larga—puede bastar un decímetro.

Pues bien, investigadores de la Universidad de Duke acaban de anunciar el bloqueo o desvío de radiación en frecuencia de microondas, al producir una refracción atípica de las mismas. El objeto cubierto con el “manto mágico” bidimensional—ahora trabajarán los inventores en uno tridimensional—se hizo invisible a las microondas. La asociación con el famoso manto de Harry Potter no se hizo esperar, y así lo expresó el profesor David Smith: “No es precisamente Harry Potter. No es exactamente perfecto—podemos mejorarlo—pero demuestra el mecanismo, la forma en que las ondas se curvan alrededor de la región central donde se quiere ocultar cosas”. El manto, con un diámetro de doce pulgadas, pudo ocultar un tubo de cobre de seis pulgadas a las microondas, y está construido con sus elementos dispuestos en anillos concéntricos. Una inmediata aplicación de la tecnología es lograr invisibilidad al radar, lo que naturalmente ofrece un evidente interés para el uso militar. No en vano es DARPA[4] (Defense Advanced Research Projects Agency) la agencia que financia la investigación en Duke.

En verdad, es universalmente el interés militar uno de los más importantes propulsores del desarrollo tecnológico, y en los think tanks que hacen investigación por encargo de las organizaciones de defensa—la Corporación RAND, por ejemplo—se investiga desde la capacidad visual asombrosa de las gallinas—que pueden ser adiestradas para apartar minúsculos rodamientos defectuosos en una línea de producción—hasta la telepatía. (La misma Universidad de Duke ha sido pionera en el estudio de lo que se conoce como percepción extrasensorial). Luego, muchas de las tecnologías originalmente militares pasan al campo de las aplicaciones civiles. El fenómeno es tan extendido que ha dado pie a una serie de programas transmitidos por The History Channel: “De la táctica a la práctica”.

Al menos en eso la guerra, a un costo altísimo, rinde algunos beneficios duraderos. LEA


[1] James Watson, uno de los descubridores de esta estructura, narró en The Double Helix la batalla por el Premio Nóbel que tal hallazgo indudablemente merecería.

[2] Una buckyball es una forma esférica de agregados de átomos de carbono, nombrada así porque su disposición superficial adopta las posiciones de los nodos de un domo geodésico—como el del Poliedro de Caracas—que fuera inventado por el arquitecto norteamericano Buckminster Fuller.

[3] Por el profesor Alex Kuzmich y su alumno de postgrado Dzmitry Matsukevich. Los investigadores usaron luz de 780 nanómetros de longitud de onda, más o menos la mitad del estándar de las fibras ópticas convencionales.

[4] Un ingenuo intento del suscrito y el hoy general retirado José Antonio Olavarría—del staff del Consejo Nacional de Seguridad y Defensa venezolano—por visitar DARPA (en ese entonces llamada ARPA) en 1977, no pasó del oficial de guardia en la recepción. De nada valió mostrar las credenciales del general. Fuimos devueltos de inmediato; nada de visitas informales y espontáneas.

Share This:

FS #104 – Chávez habemus

Fichero

LEA, por favor

La Ficha Semanal #104 de doctorpolítico reproduce un texto escrito y transmitido por correo electrónico, en horas de la tarde del 2 de diciembre de 1998, por el ingeniero de petróleo venezolano Marco Antonio Suárez, cuatro días antes de que el actual presidente fuera electo.

Conocí a Tony en Maracaibo, donde ya mostraba el carácter quirúrgico de su pluma en artículos que publicó, entre 1989 y 1990, el diario La Columna. Al tiempo de reiniciar actividades El Diario de Caracas en 1998, fui invitado a colaborar con artículos para sus páginas y pocas horas antes de la elección presidencial de ese año opté por servir de anfitrión al ingeniero Suárez, reproduciendo su potente y hermoso texto. Me limité a precederlo de las siguientes notas:

«Cuando he podido sentarme a teclear ya es viernes, 4 de diciembre, por la tarde. No ha votado aún, entonces, el pueblo de Electores. Pero yo creo que todo el mundo sabe ya, y el primero que lo sabe es Henrique Salas Römer, experto interpretador de encuestas, que Hugo Chávez Frías es el nuevo Presidente de la República de Venezuela.

Esto la sabía Salas el mismo 8 de noviembre. De allí su cara de preocupación y su irritabilidad. Habrá que reconocerle a Salas, no obstante, un manejo muy inteligente de sus posibilidades, con un gran sentido del timing y la valerosa constancia de luchar hasta el final, aunque se supiera perdido. Pero hasta Datanálisis, la encuestadora que más le favoreció, le tenía como perdedor por unos quince puntos de diferencia. Con estos resultados es prácticamente imposible que Salas Römer pueda ahora liderar un futuro partido conservador en el que encontraría unos cuantos competidores. La estructura convergentoide del Proyecto Venezuela no es un trozo suficientemente grande como para dominar la próxima reagrupación de la derecha venezolana.

Ha ganado la izquierda nacional. Ha llegado Chávez, y sólo queda esperar que se parezca más a Mitterrand que a Castro. Su margen de maniobra económico es más bien estrecho. Acá no puede inventar demasiado. Y en lo político no es tampoco omnímodo, a menos que quiera intentar la dictadura. No podrá hacerlo.

Los casi dos meses que nos separan de su asunción efectiva al poder son cruciales para establecer, ante su esquema en su versión más cruda y beligerante, un curso más sereno y sensato. Es una enorme responsabilidad gobernar. Es una terrible responsabilidad entrometerse con la historia. Ante lo que está planteado, en todo caso, la actitud de fuga es necia y es cobarde. Ahora es cuando esto se pone bueno. Ahora es cuando hay que fajarse a trabajar.

Vienen nuevos actores al proscenio político. Y no son solamente los del polo ‘patriótico’, que de todas formas muchos de sus actuales miembros continúan siendo portadores de un viejo paradigma de Realpolitik».

LEA

Chávez habemus

Libero a mis amigos y a mi familia de todas las cosas que les he dicho sobre Hugo Chávez. Los dejo al libre albedrío de sus voluntades. Finalmente he comprendido que el 7 de diciembre tendremos que aceptar que el hombre de la verruga en la frente será el presidente electo de Venezuela. Porque he comenzado a entender que la gente de mi país no está eligiendo a Chávez, está expresando un sentimiento que desde más adentro que el impacto de cualquier cuña electoral les dice a los usurpadores de la democracia y del tesoro nacional: basta.

Ha podido ser cualquiera, Chávez sólo cabalga sobre la cresta de la ola. Empezó siendo Irene, hasta que el vampiro COPEI se arrodilló a chuparle la inexperta sangre. Ha podido ser Salas, y realmente creí que pudiera haber sido Salas el estandarte del cambio pacífico, si ya no estuviese condenado al untarse sin querer queriendo de la bazofia adeca de la boca de Ixora y Morales Bello: le cuidaremos los votos.

Pero es Chávez, montado sobre una ola de genuina rabia y asco profundo, quien se ha convertido en el heraldo y en la patada de los que quieren decirle al patético y vergonzoso circo adeco: fuera; al fúnebre y tragicómico draculismo copeyano: fuera; al oportunismo voltiarepas masista: fuera. (Ya deben estar advertidos).

Bienvenido sea, entonces, Chávez presidente, desde lo más profundo de mis miedos y mis oscuras nubes que presagian tormenta. Y no es miedo a Chávez; el tipo se la ha ganado en buena lid en un debate donde la profundidad es escasa.

La nuestra es democracia coja hasta por ahí, nos guste o no. Anoche cuando lo veía en un programa de televisión internacional sus limitaciones se me hicieron escandalosomante evidentes, pero eso no importa ya. El problema de Venezuela es muy superior a Chávez en este fin de siglo tropical y deliafiallesco.

Es el mensaje que le mandamos al mundo de elegir al hombre de las nueve caras, The Economist dixit. Es el temblor de una economía frágil en un entorno universal también frágil. Es una señal caótica que emite un país proveedor de buena parte de la energía que mueve al planeta, commodity que andará de capa caída. Es caos dentro del caos global, que nos arrastra en una bajada de montaña rusa, a pesar de las buenas intenciones del presidente electo del 6D, que de seguro las tiene.

No lo culpo a él, ni a la gente que hoy lo ve como un mesías de las circunstancias de los años cuarenta. Pienso que en ese puntapié al mero coxis de AD y COPEI se nos van a ir también veinte años de reconstrucción nacional. No está mal. Somos un país de jóvenes. Pero tendremos que pagar el learning curve de Hugo Chávez y su equipo. Y nos va a salir costosísimo el adiestramiento.

………

Lo que he dicho arriba no quiere decir que yo me haya sumado a la corriente. No puedo votar por Chávez. Hago uso de mi muy democrático derecho a disentir. Por mucha arrechera que también tenga encima no pretendo lanzarme del trampolín sin saber si la piscina tiene agua, o por lo menos si hay piscina. No he visto en Chávez ni la intuición de saber gobernar esta complicación llamada Venezuela. No le he leído una frase coherente, sino efectista; no le he escuchado una propuesta sabia, sólo una denuncia hiperbólica llena de malabares. Lo cual no me impide ver que su triunfo es inminente y hasta posiblemente necesario. Creo que en su rabia represada los venezolanos estaremos tomando una decisión propia de ignorantes.

Y eso es válido. Hace unos cuarenta años, la educación primaria en Venezuela gozaba de estándares muy altos, que la calificaban como una de las mejores del continente. Hoy, en los albores del milenio, las cifras comparativas colocan a la educación venezolana a niveles del sub-Sahara, por encima apenas de países con condiciones paupérrimas del cuerno de África. ¿Qué nos pasó? En nuestro gran esfuerzo de masificar la educación y llevarla a todos los rincones, descuidamos la calidad y la preparación, nos interesó el volumen sin importarnos el producto. Los maestros pasaron de ser dignos representantes comunitarios a lamentables parias malhablados y llenos de carencias.

En cuarenta años la democracia venezolana ha preparado una generación completa de ignorantes, educados mediocremente, que leen y escriben su propia lengua mediocremente, mientras el chorro petrolero nos pasaba a todos por encima en cantidades encandilantes e iba a parar a bolsillos más que identificados, los mismos que de quienes hoy se rasgan las vestiduras. He aquí la combinación de la cual Hugo Chávez es producto: Venezuela está a punto de tomar una decisión marcada por la ignorancia innata de toda una generación estafada por nuestra versión de democracia.

Hay que aceptar la lección y aprender de ella. Somos un campanazo para América Latina, dicen las «imparciales» publicaciones globales. Ya una vez lo fuimos, y a lo mejor ése es nuestro papel en la historia. Nos toca vivir las consecuencias de ese campanazo, nos toca agarrarnos duro de los pasamanos de este vagón que nos lleva cuesta abajo con espeluznante vértigo.

Ya ni siquiera hace falta pensar en los culpables, que en su hirsuto afán de aferrarse a cualquier tipo de poder no se detienen a pensar que están frente a lo que crearon, y que lo mejor es encararlo con una dignidad que desconocen. Ojalá que entre la miríada de interrogantes que Chávez se niega a responder con algún dejo de claridad esté escondida en alguna parte una declaración de emergencia de la educación venezolana. Si alguno, ése debe ser su legado.

Porque una vez electo, no son cinco, ni diez, son veinte años antes de que volvamos a ver luz. Y mientras tanto una nueva generación podrá educarse para que estos resbalones históricos no vuelvan a suceder. Para que la retórica superficial y sabanera no vuelva a ser protagonista. Para que los adornos baratos del lenguaje no sustituyan la discusión seria.

Por lo pronto, Chávez habemus, con todo y verruga. Es nuestra manera particular de recibir el siglo XXI. Por ahora.

Marco Antonio Suárez

Share This: