INTRODUCCIÓN
Si nos preguntamos qué es lo que causa y condiciona el buen gobierno en todos sus sentidos, desde el más humilde hasta el más exaltado, encontraremos que la causa principal entre todas, aquella que trasciende a todas las demás, no es otra cosa que las cualidades de los seres humanos que componen la sociedad sobre la que el gobierno es ejercido… Siendo, por tanto, el primer elemento del buen gobierno la virtud y la inteligencia de los seres humanos que componen la comunidad, el punto de excelencia más importante que cualquier forma de gobierno puede poseer es promover la virtud y la inteligencia del pueblo mismo… Es lo que los hombres piensan lo que determina cómo actúan.
John Stuart Mill
Ensayo sobre el gobierno representativo
_______________________________________
Sólo podemos hacer las cosas que podemos pensar. Si se procediera a efectuar un inventario de las acciones que, digamos en Venezuela, afectan de modo más directo y notorio el curso de los acontecimientos públicos, de aquéllas que establecen el teatro social que nos limita o posibilita, encontraríamos que en la inmensa mayoría de esas acciones es posible descubrir semejanzas esenciales. A fin de cuentas, la acción social es respuesta que emerge de los estados de conciencia de los actores sociales y éstos, dentro de una cierta cultura, comparten muchas descripciones e interpretaciones de las cosas, naturales y sociales. Por consiguiente, si encontramos razón de estar insatisfechos con el resultado general, no privado, de la interacción social en Venezuela, sería poco inteligente no revisar el estado de nuestros esquemas mentales, con la intención de descubrir en ellos la “gramática profunda” que explica por qué actuamos como lo hacemos y para, más allá, procurar la adquisición de aquel pensamiento que nos permitiría conducirnos como nos gustaría hacerlo.
A pesar de su simplismo y de su mal disimulado aire de superioridad, Lawrence Harrison no deja de tener algún grado de razón: en cierto sentido, el desarrollo es un estado mental. Si esto es así, y si la educación es el proceso institucionalizado para la adquisición y formación de estados mentales, el examen y replanteo de la educación es tarea necesaria en el seno de una sociedad insatisfecha con ella misma. Éste es el caso de Venezuela.
A diez años del cierre del siglo, la educación venezolana continúa siendo un problema de inmensa magnitud. En treinta años de democracia el enfoque predominante del problema ha venido siendo de carácter cuantitativo, mientras lo cualitativo ha desmejorado en más de una dimensión. Este resultado proviene de la conjunción de varios factores, pero es seguramente la propia postura conceptual del sector público ante el problema un factor que predominantemente determina el constante deterioro educativo, registrado en un sinnúmero de diagnósticos, de los que tan solo el más conocido y reciente resulta ser el informe de la comisión presidida por Úslar Pietri durante el gobierno del presidente Lusinchi.
En primer lugar, el concepto del predominio de lo cuantitativo, o la creencia de que una mejora cualitativa se desprendería de un crecimiento en la oferta de servicios, ha sido por largo tiempo un postulado subyacente a la política educativa del Estado venezolano. En 1964 Cordiplán sometió al Comité Ejecutivo de la Agencia Interamericana de Desarrollo (Alianza para el Progreso), los planes de desarrollo del gobierno nacional. En el tomo correspondiente a recursos humanos y educación, la primera de sus afirmaciones rezaba de este modo: “En materia de educación, una mejora cuantitativa es siempre una mejora cualitativa.”
Tal postura correspondía, naturalmente, a una lectura general del problema político de los comienzos del ejercicio democrático: se trataba de satisfacer o aliviar “necesidades socioeconómicas largamente represadas”. Junto con notables esfuerzos en materia de alfabetización básica, se dio un impulso cuantitativo importante a todas las fases del proceso educativo, incluyendo la educación superior, a la que se trató de renovar con la operación simultánea de dos instituciones de signo contradictorio: la autonomía universitaria y la dependencia financiera de un Estado central que garantizaba la educación superior gratuita a todos.
En el camino, no obstante, la calidad de la enseñanza, en términos generales, decayó marcadamente. Con seguridad puede presentarse la evidencia de un puñado de centros educativos en los que se enseña dentro de criterios de excelencia, pero la situación general del sistema educativo es la de una calidad que deja mucho que desear. El citado “Informe Úslar” es sólo uno de los documentos que registran esta grave deficiencia. El memorismo, la industria de certificados, la poca idoneidad del personal docente, la proliferación de textos mediocres o vergonzantemente errados son algunas de las manifestaciones del deterioro.
La sindicalización de la enseñanza pública es uno de los factores que mayormente inciden sobre esta situación. Esto es así porque la masificación de la enseñanza significó el ingreso a las filas docentes de importantes contingentes de maestros poco preparados y aún definitivamente incapaces. Amparados por el sistema clientelar imperante en la política venezolana, este quiste descalificador es altamente resistente a las medidas de cambio que serían necesarias. Al menos en la década de los años sesenta ya había sido detectada la paradoja de una institución supuestamente necesaria para el cambio—en esos años de incipiente democratización—que se manifestaba como institución refractaria al cambio.
Es importante, a la hora de intentar transformaciones suficientes en materia de la calidad en la enseñanza venezolana, considerar dos dimensiones diferentes del problema. Por una parte, debe enfocarse lo relativo a la instrumentalidad intelectual: el conjunto de métodos y técnicas de operación intelectual que distinguen a un “buen aprendedor” de un “mal aprendedor”. Por la otra, debe discutirse lo atinente a los contenidos del aprendizaje, pues es perfectamente posible aprender muy bien conocimiento obsoleto o de baja pertinencia.
Nuestras universidades se quejan del bajo rendimiento y la poca calidad de la mayoría de los alumnos que les ingresan desde las escuelas secundarias. A aquéllas llegan sin siquiera un dominio elemental de las facultades y técnicas intelectuales que les permitirían ser, por encima de todo, buenos aprendedores. Por esto es cada vez más acusada la tendencia de las universidades a incluir ciclos de “estudios generales”, a ofrecer cursos “propedéuticos”. (Por ejemplo, el “semestre propedéutico” de la Universidad Metropolitana, que hace trabajar a los flamantes bachilleres en matemáticas—“precálculo” o repaso integral de las matemáticas del bachillerato—, en “informática”, que no es otra cosa que el adiestramiento en una marca particular de computadores personales, y en lenguaje, donde, bajo la forma de taller, se intenta que los bachilleres aprendan, al fin, a escribir decentemente). Las universidades se dan cuenta de que el alumno que reciben no está aún listo. Pero no están verdaderamente adaptadas a esa tarea fundamental y las soluciones que han instrumentado son todas ad hoc, provisionales, incompletas.
En 1975 y 1976, bajo el patrocinio de la Fundación Neumann, se llevó a cabo un experimento en materia de diagnóstico y tratamiento de este tipo de problemas. El detonante había sido un hallazgo desagradablemente sorprendente. Un sencillo test, elaborado de modo que pudiese ser contestado con los recursos simples de la lectura y elementales modos de razonamiento, fue administrado a alumnos de los dos últimos años de educación secundaria en un prestigioso colegio de Caracas. Los resultados del test fueron preocupantes: los alumnos del que se suponía uno de los mejores colegios de la capital, en su inmensa mayoría, se mostraban incapaces de operaciones intelectuales básicas. La extrapolación del diagnóstico hizo suponer que en colegios y liceos de menor prestigio la situación sería peor. En cambio, el desarrollo del experimento—Proyecto Lambda—evidenció que las deficiencias en la capacidad de aprendizaje son tratables con buenas probabilidades de éxito. Varios de los desarrollos del proyecto son rescatables, pues su aplicabilidad continúa siendo oportuna en una estrategia de tratamiento del problema mencionado antes.
En la otra dimensión, la de los contenidos de la enseñanza, es importante destacar que nuestro sistema educativo, en general, enseña con una orientación atrasada. Nuestro sistema educativo ofrece una sola oportunidad a los educandos para formarse una concepción general del mundo. Esa oportunidad se da a la altura de la educación secundaria, cuando todavía el joven puede examinar al mismo tiempo cuestiones de los más diversos campos: de la historia tanto como de la física, del lenguaje como de la biología, de la matemática y de la psicología, del arte y de la geografía. Si no existe, dentro del bachillerato venezolano, la previsión programática de intentar la integración de algunas de sus partes o disciplinas, al menos permite que “se vea” un panorama diverso. Luego, nuestro sistema encajona al alumno por el estrecho ducto de especialización que le exige nuestra universidad. Ya no puede pensar fuera de la disciplina o profesión que se le ha obligado a escoger, cuando, en la adolescencia, todavía no ha consolidado su entendimiento ni su visión de las cosas y mal puede tener convicción sólida acerca de lo que quiere hacer en el mundo.
El sistema educativo tiene entonces una estrategia para protegerse de la obsolescencia de los conocimientos especializados. Luego de la carrera universitaria habitual, ofrece niveles cada vez más especializados y profundos: master o magister, doctorados, postdoctorados. Pero también se hace obsoleta la concepción general del mundo, de eso que los alemanes llaman Weltanschauung. Y para esto no existe remedio institucionalizado.
Según informaciones recientes, la Dirección General Sectorial de Planificación del Ministerio de Educación está pensando en desarrollar un esquema para el ciclo diversificado del bachillerato venezolano que podría agravar la situación descrita. De acuerdo con lo que se conoce, el esquema propone desdoblar el bachillerato en ciencias en un bachillerato en matemáticas (con énfasis en computación) y un bachillerato en ciencias naturales, y el bachillerato en humanidades en uno de economía y ciencias sociales y otro en artes y humanidades “propiamente dichas”. Como puede entenderse, tal proposición, de llevarse a cabo, forzaría una especialización prematura todavía más acusada que la que hoy padece el estudiante en Venezuela.
Los norteamericanos tienen una estrategia de educación superior diferente a la de nuestras universidades, copiadas del estilo francés. Luego de lo que sería equivalente a nuestra escuela secundaria, su high school, el alumno norteamericano que ingresa a la universidad todavía debe pasar cuatro años de una educación de corte general. En sus colleges, pertenecientes a una universidad que también ofrece “estudios de graduados” (master en adelante), o en colleges independientes, los alumnos continúan en la exploración general del universo. Si bien ya se les facilita la expresión de intereses particulares, a través de un campo que enfatizan como un major, la salida es la de un grado de Bachellor in Science o de Bachellor in Arts, que refleja una gruesa división análoga a la de nuestros bachilleres en ciencias y en humanidades. Pero con una enorme diferencia. El tiempo dedicado al aprendizaje general es marcadamente superior en el bachellor estadounidense que en el bachiller venezolano. La edad en la que el bachellor debe escoger finalmente un campo de profesionalización es más madura que la que exhibe nuestro típico bachiller de 17 años. Luego, en dos años tan sólo que toma el master de profesionalización, se obtiene un profesional capaz y más consciente de su papel general en la sociedad.
La solución general al problema descrito debe pasar por la institucionalización en Venezuela de un sistema similar al del college norteamericano. No se trataría, sin embargo, de una mera copia. Los propios estadounidenses han detectado vicios en su actual proceso educativo, por un lado, y se puede mejorar su sistema; por el otro, sería mandatorio tomar en cuenta peculiaridades y necesidades propias del país. De todos modos la conclusión parece inescapable: necesitamos algo como el college. Pero aun sin un colegio superior de esta clase, es posible el desarrollo de programas de enriquecimiento intelectual de menor consumo temporal y que a la vez puedan constituir una terapéutica adecuada a los problemas planteados. De hecho, bien diseñado, el programa vendría a ser innovador, no sólo en Venezuela, sino en términos de cómo se entiende hoy el problema de la educación superior en el mundo. La interpretación estándar de nuestras posibilidades nos hace creer que, en el mejor de los casos, una creación nuestra nos colocaría en un nivel más cercano pero inferior a lo logrado en otras latitudes “más desarrolladas”, y por eso no intentamos lo posible cuando se nos antoja demasiado avanzado. Es como el pugilista que desacelera inconscientemente su puño antes de completar el golpe.
En lo que sigue procederemos, en una primera parte, a describir algunos núcleos que deberían formar parte de un programa de enseñanza, que atiende a los dos niveles del problema cualitativo de la educación media-superior en Venezuela: el nivel de los contenidos del aprendizaje y el nivel de los instrumentos del aprendizaje. Luego, consideraremos varios formatos o empaques dentro de los que es posible impartir dicho programa. Finalmente, incluiremos algunos comentarios sobre posibles estrategias de implantación.
………………
LO QUE HAY QUE ENSEÑAR
Hace unos pocos años se suscitó una interesante polémica en los Estados Unidos. La discusión involucró a universitarios y funcionarios gubernamentales, principalmente a las autoridades de la Universidad de Stanford y el Secretario de Educación del gobierno federal norteamericano. No se debatía sobre la guerra de Vietnam o sobre presupuestos de educación. El centro de la contienda lo constituía la decisión de la Universidad de Stanford de modificar su curso básico sobre civilización occidental.
Tradicionalmente, la educación superior norteamericana ha considerado básica la instrucción sobre la civilización occidental y ha fijado su estrategia en el conocimiento de los más destacados pensadores de esta civilización. Mortimer J. Adler ha sido, sin duda, el más eficaz argumentador de la importancia de los textos “canónicos” de dicha civilización. How to read a book, que incluye una lista de los “cien libros principales” de Occidente, es el asiento de las principales tesis de Adler. En la misma onda, la Universidad de Harvard editó, por allá por 1908, los “Clásicos Harvard”, una colección conocida como “el estante de metro y medio” y que constituía una selección de literatura que aspiraba a ser irrefutablemente superior.
Una expresión más conocida de la misma postura es la de los Great Books de la Universidad de Chicago, publicadora de la Enciclopedia Británica. Es una colección a la que esa universidad llama “la Gran Conversación” y también “la substancia de una educación liberal”. (Adler es editor asociado de la colección). Varias declaraciones de los editores de los Great Books son ilustrativas de toda una filosofía educativa, traducida en política y estrategias educativas, que subyace al concepto de educación superior norteamericana. (Aunque posturas similares son observables en la educación venezolana, por una parte, y aunque muchos autores se quejen de que en los propios Estados Unidos la lectura de los “clásicos” se haya reducido demasiado).
En primer lugar, los dos primeros párrafos del tomo introductorio de la colección: “Hasta hace poco el Occidente ha considerado evidente que el camino de la educación transcurre por los grandes libros. Nadie podía considerarse educado a menos que estuviese familiarizado con las obras maestras de su tradición. Nunca hubo mucha duda en la mente de nadie acerca de cuáles eran esas obras maestras. Ellas eran los libros que habían perdurado y que la voz común de la humanidad llamaba las mejores creaciones escritas de la mente occidental.
En el curso de la historia, de época en época, nuevos libros han sido escritos que han ganado su lugar en la lista. Libros que una vez se creyó merecedores de estar en ella han sido superados, y este proceso de cambio continuará tanto tiempo como los hombres puedan pensar y escribir. Es la tarea de cada generación la de reevaluar la tradición en la que vive, descartar la que no pueda usar y traer al contexto del pasado distante e intermedio las contribuciones más recientes a la Gran Conversación. Este conjunto de libros es el resultado de un intento por revalorar y reincorporar la tradición de Occidente para nuestra generación.”
La colección se detiene en Sigmund Freud. El autor inmediatamente anterior es William James. El antepenúltimo, Dostoievsky. A pesar de lo cual se aclara: “Los Editores no pensamos que la Gran Conversación llegó a su término antes de que el siglo veinte comenzara. Por lo contrario, saben que la Gran Conversación ha continuado durante la primera mitad de este siglo, y esperan que continúe durante el resto de este siglo y los siglos por venir. Confían en que han sido escritos grandes libros desde 1900 y que el siglo veinte contribuirá muchas nuevas voces a la Gran Conversación… La razón, entonces, de la omisión de autores y obras posteriores a 1900 es simplemente que los Editores no sintieron que ellos o ninguna otra persona pudiera juzgar con precisión los méritos de textos contemporáneos. Durante las deliberaciones editoriales acerca del contenido de la colección, mayor dificultad fue confrontada en el caso de autores y títulos del siglo diecinueve que con aquellos de cualquier siglo precedente. La causa de estas dificultades—la proximidad de estos autores y obras de nuestros propios días y nuestra consecuente falta de perspectiva en relación con ellos—haría todavía más difícil hacer una selección de autores del siglo veinte.”
A nuestro juicio, esta dificultad es salvable y, con ello, rescatable para el pensamiento del estudiante de hoy el tesoro al que las estrategias de la Universidad de Chicago y de Mortimer Adler han renunciado: la riqueza y pertinencia de las grandes obras de pensamiento del siglo XX. En efecto, la intención de la colección Great Books es una intención canónica: esto es, el intento de canonizar el pensamiento del pasado bajo la hipótesis de su pertinencia al mundo actual. De hecho, en el pensamiento de los editores de la colección no deja de traslucirse un dejo spengleriano sobre la “decadencia de Occidente” y, tal vez, una disimulada añoranza de “siglos de oro”, cuando las cosas habrían sido mejores. “Estamos tan preocupados como cualquiera otro con el abismo en el que la civilización Occidental parece haberse zambullido de cabeza. Creemos que las voces que pueden restaurar la cordura a Occidente son las de aquellas que han tomado parte en la Gran Conversación.”
Sin dejar de considerar importante un estado de información adecuado, razonable, acerca de las nociones que autores del pasado tenían acerca del universo y de la sociedad, de la mente y de los objetos, consideramos que la estrategia de los Great Books de la Universidad de Chicago, la estrategia de los clásicos o libros canónicos, está equivocada e impone un énfasis incorrecto a la educación superior y aun a la educación media.
En primer término, la canonización no puede aspirar a la permanencia. No se trata de que los grandes libros del pasado, agrupados con algún criterio selector, incorporen verdades definitivas o soluciones finales a ciertos problemas. La misma colección a la que nos hemos venido refiriendo es un ejemplo de las contradicciones entre los distintos autores respecto de los diversos temas que discuten. En la mejor de las situaciones, pues, esas “voces de la Gran Conversación” que los editores de los Great Books quieren oir de nuevo, porque piensan que “pueden ayudarnos a aprender a vivir mejor ahora”, ilustrarán puntos de vista divergentes sobre cuestiones que, si bien en algunos casos pueden ser identificadas como viejos problemas, hoy en día están dotadas de contenidos diferentes y son interpretadas a través de imágenes e ideas que necesariamente tienen que manifestarse de modo muy distinto a las maneras intelectuales del pasado. No es lo mismo, por ejemplo, intentar el pensamiento sobre el tema del universo, desde la perspectiva de un pastor israelita de hace 3.500 años, que desde la percepción y construcción mental de un ingeniero de computación de 1990. O considérese, igualmente, la dificultad de hallar una solución al problema de la integración europea en la lectura de la historia griega.
Por otra parte, la acumulación del conocimiento humano es justamente la base más fundamental de sus posibilidades futuras, por lo que no es de despreciar la tradición intelectual de Occidente ni tampoco la de otras culturas.
El aparente dilema puede salvarse, a nuestro modo de ver, mediante dos cambios de perspectiva. Primero, teniendo a los “grandes libros” como herramientas de utilidad heurística. Esto es, como instrumentos estimuladores de la creación y la invención. Así, se trata de dar la bienvenida a los viejos estados mentales de la humanidad, expresado en sus obras anteriores, sean éstas escritas, plásticas, ejecutables, científicas o artísticas, en tanto acicate de una nueva producción, y no como depositarias de soluciones prêt-à-porter a los problemas contemporáneos, las que nos permitirían la holgazanería intelectual de una erudición sin sabiduría.
Luego, debe dedicarse un espacio educativo marcadamente menor a la consideración de los clásicos que al pensamiento más reciente, al que se acuerda en nuestro sistema educativo un examen definitivamente escaso. La serie televisiva Cosmos, diseñada y conducida por el astrofísico norteamericano Carl Sagan, dio origen a un libro que llevó el mismo nombre, en el que se incluye una poderosa analogía. Se trata de su ya famoso calendario cósmico, en el que reduce a la escala de un año toda la evolución cósmica, desde el postulado Big Bang de los orígenes, hasta nuestros días. Al transportar, como en una suerte de geometría descriptiva, la temporalidad de la evolución del universo descubierta hasta ahora sobre el tiempo de un año, de inmediato se evidencia cómo en los primeros meses la densidad de eventos significativos es muy baja. Después, al final del año cósmico comienzan a aglomerarse los acontecimientos, al punto de que la aparición de la especie humana se produce el “31 de diciembre” y los desarrollos históricos más recientes en los últimos segundos y milésimas de segundo anteriores a la medianoche de ese día.
Análogamente, si se proyectara sobre la división de un año un “calendario de la civilización”, desde la aparición de la especie humana hasta el último día de 1990, se mostraría, con diferente pendiente, un fenómeno similar de mayor intensidad creativa a medida que transcurren las épocas y los siglos. Si alguna dificultad confrontaron los editores de la Universidad de Chicago, fue la de la profusión de obras importantes del siglo XX que habrían debido considerar. Es, por tanto, un desperdicio que se excluya de la formación intelectual del estudiante actual la rica producción de ideas del siglo en el que vive a favor de un estudio de los clásicos.
La excusa de la imposibilidad de juzgar la importancia por la excesiva proximidad no es válida. La consecuencia que se ha querido evitar es la de una selección efímera, el que una obra considerada importante en un momento sea desvalorizada luego y excluida de la lista canónica. Pero los propios editores de Chicago han declarado que tales listas son cambiantes: “En el curso de la historia, de época en época, nuevos libros han sido escritos que han ganado su lugar en la lista. Libros que una vez se creyó merecedores de estar en ella han sido superados, y este proceso de cambio continuará tanto tiempo como los hombres puedan pensar y escribir.” Así ocurrió también con los Classic Books de Harvard de 1908, cuyas selectas obras “incluyen varias novelas norteamericanas que en la actualidad parecen arcaicas y no eternas.” (James Atlas, La Batalla de los Libros).
Además, no es necesariamente cierto que juzgar adecuadamente a las obras de la actualidad, sea intrínsecamente más difícil que la valoración de textos más alejados en el tiempo. Hay algo de erróneo en ese postulado muy usado en el quehacer histórico, el de que sólo es posible el juicio correcto después del paso del tiempo; hay algo de ilusión óptica en esa creencia. El paso del tiempo no sólo era requerido para la amortiguación de “las pasiones”, que por otra parte son perfectamente pasibles a causa de eventos del pasado. (Considérese, si no, la fuerza emocional con la que se debaten temas como el origen del mundo, o la animadversión casi personal que Karl Popper exhibe hacia Platón en The Open Society and its enemies). El tiempo se consume también en el mismo proceso de búsqueda de información remota. Pero, por un lado, hoy en día nos hallamos en presencia de una abundancia documental e informativa, situación inversa a la escasez de fuentes documentales sobre los hechos a medida que son más remotos. Por el otro, la información se borra; la entropía informativa, reconocida en la ecuación fundamental de la teoría de la información, existe realmente. La información se pierde, se desorganiza, se extravía, con el correr de los días. Sólo a una mente cósmica, a un cerebro divino, le será posible preservar todo el universo de datos que se yuxtapone al universo “natural” y cada vez se integra más con él.
Lo anterior significa que es muy necesario hacer historia instantánea, aunque la pasión sea más fuerte con lo inmediato. Entre otras cosas, porque lo desapasionado es, como lo apasionado, una distorsión.
Si es conveniente, y potencialmente muy útil, el estudio de los clásicos, es necesaria una dosificación diferente que permita el acceso a otros estados mentales, tanto de la contemporaneidad, como hemos venido argumentando, como de otras culturas y modos de pensamiento distintos a los de Occidente. La planetización que experimenta la humanidad, el concepto en formación de un mundo “global”, son fenómenos que exigen conocer modelos intelectuales y procesos culturales hasta ahora ignorados por nosotros.
Justamente en torno a esta conciencia se produjo el debate al que aludimos al inicio de este análisis del tema de los “grandes libros”. A comienzos de 1988 la Universidad de Stanford procedió a la modificación del programa de cursos sobre cultura occidental que son obligatorios a los estudiantes de primer año de su college. En el proceso eliminó la lista canónica (quedándose con sólo seis textos) y añadió un nuevo conjunto de textos que se concentraría en al menos una cultura no europea y prestaría “atención considerable a las cuestiones de raza, sexo y clase.” (En el sentido, por ejemplo, de incluir una mayor cantidad de obras escritas por mujeres). El Secretario de Educación del gobierno norteamericano, William J. Bennett, se trasladó a Stanford para expresar su desacuerdo con la decisión de la universidad, un incidente notable dentro de un buen número de otros más que constituyeron lo que dio en llamarse la “batalla de los libros”.
Es debatible si la nueva lista compacta de textos clásicos—Stanford eligió la Biblia y las obras principales de cinco autores: Platón, San Agustín, Maquiavelo, Rousseau y Marx—es una muestra que cubre los temas y puntos de vista principales, pero lo cierto es que esa reciente decisión de una de las más prestigiosas universidades estadounidenses, refleja la inconformidad con los resultados de una educación puramente canónica.
El siglo XX, a punto de concluir, ha representado para la humanidad una fase de insólito aumento de la complejidad. Usualmente nos referimos a ella en sus manifestaciones tecnológicas o económicas. Con frecuencia aproximadamente igual tratamos de interpretar los cambios políticos del siglo y los destacamos como expresión del profundo grado de transformación de esta época. Menos frecuente es el examen de los cambios al nivel gnoseológico e ideológico, que desde un punto de vista no marxista del cambio social, en gran medida son responsables de este último, el cambio observable en sistemas más tangibles. Las revoluciones en el pensamiento, en la comprensión del universo, de la sociedad, de las relaciones del hombre y de su entorno, ocurridas en el siglo XX, han sido profundas.
Más aún, es característico del siglo XX la sensación de crucialidad de la época. Nunca antes alguna época histórica se pensó a sí misma como anfitriona de posibles resultados tan cataclísmicos como los que ocupan la atención de la humanidad contemporánea, obsesionada con la existencia misma de su hábitat, amenazado como aún lo está por el impacto directo de actividades destructivas, militares o civiles. La sensación es la de que aumenta la frecuencia o intensidad de decisiones cruciales.
A nuestra escala nacional, estamos al borde de radicales modificaciones de nuestra institucionalidad, de nuestra definición de país, de las relaciones del Estado y del individuo, y hasta del ámbito y asiento del Estado mismo, si se piensa en una cierta inevitabilidad de la integración de Venezuela en algún conjunto político-económico de orden superior. Estamos ante el reto de la Tercera Ola, de la reducción y replanteo del ámbito del Estado, de la normalización de nuestra patológica distribución de la riqueza, de la eventual invigencia de nuestro sustento petrolero, sea por agotamiento de nuestras fuentes o por obsolescencia de la tecnología de los hidrocarburos ante opciones energéticas diferentes. Estamos ante una agenda abrumadora y ante ella un recetario clásico es decididamente insuficiente. Es importante saber que las soluciones o adecuaciones que habrá que poner en práctica para un exitoso tránsito de esa turbulencia societal estarán condicionadas de manera sustancial por los conceptos, percepciones e interpretaciones que se tenga acerca del mundo, acerca de la sociedad, acerca de la persona. No poco de la observable ineficacia política de nuestros días debe atribuirse a la persistencia, en la mente de los actores políticos que deciden la vida de nuestra nación, de esquemas mentales antiguos y sin pertinencia; esquemas que fueron fabricados como producto de una deducción de principios o de la observación de sistemas sociales mucho más simples.
El método de enseñar a través de grandes textos no es, en ningún caso, desdeñable. Se trata de un modo de enseñanza menos rígido que el de tratar de cubrir un programa temático completamente concatenado o con aspiraciones de cobertura completa de una determinada disciplina. En el fondo, el modo de enseñanza sobre grandes textos no es poco semejante al famoso método de casos de la Escuela de Negocios de Harvard. Sólo que aquí se trata de unos “supercasos” del pensamiento humano. Lo que hemos advertido es lo desperdiciador y hasta peligroso que viene a ser una educación superior que prescinda del pensamiento reciente por cualquier género de excusa. Pero si se quiere una educación eficaz y compacta—tampoco es el caso de obtener especialistas o expertos en el pensamiento moderno—y, por tanto, de duración relativamente corta sobre enfoques modernos de los temas principales de la humanidad—esos enfoques que constituyen su Weltanschauung, su “episteme”—muy probablemente el método de casos, el método de los grandes textos, resulte ser la estrategia preferible.
En primer lugar, porque pareciera ser que hoy en día habitamos una fase de la historia de la conciencia humana que, precisamente, se halla en fase de sustitución de paradigmas y teorías. Por esa razón mal podría presentarse una “suma gnoseológica” a fines del siglo XX. La física fundamental parece haberse acercado al límite de la integración de las fuerzas, de los campos, de las interacciones. Pero todavía no ha podido formular esa fuerza única, ese campo unificado, esa interacción de las que todas las demás interacciones fuesen casos especiales o manifestaciones. Mucho menos puede esperarse que esté listo, si es que eso va a ser posible alguna vez, un sistema orgánico del pensamiento de la humanidad al borde del tercer milenio cristiano. Lo que puede exhibirse, sin duda, es un conjunto intelectual variado, riquísimo y profundo, del que será difícil excluir instancias cuando haya que hacerlo por cuestiones de espacio y de tiempo disponibles a la educación formal o explícita. Lo que escasea es el espacio y el tiempo para pensar, no la importancia de lo pensado en este siglo.
Luego, es más económico enseñar por el método de casos de pensamiento, el método de los grandes textos. Los acontecimientos, muchísimos y variados, globales y locales, su crucialidad, nos imponen la urgencia de la respuesta. No nos es lícito asumir la postura del griego, que contemplaba al mundo, sino la del romano que lo transformó, según la comparación de Hegel, que en algunas clasificaciones ocurre como pensador “de derechas”. No nos será suficiente comprender la realidad, si no logramos transformarla, como destacó Marx, alumno de Hegel, y a quien algunas clasificaciones ubican a la izquierda. En el fondo ambos se habían topado con lo mismo, con una dualidad tan resistente como la historia. El hombre de pensamiento no puede eximirse de cooperar en la acción, pero tampoco el hombre de acción puede abstenerse de pensar. Sobre todo en una época como la actual, en la que el propio recambio paradigmático y epistémico induce a la incertidumbre conceptual, es criminal que aquél que vea lo que se puede hacer no procure que se haga, como es altamente peligroso que el que puede hacer rechace contemplar y entender lo que hace. Como auxilio a esta dualidad conocimiento-poder que debe encontrar solución a los problemas de la actualidad, los grandes textos de fines del siglo XX son indespreciables. (Una de las dimensiones del pensamiento importante, en algunas de sus expresiones, es su grado de penetración temporal. Muchas de las nociones importantes de cualquier siglo tienen carácter de predicción acertada, así sea por alguna manifestación de autocumplimiento. Tan solo esto justificaría la utilidad de su estudio). Pero también puede seguramente encontrarse en las huellas documentales de los pensadores importantes, muchas soluciones pospuestas, que fueron “muy avanzadas para su tiempo”, que todavía son útiles y las que corren el riesgo de que se venza su eficacia. Habrían sido, entonces, desperdiciadas, porque habrían sido soluciones sin aplicación mientras estaban dispuestas a la mano.
De allí la importancia de acceder a nociones que corresponden mejor a la realidad, tanto física como social, lo que justifica el inventario y el estudio del pensamiento de nuestro tiempo. De allí que sea importante que un sistema educativo se readecúe, se reconstituya, en cuanto a contenidos y métodos, tomando en cuenta la necesidad de nuevos paradigmas e interpretaciones.
Por lo antedicho pudiera entenderse que los cambios en contenidos de conciencia son sólo convenientes o factibles mientras se producen en alumnos de algún bachillerato o de algún instituto de educación superior, en edades juveniles. Pero la utilidad de este reajuste cognoscitivo es de mayor extensión etaria. El ex presidente de la Universidad de Harvard, James B. Conant, propuso en una ocasión una instrucción especialmente profunda sobre temas centrales de lo que él denominó la “táctica” y la “estrategia” de la ciencia. En ese entonces decía: “Sugiero cursos al nivel de college, puesto que no creo que puedan ser entendidos más temprano en la educación de un estudiante; pero no hay razón por la que no puedan convertirse en parte importante de los programas de la educación de adultos. De hecho, tales cursos pueden muy bien ser particularmente adecuados para grupos de hombres y mujeres de mayor edad…”
Por tanto, la ubicación preferente de una instrucción de este tipo estará, cuando muy temprano, en un nivel posterior al bachillerato y más bien concebido como un desarrollo o extensión de éste. En la dirección de lo que ha sido anotado por Conant, sin embargo, puede afirmarse que aún líderes sociales que ya recibieron hace un buen tiempo su cuota de educación superior, pueden beneficiarse grandemente de esta actividad de recambio en los paradigmas que se han hecho ya altamente disfuncionales.
……………………………………….
Concediendo que la técnica de los grandes textos sería el modo preferente de enseñar en un curso compacto, y sin pretender la imposibilidad de un sistema completo y orgánico, es necesario y posible, sin embargo, exponer un esquema de los contenidos de la enseñanza recomendable.
Una primera gran división arroja dos núcleos principales: un núcleo epistémico (lo que conocemos) y un núcleo instrumental (lo que puede permitirnos ser más eficaces y eficientes aprendedores). El núcleo epistémico es divisible, a su vez, en un grupo o ciclo de temas del nivel epistemológico (cómo conocemos) y un nivel fenomenológico (el contenido de las interpretaciones o teorías mismas). Un desdoblamiento ulterior permite discutir el tema epistemológico, primeramente, desde un punto de vista lógico (qué se considera un conocimiento válido), y luego desde un punto de vista antropológico (qué se conoce en la práctica).
Debe entenderse, por supuesto, que la clasificación precedente, empleada en la exposición de lo que sigue, es, como toda clasificación, arbitraria.
UN NUCLEO EPISTEMICO
Ciclo epistemológico
Comenzar una discusión del pensamiento del siglo XX por el nivel epistemológico, antes que por las teorías concretas acerca de los fenómenos, es recomendable a la formación de una capacidad crítica. En efecto, resulta útil haber discernido los límites de la validez y la posibilidad del conocimiento para el momento de enfrentarse a una proposición interpretativa, a una teoría de los fenómenos.
La aproximación desde la lógica
Desde el punto de vista lógico, el siglo XX ha producido discursos profundos y fundamentales. Al menos debe considerarse el estudio de los siguientes autores y obras. Ludwig Wittgenstein y su Tractatus Logico-Philosophicus, Kurt Gödel y sus teoremas sobre la “incompletitud”, y Karl Popper con su Lógica de la investigación científica.
Ludwig Wittgenstein
Bertrand Russell no tuvo más remedio, aún conteniendo el primer libro de Wittgenstein una refutación a ciertas entre sus tesis, que admitir la estatura intelectual de éste y la aparente irrefutabilidad de sus planteamientos. En su introducción al Tractatus podemos leer la conclusión de Russell: “Como alguien que posee una larga experiencia de las dificultades de la lógica y de lo engañoso de teorías que parecen irrefutables, me declaro incapaz de estar seguro de la corrección de una teoría sobre el único basamento de que no pueda conseguir algún punto en el que esté equivocada. Pero haber construido una teoría de la lógica que no sea obviamente incorrecta en ningún punto es haber logrado una obra de extraordinaria dificultad e importancia. Este mérito, en mi opinión, corresponde al libro del Sr. Wittgenstein, y lo convierte en algo que ningún filósofo serio puede darse el lujo de descuidar».
El propio autor, como es natural, es algo más tajante. El último párrafo del prefacio escrito por el propio Wittgenstein es el siguiente: “Por otra parte, la verdad de los pensamientos que son comunicados aquí me parece inasediable y definitiva. Creo, por tanto, haber hallado, en todos los puntos esenciales, la solución final de los problemas. Y, si no estoy equivocado en esta creencia, entonces la segunda cosa en la que el valor de esta obra consiste es que muestra cúan poco es lo que se obtiene cuando estos problemas son resueltos.”
¿Qué es lo que Wittgenstein creyó haber resuelto? También indica en el prefacio que su objetivo era el de “demarcar un límite al pensamiento, o más bien, no al pensamiento sino a la expresión de pensamientos: puesto que para ser capaces de establecer un límite al pensamiento tendríamos que encontrar pensables ambos lados de la demarcación (es decir, tendríamos que ser capaces de pensar lo que no puede ser pensado)”… “Por tanto sólo será dentro del lenguaje que el límite podrá ser establecido, y lo que yazga del otro lado del límite será simplemente un sin sentido”.
Puede decirse que el Tractatus de Wittgenstein constituye la primera vez que se formula explícitamente un tema central del conocimiento del siglo XX, que aparecerá luego en otros autores importantes y cuya conciencia tiene importantísimas consecuencias, no sólo intelectuales, sino también para los problemas planteados a la acción humana, tanto para aprender a distinguir soluciones posibles de imposibles, como para adoptar un estilo o tono correcto de aproximación a los problemas. Este es el problema de los límites lógicos del pensamiento. En Popper emerge como el problema de las demarcaciones, que tiene importancia en la distinción de lo que es ciencia: en Heisenberg encontraremos que la física moderna se topa, en su basamento mismo, con un conocimiento que nos está vedado fundamentalmente y ya no, simplemente, porque no dispongamos de información suficiente que en principio sea obtenible.
Como dijimos antes, no se trata de leer a Wittgenstein para encontrar en él, como pretendió, verdades definitivas e irrefutables, sino para utilizar su discurso como iluminador de cuestiones y acicate para la creación de nuevo pensamiento. El mismo declara, al término del Tractatus: “Mis proposiciones sirven como elucidaciones de la siguiente manera: cualquiera que me entiende termina por reconocerlas como sin sentido, después que las ha usado—como escalones—para escalar más allá de ellas. (Debe, por así decirlo, desembarazarse de la escalera después que la ha subido). … Debe trascender estas proposiciones, y entonces verá el mundo correctamente.” (Tractatus Logico-Philosophicus, Proposición 6.54).
Como Russell destacó, el Tractatus no es refutable, lo que no quiere decir que no es posible elaborar un discurso diferente y que sea también irrefutable. Hasta los trabajos de Gauss, Lobatchewski, Bolyai, Riemann, la geometría euclidiana pasaba por ser la única geometría posible, ilusión óptica producida por el hecho de que, del mismo modo que el libro de Wittgenstein, la geometría de Euclides es irrefutable en el sentido de ser un sistema de razonamiento impecable. Los autores mencionados mostraron que era posible construir geometrías sobre postulados diferentes a los de Euclides y que eran también consistentes. Más aún, en 1916 la geometría de Riemann formó la base matemática para la interpretación einsteiniana de la interacción gravitatoria, con lo que se evidenció que aquélla era mucho más que una curiosidad o una patología matemática. Es posible la coexistencia de sistemas deductivos mutuamente incompatibles, pero el sistema del Tractatus continúa siendo, en cierto sentido, irrebatible. O, como propone el mismo Wittgenstein, para rebatirlo es preciso, antes, haberlo asumido como verdadero.
En todo caso, la pretensión de deambular por el mundo a fines del siglo XX sin haberse expuesto a los temas pensados por Wittgenstein conduce a una comprensión limitada de las cosas. Más allá de lo que dijo Russell, es nuestra opinión la de que, ya no el filósofo, sino el hombre inteligente de hoy, no puede darse el lujo de prescindir de la riqueza y la profundidad conceptuales contenidas en el Tractatus Logico-Philosophicus. Porque no versando, en apariencia sólo, su discurso sobre “los problemas de la vida”, es posible que éstos encuentren soluciones mejores después que hayamos osado trepar por la escalera de Wittgenstein. En caso contrario, no nos quedaría otra cosa responsable que hacer que la que el propio Wittgenstein nos recomienda en la última de sus proposiciones: “Acerca de lo que no podemos hablar debemos permanecer en silencio”.
(Digresión, facilitada por los primeros párrafos de William Clifford en “La ética de la creencia”:
Un dueño de barcos se encontraba a punto de enviar al mar un buque de emigración. Sabía que éste era viejo y no demasiado bien construido desde un comienzo; que había visto muchos mares y muchos climas, y que a menudo había necesitado reparación. Se le habían sugerido dudas de que posiblemente el barco en cuestión no mereciera navegar. Estas dudas hacían presa de su mente y le hacían infeliz; pensó que tal vez debiera hacer que le reacondicionaran y readaptaran a fondo, aunque eso pudiera significarle un gasto considerable. Antes de que el buque zarpara, no obstante, fue capaz de vencer tales reflexiones melancólicas. Se dijo a sí mismo que el barco había navegado con seguridad en muchos viajes y había superado tantas tormentas que era ocioso suponer que no regresaría a salvo también de este viaje. Pondría su confianza en la Providencia, que difícilmente podría dejar de proteger a las infelices familias que abandonaban su patria para buscar mejores tiempos en alguna otra parte. Despediría de su mente todas las poco generosas suposiciones acerca de la honestidad de constructores y contratistas. De tal modo llegó a adquirir una sincera y cómoda convicción de que su barco era decididamente seguro y digno del mar; le vio zarpar con corazón liviano y con deseos benevolentes por el éxito de los exiliados en lo que sería su nuevo y extraño hogar; y cobró el dinero del seguro cuando el barco se hundió en medio del océano y no contó cuentos.
¿Qué diremos de él? Seguramente esto: que verdaderamente era muy culpable de la muerte de aquellos hombres. Puede admitirse que creyera sinceramente en la idoneidad de su barco; pero la sinceridad de su convicción no puede de ningún modo auxiliarle, porque no tenía derecho de creer en una evidencia tal como la que tenía delante de sí. El había adquirido su creencia no ganándosela responsablemente mediante paciente investigación, sino sofocando sus dudas. Y aun cuando al final podría haberse sentido tan seguro que no hubiera podido pensar de otra manera, sin embargo, en tanto consciente y voluntariamente se dejó llevar a ese estado mental, tiene que considerarse responsable por ello… Alteremos un poco el caso y supongamos que el barco sí era idóneo después de todo, que hizo ese viaje con seguridad y muchos otros después de ése. ¿Disminuye esto la culpa del propietario? Ni un ápice. Una vez que una acción está hecha es correcta o incorrecta para siempre, y ningún fracaso accidental de sus buenas o malas consecuencias puede posiblemente alterar eso. Ese hombre no habría sido inocente, simplemente no habría sido descubierto. La cuestión del bien o el mal tiene que ver con el origen de su creencia, no con su substancia; no con lo que era sino con cómo la obtuvo; no si a fin de cuentas resultó ser verdadera o falsa, sino si tenía el derecho de creer sobre la evidencia que tenía frente a sí.”
Muy cerca de la postura de Clifford está la expresada por John Erskine en La obligación moral de ser inteligente, puesto que ambos son de la opinión de que el conocimiento no es una cosa que pueda elegirse tener o no tener, según nuestro capricho. Desde el momento cuando terceras personas son afectadas por nuestras acciones, debemos a los otros el asegurarnos, hasta donde sea posible, de que no resultarán dañados por nuestra ignorancia. Es nuestro deber ser inteligentes).
Kurt Gödel
En 1931, el mundo de las ciencias matemáticas fue conmovido por la explosión de una bomba termonuclear del intelecto. El episodio, de consecuencias profundas y extraordinarias, fue protagonizado por un matemático y lógico checo, Kurt Gödel, quien demostró lo que probablemente sean los dos teoremas más fundamentales del conocimiento abstracto.
A fines del siglo pasado el matemático alemán David Hilbert propuso lo que llegaría a conocerse como Programa de Hilbert: el intento por montar todo el edificio de la matemática sobre una base deductiva, al estilo de la geometría de Euclides. Para esos momentos, muy pocas partes de la matemática estaban construidas de esa manera. A partir del reto de Hilbert, los mejores entre los matemáticos se dieron a la tarea de cumplir el programa. En el camino, más de una vez se toparon con hallazgos contradictorios.
En 1931, Gödel expuso de modo definitivo la razón de las antinomias y contradicciones. Mediante un ingenioso método de “aritmetización” de proposiciones lógicas, Gödel estableció dos teoremas que, en conjunto, demostraron que el programa de Hilbert era, de suyo, imposible.
Lo que Gödel determinó fue que no era posible la construcción de un sistema matemático deductivo de complejidad o riqueza equivalente a la de la aritmética, que fuese completo—esto es, que contuviese como teoremas todas las afirmaciones verdaderas en el territorio lógico que cubre—y que a la vez fuese consistente; es decir, que estuviese libre de contradicciones internas.
El intento de construir un sistema matemático completo conduciría a un conjunto de proposiciones entre las cuales se hallaría al menos una pareja de proposiciones que afirmarían justamente lo contrario la una de la otra, y ambas serían deducibles del mismo cuerpo de axiomas por procedimientos perfectamente lógicos.
Los teoremas de Gödel tienen poderosas consecuencias, como puede imaginarse, en el mundo del pensamiento matemático. De hecho constituye, al establecer límites a lo que puede obtenerse por el “seguro” método deductivo, un hallazgo análogo a las tesis de Wittgenstein, en el sentido de haber descubierto límites al pensamiento que se derivan de la propia substancia o estructura del proceso intelectivo. Se trata de un límite fundamental.
Pero también fuera de la matemática hallan expresión y aplicabilidad. Jean Piaget, por ejemplo, encuentra cómo los teoremas de Gödel implican límites a la predecibilidad de un sistema social. (Un editor de la revista Vogue afirmó una vez: “Si procuramos encontrar lo que la gente quiere, cuando lo logramos ya es demasiado tarde”). En términos generales, el límite gödeliano constituye una sobria advertencia, puesto que, si ni siquiera la “reina de las ciencias”, el conocimiento más frío y seguro está libre de inconsistencia, no puede admitirse de otras ciencias—digamos de las políticas, por poner un caso—la pretensión que fue negada a la matemática. La meditación sobre los resultados de Gödel es tal vez uno de los ejercicios mentales más desquiciantes que existan, pero al mismo tiempo más pedagógicos. La comparación de los límites de Gödel con otras imposibilidades fundamentales, como el principio de incertidumbre de Heisenberg, es un camino para una comprensión más moderna de lo que puede ser en principio alcanzado por el conocimiento humano.
La lectura directa de los teoremas de Gödel, de importante dificultad técnica, puede ser sustituida sin pérdida esencial por textos de mayor intención divulgativa, como la descripción que de sus hallazgos y métodos se encuentra en “Las matemáticas y el mundo moderno” de Scientific American.
Karl Popper
Un activísimo y prolífico filósofo, Popper se ha paseado, con igual maestría, por campos tan diversos como la teoría del conocimiento y el tema de la sociedad democrática. En ambos campos su lectura resulta remuneradora. Para el propósito que nos ocupa nos interesa de inmediato su teoría del conocimiento científico, tal como se encuentra expuesta en La lógica de la investigación científica.
Son al menos tres las proposiciones popperianas que revisten real importancia epistemológica. En primer término, su solución al problema de la inducción. Popper se opone al punto de vista de que “las ciencias empíricas pueden ser caracterizadas por el hecho de que emplean ‘métodos inductivos’, como son llamados. De acuerdo con este punto de vista, la lógica de la investigación científica sería idéntica a la lógica inductiva, esto es, al análisis lógico de estos métodos inductivos.”
La solución de Popper consiste en declarar innecesario un proceso inductivo en la adquisición de conocimiento científico: “Sostendría aún que un principio de inducción es superfluo, y que debe conducir a inconsistencias lógicas.”
¿Qué sustituye al método inductivo, hasta Popper considerado consubstancial con el método de las ciencias experimentales? Para Popper el proceso real es el de la postulación y contraste de teorías, proceso en el que el “método inductivo” no tendría nada que ver. Popper cita a Einstein hablando de la búsqueda de las leyes universales: “No existe un sendero lógico que conduzca a esas leyes. Sólo pueden ser alcanzadas mediante la intuición, basándose en algo así como un amor intelectual (‘Einfühlung’) de los objetos de la experiencia.”
Su tratamiento del problema inductivo lleva a Popper a establecer un “criterio de demarcación” que permite distinguir un discurso científico (empírico) de uno que no lo es. “Mi proposición se basa en una asimetría entre la verificabilidad y la refutabilidad; una asimetría que resulta de la forma lógica de las proposiciones universales. Porque éstas no son nunca derivables de proposiciones particulares, pero pueden ser contradichas por proposiciones particulares. En consecuencia, es posible por medio de inferencias puramente deductivas (con el auxilio del modus tollens de la lógica clásica) argumentar desde la verdad de proposiciones particulares hacia la falsedad de proposiciones universales. Un argumento de esa clase hacia la falsedad de proposiciones universales es la única clase de inferencia estrictamente deductiva que procede, por así decirlo, en la ‘dirección inductiva’; esto es, de proposiciones particulares a universales,”
Es así como el criterio de demarcación de Popper se expresa del modo siguiente: “…ciertamente admitiré un sistema como científico o empírico solamente si es capaz de ser contrastado por la experiencia. Estas consideraciones sugieren que no es la verificabilidad sino la refutabilidad de un sistema lo que debe ser tomado como un criterio de demarcación. En otras palabras: no requeriré que un sistema científico sea capaz de ser distinguido, de una vez por todas, en un sentido positivo; pero requeriré que su forma lógica sea tal que pueda ser distinguido, por medio de pruebas empíricas, en un sentido negativo: debe ser posible a un sistema científico empírico el ser refutado por la experiencia.”
El tercero y muy importante aporte de Popper a la caracterización del discurso científico ocurre en el tema de la objetividad científica. “…mantengo que las teorías científicas nunca son completamente justificables o verificables, pero que son no obstante contrastables. Diré por tanto que la objetividad de las proposiciones científicas reside en el hecho de que pueden ser intersubjetivamente contrastables.”
Es decir, para Popper, hombre posterior a la “crisis de la objetividad” que irrumpe con ocasión del punto de vista relativista y el tema de la incertidumbre cuántica—entre 1905 a 1927, mientras La lógica de la investigación científica data de 1934—la objetividad del científico individual es en principio imposible. Lo que resulta factible es una suerte de “objetividad social” que produce la comunidad científica tomada en su conjunto, la que examina críticamente las teorías que se postulen en actos intelectuales de individuos.
…………………………
Tan sólo sobre estos tres discursos, estos tres “grandes textos”—las obras principales de Wittgenstein, Gödel y Popper—es posible fundamentar un curso de nivel superior (posterior a la educación de nivel medio), de gran importancia para la adquisición de una correcta postura intelectual a fines del siglo XX desde el punto de vista lógico. Creemos que es posible afirmar que nuestro bachillerato hace que el estudiante internalice una visión newtoniana o mecanicista del mundo, según la cual el mundo es como lo describe la física de Newton y en el que todo es en principio explicable, siempre y cuando se cuente con los datos suficientes para el cálculo. De hecho, entonces, el estudiante venezolano arriba con una concepción clásica a un mundo que es postclásico desde ya las primeras décadas de este siglo. Una familiarización con los textos de Wittgenstein, Gödel y Popper puede ser el modo más directo de procurar el necesario salto conceptual. Estos tres autores servirían de pivotes en una discusión a la que otras piezas del conocimiento moderno—por ejemplo, información sobre geometrías no euclidianas—pueden ser adosadas, a fin de permitir la internalización de sus puntos de vista, menos simplistas que las más ingenuas interpretaciones de la ciencia clásica.
Resulta ilustrativo acotar que Popper se ubica decididamente en tienda opuesta a la de Wittgenstein y los llamados “positivistas lógicos”. En el prefacio a la primera edición inglesa de La lógica de la investigación científica Popper declara la guerra del siguiente modo: “Los analistas del lenguaje creen que no hay problemas genuinamente filosóficos, o que los problemas de la filosofía, si los hay, son problemas de uso lingüístico o del significado de las palabras. Yo creo, sin embargo, que hay al menos un problema filosófico en el que todos los hombres pensantes están interesados: el problema de entender el mundo, incluyéndonos a nosotros y a nuestro conocimiento como parte del mundo. Toda ciencia es cosmología, creo yo, y para mí el interés de la filosofía, no menos que el de la ciencia, reside exclusivamente en las contribuciones que haya hecho al conocimiento del mundo. Para mí, al menos, tanto la filosofía como la ciencia perderían su atractivo si tuvieran que abandonar esa búsqueda. Podemos admitir que la comprensión de las funciones de nuestro lenguaje es una parte importante de ella, pero no que nuestros problemas puedan ser apartados como meros ‘acertijos’ lingüísticos… Los analistas del lenguaje se ven a sí mismos como los practicantes de un método peculiar a la filosofía. Creo que están equivocados, puesto que creo en esta tesis: los filósofos tienen tanta libertad como cualquiera para usar cualquier método en busca de la verdad. No existe un método peculiar de la filosofía.”
Esta contraposición de posturas es de suyo muy interesante y su consideración conduce a una ulterior profundización en el estudio de los problemas epistemológicos a un nivel lógico. Igualmente lo es considerar la oposición entre este nivel lógico de Popper y el nivel “antropológico” de Thomas Kuhn, (ver más adelante) que establece un debate con Popper en cuanto éste sale del campo lógico, o del deber ser de la ciencia, a la descripción antropológica o sociológica de cómo la ciencia es hecha en realidad.
La aproximación sociológica
A la hora de observar el problema del conocimiento desde un punto de vista sociológico—cómo se busca sistemáticamente el conocimiento en la realidad, cómo se da este proceso históricamente—es conveniente estudiar al menos cinco autores importantes del siglo XX. Entre ellos hay, como en el caso de los que atacaron el problema desde la lógica, similitudes importantes, así como diferencias de ámbito, énfasis y enfoque.
La hipótesis de Sapir-Whorf
Benjamin Lee Whorf, desde sus trabajos como lingüista y bajo la influencia de Edward Sapir, postuló lo que también es conocido como hipótesis whorfiana. Esta consiste en la proposición de que la estructura de un lenguaje tiende a condicionar la forma en la que piensa el parlante de ese lenguaje particular. Por tanto, las estructuras de lenguajes diferentes llevan a los parlantes de los mismos a ver el mundo de diferente forma. Por decirlo de otro modo, los lenguajes imponen una metafísica.
Es fácil entender que un postulado tan simple tenga consecuencias importantes. Si la conducta de una sociedad está fuertemente condicionada por su cultura, por el modo como entiende al mundo, y si la cultura es a su vez determinada de algún modo por su lengua, resulta que el mero hecho de hablar un cierto idioma es un factor en el desempeño de una sociedad.
El efecto Whorf es observable incluso en diferencias de comportamiento entre generaciones dentro de una misma cultura y entre subculturas de ésta. Los cambios en el lenguaje son indicios de un cambio en la percepción y el planteamiento de la propia existencia. Contrástese, por ejemplo, la diferencia implicada en la oposición de las siguientes dos expresiones: “Lo importante es ser algo en la vida”; “No estás en nada, tienes que estar en algo”. La primera es una admonición clásica, la segunda una expresión que dominó el lenguaje de la generación joven en la década de los sesenta. Para la “metafísica” de la generación de los sesenta, lo importante no es una esencia, ser, sino un estado, estar. De allí sus recomendaciones vitales: “Empátate en algo, que no estás en nada”. Revelan un concepto de las cosas por el que las soluciones vitales dependen, ya no tanto de un desarrollo personal interno, como de la inserción de la persona en algo exterior. No es sorprendente, entonces, la brusca expansión de la cultura de la droga durante esa peculiar década del siglo actual.
“Ser” y “estar”, dicho sea de paso, son nociones inseparables en la lengua inglesa; el verbo to be inevitablemente expresa ambas nociones en un solo golpe de pensamiento. El castellano puede pensarlas como dos cosas distintas. Es una clave que revela cuán profunda es la diferencia metafísica entre el anglo y el hispanoparlante. El análisis de estos temas con ayuda de la hipótesis whorfiana permite importantes insights respecto de las diferencias culturales.
(Un interesante ensayo de transformación “metafísica” que intenta operar explícitamente a través del efecto Whorf es el llevado a cabo por James Cook, constructor de un lenguaje artificial al que llamó Loglan. En este “lenguaje lógico” Cook incorpora una estructura gramatical y una semántica que generan una forma muy distinta de hablar respecto del mundo, con una exacerbación, por decirlo así, de las funciones lógicas del lenguaje. Sería un lenguaje en el que las operaciones lógicas se facilitarían grandemente).
Noam Chomsky
Sin duda el lingüista más destacado del siglo, Chomsky penetra en una capa ulterior, si se compara su trabajo con el de Sapir y Whorf. En efecto, Chomsky postula la noción de “gramática profunda”, para explicar ciertos rasgos de la conducta lingüística de los humanos.
Según sus proposiciones, no es posible explicar adecuadamente el proceso de adquisición de un lenguaje mediante un modelo de tabula rasa, por el que absolutamente todo el lenguaje es aprendido. Chomsky parte, en cambio, de una hipótesis similar a la de los filósofos racionalistas del siglo XVII, por la cual existen facultades innatas universales a partir de las cuales es posible, entre otras cosas, el desarrollo del lenguaje. La mente del recién nacido no es un computador sin programación, sino que contiene de entrada un “sistema operativo” a partir del cual el infante genera hipótesis acerca de cómo se dicen las cosas en su proceso de aprender a hablar una lengua.
Este punto de vista condujo a Chomsky a un agudo debate contra las proposiciones de los psicólogos conductistas, principalmente las tesis de B.F. Skinner. (De hecho, tal vez el modo más práctico de entender a Chomsky sea la lectura de su opúsculo Proceso a Skinner, en el que ataca las teorías del autor de Más allá de la libertad y la dignidad).
El núcleo central de las tesis de Chomsky, contenido en su libro Estructuras sintácticas, dio pie al establecimiento de una escuela lingüística que estudia la “generación” de lenguaje—gramáticas generativas—a través de modelos estructurales de los lenguajes y reglas de transformación de los mismos.
(Existe un grupo de “juegos” didácticos de la serie WFF’n Proof entre los que destaca Queries and Theories, que puede ser entendido como un modelo de operación de un científico que postula teorías y las contrasta con la realidad a través de experimentos, o como un modelo de generación de lenguaje a través de ensayos y errores de acuerdo con la hipótesis de Chomsky. Hemos tenido experiencia directa de la utilidad del empleo de este tipo de herramientas didácticas con alumnos sometidos al aprendizaje de estos temas).
Marshall McLuhan
La comprensión de los medios marca, indudablemente, un punto importante en la moderna antropología del conocimiento. En este su libro más divulgado, McLuhan explica su tesis central resumida en el aforismo “el medio es el mensaje”.
Lo que McLuhan postula es que el mero hecho de emplear un determinado medio modifica a quien lo emplea. Por ejemplo, el desarrollo de la imprenta a partir del Renacimiento, habría “deformado” la mente occidental hasta el punto de forzarle un modo secuencial de pensamiento, dado que el medio escrito, el lenguaje, no puede decir las cosas en simultaneidad, sino que debe procesar información en secuencia, una idea detrás de otra. De este modo, además, se privilegia el canal visual de contacto con el mundo, en desmedro de los restantes sentidos que un hombre primitivo, en su aldea primitiva, habría empleado más balanceadamente. En cambio el medio televisivo, que por una parte es capaz de mostrar audiovisualmente el desarrollo simultáneo de varios eventos en una sola escena, y que por otra parte involucra al televidente en la construcción de la información —McLuhan postula que el televidente “completa” la imagen de televisión que se transmite como una matriz de puntos no continuos—, favorece un equilibrio perceptual diferente. El hombre de la “aldea global” que las modernas telecomunicaciones están construyendo está inmerso ahora en una suerte de juego de fútbol en el que todo ocurre al mismo tiempo, a diferencia de la lectura, en la que, como en un juego de béisbol, ocurre algo primero y otra cosa después.
Para McLuhan los medios (extensiones del hombre) constituyen un ambiente que modifica a su inventor y del que éste no está habitualmente consciente. El mero hecho de tomar conciencia de un ambiente crea otro nuevo, y de este nuevo ambiente no poseemos conciencia. Es como si mirásemos hacia arriba a través de una serie de cúpulas transparentes. Sólo podríamos darnos cuenta de la más próxima si subimos sobre ella, pero entonces tampoco podríamos percibir las que la envuelven por arriba.
En McLuhan se encuentra un eco empírico de la noción de metalenguajes, idea de la filosofía de las matemáticas que hace ya su emergencia en Wittgenstein y la discusión que Russell hace de las tesis del Tractatus. Es sólo una de las instancias en las que es posible detectar estructuras similares entre los modelos abstractos de la lógica, la matemática y la filosofía por un lado, y el mundo de los fenómenos observables.
Thomas Kuhn
Si Popper estudia el tema de la actividad científica desde un punto de vista lógico y normativo—cómo debe proceder un proceso intelectual para que pueda ser designado como científico—Kuhn asedia el problema desde la perspectiva de un historiador y un sociólogo: cómo se efectúa en la práctica la actividad de los científicos.
Thomas Kuhn se introduce en el tema por un estudio de la revolución copernicana—de hecho, ése es el nombre de su tesis de grado—para desplegar luego una noción general de las revoluciones en el pensamiento de la ciencia. En su obra central, La estructura de las revoluciones científicas, Kuhn introduce el concepto de paradigma para referirse al conjunto de nociones básicas y fundamentales—casi los axiomas—de una determinada disciplina. Popper enfatizaba como característico de la actividad científica una incesante crítica de las teorías; Kuhn sostiene que la “ciencia normal” hace todo lo contrario: intenta proteger al paradigma dentro del que se opera cuando quiera que un evento empírico parece contradecir la teoría. De este modo la ciencia, normalmente, sería conservadora, y la actividad típica del científico sería la de resolver acertijos—puzzle solving—que hagan congruente la teoría con los datos aportados por la observación. Así, por ejemplo, si el astrónomo descubre perturbaciones en la órbita de Neptuno que la diferencian de la órbita predicha mediante un cálculo basado en la teoría de Newton, su actitud típica no será la de rechazar a Newton, lanzando por la ventana su modelo de gravitación universal. Por lo contrario, buscaría encontrar algún factor, hasta entonces desconocido o no tomado en cuenta y cuya existencia preserve el paradigma newtoniano. Así que piensa en la presencia no detectada de alguna otra masa astronómica causante de las perturbaciones, postula la masa y posición que debería exhibir para producirlas y vuelve su telescopio hacia la zona del firmamento en la que debiera encontrarse. Y—¡eureka!—allí encuentra la masa que buscaba y le pone por nombre Plutón. Newton se ha salvado.
Ahora bien, de cuando en cuando ciertos acertijos permanecen irresueltos. Cuando quiera que la acumulación de acertijos sin resolver es demasiado grande, o cuando éstos parecen ser fundamentales, el paradigma entra en crisis. El trabajo de los científicos va produciendo los postulados teóricos que darán paso a la formulación de un nuevo paradigma que absorba los acertijos irresueltos y se produce una revolución teórica, una revolución paradigmática. Esa revolución requiere de un salto perceptual, un gestalt switch, al modo como uno puede ver distintas “realidades” en algunos dibujos de Escher o los familiares ejemplos de “ilusión óptica” de la psicología de la gestalt.
El modelo de Kuhn es transportable fuera de la operación de la ciencia. Su ciclo de períodos “normales” de relativa estabilidad conceptual, interrumpidos por infrecuentes episodios revolucionarios, es una secuencia observable en otros campos del conocimiento humano, como veremos ahora al considerar la versión más generalizada que del mismo cuento, y desde un punto de vista algo más filosófico, expone el francés Foucault.
(El debate Popper-Kuhn se encuentra en forma de libro en las actas de un congreso sobre Criticism and the Growth of Knowledge, que registra las brillantes exposiciones de varios autores, entre los que se encuentran los protagonistas mencionados).
Michel Foucault
Las palabras y las cosas es un libro denso, difícil, elegante, muy francés. De una erudición avasallante, Michel Foucault lo escribe para retomar el tema de los límites del pensamiento y llevarlo hasta las consecuencias que tiene sobre la noción misma de hombre. Su perspectiva es una combinación de historia comparativa con estructuralismo. Esto es, en ella hay análisis “sincrónico” del “espacio” de lo pensado en una época determinada y comparación “diacrónica” de lo mismo entre épocas sucesivas.
A través del análisis de las fracturas que se producen en los contenidos de ciertos campos del conocimiento cuando se pasa de una época a otra, Foucault propone la noción de “episteme”, para referirse al núcleo de nociones básicas y centrales de una determinada época.
Foucault analiza en detalle el campo de la biología, el de la economía y el de la lingüística. Así llega a encontrar cómo hay una radical diferencia conceptual, una verdadera fisura de separación, entre la biología moderna y la clásica, la que ni siquiera se pensaba a sí misma como biología sino como “historia natural”. Igual discontinuidad se observa entre la economía y la ciencia que la precedió, la “teoría de las riquezas”, y entre la lingüística y la “gramática” que fue su antecesora. En cambio, logra demostrar la comunidad de imágenes e ideas que se da entre la historia natural, la gramática y la teoría de las riquezas, del mismo modo como encuentra nociones comunes a la economía, la lingüística y la biología posteriores.
En este sentido, Foucault es un Kuhn ampliado o generalizado. Las palabras y las cosas incluye referencias metodológicas, pero Foucault se sintió impelido a exponer su método de análisis en un libro posterior: La arqueología del saber”. Algunos llaman antihumanista a la producción intelectual de Foucault. En los capítulos finales de Les mots et les choses, Foucault sostiene que la noción de “hombre” es una invención cultural, histórica, posible a partir de una red conceptual que la sostiene y la hace posible. Ésta es la episteme del humanismo que emerge en el Renacimiento. Previamente a ella, los hombres no se pensaban a sí mismos del mismo modo. Con la ruptura moderna de la episteme renacentista, esa noción de hombre se desdibuja y desaparece. Es en este sentido que Foucault puede decir, dramáticamente, que “el hombre ha muerto”. Es el mismo tipo de rebuscamiento intelectual que impele a Gabriel Vahanian, teólogo norteamericano contemporáneo, a afirmar, de modo muy distinto que Renán, God is dead, en el libro que lleva ese nombre.
…………………
El concepto de “episteme” sirve para el resumen de los objetivos del tipo de programa educativo que estamos describiendo: en el fondo se trata de una familiarización con los componentes de la episteme a fines del siglo XX, episteme todavía en formación. El diagnóstico de una crisis paradigmática vigente ha sido ofrecido para casi todas las disciplinas intelectuales. Así se describe la situación de la física contemporánea, como igualmente se ha dicho de la situación de una ciencia económica cuyos modelos teóricos no podían conciliar la existencia simultánea de depresión e inflación. Las matemáticas más recientes tienen todavía que asimilar el impacto de nuevos enfoques “finitísticos” impulsados por la incorporación del computador a su proceso analítico. Los políticos hablan del agotamiento de los modelos de desarrollo. La medicina se topa con novísimos problemas éticos derivados de las capacidades antes inaccesibles de la ingeniería genética. En suma, todo el campo del conocimiento humano se encuentra en efervescencia. Estamos, aparentemente, ante una revolución conceptual más profunda que un ciclo de Kuhn en una disciplina aislada. Estamos ante una revolución de la episteme. Resultaría ser una pobre estrategia la de permitir que nuestros jóvenes, que nuestra gente en general, intentara vivir en un mundo sujeto a tan profundo cambio asistida tan sólo por los esquemas mentales anteriores al siglo XX.
Ciclo fenomenológico
Los autores precedentes, sus temas y sus obras, corresponden a lo epistemológico dentro de lo epistémico. El contenido de su discurso no es el fenómeno, sino otros discursos. Es obvio que el siglo XX ha producido también copiosamente en materia de teorías sobre los fenómenos mismos. Es precisamente la riqueza de los hallazgos y teorías fenoménicas de este siglo uno de los más importantes acicates a la intensa actividad epistemológica descrita previamente. Toca ahora opinar sobre una selección de teorías fenoménicas de cuya noticia informada no debe prescindirse en una formación que aspire a llamarse superior. Son los contenidos intelectuales más cercanos al fenómeno mismo, puesto que son descripciones y modelos del fenómeno, intento de explicación acercan de cómo se manifiesta. Son la carne de la episteme.
Es más difícil acá que incluso un hombre culto pueda leer las fuentes directas. Los textos de la física o de la biología modernas exigen, para su cabal comprensión, conocimiento especializado. No es éste ni el objetivo ni el requisito del programa que esbozamos. Por fortuna, a este respecto puede contarse con una nutrida literatura de divulgación, de la que puede obtenerse textos informativos que son suficientemente claros y accesibles, sin que por eso renuncien al rigor científico de sus explicaciones. A nuestro juicio, lo que sigue es enumeración de temas que deben constituir la parte fenomenológica dentro del núcleo epistémico de un programa digno de educación superior no vocacional.
……………..
El universo
Si todas las ciencias que no sean la física hubieran detenido su acumulación de conocimiento a fines del siglo pasado, tan solo el trabajo teórico de la física a partir de 1900 justificaría conceder al siglo que está por concluir un lugar de importancia en la historia del desarrollo del conocimiento humano. No se es un adulto inteligente si no se es capaz de explicar a un niño cómo entendieron el universo o alguno de sus aspectos Max Planck, Albert Einstein, Werner Heisenberg y Murray Gell-Mann.
Max Planck inauguró la física moderna exactamente en 1900. De ese año es su famoso “papel” que resuelve acertijos de termodinámica, la ciencia de la energía, incomprensibles para el paradigma físico clásico.
A pesar de que ya la química hubiera asentado firmemente, a través de la teoría atómica de la materia, que la materia es discontinua, granular, la energía, en sus distintas manifestaciones, continuaba siendo pensada como algo continuo, como algo que esencialmente podría ser infinito, infinitamente divisible en cantidades de cualquiera y arbitrario tamaño. Max Planck acabó con esa interpretación para la energía calórica.
Específicamente, Planck formuló en 1900 una interpretación matemática correcta de la radiación térmica de un absorbedor perfecto (“cuerpo negro”) y mostró que la formulación requería un proceso discontinuo de emisión o absorción que involucraba a cantidades discretas de energía. En el corazón de su modelo se hallaba una de las constantes físicas universales y fundamentales, que hoy en día el mundo conoce como constante de Planck. La constante de Planck es característica de las formulaciones matemáticas de la mecánica “cuántica”, teoría que describe el comportamiento de las partículas y las ondas de la física a las escalas atómica y subatómica.
Planck describió la radiación térmica que buscaba explicar teóricamente como una emisión, transmisión o absorción de energía en pequeños paquetes o quanta, cuyo tamaño quedaba determinado por la frecuencia de la radiación y el valor de la constante de Planck. Las dimensiones de la constante de Planck son las de la energía por unidad de tiempo, que son las unidades de una magnitud que la física llama “acción”. La constante de Planck, por esta razón, es a menudo definida como el quantum elemental de acción física.
Planck mismo no imaginó las ramificaciones de su descubrimiento. (La epistemología de la física clásica diría que había descubierto cómo era la radiación térmica en realidad. La epistemología contemporánea, que había descubierto un modo de describir la radiación térmica que eliminaba deficiencias de previas interpretaciones). El próximo paso tocaría a Alberto Einstein.
Einstein, no puede caber duda, regaló a la humanidad los productos de una intuición superdotada. Entre 1905 y 1916 construyó una física que podía sustituir con ventajas variadas y profundas la descripción newtoniana del universo y su conducta. Pero la misma enormidad de su contribución hizo que el Comité de Física de los premios Nobel no se atreviese a certificar la validez de sus teorías más generales. Einstein recibió el premio Nobel de Física por su explicación del efecto fotoeléctrico, mediante la extensión de los hallazgos de Planck a todas las manifestaciones de la energía, más allá de la únicamente calórica.
En su solución del efecto fotoeléctrico, Einstein postuló la existencia de quanta de luz, hoy en día denominados universalmente fotones, que del mismo modo que los térmicos, quedaban determinados por la frecuencia de la radiación luminosa multiplicada por la constante de Planck.
Era otro paso en dirección de uno de los trueques paradigmáticos que definen la física contemporánea. Para la física clásica la materia y la energía eran entidades diferentes, que a pesar de que pudieran influirse mutuamente, debían representarse como dos esencias diferentes de la realidad. En términos de la física contemporánea, y más claramente a partir de otro de los cinco “papeles” que Einstein publicó en 1905 (Sobre la electrodinámica de los cuerpos en movimiento, su postulación de la Teoría Especial de la Relatividad), la identificación entre materia y energía es total. Se trata de la misma entidad, y materia y energía no son otra cosa que nombres diferentes que asignamos a lo que de ella se manifiesta a través de modos diferentes de percibirla.
Arthur Eddington encuentra comprensible que la conciencia humana haya tardado tanto tiempo en arribar a ese punto de vista. A fin de cuentas, tendemos a llamar materia a aquella manifestación de la realidad que impresiona evidentemente nuestro sentido del tacto, específicamente a los receptores sensoriales que responden a la presión. En cambio, la manifestación menos “tangible” de lo que usualmente llamamos energía, la luz, es captable por nosotros a través de un aparato sensorial diferente, la visión, y así la luz no vendría a ser para nosotros, psicológicamente, otra cosa que lo visible. Pero se trata de la misma cosa, sólo que los receptores de presión de la piel pueden captar un fragmento del espectro de esa entidad única materia-energía y las células de la retina pueden captar un fragmento diferente. La base de la distinción había venido siendo, sin darnos cuenta, exclusivamente psicológica, no ontológica, y las teorías que concebían la existencia de una entidad material separada de una entidad energética no hacían otra cosa que responder a esa distinción psicológica. La sensibilidad del ojo es mucho más microscópica que la de los receptores de presión. Por eso puede responder a la interacción con los diminutos fotones, mientras que la percepción de la presión se produce a partir de agregados materiales considerablemente mayores. (Esto no es, abunda Eddington, otra cosa que una conveniente división evolutiva del trabajo fisiológico. Un organismo es bombardeado continuamente por trillones de partículas de la escala del fotón. Si los detectores de presión fuesen tan sensitivos como los conos y bastoncitos de la retina ocular, la psiquis individual quedaría destruida por abrumación).
La relatividad especial, la más vulgarizada de las contribuciones de Einstein, incluye los cambios paradigmáticos de las nociones absolutas de Newton de espacio y tiempo, por mediciones relativas de posición, distancia y transcurso de los eventos físicos contra marcos de referencia arbitrariamente determinados. Es una de las derivaciones de esta teoría la ecuación antonomásica de la física que expresa la identidad entre masa y energía: E = mc2. Como sabemos, es la ecuación que predice, entre otras cosas, la energía que se desata en las conversiones que ocurren en el seno de un artefacto atómico o termonuclear que es detonado, e igualmente, las magnitudes involcradas en los mecanismos postulados por la astrofísica para explicar la emisión energética de las estrellas.
Menos divulgada y conocida, quizás porque exige un mayor esfuerzo a la imaginación, es la Teoría General de la Relatividad. Sus resultados son proporcionalmente más poderosos. Esta es la teoría que hace prescindible la “acción a distancia” de una fuerza de gravedad, al explicar la gravitación universal como efectos de deformación que la presencia de masa impone a la propia geometría del espacio.
Las teorías de Einstein resuelven, por el expediente de un cambio de postulados—un cambio paradigmático—los acertijos irresueltos que había venido acumulando la mecánica newtoniana, de los que el más famoso es el que se puso de manifiesto con el resultado “nulo” del notable experimento de Michelson y Morley. Parte de lo hermoso del aporte intelectual de Einstein, sin embargo, reside en el hecho de que sus teorías incluyen, por así decirlo, al modelo de Newton como un caso límite o especial.
Newton produce la primera sustitución global de una física por otra. Cuando su grandiosa explicación del universo ocurre en el siglo XVII, es toda la física de Aristóteles la que queda suplantada. Como se trataba de la primera vez, el juicio de la época interpretó que la física de Aristóteles era falsa y la de Newton verdadera. Pero, como decía un cierto abogado corporativo, una vez no es un precedente. Se necesita de dos instancias para que un precedente sea establecido. La segunda vez la física de Einstein sustituye plenamente la física de Newton. Pero ahora emerge, con este segundo caso, una lección de humildad intelectual. No es que ahora sí se ha logrado asir la esencia del universo y atraparla en las ecuaciones de la relatividad. La reiterada sustitución de una física por otra revela algo menos pretencioso: el hombre es capaz de fabricar modelos interpretativos de la realidad que superen los de generaciones anteriores. Pero en ese mismo hecho está la conciencia de que se trata de un nuevo modelo y nada más. Y el destino probable del mejor modelo interpretativo posible en una época, parece ser el de ser a su vez sustituido por otro modelo ulterior.
Einstein amplió, como vimos hace poco, los horizontes de la interpretación cuántica, al generalizar los resultados de Max Planck. Sin embargo, tal vez su interés por la física de lo más grande le llevó a alejarse del desarrollo posterior de la mecánica cuántica, que describe fenómenos que se manifiestan con mayor obviedad en el reino de lo más pequeño. De hecho, Einstein, a este respecto, terminó por apartarse de la corriente principal de la física moderna, hasta el extremo de protagonizar un aislamiento, doloroso para él y para sus colegas más jóvenes, que declararon álgidamente haber perdido a su líder.
Einstein nunca se resignó a aceptar lo que se llegó a conocer como la “interpretación de Copenhague”. En esta ciudad, Niels Bohr, físico danés que por primera vez produjo la descripción matemática de un átomo concreto, el átomo de hidrógeno, con base en ecuaciones cuánticas, dirigía un instituto de física teórica adonde fueron a parar las mentes más brillantes de una nueva generación científica. Los más destacados, Wolfgang Pauli y Werner Heisenberg.
Sus trabajos sobre estados de energía estacionarios (discretos) de los osciladores anarmónicos llevaron a Heisenberg a sentar las bases de un programa de desarrollo de la mecánica cuántica, ciencia que puede ser definida como la que explica los estados energéticos discretos y otras formas de energía “cuantizada”. En 1925 propuso una reinterpretación de los conceptos básicos de la mecánica. Las variables físicas deberían ser representadas por matrices numéricas, y tratarían sólo con cantidades observables o mensurables.
Dos años más tarde Heisenberg publicó su principio de indeterminación (o principio de incertidumbre), que establecía los límites teóricos impuestos por la mecánica cuántica a ciertas parejas de variables que constantemente se afectan de manera recíproca, tales como la posición y el momento de una partícula. Heisenberg mantuvo que en su nueva designación como “observables conjugados”, la indeterminación estipulaba que ningún sistema mecánico cuántico podría poseer simultáneamente una posición y un momento precisos. Esta indeterminación—fuente de la incertidumbre del observador—afecta a todo fenómeno, independientemente de su escala, pero se pone de manifiesto de modo notorio en el dominio de la microfísica. La constante de Planck había reaparecido en la medida de la incertidumbre, reconfirmada en su fundamentalidad. Dicha constante es una magnitud física muy pequeña para la escala habitual de los objetos microscópicos, de allí que sus efectos sólo sean de importancia práctica en el mundo subatómico.
Heisenberg elaboró con Niels Bohr toda una “filosofía de la complementaridad” que tomaba en cuenta las nuevas variables físicas. La nueva concepción del proceso de la medición en física enfatiza el papel activo del científico que, en el acto de medir, interactúa con el objeto observado y hace que éste se revele no en sí mismo sino como una función de la medición. Es a esta postura filosófica, acompañada de una interpretación del universo como un mundo de basamento fundamentalmente incierto y azaroso, a la que Einstein se opuso hasta sus últimos días: “No puedo creer que Dios juegue a los dados con el mundo. Dios es refinado, pero no malicioso”.
No resistimos la tentación de incluir una conjetura nuestra que cree distinguir un paralelismo entre el límite fundamental de Gödel y el límite encontrado por Heisenberg. El físico no sólo actúa con instrumentos materiales de medición; en su trabajo teórico hace uso de un lenguaje que, como vimos, está signado por la imposición de una metafísica particular—según postulaba Benjamin Whorf—y de un arsenal matemático sujeto al dilema gödeliano de riqueza y contradicción. Tal vez el límite, nuevamente, no esté en la ontología de la física, sino en la estructura profunda de la inteligencia humana, facultad que pareciera incapaz de formular teorías que no estén sujetas a una incertidumbre básica o a un sino de contradicción.
Lo cierto es que la “interpretación de Copenhague” ha prevalecido como paradigma de los fenómenos cuánticos. Con el aparato matemático desarrollado por Heisenberg (o con uno equivalente pero alternativo de Edwin Schrödinger y Paul Dirac), una muy buena cantidad de estructuras y procesos subatómicos han sido explicados satisfactoriamente y la mecánica cuántica ha podido orientar, además, el diseño de pruebas empíricas cada vez más poderosas y refinadas. En el curso de estas investigaciones, la sucinta explicación de la estructura atómica de la primera mitad del siglo, se vio en la necesidad de ser enriquecida, ante la proliferación de centenares de partículas subatómicas diferentes que arrojaban los experimentos.
En efecto, aun la tecnología de la bomba atómica, en 1945, no requería del átomo una anatomía más compleja que la de una constitución a partir de protones, electrones y neutrones. No obstante, a medida que aceleradores de partículas más poderosos que el clásico ciclotrón de Lawrence fueron puestos en operación, el mundo de la física se vio invadido por una extraordinaria variedad de partículas antes desconocidas, que pronto superaron el número de doscientas.
Hoy en día, gracias principalmente al trabajo del norteamericano Murray Gell-Mann, la simplicidad ha retornado a la taxonomía subatómica. Gell-Mann postuló en 1964, independientemente de Zweig, la existencia de subcomponentes de estas partículas a los que denominó quarks (tomando la expresión prestada de un pasaje de James Joyce en Finnegan’s Wake) y que redujeron considerablemente el problema del zoológico subatómico.
La teoría de los quarks recurre a nociones intelectualmente incómodas, tales como el concepto de carga fraccionaria y tienen el inconveniente, hasta ahora, de no haber sido observados jamás aisladamente. (De hecho, hay intentos teóricos de postular que jamás lo serán). Sin embargo, matemáticamente resuelven el problema de organización de las doscientas y tantas partículas que pululan en las placas de los físicos mediante un esquema relativamente simple. Otra vez, los recientes aumentos en la potencia de los gigantescos aceleradores de partículas contemporáneos, han permitido nuevas avenidas de exploración. Por este camino ha sido posible simular procesos cada vez más cercanos a las magnitudes energéticas cosmológicas. De este modo, la experimentación con aceleradores ha comenzado a converger con los esfuerzos interpretativos de los cosmólogos. Muy recientemente se cree haber obtenido evidencia de que el cosmos está efectivamente hecho a partir de tres, o a lo sumo cuatro, familias de partículas, todas nítidamente organizables en un elegante esquema de quarks que nadie ha visto nunca.
Lo que no deja de apartarse de una interpretación de Copenhague que exigía que la física sólo tratase de “observables”. Periódicamente, sin embargo, la física pareciera tener necesidad de echar mano de entidades que son postuladas ad hoc y que no son en principio observables. No deja uno de recordar la observación de Martin Gardner del Caballero Blanco de Lewis Carroll, quien confiaba: “But I was thinking of a plan of dying one’s whiskers green, and always use so large a fan that they could not be seen.”
………………………………
Si Planck, Einstein, Heisenberg y Gell-Mann son los fenomenólogos de la materia-energía y sus interacciones, René Thom y Benoit Mandelbrot lo son de las formas observables en el universo.
La preocupación de Thom por la forma encontró expresión matemática con las herramientas de una rama relativamente nueva y extraordinariamente sugestiva de la matemática: la topología. Una manera de entender de qué se ocupa la topología consiste en describirla como el estudio de las propiedades geométricas de los objetos que permanecerían invariantes luego de aplicar sobre ellos deformaciones continuas. Thom aplica los poderosos conceptos y procedimientos topológicos al problema de la generación de las formas en Estabilidad estructural y morfogénesis, y logra desarrollar varios esquemas de cambio morfológico, cada uno con su correspondiente transformación topológica.
El discurso de René Thom tiene un nivel de abstracción en general bastante elevado, pero encuentra aplicaciones no sólo en procesos de morfología biológica—tales como los que se manifiestan en el desarrollo embriológico animal o el despliegue de las formas de un árbol—sino también en temas de lingüística y aun de política y economía.
En cierto sentido, Thom reacciona desde su peculiar trinchera contra una ciencia cartesiana que “explicaba todo y no calculaba nada” y una ciencia newtoniana que “calculaba todo pero no explicaba nada”.
Mucho más profundo que el aporte de Thom es el desarrollo de la ciencia de los “fractales”, palabra acuñada por Benoit Mandelbrot para designar—otra noción difícil de asir—dimensiones fraccionarias de los objetos. Los fractales son estructuras matemáticas cuyo desarrollo comienza a principios de siglo, con el trabajo del matemático polaco Waclaw Sierpinski y del francés Gaston Julia, pero su designación por ese nombre se produce en 1975 y realmente se toma conciencia general de ellos en 1983, con la publicación de la obra de Mandelbrot, La geometría fractal de la naturaleza.
Los fractales ofrecen un método extraordinariamente compacto para la descripción de ciertos objetos y formaciones. Muchas estructuras exhiben una regularidad geométrica subyacente que se conoce como invariancia a la escala o autosimilaridad. Este es el caso, por ejemplo, de la línea de las costas, en las que uno se topa con la misma “fractalidad” a medida que las mira desde diferentes distancias. Si se somete al examen a estos objetos en diferentes escalas, se encuentra repetidamente a los mismos elementos fundamentales. El patrón repetitivo define la dimensión fraccional, o fractal, de esas estructuras. Mandelbrot acuñó la expresión “fractal” a partir del latín fractus, partido o fraccionado.
La geometría fractal describe las formas naturales de un modo mucho más sucinto que la geometría de Euclides. De aquí su poder descriptivo y una de sus principales aplicaciones prácticas. La descripción de un cierto objeto complejo por medio del lenguaje fractal puede reducir significativamente la cantidad de datos necesarios para transmitir o almacenar una imagen. La hoja de un helecho, por ejemplo, puede ser completamente descrita por un algoritmo fractal que se basa en 24 números. Un procedimiento euclidiano que pretendiera hacer lo mismo punto a punto requeriría el manejo de varios centenares de miles de valores numéricos. Es por esto que las técnicas fractales son hoy objeto de intenso estudio por los especialistas en transmisión de imágenes por televisión. El tiempo, la complejidad y el costo de transmitir imágenes de satélites podrían ser reducidos drásticamente con el empleo de códigos basados en fractales.
Es difícil imaginar a los fractales sin recurrir a imágenes. Esto, que para un matemático clásico constituiría una concesión de mal gusto y atentatoria contra el estilo de las matemáticas puras, es hoy en día herramienta cotidiana de los matemáticos de la fractalidad, quienes hacen uso intensivo de computadores de alto poder para estudiar las estructuras generadas por sus ecuaciones. Que son estructuras complejísimas, de una riqueza insólita, generadas a partir de ecuaciones sencillísimas.
Este hecho es lo que hace que la geometría fractal sea el lenguaje matemático del “caos”, otra teoría contemporánea y novísima que promete una comprensión mucho más profunda de los procesos del universo. La teoría del caos estudia aquellos fenómenos que siguen reglas deterministas estrictas y sin embargo son impredecibles en principio. La turbulencia atmosférica, el latido del corazón humano, el movimiento de los precios en un mercado, el “ruido rosado” que los ingenieros de sonido emplean para calibrar sus equipos, son algunos de los fenómenos que tienen comportamiento caótico y que comienzan a ser entendidos ahora con ayuda de la ciencia fractal. Esos fenómenos exhiben patrones de variación similares si se les considera en diferentes escalas temporales, del mismo modo que los objetos con invariancia a la escala exhiben patrones estructurales similares a diferentes escalas espaciales. Hay, pues, una profunda relación entre la geometría fractal y los comportamientos caóticos: la geometría fractal es la geometría del caos.
El dominio del lenguaje fractal hace entrever la posibilidad de mejores y más profundas intuiciones acerca de los procesos básicos del universo, de la evolución de las especies, de la conducta humana. Se trata de una revolución excitante, que posiblemente sea el componente más profundo y poderoso de una nueva episteme, de una nueva concepción del mundo.
…………………………
La discusión alrededor de los temas y modelos precedentes no agota, ni con mucho, un intento serio de inmersión comprensiva en el grueso problema del universo. No han sido incluidas en la relación anterior un sinnúmero de teorías que compiten activamente por el lugar de honor entre las interpretaciones físicas de los fenómenos físicos. Teorías, por ejemplo, como la “teoría de cuerdas” de la física subatómica, o las teorías alternativas para la explicación de la gravitación universal que difieren en más de un punto de la interpretación estándar de la relatividad general.
Pero, por otro lado, a las interpretaciones de los teóricos es conveniente yuxtaponer los datos empíricos más recientes. Por ejemplo, las más nuevas observaciones astronómicas parecen haber detectado una megaestructura cósmica de escala muy superior a la de los “cúmulos de galaxias”, que hasta hace poco eran las estructuras subcósmicas consideradas más grandes. Por esta vía ha sido postulada la existencia de un “Gran Atractor”, una gigantesca estructura que atrae gravitacionalmente a nuestra galaxia y a las galaxias más cercanas a la nuestra, conjunto que se conoce bajo el nombre de “grupo local”. Los nuevos y colosales aceleradores de partículas de los Estados Unidos, la Unión Soviética y la Comunidad Económica Europea (CERN), algunos de los cuales se encuentran en construcción y entrarán en operación próximamente, alcanzan ya niveles de energía que probablemente diluciden algunos puntos dudosos de la física de partículas, la trama material del cosmos. La investigación en física de materiales ha conducido a la postulación y reconocimiento de verdaderos “nuevos estados de la materia”, tales como los llamados “micro-agregados” (microclusters), que exhiben comportamiento peculiar.
Por decirlo de algún modo, el numeroso conjunto de datos empíricos que registran el estado y la conducta del universo, crece a velocidad vertiginosa. La imagen que se tenía del cosmos y de sus componentes hace tan solo cinco años, corresponde a un retrato antiguo. Es importante ofrecer a los alumnos de un programa de educación superior actualizado, las fotos más recientes de ese extraño semblante que es el universo. Es por esto que un programa de ese tipo debe prever instancias de instrucción a través de las cuales pueda actualizarse a las principales carpetas del archivo empírico universal.
La vida
Si algún reino del conocimiento humano ha experimentado crecimiento en el siglo XX ése es el de la biología. En términos cuantitativos, se estima hoy en día que el conocimiento biológico se duplica en poco más de dos años. En algunos de sus campos, como el genético, la tasa de crecimiento es aún más acusada, y en períodos inferiores a un año se añade tanto conocimiento como el que se poseía al comienzo de los lapsos en consideración. El desarrollo de instrumental de investigación de alto poder, junto con técnicas novedosas, ha permitido a los biólogos llegar al corazón mismo de los procesos vitales para modificarlos, lo que ha justificado plenamente el uso de la palabra ingeniería en este contexto.
La biología tiene un interés intrínseco para la especie humana, que es, después de todo, una entidad biológica. Los conocimientos en biología son aplicables de inmediato a través de la práctica médica, con consecuencias beneficiosas directas que hacen comparativamente más atractiva la inversión en esta rama de la investigación científica que, pongamos, en cosmología. Es más, los desarrollos tecnológicos en materia de ingeniería genética han llegado a adquirir un valor comercial per se, al encontrar aplicación en actividades industriales y campos tales como la mejora constante de la producción agrícola.
La clave de este opulento crecimiento de la biología del siglo XX debe encontrarse en la penetración de su actividad hacia el nivel molecular de los procesos biológicos. En efecto, es en el siglo XX cuando las nuevas técnicas de exploración permiten que el biólogo ya no sólo sea capaz de describir los fenómenos biológicos al nivel celular, sino que pueda ahora operar directamente sobre las unidades elementales de los procesos de la vida: las moléculas.
El punto crucial de esta revolución de la biología debe ubicarse, sin duda, hace treinta y siete años tan sólo, en 1953, año que marca el descubrimiento de James Watson y Francis Crick de la estructura de la molécula del ADN. (Acido desoxirribonucleico). Hoy en día las siglas ADN son patrimonio del hombre común.
El modelo estructural de Crick y Watson pudo ser formulado porque disponían de la técnica de “difracción de rayos X”, con la que podía fotografiarse la posición de los átomos dentro de una determinada molécula. Pero requirió asimismo la intuición de que los componentes esenciales del ADN, cuatro bases orgánicas, deben estar unidos en parejas definidas, adenina con timina y guanina con citosina. Esta es la intuición que da paso a la formulación del modelo en espiral doble, que mostraba cómo la molécula de ADN podía autoduplicarse. Si se separaba las cadenas que forman la estructura, cada una podía servir de molde para la formación de la otra a partir de moléculas del medio circundante.
Pasos ulteriores, en los que tanto Watson como Crick tuvieron parte activa, condujeron al desciframiennto del “código genético”. Fue posible demostrar cómo a un grupo particular de tres bases contiguas (“codón”) corresondía un determinado aminoácido natural. Los aminoácidos son moléculas relativamente sencillas que en grandes cantidades, pero dentro de una secuencia específica, constituyen las proteínas, los elementos estructurales y metabólicos esenciales de la vida. Ya no solo se había logrado la identificación de la estructura del material genético, sino también el desciframiento de su alfabeto y la descripción del mecanismo de transferencia de la información. (Watson descubrió la función de otro ácido nucleico—ARN—como “mensajero” que transfería el código del ADN hasta las mitocondrias, las estructuras celulares donde tiene lugar la formación de las proteínas).
A partir de este conocimiento el desarrollo de la biología molecular fue explosivo. Nuevas técnicas condujeron pronto a la posibilidad de la manipulación del material genético, operable ahora con procedimientos parecidos a los empleados por un técnico de sonido que corta, inserta y pega segmentos de una cinta magnetofónica. Había nacido la ingeniería genética.
La capacidad para alterar el material molecular de la herencia, mediante la modificación de la secuencia de bases en un ácido nucleico y las técnicas de reproducción celular en situación de laboratorio, introdujo de súbito un grande y complejo conjunto de problemas éticos y prácticos. En efecto, literalmente se estaba procediendo a crear nuevas formas de vida, cuya inserción ecológica distaba mucho de ser comprendida en todas sus consecuencias. De allí que la propia profesión biológica procediera a estipular una serie de controles estrictísimos y de especificaciones de seguridad a los laboratorios que pudieran manipular material genético.
Las consecuencias epistémicas de estos desarrollos son más de carácter práctico que relativas a la comprensión de nosotros mismos en tanto entidades biológicas. A fin de cuentas, al nivel conceptual grueso, las nociones de evolución orgánica estaban firmemente asentadas desde el siglo XIX. Lo que la biología molecular ha traído consigo es el detalle del mecanismo de la estabilidad y el cambio biológicos, junto con el problema de las transformaciones sintéticas en las que ahora el hombre tiene capacidad de intervenir. En otras palabras, ha logrado abrir la “caja negra” de la vida para desentrañar su mecanismo, pero no ha revolucionado conceptualmente el esquema general de la concepción biológica. Lo que ha permitido es el acceso a estructuras de importancia biológica que previamente estaban vedadas, y ante las que la interacción tecnológica estaba limitada a una farmacología gruesa.
Otra cosa es el conjunto de problemas éticos y prácticos planteados por esta nueva capacidad. Éste es, a nuestro juicio, el conjunto de temas al que mayor consideración debiera darse dentro de un programa de educación superior no vocacional. Penetrar con mayor detalle en el conocimiento de los conceptos y las técnicas de ingeniería genética—más allá de sus rasgos principales—sería adentrarse por el conocimiento requerible en una profesionalización dentro de la biología, lo que no constituye, obviamente, el objetivo de tal programa. En cambio, los problemas sociales derivados de capacidades tales como el control del sexo en nuevos seres humanos o, incluso, la duplicación genética idéntica—a través de la técnica de clonación—son cuestiones sobre las que es preciso tener una conciencia informada, puesto que no hay duda de que formarán parte de nuestra vida cotidiana.
El proyecto biológico de mayor magnitud de nuestros días, equivalente en magnitud de recursos aplicados e intensidad de cooperación internacional a los megaproyectos de la física de partículas o la exploración del espacio, es el proyecto de la determinación completa del genoma humano. Se trata nada menos que de determinar la secuencia íntegra, en todos sus detalles y componentes, del material genético contenido en los cuarenta y seis cromosomas de la célula humana. Se trata de disponer de los planos de construcción, del manual de instrucciones para el ensamblaje de un ser humano completo. Los problemas filosóficos y éticos, para no mencionar los políticos y prácticos, que derivan de la posibilidad de “sintetizar” un ejemplar de la especie humana en un laboratorio son, indudablemente, de una impensable enormidad. Son problemas sobre los que un sujeto educado a fines de este siglo debe poner atención y, en consecuencia, problemas que deben encontrar su espacio para el estudio y la deliberación en un programa de educación superior no vocacional.
Igualmente importante resulta ser lo que las nuevas tecnologías biológicas permiten en materia de extensión de la longevidad. Las consecuencias demográficas, y por tanto políticas y económicas, de una extensión notoria de la la longevidad de la especie humana son, nuevamente, de una dimensión gigantesca. Recientes progresos prometen redundar a corto plazo en una prolongación de la esperanza de vida promedio, sobre la base de poblaciones de países afluentes, de más de una década adicional. La mayoría de estos países confronta ya importantes problemas financieros derivados de su estructura demográfica junto con la adopción de sistemas de seguridad social dirigidos a la protección de jubilados.
En el límite, la conjunción de informática e ingeniería genética dan a pensar que será técnicamente posible vaciar el contenido psíquico de una persona en un cuerpo listo para estrenar. Es decir, se haría innecesaria la mítica estrategia de Walt Disney, de hacer congelar su cuerpo luego de su defunción a la espera del desarrollo de técnicas que le permitiesen revivir. La nueva estrategia consistiría en dejarse describir molecularmente para luego ser reconstruido en otro vehículo, sea éste un nuevo organismo humano sintetizado en laboratorios, o, tal vez, hasta en un robot computarizado cuyos bancos de memoria pudieran recibir toda la información pertinente a una antigua conciencia.
La segunda dimensión biológica característica del siglo XX es la de la conciencia ecológica. En nuestro criterio, acá sí ha tenido lugar un cambio en el paradigma básico, que antes postulaba a la especie humana como “propietaria” de un planeta y de todo lo que contenía, al que era perfectamente posible usufructar sin mayores problemas.
La interconexión de los sistemas biológicos y su ambiente general, geológico, climático, energético, se ha puesto de manifiesto muy evidentemente, como consecuencia del despliegue de los modos de producción industriales. Junto a las preocupaciones prácticas por los efectos de la contaminación industrial y las alteraciones de otra índole de ecosistemas de gran magnitud—talas, quemas, extinción de especies botánicas y zoológicas—dos nuevas direcciones del estudio biológico han producido una reconceptualización importante por la que el conjunto ecológico ha desplazado al organismo individual como sujeto último y esencial del conocimiento, como unidad fundamental de la biología.
La exacerbación del punto de vista de la ecología se produce con los trabajos y visiones de James Lovelock. Lovelock postula que el planeta Tierra es una unidad biológica, una entidad, una célula. (Los animales como nosotros seríamos algunos de sus organelos). Este punto de vista deber llevar, en algún tiempo, a la reformulación de al menos parte de la ecología.
Por un lado, la observación en el hábitat natural de la conducta de grupos zoológicos ha determinado la emergencia de la etología, ciencia en la que Konrad Lorenz marcó los más determinantes conceptos y protocolos. Por el otro, la conjunción de genética y ecología lleva a Edward Wilson a acuñar el término de sociobiología para dar paso a un enfoque revolucionario. Para la sociobiología los términos se han invertido, y desde su punto de vista no es que los genes son el mecanismo de reproducción de los individuos, sino que éstos vendrían a ser sólo los vehículos de la expresión de los genes, el medio de preservación de la información biológica básica contenida en los genes. No es una noción fácil de mantener dentro de nuestra psicología, pero si hay un verdadero cambio paradigmático en la biología del siglo XX, esta noción de la sociobiología es justamente esa transformación.
La etología y la sociobiología contienen nociones obvia y fácilmente transferibles al campo sociológico y político. (No en vano, por ejemplo, una de las más útiles obras de divulgación de los hallazgos y puntos de vista de la etología lleva por nombre El contrato social, de Robert Ardrey, quien dedica este libro nada menos que a Juan Jacobo Rousseau). De hecho, la sociología y la ciencia política han recurrido, en más de una ocasión, a la postulación de esquemas interpretativos extraídos directamente de modelos biológicos. La crítica de estos puntos de vista ha conducido a una saludable sospecha acerca de tal “organicismo” social, como un error conceptual que en el extremo ha derivado en un rechazo sistemático de las analogías biológicas.
Pero la biología, más allá de las obvias y sospechosas metáforas anatómicas, contiene ejemplos de estrategias aplicables al campo del quehacer humano. Considerése, por ejemplo, el ciclo evolutivo de la respiración o el intercambio energético a lo largo del desarrollo de la vida en la tierra. De acuerdo con los datos de la biología evolutiva, las primeras formas de vida en el planeta obtenían la energía necesaria para una estricta supervivencia de un mecanismo de respiración anaeróbica. La atmósfera primigenia no contenía oxígeno. En condiciones anaeróbicas la ruptura incompleta de una molécula de glucosa, que conduce a la formación de ácido láctico, molécula tóxica, y agua, produce escasamente la cantidad de energía necesaria para reponer la energía consumida en el proceso. En tales condiciones, y apartando los problemas de la necesaria eliminación de los desechos tóxicos, no es posible considerar siquiera la acumulación de reservas energéticas.
No es sino con la “invención” posterior, millones de años después de la aparición de los primeros organismos, de la fotosíntesis, que se hace posible la formación de reservas energéticas bajo la forma de azúcares complejos (almidones). La fotosíntesis construye moléculas de glucosa a partir del gas carbónico presente en el medio ambiente de las primeras eras geológicas y de agua, generándose oxígeno libre como subproducto del proceso. Por un lado, entonces, la construcción de moléculas de glucosa dio pie a la formación de macromoléculas que la contienen como monómero. Por el otro, la liberación de oxígeno transforma radicalmente la atmósfera terrestre, que por primera vez hará posible un nuevo modo, mucho más eficiente, de respirar. La respiración aeróbica, que ahora produce el desdoblamiento completo de la molécula de glucosa en moléculas de gas carbónico y agua, obtiene en la transición una cantidad de energía varios órdenes de magnitud superior a la que se desprende de la primitiva fermentación anaeróbica.
Creemos ver allí, si no una estrategia o modelo de desarrollo económico, al menos una ilustración de las relaciones observables entre los componentes de sistemas acumulativos. Es así como además del interés intrínseco del conocimiento biológico, éste es capaz de sugerirnos enfoques y aproximaciones valiosas en otros campos del conocimiento humano, incluyendo el que es pertinente a los procesos de la sociedad.
Para una inmersión suficiente en los temas más notables de la biología del presente siglo, resulta recomendable la lectura de Sociobiología, de Edward Wilson, el ya mencionado Contrato Social de Robert Ardrey y La doble hélice de James Watson. Este último libro, además de informar sobre los resultados específicos de la determinación de la estructura del ADN, es un recuento del proceso característicamente humano de una competencia feroz por el logro de ese conocimiento. Su lectura contribuye, definitivamente, a la disipación de una cierta visión romántica e inexacta acerca del quehacer científico, al poner al desnudo las pasiones involucradas en una búsqueda nada pacífica del prestigio profesional.
Como en el caso de la física del universo, resultará aconsejable informar a los sujetos de un programa de educación superior no vocacional, acerca de los desarrollos más recientes en materia de las diversas disciplinas biológicas. Por ejemplo, en 1990 hubo de señalarse el primer caso concreto de terapia genético-molecular en la historia de la medicina. En el primer intento por curar una enfermedad de asiento genético, W. French Anderson aplicó las técnicas de la ingeniería genética contra la condición conocida como inmunodeficiencia combinada severa (SCID por sus siglas en inglés), o enfermedad del “muchacho de la burbuja”. La sangre de pacientes de SCID fue extraída para proceder a un cultivo de sus glóbulos blancos. Éstos fueron expuestos luego a la acción de un retrovirus modificado por ingenieros biológicos y que contiene el gen del que los pacientes carecen. El virus infectó a los glóbulos blancos y les transfirió el gen. Las pruebas confirmaron que las células habían comenzado a producir la enzima faltante y que el virus—diseñado para que sea autolimitante—ya no estaba presente en forma infecciosa, por lo que se procedió a reinsertar aquéllas en la sangre de los pacientes.
Esta terapia puede salvar la vida de millares de niños impedidos de recibir el principal tratamiento alternativo, consistente en transplantes de médula ósea. Pero más allá de este efecto específico, la técnica ha abierto el campo hacia su generalización en múltiples otros casos de terapia genética, que seguramente veremos proliferar antes de que el siglo concluya.
La persona
“Sea o no que el estudio de la humanidad tenga como objeto propio el hombre mismo, lo cierto es que ése es el único estudio en el que el conocedor y lo conocido son la misma cosa, en el que el objeto de la ciencia es la naturaleza del científico”. (The Great Ideas, A Syntopicon. Britannica Great Books, Tomo 2, Man).
Viniendo de la biología, una primera aproximación al estudio antropológico procede por los caminos de esa ciencia. La psicología más básica es la que describe los procesos fisiológicos de la percepción y la intelección. A este respecto, las investigaciones de este siglo han hecho poco más que una labor anatómica descriptiva de la enmarañada anatomía del cerebro humano. Capítulos particulares abren sendas a la medicina, como en el caso de los recientes avances de la fisiología del dolor. Pero para la comprensión estrictamente entendida de las bases biológicas de los procesos mentales, la ayuda se está buscando ahora por los predios de la informática.
En efecto, la estrategia más englobante consiste ahora en formular modelos informáticos del cerebro que sean, por un lado, compatibles con lo que se conoce de la anatomía concreta de ese órgano y la bioquímica de los procesos nerviosos y, por el otro, con la descripción de esos mismos procesos desde el punto de vista del contenido de la información procesada. Algunos modelos especiales han aportado valiosas intuiciones acerca de los criterios de codificación de la información, como en el caso del modelo de la percepción neurológica del color aportado por Edwin Land. Otras formulaciones, procedentes del análisis de diversas patologías, han tenido éxito en la identificación de “cajas negras” de circuitos neurológicos específicos, de los que se ignora su mecanismo íntimo pero ya se conoce bastante acerca de su “valor agregado” en cada etapa de una secuencia elaboradora de información. Este es un campo al que se agregan cada vez más investigadores, aun prestados de otros campos, como en el caso de Francis Crick, nuestro conocido de la biología molecular y genética.
El desarrollo, por el lado de la teoría de la información, de modelos generales de procesamiento así como los avances en materia de inteligencia artificial, repetimos, parecen constituir la avenida más promisoria para la dilucidación del “misterio de la mente”. Pero en este campo se está relativamente en pañales.
A otro nivel, el de la psicología propiamente dicha, creemos poder afirmar que el siglo XX no ha producido un cambio paradigmático equivalente al de la introducción del psicoanálisis por Sigmund Freud y su generalización global por mano de Carl Gustav Jung. A partir de sus fundamentales aportes, lo observable es una proliferación de enfoques parciales con intención usualmente terapéutica y de valor dudoso. Es posible que algunos enfoques, tales como los esquemas del llamado análisis transaccional, puedan resultar de alguna utilidad en el manejo de las relaciones interpersonales. Puede suponerse que es necesario avanzar mucho más en materia de la bioquímica de los procesos psicológicos, como lo postula la corriente de la “psiquiatría ortomolecular”. Pero después de un inventario completo del desarrollo de la psicología en este siglo, poca cosa de valor queda una vez que ha logrado identificarse a los discursos que logran efímeras modas de relativa fama terapéutica y que continúan manejando categorías conceptuales vistosas, pero tan inasibles como la noción de “autoestima”.
Resulta paradójico, pues, que del sujeto de conocimiento que más tenemos a la mano, poseamos el conocimiento menos sólido y más debatible. Es por esto que recomendaríamos una estrategia deliberadamente fragmentaria y asistémica para el asedio del tema de la persona en un programa de educación superior no vocacional.
En primer término, creemos conveniente exponer a los alumnos de un programa tal a situaciones experimentales o ejercicios en materia de, por ejemplo, procesos de comunicación humana. Un simple ejercicio de transmisión secuencial de información entre los integrantes de un aula puede arrojar una invalorable apreciación práctica de problemas de la teoría de la información.
En segundo lugar, el discurso freudiano tiene bastante de obsoleto, al haber sido construido, inevitablemente, a partir de casos psicológicos de personas que vivían en la Europa de su época. De ese momento a nuestros días el estilo de vida promedio ha experimentado profundos cambios, así como los valores y las ideologías. Las patologías igualmente han variado. La lectura del libro de Rollo May, El amor y la voluntad, puede revelarse como útil a la hora de juzgar, tanto lo residualmente valioso de las tesis de Freud, como la agenda de nuevos problemas a los que se enfrenta la psicología contemporánea a causa de las aceleradas transformaciones de la sociedad moderna.
Por último, nos interesa el estudio de la persona inmersa en su ambiente social y, por tanto, la interacción de la psiquis individual con las estructuras y procesos del nivel societal. A este respecto la obra de David McClelland resultará ilustrativa, ya que no definitiva. Por una parte, sus estudios comparativos sobre el tema de la motivación al logro en diversas culturas conducen a una explicación plausible de algunos aspectos del desarrollo económico de la época industrial. Más tarde, McClelland profundizó en Power: the inner experience, sobre el asunto de las relaciones de poder. En este importante estudio, McClelland rescata un valor operativo en algunas nociones de Freud sobre la maduración por fases de la personalidad.
Lamentamos no poder ofrecer una lista más extensa de textos o de temas, pero insistimos en la noción de que la psicología, como otras ciencias colegas entre las disciplinas del hombre o de la sociedad, es una ciencia que después de Freud y Jung poco puede exhibir como conocimiento sólidamente establecido. Lo que sí resulta posible, y seguramente útil, es exponer a la atención del alumno un inventario de nociones o hechos puntuales de la psicología y, en algunos casos, de aplicaciones prácticas de ese conocimiento. Por ejemplo, temas como la percepción subliminal, las personalidades autoritarias y su patología, recientes avances en materia de la psicología de lo cognoscitivo (más acá de la obra de Jean Piaget), el proceso de cambio actitudinal (modelos de Festinger y de disonancia cognoscitiva), etcétera, pueden ser de utilidad dentro de un conjunto algo abigarrado de aproximaciones al problema de la persona.
La sociedad
A pesar de que las llamadas ciencias sociales, como la psicología, carecen en general de paradigmas de universalidad equivalente a los considerables dentro de las ciencias físicas, una vez que se abandona la dimensión individual para salir al campo de lo societal, el discurso posible se hace más consistente. Creemos conveniente, en términos de un programa como el que nos ocupa, la consideración de lo societal desde dos puntos de vista. Uno, al que llamaremos sociológico, tiene una intención más descriptiva. El otro, al que denominamos político, viene signado por una intención activa de operación consciente sobre la sociedad.
Desde el punto de vista sociológico, se hace posible un estudio “estático” de la sociedad y sus formas características, y un estudio “dinámico” centrado sobre el problema del cambio social. En general, preferimos este último enfoque. Sin despreciar las valiosas intuiciones de un enfoque estructuralista, la sola consideración de que somos actores participantes en una época de aceleradísimo cambio social, nos impele a recomendar el estudio de unos cuantos temas sociológicos desde una perspectiva dinámica o evolutiva.
Es por esto que nuestra primera recomendación es la de dedicar un tiempo significativo al estudio de la explicación weberiana del desarrollo capitalista, a partir de la internalización de una ética protestante. (La ética protestante y el origen del capitalismo). De inmediato, el esquema weberiano es estudiable en los trabajos del ya nombrado David McClelland. En La sociedad del logro, McClelland “operacionaliza” las nociones de Weber y logra mediciones empíricas corroborativas mediante el empleo de técnicas proyectivas de la psicología y del llamado “análisis de contenidos”. El trabajo de McClelland es particularmente pertinente al caso venezolano, además, porque sus técnicas fueron empleadas en el análisis de textos de la educación primaria en Venezuela y en tests suministrados a conjuntos muestrales de escolares en nuestro país, con resultados altamente significativos.
El segundo texto cuyo estudio recomendamos es La Tercera Ola, del ensayista norteamericano Alvin Toffler. Su virtud principal reside en el hecho de proporcionar un esquema de conjunto operacionalmente coherente sobre la evolución de la civilización en fases nítida y justificadamente distinguibles desde el punto de vista conceptual. La “tercera ola” es la fase en la que nos hallaríamos inmersos, signada como una era de la información y del predominio de las llamadas altas tecnologías. Los cambios societales permitidos por estas tecnologías son profundos y extensos: la planetización de la economía, que es tema del día en círculos gerenciales, puede ser vista en este contexto como resultado de la intercomunicación que se ha desarrollado en las últimas décadas del siglo. No hay duda de que semejante transformación implicará, como se ha observado ya recientemente, cambios políticos igualmente importantes.
Un complemento a esta visión de Toffler puede obtenerse en los libros de John Naisbitt—Megatendencias I y II—que constituyen una forma más manual de presentar, en el fondo, el mismo tema. No son desdeñables tampoco, aunque más antiguos, los ejercicios de predicción del finado Hermann Kahn—El año 2000, Los próximos 200 años—puesto que contienen discusiones de mayor profundidad sociológica que las presentadas en los textos de Toffler y Naisbitt, de tono más divulgativo.
Finalmente, a un nivel algo más restringido al ámbito de las corporaciones y otras organizaciones, los textos de Peter Drucker—especialmente La nueva organización—son un aporte útil para la comprensión de los impactos que procesos tales como la informatización, causan sobre el modo de estructurar las relaciones del trabajo del hombre.
A título de inventario de hechos que requieren interpretación, consideramos útil dar al alumno de este programa información suficiente sobre algunos de los avances tecnológicos más recientes: inteligencia artificial, transmisión de señales por vía óptica, nuevos materiales cerámicos y nuevas aleaciones, materiales con memoria dimensional, superconductividad, televisión de alta definición, biónica y bioingeniería, manufactura en ambientes de gravitación nula, etcétera. Cada uno de ellos enriquece más aún la gama de transformaciones sociales que serán necesarias para alojarlos y aprovecharlos cabalmente.
……………………………….
Desde el punto de vista político, esto es, desde la perspectiva de la actividad del hombre en la solución de problemas de carácter público, es importante llamar la atención al hecho crucial de una crisis en los paradigmas políticos operantes.
El texto de John R. Vásquez, The power of power politics (sin traducción castellana), destaca la crisis de ineficacia explicativa y predictiva del paradigma que concibe a la actividad política como proceso de adquisición, intercambio y aumento del poder detentado por un sujeto de cualquier escala. (Individuo, corporación, estado). Aun cuando su investigación se centra sobre la inadecuación de esa visión en el campo académico de las ciencias políticas, este fenómeno tiene su correspondencia en el campo de la política práctica. (A fin de cuentas, lo que la baja capacidad predictiva de ese paradigma significa es que en la práctica política el estilo de la Realpolitik parece, al menos, haber entrado en una fase de rendimientos decrecientes).
Yehezkel Dror ha aportado un enfoque diferente. Dejando de lado el enfoque tradicional de la ciencia política, su interés se desplaza al de las ciencias de las políticas (policy sciences en lugar de political sciences). Por este camino ha podido proporcionar un bien estructurado esquema de los modos concretos de arribar, con una mayor racionalidad, a “mejores soluciones” para problemas de carácter público. Es recomendable, al menos, el estudio de su libro Design for policy sciences.
La crisis del paradigma de la Realpolitik, junto con el despliegue de nuevos métodos para el análisis y configuración de las decisiones públicas debe desembocar en una nueva con ceptualización de la actividad política. A nuestro juicio, el crecimiento de la informatización de la sociedad en su con junto, exigirá un cambio importante en el modo de legitimación de los actores políticos. Un caso ilustrativo es el de la crisis del Partido Demócrata de los Esta dos Unidos de Norteamérica. William Schneider, en Para entender el neoliberalismo, describe el cambio de este modo: “…la división era entre dos maneras distintas de enfocar la política, y no entre dos diferentes ideologías.”… “La generación del 74 rechazó el concepto de una ideología fija”… ”En The New American Politician el politólogo Burdett Loomis emplea el término empresarial para describir la generación del 74.”… ”De una manera general, los nuevos políticos pasaron a ser empresarios de política que vincularon sus carreras a ideas, temas, problemas y soluciones en perspectiva.” … ”Adoptaron el punto de vista de que las cuestiones políticas son problemas que tienen respuestas precisas, a la inversa de los conflictos de intereses que deben reconciliarse”.
En Venezuela el modelo de la reconciliación, de la negociación, del pacto social o de la concertación, resulta ser todavía el modelo político predominante. En análisis relativamente modernos, como en el caso del difundido trabajo del IESA—El Caso Venezuela: una ilusión de armonía—la recomendación implícita es la de continuar en el empleo de un modo político de concertación, al destacar como el problema más importante de la actual crisis el manejo del conflicto.
Tal vez porque la etapa democrática venezolana es de cuño tan reciente, haya una resistencia, por ejemplo, al planteamiento de una “reconstitución política”. La Constitución de 1961 es un hecho cronológicamente reciente. Como tal se la percibe como si fuese un dechado de modernidad, cuando en verdad viene a ser la última expresión de un paradigma político agotado.
Es por esto que resulta aconsejable incluir en un programa de estudios superiores no vocacionales una discusión sobre las nuevas direcciones y concepciones del quehacer político. Entre éstas, valdrá la pena, a nuestro juicio, examinar el nacimiento de una concepción “médica” de la actividad política, cuyo antecedente más próximo es la afirmación de Dror: “Policy sciences are in part a clinical profession and craft”.
La política no es una ciencia: es una profesión. Es un arte, un oficio. Como tal, puede aprenderse. Del mismo modo que la medicina es una profesión y no una ciencia, aunque de hecho se apoya en las llamadas “ciencias médicas”, que no son otra cosa que las ciencias naturales enfocadas al tema de la salud y la enfermedad de la especie humana. Es así como la política debe ser entendida como profesión, aunque existan ciencias “políticas”, como la sociología, exactamente en el mismo sentido en que el derecho es una ciencia y la abogacía es lo que resulta ser la profesión, el ejercicio práctico.
La informatización acelerada de la sociedad, con su consiguiente aumento de conciencia política de las poblaciones, está forzando cambios importantes en los estilos de operación política. El Glasnost, más que una intención, es una necesidad. El previo modelo de la Realpolitik requería, para su operación cabal, de la posibilidad de mantener, discretamente ocultas, la mayoría de las decisiones políticas. Como hemos visto recientemente, hasta las operaciones que son intencionalmente diseñadas para ser administradas en secreto, son objeto de descubrimiento, casi instantáneo, por los medios de comunicación social.
Son condiciones muy diferentes aquellas que definen el contexto actual del actor político. El tiempo que separa la acción política de la evaluación política que de ella hacen los gobernados se ha acortado considerablemente, por señalar sólo uno de los cambios más determinantes. Es así como esta actividad humana atraviesa por un intenso período de reacomodo conceptual.
Si el paradigma médico puede servir para una reformulación de la actividad política, el concepto de qué es lo que puede ser descrito como una “sociedad normal” resulta ser noción central de todo el tema. Se trata de limpiar de carga ideológica y de pasión el acto evaluativo sobre el estado general de una sociedad determinada.
Por ejemplo, una definición de sociedad normal se verá expuesta a cambios de significado con el correr del tiempo, así como la definición de “hombre sano” ha variado en el curso de la historia. No puede ser la misma concepción de salud la prevaleciente en una sociedad en la que la esperanza de vida alcanzaba apenas a los treinta años, que la que es exigible en una que extiende la longevidad con las nuevas tecnologías médicas.
Del mismo modo, una cosa era la “sociedad normal” alcanzable a fines del siglo XVIII y otra muy distinta la asequible a las tecnologías políticas de hoy en día. Por ejemplo, es innegable el hecho de que la mayoría de las naciones del planeta exhiben una distribución del ingreso que dista bastante de lo que una “curva de distribución normal” describiría. Igualmente, la intensidad democrática promedio, aún en naciones desarrolladas, está bastante por debajo del grado de participación que las tecnologías de comunicación actuales permitirían.
Convendrá discutir, en el seno de este programa, sobre el tema de los límites psicológicos, tecnológicos y económicos de la democracia.
Psicológicos, porque no es dable pensar en una reedición literal de la asamblea griega clásica, en la que la agenda total de las decisiones públicas atenienses era manejada por la “totalidad” de los ciudadanos. Hay límites a la idoneidad del procedimiento democrático y hay decisiones, la mayoría de ellas técnicas, que son indudablemente mejor manejadas por los especialistas.
Tecnológicos, porque es la tecnología la que dibuja el borde de lo que es posible en principio. El avance de las redes de comunicación permite prever una mayor frecuencia de procedimientos de referéndum para una mayor gama de decisiones públicas. Y al entreverse la posibilidad la presión pública por acceder a ese grado de participación no se hará esperar.
Económicos, porque obviamente las instituciones políticas tienen un costo de inserción y un costo de operación. No es posible hacer todo.
Pero en cualquier caso, el cambio de paradigma político está en proceso. Retornamos a Schneider: “Los que solucionan problemas viven en una cultura política altamente intelectualizada que respeta la pericia y la competencia. Esto no significa que practiquen una política libre de valores. Varios miembros de la generación del 74 a los que entrevisté se sentían ofendidos cuando se les calificaba de tecnócratas, y prácticamente cada uno de ellos hacía demasiado hincapié en su compromiso con los valores liberales. Sin embargo, no los distinguen sus valores sino su manera de enfocar la política. Los que solucionan problemas practican una política de ideas. Los demócratas más tradicionales se consideran defensores; la suya es una política de intereses.”
Creemos que sería inconveniente enseñar, a los alumnos de un programa que aspira a ser distinguido por su contemporaneidad, una política que sólo se concibe como conciliación de intereses, cuando justamente esa política está dando paso a una política de ideas y soluciones.
El metauniverso
Un paseo por los temas precedentes, independientemente de la profundidad con que se emprenda, habrá dejado de lado las acuciantes preguntas finales que habitualmente son el predio de la filosofía y la teología. Consideraríamos fundamentalmente incompleto un programa de educación superior que las eludiese intencionalmente.
Sería sorprendente que la turbulencia detectada, a fines del siglo XX, en prácticamente toda parcela del conocimiento de la humanidad, estuviera ausente de cuestiones tales como el sentido del mundo y el significado último de la existencia humana. Es cada vez más frecuente encontrar, por otra parte, en los diagnósticos que intentan establecer las causas de la erosión institucional y la patología de la conducta societal, una referencia a una crisis de los valores. Sería igualmente sorprendente que la solución a ésta mentada crisis de los valores, a diferencia de la orientación futurista que hemos emprendido en relación con los tópicos previos, fuese a encontrarse en una vuelta a imágenes que fueron funcionales en un pasado.
Pero no se trataría en un programa como el que esbozamos de vender una filosofía, una teología o una religión particulares. Se trataría, en cambio, de afrontar decididamente la temática, de explorarla en conjunto, de discutirla. Por fortuna, también en este territorio es posible echar mano de textos útiles para una deliberación informada sobre el tema.
En primer lugar, es nuestra decidida recomendación la lectura de El Fenómeno Humano, del jesuita francés Pierre Teilhard de Chardin. Como él mismo se cuida de dejar claramente asentado en su introducción a esa obra, su punto de partida no es místico o teológico. Su perspectiva es fenomenológica, basada sobre su experiencia directa como paleontólogo. Y a pesar de que ese importante texto se encuentre desactualizado en más de un dato desde el punto de vista de la empírica paleontológica, su esquema de conjunto continúa siendo un sugestivo y estimulante discurso sobre el sentido del universo.
En una vena diferente están las ideas de Edward Fredkin, profesor de ciencias de la computación en el Instituto Tecnológico de Massachussetts. Fredkin no ha escrito libros, pero sus ideas sobre el universo, expuestas en varios cursos que dicta en el instituto mencionado, han sido recogidas en otras obras, entre otras, en Three Scientists and Their Gods: Looking for Meaning in an Age of Information, escrita por Robert Wright.
Fredkin postula que el universo es semejante a una computadora colosal en la que corre un programa diseñado para responder a una pregunta de Dios. Reporta Wright: “Pero entre más charlamos, Fredkin se acerca más a las implicaciones religiosas que está tratando de evitar. «Me parece que lo que estoy diciendo es que no tengo ninguna creencia religiosa. No sé qué hay o qué podría ser. Pero sí puedo afirmar que, en mi opinión, es probable que este universo en particular sea una consecuencia de algo que yo llamaría inteligencia.» ¿Significa esto que hay algo por ahí que quisiera obtener la respuesta a una pregunta? «Sí» ¿Algo que inició el universo para ver que pasaría? «En cierta forma, sí.»”
La visión de Fredkin es una nueva versión de las ya frecuentes identificaciones o correspondencias entre lo físico y lo informático. Todavía es al menos una curiosidad insólita, si no un misterio más profundo, que la forma matemática de la ecuación de la entropía térmica sea exactamente la misma de la ecuación fundamental de la teoría de la información, formulada por Claude Shannon en los años cuarenta de este siglo. La computadora cósmica de Fredkin tendría que operar, entre otras cosas, dentro de algoritmos fractales que generarían con el tiempo el “caos” del universo observable.
Dios sería, entonces y entre otras cosas, una memoria infinita, un “RAM” inagotable que preservaría, en estado de información completa, el origen y el acontecer del cosmos.
Parece ser una experiencia reiterada de la ciencia el toparse, en el límite de sus especulaciones más abstractas, con el problema de Dios. Puede que sea un importantísimo subproducto de la actividad científica moderna el de proporcionar imágenes para la meditación sobre un Dios al que ya resulta difícil imaginar bajo la forma de un ojo en una nube o una zarza ardiendo. Un Dios informático para una Era de la Información.
Otras intuiciones pertinentes nos vienen, como de contrabando, junto con el tema de “los otros”: la presencia de otros seres inteligentes en el universo. Los astrofísicos consideran muy seriamente la posibilidad de vida inteligente extraterrestre. En realidad, dado el gigantesco número de estrellas y galaxias, contadas por centenares de millones, la hipótesis de que estamos solos en el cosmos resulta, decididamente, una conjetura presuntuosa.
Hasta ahora no hay resultado positivo de los incipientes intentos por establecer comunicación con seres extraterrestres, a pesar de la seriedad científica de tales intentos. (Por ejemplo, el proyecto OZMA, que incluyó la transmisión hacia el espacio exterior de información desde el gran radiotelescopio de Arecibo, en Puerto Rico, en códigos que se supone fácilmente descifrables por una inteligencia “normal”).
¿Qué consecuencias podría esto tener para, digamos el paradigma cristiano, hasta cierto punto asentado sobre una noción de unicidad del género humano en el universo? Aun antes de cualquier contacto del “tercer tipo”, la mera posibilidad del encuentro ejerce presión sobre los postulados actuales de al menos algunas—las más “personalizadas”—entre las religiones terrestres.
En otra dirección, ¿qué alteraciones impensadas podrían producirse en el sentimiento trascendental y religioso del hombre si efectivamente se llegara a construir “inteligencias artificiales” operacionalmente indistinguibles de la de un ser humano? ¿Qué nuevas nociones éticas, qué nuevas figuras de derecho requeriría un hecho tal? ¿Tal vez una bula pontificia que declare—como en Short circuit II, la película reciente—la “humanidad” de estos seres sintéticos? ¿Sería admisible su esclavización? ¿Es la especie humana la última fase de la evolución biológica, o será una nueva especie una combinación de metales y cerámicas que hayamos programado con inteligencia y con capacidad de autorreproducción?
O, una reflexión ulterior y mucho más radical, sugerida por la hasta hace nada impensable capacidad de alteración artificial del material genético. Nuestra idea firmemente acendrada es la de que habitamos un ambiente cósmico que obedece a unas leyes inmutables. ¿No habrá allá, en un remoto futuro de la humanidad, así como hoy alteramos a voluntad “las leyes de la vida”, la posibilidad de que modifiquemos incluso las leyes de la física, de que variemos la magnitud de una constante universal, y con ello alteremos el propio tejido del universo o demos origen, más aún, a un universo completamente nuevo?
Son cuestiones todas éstas que estimamos saludablemente planteables a inteligencias en procura de una educación superior.
…………………
UN NUCLEO INSTRUMENTAL
Un objetivo fundamental de este programa de educación superior, tal vez más profundamente pedagógico que el de ofrecer las nociones más recientes sobre el hombre y su universo, sea el de proporcionar las herramientas útiles al desempeño intelectual. En efecto, transferir contenidos incurre inevitablemente en la subjetividad de la selección de lo que se transmite. En cambio, dotar a un hombre de herramientas para el aprendizaje, para la operación intelectual, es de hecho una donación más liberadora.
El objetivo es formulable de la manera siguiente: se trata de convertir un mal aprendedor en un buen aprendedor, siguiendo la terminología de Neil Postman y Charles Weingartner. Estos autores señalan, entre los rasgos de un buen aprendedor, su apertura mental, la nula incomodidad que sienten al formular preguntas, su disposición al reconocimiento de la propia equivocación, su placer de encontrarse en situación de aprendizaje. Obviamente, un buen aprendedor posee, además, el dominio de ciertos métodos y técnicas que hacen eficiente el proceso de absorción y elaboración de conocimiento.
El proyecto Lambda patrocinado por la Fundación Neumann, mencionado al inicio de esta tesis, demostró convincentemente que la posesión de estas técnicas es la clave para el desempeño intelectual adecuado de un estudiante de educación superior. Igualmente, que tales técnicas y métodos son pefectamente inventariables y reconocibles, y que, finalmente, son enseñables con relativa facilidad.
En esta sección propondremos un programa que incluye lo que, a nuestro juicio, deben ser las herramientas básicas a adquirir dentro de un núcleo de actividades instrumentales.
En primer lugar, son de alta utilidad práctica las técnicas que permiten aumentar la capacidad de absorción y retención de información bruta. Estas son, principalmente, las técnicas de lectura veloz, las de memorización, las de esquematización y las de lectura interpretativa. Son obvias las ventajas de una lectura rápida en un mundo rápido, en el que la cantidad de información disponible prolifera exponencialmente. La memorización es eficiente porque también resulta más rápido el acceso a la información depositada en el cerebro humano que en el medio de grabación y reproducción más veloz del más veloz de los computadores. La esquematización es ejercicio importante y conveniente porque permite asir la estructura de un discurso, facilita las operaciones lógicas y críticas posteriores sobre el mismo y comprime la cantidad de información que es necesario memorizar. Finalmente, la lectura interpretativa no consiste en otra cosa que la comprensión correcta de lo que se ha leído, lo que, parecerá difícil de creer, es algo para lo que el bachiller venezolano promedio está impreparado para lograr. Cada una de estas cuatro habilidades es enseñable con facilidad y al menos sobre las dos primeras existe suficiente literatura descriptiva.
En un nivel ulterior se encuentran las operaciones de transformación y elaboración intelectual. En la base de estas operaciones se conseguirá a la operación de descripción y a la operación de definición. Es sorprendente, pero también acá el bachiller venezolano es marcadamente deficiente. Se ha demostrado que basta ejercitarse en problemas de descripción y definición para alcanzar un nivel de suficiencia a este respecto.
Los ejercicios de clasificación son similares a los de esquematización o están incluidos en éstos, y conviene practicarlos para ser capaz de verter en forma condensada un discurso propio y para facilitar un análisis de la consistencia de lo que se dice.
En esto último cumple el papel esencial la capacidad de razonamiento ordenado. Los modos de razonamiento cotidiano incurren con mucha frecuencia en aberraciones del raciocinio fácilmente evitables, si se llega a adquirir familiaridad con los principales esquemas de razonamiento. En este punto, el raciocinio normal puede ser razonablemente descrito por una lógica del tipo aristotélico y escolástico. No obstante, no es de despreciar una cierta familiarización con los principios básicos de la lógica simbólica, principalmente con los primeros niveles del cálculo proposicional, aunque es recomendable el conocimiento de al menos la nomenclatura básica de la lógica modal, la lógica temporal y la lógica de la preferencia.
Ya nombrados, los juegos de la serie WFF’n Proof, como el que lleva este mismo nombre o Queries and Theories, son herramientas didácticas fácilmente asequibles a la instrucción y prácticos modos de familiarización con la lógica formal y el método general de la ciencia. (En un extremo del refinamiento, y dependiendo del tiempo dedicable a este programa de educación superior, sería interesante el aprendizaje de Loglan, lenguaje ya mencionado como desarrollo de James Cook, y cuyos manuales y diccionarios son obtenibles comercialmente). Dentro de la serie WFF’n Proof, un juego particularmente interesante es el llamado Propaganda, cuya finalidad es la de enseñar a detectar instancias de razonamiento defectuoso.
En otra familia de técnicas están aquellas que pretenden desarrollar habilidades creativas o inventivas. Edward De Bono, autor del concepto de “pensamiento lateral” (lateral thinking), es el autor más conocido a este respecto y ha publicado más de un libro dedicado a la descripción de sus técnicas para el pensamiento no convencional. Para la creación en grupo y el fortalecimiento de la disposición al trabajo en equipo, convendrá incluir ejercicios de brainstorming, en los que se estimula la proliferación de ideas dirigidas a resolver un problema.
Luego, consideramos importante y conveniente exigir a los alumnos de este programa la confección de “escenarios” o la detección de “atractrices” sociales, como modo de hacerles pensar en el futuro de un modo no lineal y más realista.
En otro reino distinto, es de alta importancia estratégica que los alumnos puedan aprender a valerse de computadores para su trabajo intelectual. Los computadores, a los que más propiamente debiera llamarse “asistentes cerebrales electrónicos”, potencian grandemente la rapidez y capacidad del trabajo mental.
A este respecto es nuestra experiencia que el mejor modo de enseñar el uso de computadoras es el de enseñar sobre problemas concretos formulables o resolubles mediante aplicaciones en software, antes que comenzar por generalidades más abstractas de la estructura y forma de operación de un computador. Sugeriríamos la instrucción directa con los siguientes ejercicios: modelación de un presupuesto de ingreso y gasto en una hoja electrónica de datos, construcción de una base de datos, escritura de un texto con auxilio de un procesador de palabras, creación y manipulación de figuras en un programa de procesamiento de imágenes, diseño y montaje de diferentes documentos, textuales y gráficos, en páginas generadas en una aplicación editorial.
En nuestra opinión, la enumeración precedente constituye una dotación instrumental suficiente para el aprovechamiento pleno de un programa de educación superior no vocacional.
…………………..
LOS EMPAQUES Y SUS ESTRATEGIAS
Un programa como el anteriormente descrito, tanto en su aspecto epistémico como en su aspecto instrumental, es desarrollable, y en algunos casos complementable por otras actividades, en diversos tipos de cursos, diferentes duraciones e intensidades.
Un colegio superior de estudios generales
Lo preferible sería, por razones de profundidad y asimilabilidad, disponer de varios años para un programa tal. Se trata de la noción del college, de un colegio superior de estudios generales, pensado como una ruta genérica y distinta a la de nuestra licenciatura tradicional hacia posteriores ciclos de profesionalización.
Creemos que resultaría muy suficiente un colegio superior de tres años de duración. Este tiempo, inferior al college norteamericano de cuatro años, se justifica en términos de tres razones. Primera, la duración de tres años toma en cuenta la diferencia entre el bachillerato venezolano, nivel requerido para ingresar a este programa, y el high school norteamericano. Segundo, guarda relación con la duración de los programas en los institutos universitarios tecnológicos del sistema de educación superior en Venezuela, y por tanto facilitará el manejo jurídico de su definición e inserción en éste, al producir una figura análoga al nivel acordado a esos institutos. Tercera, puede beneficiarse de una mayor eficiencia o productividad del modo didáctico, lo que permite una compresión del tiempo necesario a la enseñanza. (El proyecto Lambda probó con éxito una estrategia de “cima de pirámide” en cursos sobre disciplinas particulares. Por ejemplo, en un curso sobre termodinámica, en lugar de seguir el esquema secuencial típico de consideración in extenso de tema por tema, se procedió a definir todo el conjunto de los conceptos y magnitudes básicas de esa ciencia en una o, a lo sumo, dos clases, para proceder luego con un esquema secuencial. El experimento reveló que la estrategia mencionada permitió cubrir el programa completo, con un excelente nivel de comprensión, en un tiempo menor que el acostumbrado).
En el programa de un colegio superior de este tipo sería posible complementar la educación epistémica e instrumental con actividades de educación estética o expresiva y actividades deportivas. El arte y el deporte son, además de muchas otras cosas, canales de aprendizaje y expresión distintos a los de la actividad intelectual propiamente dicha, pero no por eso dejan de ser actividades valiosas, a las que un programa más completo de educación superior debe tomar en consideración.
Sería importante que nuestro colegio fuese reconocido como conducente de modo directo a un nivel de postgrado. Esto es, si a un egresado de un colegio así le fuese exigida adicionalmente una licenciatura para tener acceso a cualquier postgrado, tal cosa atentaría contra el atractivo del programa y dificultaría su “mercadeo”. Es indudable que para más de un postgrado dentro de algunos campos profesionales, el programa de estudios superiores no vocacionales resultaría un canal de acceso inadecuado. Pero para muchos casos podría ser una preparación más que suficiente, y para otros debería bastar un año de estudios especiales que, otra vez, con técnicas de compresión temporal, equiparara al egresado del colegio general a cualquier licenciado para propósitos de prosecución de estudios de postgrado.
Esto último implicaría un conjunto considerable de cambios en la estructura de la educación superior en Venezuela, en cualquier caso necesarios. Pero dada la baja factibilidad de tales cambios a corto plazo, en razón de lo tradicionalmente refractario y conservador de nuestro sistema educativo, en razón de la “permisología” o “permisería” que habría que vencer, otra estrategia, aplicable de inmediato, sería preferible.
Nuestra recomendación consiste en obtener la admisión de los egresados del colegio superior de estudios generales en dos institutos de postgrado de reconocida calidad en el país. Se trata del Instituto de Estudios Superiores de Administración, IESA, y el Centro de Estudios de Postgrado del Instituto Venezolano de Investigaciones, IVIC.
Ambos son centros relativamente anómalos y hasta cierto punto fuera del sistema convencional de educación superior en Venezuela. El IVIC, por ejemplo, a pesar del alto nivel de sus cursos, debió recurrir a las designaciones en latín de magister y philosophus scientiarum porque no le fue concedido conferir títulos de doctor. Pero ambos son, seguramente, los centros más prestigiosos de educación de postgrado en el país.
No vemos mayor dificultad en la posibilidad de interesar a ambas instituciones en discutir la admisibilidad en sus cursos de los egresados de un colegio de estudios generales como el planteado en este trabajo. Por ejemplo, el IVIC admite a sus cursos a egresados de licenciaturas no solamente científicas, sino a licenciados en educación con mención en alguna ciencia, los que naturalmente poseen una preparación menos extensa que la de los licenciados científicos.
Sería grandemente ventajoso, por lo demás, que fuesen una institución educativa del sector privado y una del sector público, las que certificasen la calidad del programa propuesto. Ambas instituciones, más aún, pueden participar con sus especificaciones en el diseño curricular en detalle del colegio superior de estudios generales.
Otra institución interesada en enfoques de esta naturaleza es la Fundación Gran Mariscal de Ayacucho, en su actual concepción estratégica. Entendemos que FUNDAYACUCHO procura, por decirlo de algún modo, refinar su puntería a la hora de adjudicar sus becas de estudio. De allí su activo patrocinio al llamado Proyecto Galileo, otro intento en la dirección de una mejora cualitativa de la educación superior venezolana. Sugerimos que una proposición perfectamente presentable a esta fundación, compatible con su actual orientación, sería la de que esa institución garantizara becas de postgrado al cuartil superior de los egresados del colegio superior de estudios generales. Una garantía de esa naturaleza sería un incentivo extraordinario a la inscripción en el programa.
Una estrategia complementaria, todavía de mayor impacto en la estructura de la educación superior en Venezuela, sería la de establecer postgrados “propios” de profesionalización que recibieran directamente los egresados del colegio no vocacional. Una elección interesante podría ser la de un postgrado en política, entendida según las definiciones del capítulo epistémico, y dirigida a producir capacidades en la actividad de formulación, diseño, análisis y administración de políticas. Un postgrado de este tipo puede también aumentar su utilidad social al hacer que sus alumnos, en una orientación de educación en el trabajo (on the job training), participen en proyectos de investigación y desarrollo de políticas, sea que autónomamente sean seleccionados por la institución, sea que respondan a demandas específicas de clientes concretos.
Pero un postgrado todavía más estratégico sería un postgrado en educación, enfocado a formar los profesores que pudiesen impartir, justamente, un programa de educación superior no vocacional. Es más, en otra aplicación del principio de educación en el trabajo, este postgrado podría alojar en su seno al propio colegio de estudios superiores generales. Esto es, así como la Escuela de Administración de Hoteles de la Universidad de Cornell regenta un hotel real, así los estudiantes de este postgrado, inicialmente licenciados (algunos en educación), podrían constituir el profesorado básico del colegio de estudios generales.
De este modo se implementaría en tándem un dispositivo que abarataría los costos de matrícula del colegio general superior, puesto que sus profesores “pagarían” por enseñar, en lugar de cobrar por enseñar. Es por esto que nuestra recomendación, en caso de que se desee llevar a la práctica el proyecto de colegio, es la de que se detone el proceso por el establecimiento del postgrado en primer lugar, a fin de que éste dé origen y cobijo al colegio superior general.
De todas maneras recomendaríamos que la estructura docente de un colegio superior de estudios generales se dividiera en un conjunto de “instructores”, encargados de suministrar la información epistémica básica y la instrucción instrumental, y un conjunto menos numeroso de “maestros”, con la misión más profunda de “hacer pensar” a los alumnos sobre la información recibida por conducto de los instructores. En un esquema de tándem, los alumnos del postgrado en educación fungirían como instructores del colegio superior general, mientras que los profesores del postgrado vendrían a llenar el papel de los maestros del mismo colegio.
Además del núcleo epistémico detallado en capítulo anterior, un colegio superior de estudios generales puede instruir, con mayor profundidad que en el bachillerato, en ciertas disciplinas particulares, por ejemplo, en matemáticas o historia.
Es perfectamente factible que el colegio de estudios superiores generales viniese a ser el modelo y el pivote que se necesita para una reforma a fondo de la educación universitaria en Venezuela. Las universidades venezolanas tienen un costo enorme por duplicación, puesto que en muchas facultades se imparte, en cada una por separado, la enseñanza de ciertas disciplinas elementales o introductorias. Más de una escuela universitaria enseña análisis matemático, o “introducción al método científico”, o “historia de las ideas políticas”. Este modo de organización ha dado lugar, entre otras cosas, a la maraña de las “equivalencias”. La universidad venezolana puede plantearse a sí misma un reacomodo interno que adopte la configuración de un colegio de estudios que sirva a una constelación de escuelas profesionales. Así desaparecería su necesidad de la solución a medias tintas de los “propedéuticos” y “ciclos básicos”, que no son otra cosa que un intento mal disimulado de compensar un bachillerato cada vez más deficiente.
Programas compactos
Ahora bien, una escala más asequible a un arranque relativamente breve de un programa de educación superior no vocacional, y fácilmente “mercadeable” como instancia preparatoria de estudios superiores de profesionalización vendría dada por un “programa de enriquecimiento intelectual” de un año de duración. En el lapso de un año es lograble un nivel de inmersión muy significativo en materia del núcleo epistémico descrito anteriormente y una suficiencia en técnicas de aprendizaje.
Los alumnos de un programa tal ingresarían a una suerte de finishing school que les prepararía mucho mejor para la prosecución de estudios universitarios. La escala de un año también permitiría la complementación artística y deportiva, y no constituiría un “retraso” apreciable en el plan de estudios de un estudiante venezolano. Un incentivo similar al sugerido antes para el colegio superior general, vendría dado por una garantía de becas de pregrado, en Venezuela o el exterior, para aquellos alumnos del programa de enriquecimiento intelectual que ocupen el cuartil superior con sus calificaciones. Nuevamente, este auxilio es planteable a FUNDAYACUCHO como algo perfectamente integrable a sus programas, en identificación con sus políticas actuales de inversión en excelencia.
Finalmente, versiones ultracompactas del programa de contenidos descrito más arriba, son ofrecibles en cursos tan cortos como de una semana de duración, variando, por supuesto, tanto el alcance como la técnica pedagógica. Aquí es posible diseñar versiones “abiertas”, para ser administradas, por ejemplo, en sesiones espaciadas a personal de corporaciones públicas o privadas, o versiones “cerradas” de una semana continua de inmersión, las que pueden convenir más a ejecutivos y líderes con dificultades de tiempo. Creemos que no está de más iniciar un ensayo por alguna de estas versiones compactas. El éxito o fracaso del mismo podría determinar la obtención de importantes apoyos a las ideas, más ambiciosas, del colegio superior de estudios generales y del programa de enriquecimiento intelectual de un año de duración.
La estructura más conveniente para la promoción de ideas como las descritas posiblemente sea la de una fundación, por su flexibilidad para la captación de ingresos, bien sea bajo la forma de contribuciones en donación o bajo la forma de ingresos por comercialización legítima de servicios. Creemos estimulable el interés de personas privadas, naturales o jurídicas, así como el de entes públicos responsables por la educación de los venezolanos, en un proyecto de la naturaleza esbozada en estas páginas. Se trataría de proponerse, para la Venezuela a la vuelta del siglo, la instrumentación del mejor nivel posible en la educación superior de sus habitantes, aunque sólo sea a nivel, inicialmente, de los estudios no vocacionales.
Un esfuerzo de tal índole tendría, sin duda, una importante secuela de subproductos de importancia propia, amén de los beneficios explícitamente buscados. Por ejemplo, surge naturalmente de un programa del tipo descrito la edición de colecciones de textos, comentados o no, de los pensadores más notables de este siglo, enmendándole la plana a la Universidad de Chicago y generando, por así decirlo, la colección de los New Great Books. LEA
___________________________________________________________
intercambios