jueves, 13 de diciembre de 2007

El experimento ATLAS en el CERN y su influencia como catalizador de contactos entre la ciencia y la industria israelí

Jorge Mikenberg

Weizmann Institute

Las políticas activas del Ministerio de Industria Israelí han permitido a las industrias de alta tecnología de Israel participar activamente en los experimentos del colisionador de partículas LHC del CERN. En esta charla presentare varios ejemplos de este tipo de contribuciones y discutiré cómo se llegó al diseño del Experimento ATLAS, su construcción y su potencial de física para sus primeros años de funcionamiento a partir de 2008.
La universidad Austral (Buenos Aires) está interesada en hacer convenio con la Universidad Hebrea de Jerusalén

jueves, 29 de noviembre de 2007

En defensa de la razón

El pasado 17 de mayo, el físico norteamericano Lawrence Krauss publicó un artículo en el "New York Times" donde, contra los partidarios del "designio inteligente", aducía el apoyo de la Iglesia católica a la teoría de la evolución. Esto ha movido al Card. Christoph Schönborn, arzobispo de Viena, a precisar que no toda versión del evolucionismo es compatible con la doctrina católica ("New York Times", 7 julio 2005).
Firmado por Aceprensa
Fecha: 27 Julio 2005

«Desde que en 1996 el Papa Juan Pablo II dijo que la evolución (término que no definió) era "más que una hipótesis" [cfr. Aceprensa 147/96], los defensores del dogma neodarwinista han invocado a menudo la supuesta aceptación –o al menos aquiescencia– de la Iglesia Católica para defender su teoría como compatible, de algún modo, con la fe cristiana». Pero eso, aclara el Card. Schönborn, solo puede decirse de la evolución en sentido general, según el cual unos seres vivos provienen de otros, no del neodarwinismo que considera la evolución como «un proceso, sin guía ni plan, de variaciones aleatorias y selección natural». «La Iglesia católica, a la vez que deja a la ciencia el estudio de muchos detalles sobre la historia de la vida en la Tierra, proclama que, por la luz de la razón, la inteligencia humana puede percibir con certeza y claridad que hay finalidad y designio en la naturaleza, incluido el mundo de los seres vivos». «Todo sistema de pensamiento que niegue o trate de descartar la abrumadora evidencia a favor de la finalidad en la biología es ideología, no ciencia».

El Card. Schönborn señala que Juan Pablo II trató el tema en distintas ocasiones, además de la carta de 1996. Y cita, en particular, la audiencia general de 10-07-85, a la que los neodarwinistas no suelen prestar atención. «La evolución de los seres vivientes –dijo Juan Pablo II–, de los cuales la ciencia trata de determinar las etapas, y discernir el mecanismo, presenta una "finalidad interna" que suscita la admiración. Esta finalidad que orienta a los seres en una dirección, de la que no son dueños ni responsables, obliga a suponer un Espíritu que es su inventor, el Creador». Más adelante, el anterior Papa añadió: «A todas estas "indicaciones" sobre la existencia de Dios creador, algunos oponen la fuerza del azar o de mecanismos propios de la materia. Hablar de casualidad para un universo que presenta una organización tan compleja en los elementos y una finalidad en la vida tan maravillosa, significa renunciar a la búsqueda de una explicación del mundo como nos aparece. En realidad, ello equivale a querer admitir efectos sin causa. Se trata de una abdicación de la inteligencia humana que renunciaría así a pensar, a buscar una solución a sus problemas». Y en otra audiencia general (5-03-86) afirmó: «Está claro que la verdad de fe sobre la creación se contrapone de manera radical a las teorías de la "filosofía materialista", las cuales consideran el cosmos como resultado de una evolución de la materia que puede reducirse a pura casualidad y necesidad».

Con todo ello, añade el cardenal, concuerda el "Catecismo de la Iglesia católica", al afirmar que la existencia de Dios creador puede ser descubierta por la razón humana (n. 286) y que el mundo «no es producto de una necesidad cualquiera, de un destino ciego o del azar» (n. 295).

Sin embargo, dice Schönborn, los neodarwinistas –Lawrence Krauss en concreto– han intentado presentar al nuevo Papa, Benedicto XVI, como si estuviera de su parte, citando una frase de un documento de la Comisión Teológica Internacional ("Comunión y servicio: La persona humana creada a imagen de Dios", 23-07-04) que alude a la ascendencia común de todos los seres humanos. Y señalando que «Benedicto XVI era entonces presidente de la Comisión, han concluido que la Iglesia católica no tiene reparos con respecto a la idea de "evolución" tal como suelen usarla muchos biólogos, es decir, como sinónimo de neodarwinismo. Sin embargo, el documento de la Comisión reafirma la enseñanza perenne de la Iglesia católica sobre la existencia de designio en la naturaleza. Comentando el extendido abuso de la carta de Juan Pablo II de 1996 sobre la evolución, la Comisión advierte que "la carta no se puede entender como una aprobación general de todas las teorías de la evolución, incluidas las de inspiración neodarwinista que niegan expresamente cualquier papel verdaderamente causal de la providencia divina en el desarrollo de la vida en el universo"».

Y en cuanto a las enseñanzas del Papa actual, Schönborn recuerda que «en la homilía de inauguración de su pontificado, hace solo unas semanas, Benedicto XVI proclamó: "No somos el producto casual y sin sentido de la evolución. Cada uno de nosotros es el fruto de un pensamiento de Dios. Cada uno de nosotros es querido, cada uno es amado, cada uno es necesario"».

El cardenal concluye: «A lo largo de la historia, la Iglesia ha defendido las verdades de fe (...). Pero en la era moderna, la Iglesia católica se encuentra en la extraña posición de salir con firmeza en defensa también de la razón. (...) Al comienzo del siglo XXI, ante tesis como el neodarwinismo y las diversas hipótesis cosmológicas inventadas para esquivar los abrumadores indicios de finalidad y designio hallados por la ciencia moderna, la Iglesia católica de nuevo defenderá la razón humana proclamando que el designio inmanente evidente en la naturaleza es real. Las teorías científicas que intentan explicar la apariencia de designio como si fuera resultado del "azar y la necesidad" no son científicas en absoluto, sino –como dijo Juan Pablo II–, una abdicación de la inteligencia humana».

martes, 20 de noviembre de 2007

COLOQUIO NOBEL 2007 y LA GMR

Ana María Llois
Departamento de Física, FCEyN; CAC, CNEA

Pocos descubrimientos en física tuvieron aplicaciones que impactaran al mundo tecnológico tan rápidamente como el efecto de magnetorresistencia gigante (GMR), por cuyo descubrimiento fueron galardonados este año con el premio Nobel de Física los investigadores Albert Fert y Peter Grünberg.

El efecto GMR se manifiesta a través de una variación importante de la resistividad en materiales especialmente diseñados, frente a variaciones pequeñas del campo magnético aplicado. Este efecto se origina en la interacción magnética que existe entre regiones de material ferromagnético separadas entre sí por material no magnético en muestras de dimensiones nanométricas .

En esta charla recorreremos la historia del descubrimiento, explicaremos las causas físicas que subyacen al mismo y hablaremos sobre el impacto que ha tenido sobre la miniaturización de los dispositivos de almacenamiento de datos.

domingo, 11 de noviembre de 2007

Eco de Loschmidt: Irreversibilidad y Caos en Mecánica Cuántica

Diego Wisniacki

Departamento de Física, FCEyN, UBA

El eco de Loschmidt es una medida de la estabilidad y reversibilidad de las evoluciones en mecánica cuántica. Hace un tiempo se mostró que existe una relación entre dicha cantidad y el caos (1) presente en el sistema clásico. Esto motivó que el tema tuviese mucha actividad y repercusión en los últimos años.

(1) "Caos" e-book Juan Ignacio Casaubon - 2001

sábado, 10 de noviembre de 2007

EL MÉTODO CIENTÍFICO

Las dos últimas décadas del siglo veinte acunaron lo que ya ha sido calificado por algunos de 'revolución tecnocientífica'. Aunque buena parte de la imagen pública de la ciencia ha permanecido inalterada en todos estos años, los cambios que esta revolución ha producido en la práctica de la ciencia son evidentes para cualquier investigador que empezara su carrera antes de los años ochenta.

La ciencia y la técnica —ésta con mucha antelación— constituyen una parte esencial de nuestra cultura. Desde el ámbito de las humanidades no siempre se ha querido mirar de frente este hecho y, por extraño que parezca, todavía hoy algunos desearían obviarlo. La ciencia, la técnica y particularmente su unión actual en la tecnociencia no sólo han contribuido a cambiar las condiciones materiales de nuestra existencia, permitiendo extender a un mayor número de personas, e incluso mejorar, condiciones de vida que antes estaban reservadas a minorías exiguas, sino que también han sido un elemento esencial en la configuración de las ideas y los valores prevalecientes en la edad contemporánea.
conoZe.com

¿Qué quedaría de nuestra visión actual del hombre y de la naturaleza si tuviéramos que sustraerle las ideas aportadas por el siempre polémico Darwin o por el genial Einstein? ¿Qué habría sido de la tan traída y llevada revolución sexual de finales de los 60, que llevó a un cambio en los valores prevalecientes hasta entonces en las relaciones de pareja, si no se hubiera puesto en circulación la controvertida píldora anticonceptiva? Los efectos, positivos y negativos, que el desarrollo tecnocientífico ha tenido sobre nuestro entorno doméstico y natural son evidentes para casi todos y han sido objeto de numerosos estudios.

Sin embargo, no son tantos los que reconocen aún los modos en que la tecnociencia está afectando a la cultura en sus aspectos organizativos, intelectuales y axiológicos. A este desconocimiento contribuye en no poca medida la permanencia de barreras disciplinares y académicas que tienden a perpetuar la separación entre las mal llamadas 'dos culturas', la científica y la humanística. Estas barreras siguen siendo las causantes de que, con pocas excepciones por el momento, los estudiantes de ciencias en las universidades de todo el mundo reciban una formación en la que no hay espacio para la reflexión crítica sobre las implicaciones sociales, políticas, religiosas, culturales y éticas de la investigación científica, así como de que, también con pocas excepciones, al estudiante de humanidades se le permita ignorar, cuando no despreciar abiertamente, el hecho mismo de la ciencia.

Cierto es que no faltan motivos para ejercer la crítica racional sobre el predominio actual de la tecnociencia, pero para ello un requisito imprescindible debería ser el disponer al menos de un conocimiento suficiente de eso mismo que se pretende criticar. Máxime cuando se trata de afrontar una cuestión que está siendo central hoy en día en el ámbito de los estudios sobre la ciencia, y no sólo para sus enfoques más sociologizantes: la cuestión ya señalada con insistencia por Paul Feyerabend en la década de los 70 del papel de la ciencia en una sociedad democrática.

Como ha argumentado detalladamente en una obra reciente el filósofo de la ciencia Philip Kitcher, no existe una ciencia pura, libre de valores; por el contrario, las cuestiones valorativas —incluyendo en ellas las que conciernen a valores no epistémicos (valores morales, políticos, sociales, económicos, etc.)— alcanzan a toda la ciencia. Además, la verdad y el conocimiento no son cosas intrínsecamente buenas, ni siempre beneficiosas (lo cual no significa que, como sostienen los más desengañados o peor informados, sean cosas siempre sospechosas al servicio de intereses ocultos)

Siendo esto así, Kitcher considera que la ciencia no está actualmente «bien ordenada» (well-ordered), es decir, se producen en muchas ocasiones incompatibilidades entre la práctica científica y los ideales de la sociedad democrática. Una ciencia «bien ordenada» sería aquélla en la que sus fines vendrían dados por los intereses de la sociedad democrática. Buscaría, como es su misión, verdades significativas, pero la significatividad vendría marcada por los intereses de los ciudadanos decididos mediante procedimientos de democracia ilustrada (ciudadanos representativos de diversas perspectivas asesorados por expertos científicos) Serían, pues, esos intereses los que habrían de fijar muy en especial la agenda de investigación en las ciencias y no los intereses, a veces espúreos, de los poderes burocráticos o de determinados grupos de presión.

Quizás haya quien vea en este abandono del ideal de la búsqueda del conocimiento por el conocimiento mismo y en la armonización de los fines de la ciencia con los de la sociedad democrática un riesgo inasumible de politizar la ciencia en el peor sentido de la palabra. En nuestra opinión es, sin embargo, un asunto ineludible dada la propia situación de la ciencia en las sociedades avanzadas y sus relaciones cada vez más complejas con los ciudadanos y con los poderes políticos y económicos. La tecnociencia es ella misma, quiérase o no, una forma de poder.

Los lazos entre la investigación científica y los valores éticos, políticos y sociales son inextricables y, por tanto, pensar hoy sobre la ciencia y la técnica implica necesariamente pensarlas en un contexto mucho más amplio que el meramente epistemológico o metodológico, e incluso más amplio que el del análisis de sus impactos sobre el medio ambiente. Pensar la ciencia y la técnica hoy significa reconsiderar los fines y los valores sobre los que se han sustentado ambas hasta el momento; significa en última instancia, como ya vio Feyerabend hace décadas, poner las bases para una ciencia más humana y más acorde con los fines de las sociedades democráticas.

jueves, 8 de noviembre de 2007

El auge de Asia en los albores del siglo XXI

Lanzamiento de naves orbitales lunares no tripuladas por parte de las tres potencias regionales: Japón, China e India. Pekín utiliza el proyecto para elevar el prestigio internacional del país y el patriotismo local. "China necesita demostrar que no sólo puede alcanzar logros económicos, sino también científicos.



Las ambiciones chinas y el auge de Asia en los albores del siglo XXI han impulsado la aventura del espacio en este continente, que en menos de un año va a ver el lanzamiento de naves orbitales lunares no tripuladas por parte de las tres potencias regionales: Japón, China e India. El plan de los tres proyectos es similar: realizar mapas de la superficie del satélite, analizar la composición del suelo e identificar las mejores localizaciones para el descenso de astronautas allá por 2020.

La misión japonesa 'Kaguya' tiene un presupuesto de 190 millones de euros Pekín lanzó el mes de octubre un cohete con la sonda lunar 'Chang'e'
Sus observaciones completarán la información adquirida por la nave Smart-1, de la Agencia Europa del Espacio (ESA), que estuvo en órbita lunar de 2004 a 2006.

También un par de misiones estadounidenses anteriores empezaron a cubrir el vacío de exploración científica lunar dejado por el programa Apolo, que llevó a 12 astronautas de la NASA al suelo del satélite entre 1969 y 1972. La meta a largo plazo de las potencias espaciales emergentes asiáticas, al igual que la de la NASA, es establecer bases permanentes en la Luna, como primer paso para la eventual exploración de Marte.
En Asia, la iniciativa de mayor magnitud es la de Tokio. El pasado 14 de septiembre, la Agencia de Exploración Aeroespacial de Japón (JAXA) lanzó un cohete con la sonda Kaguya. "El objetivo es comprender cómo se formó la Luna y cómo ha evolucionado hasta sus condiciones actuales. Con los datos que obtengamos, podremos decidir dónde situar una futura base y sabremos dónde están los recursos minerales o el agua congelada necesaria para su operación", explica Seiichi Sakamoto, científico de JAXA.

La nave japonesa investigará la geografía del satélite, la estructura del subsuelo hasta una profundidad de cinco kilómetros, su campo magnético y la gravedad. La misión, que durará un año, tiene un presupuesto de 190 millones de euros y está integrada por un módulo principal en órbita a cien kilómetros de altura sobre la superficie lunar, y dos pequeños satélites en órbitas elípticas.

El proyecto japonés se ha visto catalizado por el programa espacial de China, cuyo meteórico ascenso económico y político inquieta en Japón. Pekín envió el pasado 24 de octubre un cohete al espacio con la sonda automática Chang'e, que girará a 200 kilómetros de la superficie lunar. El coste de la misión, de un año, supera los 130 millones euros.

Chang'e hará un mapa tridimensional del satélite y analizará su superficie. Se trata del primer paso del proyecto lunar chino, que contempla el descenso de una sonda en 2012, la recogida de muestras en 2017, y la llegada de astronautas hacia 2020.

Para Pekín, el objetivo es múltiple: ocupar un lugar de liderazgo en la conquista del espacio, analizar la existencia de recursos minerales, impulsar el desarrollo tecnológico, y potenciar la industria de lanzamiento de satélites comerciales. Sin olvidar las potenciales aplicaciones militares del programa, que se encuentra bajo control del Ejército Popular de Liberación.

Para ello, va a construir una nueva generación de cohetes, Larga Marcha 5, con mayor capacidad de carga. Al mismo tiempo, Pekín utiliza el proyecto para elevar el prestigio internacional del país y el patriotismo local. "China necesita demostrar que no sólo puede alcanzar logros económicos, sino también científicos. A largo plazo, busca recursos minerales", dice Jianli Chen, del Centro de Investigación Espacial de la Universidad de Tejas (EE UU).

China se convirtió en 2003 en el tercer país en situar a un astronauta en órbita con sus propios medios de propulsión, después de la antigua URSS y EE UU. En 2005, colocó a dos, y en 2008 prevé enviar a tres y realizar su primer paseo espacial. "Pero no hay que olvidar que, tecnológicamente, China está aún muy por detrás de EE UU", dice Chen.

La otra gran potencia de Asia, India, lanzará su primera misión lunar en abril próximo. La nave Chandrayaan 1, que incluye instrumentos científicos de EE UU y de la ESA, se pondrán en órbita lunar a 100 kilómetros de altura. Corea del Sur, el último país asiático en sumarse a la exploración espacial, va a construir un centro de lanzamiento, desde donde enviará al espacio un satélite el año que viene. También prevé colocar un astronauta en órbita terrestre con un cohete construido conjuntamente con Rusia.

La carrera está en marcha. Y en Estados Unidos, que prepara una misión orbital lunar igualmente para 2008, preocupa. La NASA piensa realizar una misión tripulada a la Luna en 2020.

El Pais

miércoles, 31 de octubre de 2007

ANTOINE LAVOISIER

DESCUBRIDOR DEL OXIGENO – LAVOISIER FUE EL PADRE-
DE LA QUIMICA MODERNA – QUE LA ERIGIO COMO-
CIENCIA EXACTA.
NACIDO EL 26 DE AGOSTO DE 1743 – FUE HIJO DE COMERCIANTES-
PARISIENSES CUYA FORTUNA PERMITIO AL JOVEN LLEVAR A –
CABO ESTUDIOS BRILLANTES – 1764 ES ABOGADO DEL PARLAMENTO-
DE PARIS – 1766 ES PREMIADO POR SU CREACION DE ALAMBRAR –
FRANCIA PARA RECAUDAR IMPUESTOS. 1771 CONTRAE MATRIMONIO-
1774 MUERTE DE LUIS XV – 1777 IDENTIFICA EL NITROGENO-
1787 BAUTIZA AL OXIGENO Y CREA LA NOMENCLATURA QUIMICA- 1789 COMIENZA LA REVOLUCION FRANCESA -1794 ES ACUSADO DE- CONSPIRACION Y EL 8 DE MAYO ES GUILLOTINADO EN LA PLAZA DE- LA REVOLUCION.

DIRECTOR - NICOLAS MANSTS

martes, 23 de octubre de 2007

La precisión de los relojes genéticos

Luis G. Morelli
Departamento de Física, FCEyN, UBA

Las células utilizan relojes y osciladores genéticos para regular y organizar muchas de sus actividades. Estos osciladores producen una variación periódica en los niveles de ciertas proteínas dentro de la célula. Los relojes circadianos, con un periodo de 24 h, son un ejemplo clásico. La célula necesita que estos relojes sean confiables para poder sobrevivir. Pero el interior de la célula es un medio complejo. Los números en que están presentes las proteínas son pequeños y los procesos involucrados en la producción de una proteína son de naturaleza estocástica. Esto genera fluctuaciones importantes en los números de proteínas, y estas fluctuaciones limitan la precisión de estos relojes. En esta charla presentare una forma de estudiar la precisión de los relojes genéticos en un sistema genérico.

domingo, 14 de octubre de 2007

Desde la Física hacia la Genómica Funcional vía Chips de ADN

Ariel Chernomoretz
Departamento de Física, FCEyN, UBA

Cada célula de un organismo posee la información genética completa del mismo codificada en moléculas de ADN dentro de su núcleo celular. Sin embargo, en todo momento sólo una parte del genoma se transcribe en forma de ARN mensajero y alcanza la maquinaria de traducción y producción de proteínas ubicada en el citoplasma. El subconjunto de genes que efectivamente se expresa depende de condiciones tales como: ambiente externo, etapas de desarrollo, y tipo celular.

En esta charla presentaré una introducción a tecnologías de microchips de DNA, dispositivos que permiten relevar qué genes están 'prendidos' y cuales no en determinadas circunstancias.

También discutiré algunos aspectos del problema del análisis y del reconocimiento de estructuras (clusters) con interés biológico en datos generados por este tipo de dispositivos

martes, 9 de octubre de 2007

Paparazzis en Biofísica

Valeria Levi
Departamento de Física, FCEyN, UBA

Explorando dinámica en sistemas complejos (como células vivas) usando técnicas de seguimiento de partículas únicas (SPT): Nuestra visión de la organización y funcionamiento de las células ha cambiado bastante con el tiempo, en parte gracias al desarrollo de nuevas técnicas de microscopía óptica que permiten observar la evolución temporal y espacial de procesos. Las técnicas de SPT desempeñaron en este cambio un papel muy importante ya que la información que obtenemos en estos experimentos es completamente distinta a la que se obtiene al promediar el comportamiento de muchas partículas y esto revela nuevos aspectos del proceso estudiado.

Presentaré el diseño e instrumentación de métodos SPT y mostraré la utilización de estas técnicas en dos estudios de dinámica intracelular: 1) la función de motores moleculares y 2) la dinámica de cromatinas en células.

martes, 2 de octubre de 2007

PITÁGORAS

Se cree que Pitágoras demostró el teorema que lleva su nombre: En un triángulo rectángulo el cuadrado de la hipotenusa es igual a la suma de los cuadrados de los catetos.

Pitágoras nació aproximadamente en el 500 a.C.

También descubrió la raiz de 2 como numero irracional. La medida de la hipotenusa cuando los dos catetos miden 1,

Fundó una religión. Creía que el número lo regía todo. Pero esta religión estaba llena de prohibiciones un poco absurdas como la de no comer judías (chauchas), no mirarse en un espejo a la luz de una vela, etc.

Fue uno de los grandes precursores de la matemática

jueves, 27 de septiembre de 2007

Sueños de Einstein

Tusquets. Barcelona (1993).

Alan Lightman es físico y profesor de cosmología y redacción literaria en Estados Unidos. Con Sueños de Einstein inicia una carrera literaria que se adivina prometedora y audaz. Así lo parece indicar el que en su país este libro haya estado durante meses en las listas de los más vendidos, sin ser de un autor conocido ni tratarse de una novela light.

La fábula con que se inicia nos presenta a un joven oficinista -Albert Einstein- en Berna, un día de abril del año 1905, dormido sobre su mesa de trabajo. Durante los últimos meses ha soñado muchas veces con el tiempo. Son estos sueños los que llenan cada uno de los breves capítulos que conforman el libro. Cada sueño imagina un mundo distinto en el que la noción del tiempo es diversa.

De este modo, los sueños de Einstein nos acercan a mundos inverosímiles, divertidos e ingeniosos. En algunos hay dos tiempos; en otros el tiempo es visible por todas partes; también existen mundos en los que sólo cuenta el presente, o en los que se empieza a contar desde atrás; en otros, el tiempo tiene una textura pegajosa. En esta amplia gama de situaciones, el autor prodiga una exuberante imaginación, sujeta a una matemática racional que en ningún caso deja indiferente al lector.

Lightman utiliza un estilo desprovisto de adornos, sin que por ello desmerezca la calidad de su prosa. Al contrario, la economía lingüística a que somete sus páginas es un atractivo más, que se vincula estrechamente con el hecho de que su autor sea un hombre de ciencia.

Begoña Lozano

domingo, 23 de septiembre de 2007

Flujos Turbulentos

por Pablo Mininni
Departamento de Física, FCEyN.

El fenómeno de la turbulencia puede observarse en la atmósfera, los océanos, y en la magnetosfera terrestre. Aunque las condiciones físicas en estos medios son muy diferentes, todos comparten la propiedad de tener números de Reynolds (la razón entre el acoplamiento no lineal entre modos y la disipación) muy grandes. Suele decirse que el problema de la turbulencia es el último problema clásico, y que la dificultad del problema hace que cualquier intento por comprender el fenómeno sea en vano. Recientemente, el uso de supercomputadoras permitió estudiar flujos turbulentos en diversos regímenes y con números de Reynolds nunca antes explorados en simulaciones. En esta charla presentaremos resultados provenientes de simulaciones numéricas directas a muy alta resolución y discutiremos leyes de escala en estos sistemas, la formación de estructuras coherentes, el desarrollo de un rango de escalas con propiedades autosemejantes, y cómo interactúan entre si los modos en las diversas escalas.

miércoles, 19 de septiembre de 2007

GRAVEDAD CUÁNTICA


Imagen de Casiopea A (una estrella en explosión) – el tipo de fenómeno que podría se usado como prueba observacional para la gravedad cuántica (cortesía de la imagen por: NASA y Centro de Ciencia Chandra)


Durante el siglo XX, la física se fundamentó, en general, sobre dos grandes pilares: la mecánica cuántica y la teoría de relatividad. Sin embargo, a pesar de los enormes éxitos logrados por cada una de ellas, las dos aparecen ser incompatibles. Esta embarazosa contradicción, en el corazón mismo de física teórica, se ha transformado en uno de los grandes desafíos permanentes en la ciencia.

La teoría de la relatividad general da cuenta a la perfección de la gravitación. Por su parte, la aplicación a la gravedad de la mecánica cuántica requiere de un modelo específico de gravedad cuántica. A primera vista, parecería que la construcción de una teoría de gravedad cuántica no sería más problemático que lo que resultó la teoría de la electrodinámica cuántica (EDC), que ya lleva más de medio siglo con aplicaciones más que satisfactorias.

En lo medular, la EDC describe la fuerza electromagnética en términos de los cambios que experimentan las llamadas partículas virtuales, que son emitidas y rápidamente absorbidas de nuevo; el principio de incertidumbre (1) de Heisenberg nos dice que ellas no tienen que conservar la energía y el movimiento. Así la repulsión electrostática entre dos electrones puede ser considerada como la emisión, por parte de un electrón, de fotones virtuales y que luego son absorbidos por el otro.

La misma mecánica, pero a través de los cambios de la partícula virtual de la gravedad el «gravitón» (el quantum del campo gravitacional), podría considerarse para estimar la atracción gravitacional entre dos cuerpos. Pero gravitones nunca se han visto. La gravedad es tan débil que puede obviarse a escala molecular, donde los efectos cuánticos son importantes. Ahora, si los cambios que podrían realizarse en los gravitones sólo se producen en la interacción entre dos puntos de masa, es posible, entonces, que en los cuerpos masivos se ignore los efectos cuánticos. El principio de incertidumbre de Heisenberg nos señala que no podemos medir simultáneamente la posiciónen x y la velocidad en x de una partícula subatómica, pero esta indeterminación es imperceptible para los planetas, las estrellas o las galaxias.

Pero el principal obstáculo, sin embargo, es la cantidad de complicados procesos que implica examinar un gran número de gravitones. La gravedad se diferencia crucialmente del electromagnetismo al no ser lineal. Esta inlinealidad surge porque la gravedad posee la energía, y ésta tiene la masa, que gravita. En el lenguaje cuántico, esto implica que gravitones interactúan recíprocamente con otro gravitones, a diferencia de los fotones, que interactúan sólo con cargas y corrientes eléctricas y no con otros fotones. Ahora, como los gravitones interactúan el uno con el otro, las partículas de materia son rodeadas por complejas redes de gravitones virtuales que forman «lazos cerrados», muy semejante a «árboles bifurcados».

En la teoría de campo cuántica, los lazos cerrados son un signo de problema; ellos normalmente producen respuestas infinitas en los cálculos de procesos físicos. En EDC, tales lazos ocurren cuando un electrón emite y absorbe de nuevo su propio fotón. En ese caso, los infinitos son soslayados a través de un procedimiento matemático conocido como renormalización. Si éste es hecho correctamente, se obtienen razonables respuestas. La QED es lo que se llama una teoría renormalizable porque todos los infinitos pueden ser soslayados sistemáticamente; en efecto, solo un conjunto de operaciones matemáticas es suficiente para eliminar los infinitos.

Lamentablemente, tal procedimiento sistemático no es operativo cuando la mecánica cuántica es aplicada a la relatividad general; la teoría es, por lo tanto, «no-renormalizable». Cada proceso que implique progresivamente más lazos cerrados de gravitones introduce nuevas variantes de términos infinitos. Lo anterior, coarta la investigación para muchísimos fenómenos de interés, y sugiere que puede que haya básicamente algo que esté errado en la relatividad general, en la mecánica cuántica, o en ambas.

Pero miremos más allá del problema de renormalización, ¿qué pasaría si nos remontáramos a un momento en que todo lo que podemos ver, y hasta lo que hay más allá de nuestro «horizonte» de 13.000 millones de años luz, estaba comprimido hasta un volumen menor que el de un núcleo atómico? A estas densidades descomunales, que se dieron durante los primeros 10–43 segundos del universo (lo que se conoce como «tiempo de Planck»), tanto los efectos cuánticos como la gravedad habrían sido importantes. ¿Qué pasa cuando los efectos cuánticos convulsionan todo un universo?

Por ello, la física será incompleta y conceptualmente insatisfactoria en tanto no se disponga de una teoría adecuada de la gravedad cuántica. Algunos teóricos creen que ya es tiempo de explorar las leyes físicas que prevalecían en el tiempo de Planck, y han propuesto algunas hipótesis interesantes. Sin embargo, no hay consenso sobre qué ideas hay que descartar. Lo que es seguro es que debemos rechazar nuestras queridas concepciones del espacio y el tiempo basadas en el sentido común: el espaciotiempo a muy pequeña escala podría tener una estructura caótica, espumosa, sin ninguna flecha temporal bien definida; puede que haya una generación y fusión continua de agujeros negros primores y minúsculos. La actividad podría ser lo bastante violenta para generar nuevos dominios espaciotemporales que evolucionarían como universos independientes. Eventos más tardíos (en particular la fase inflacionaria que se describe en el capítulo XVI) podrían haber borrado cualquier rastro de la era cuántica inicial. El único lugar donde podrían observarse efectos cuántico-gravitatorios sería cerca de las singularidades centrales de los agujeros negros (de donde ninguna señal puede escapar). Una teoría sin consecuencias evidentes fuera de estos dominios tan exóticos e inaccesibles no es verificable. Para que se la tome en serio debe estar íntimamente insertada o, en su efecto, articulada en alguna teoría con fundamento empírico, o bien debe percibirse como una conclusión inevitable y convincente.

Durante las últimas décadas, varias tentativas han sido hechas para buscarle una solución al problema de la no-renormalización de la gravedad cuántica y caminar hacia la unificación de todas las fuerzas. La aproximación más esperanzadora para alcanzar ese viejo anhelo de los físicos es la teoría de las «supercuerdas», que ya anteriormente vimos.

Sin embargo, recordemos aquí que en la teoría de las supercuerdas se presume una escala natural energética determinada por la energía de Planck, alrededor de unos 1019 GeV. Esto es 1017 veces más alto que los tipos de energías que pueden ser producidos en los aceleradores de partículas más grandes, lo que imposibilita contrastar con la teoría la existencia misma de las supercuerdas. No obstante, los teóricos esperan que a escala de energía accesible tanto la física, la relatividad general, el electromagnetismo, las fuerzas nucleares débiles y fuertes, las partículas subatómicas surjan de la teoría de las supercuerdas como una aproximación. Así, se espera conseguir con ese modelo de cuerdas no sólo una ajustada descripción de la gravedad cuántica, sino que también intentar con ella la anhelada unificación de las fuerzas.

Lamentablemente, no hay un único límite de baja energía para la teoría de las supercuerdas como tampoco un sólo modelo de la teoría. Por un tiempo, lo anterior pareció como una barrera infranqueable, pero en años recientes, y a través de una mayor abstractación matemática, se ha construido un nuevo modelo de supercuerdas conocido como «la teoría M» que amalgama dentro de ella otras teorías de supercuerdas.

Por ahora, es demasiado pronto para pronunciarse si la teoría M es finalmente el medio que reconciliará la gravitación y la mecánica cuántica, pero sí debería poder cumplir con algunas expectativas, como ser las de explicar algunos hechos básicos sobre el mundo físico. Por ejemplo, el espaciotiempo de cuatro dimensional tendría que surgir de la teoría, más bien que ser insertado en ella. Las fuerzas y las partículas de naturaleza también deberían ser descritas, preferentemente incluyendo sus propiedades claves, como fuerzas de interacción y masas. Sin embargo, a no ser que la teoría M, o una variante futura, pueda ser proyectada a la baja energía de los laboratorio de física para poder ser contrastada, corre el riesgo de empezar a ser olvidada y finalmente archivada como uno más de los muchos y elegantes ejercicios matemáticos que se han elaborado para la física en los últimos tiempos.



Si la teoría de supercuerda es una pérdida de tiempo o no, ello está por verse. Por ahora, el desafío más duro a superar por la teoría es entender por qué el espacio de 9 dimensiones más el tiempo se «comprime» bajo el aspecto de nuestro espacio habitual tetradimensional (el tiempo más las tres dimensiones espaciales), en vez de hacerlo en tres o cinco dimensiones, y ver cómo sucede esto. Aún hay un espacio infranqueable entre la teoría de supercuerdas y los fenómenos observables. La teoría de supercuerdas plantea problemas demasiado difíciles ahora mismo para los matemáticos. En este aspecto, es muy diferente de la mayor parte de teorías físicas: normalmente, el aparato matemático de las teorías se desarrolla antes que éstas. Por ejemplo, Einstein utilizó conceptos geométricos desarrollados en el siglo XIX, no tuvo que partir de cero para construir las matemáticas que necesitaba.

Por su parte, los físicos cuerdistas se acorralan en lo que es fácil de comprobar, es difícil de calcular y lo que es fácil de calcular, es difícil comprobar. En consecuencia, pareciera que el camino que se está siguiendo es pretender desarrollar la teoría más y más, y hacer cálculos cada vez más difíciles de manera de poder predecir cosas que sean fáciles de observar. ¿El camino tendrá tiempo y final? Nadie tiene por ahora la respuesta.

El físico Eugene Wigner escribió un célebre artículo sobre este particular que llevaba por título «La irrazonable efectividad de la matemática en las ciencias físicas». También es un hecho notable que el mundo exterior muestre tantas estructuras susceptibles de descripción en «lenguaje» matemático (sobre todo cuando tales estructuras se alejan mucho de las experiencias cotidianas que moldearon la evolución de nuestros cerebros). Edward Witten, el principal experto en supercuerdas, describe dicha teoría como «una física del siglo XXI que cayó en el siglo XX». Sin embargo, sería más extraordinario que seres humanos de cualquier siglo llegaran a desarrollar una teoría tan «final» y general como pretenden ser las supercuerdas.

(1) ¿incerteza o indetermiación? Una hace más bien a nuestro desconocimiento. La otra a la inexistencia de las variables. En la guerra fría USA usaba incerteza y la URSS indeterminación. El tema ya entra en la filosofía y la Lógica (ver "Nociones Generales de Lógica y Filosofía" de Juan Alfredo Casaubon)

jueves, 13 de septiembre de 2007

Satélites italo-argentinos : los ojos del espacio




El Sistema Italo Argentino para Satélites para la Gestión de
Emergencias (SIASGE) es un programa de cooperación entre Argentina e
Italia, con la conformación de un sistema de satélites con tecnología
de última generación.

Esta tecnología permitirá acceder a información para prevenir, mitigar
y evaluar desastres naturales. Los datos también se utilizarán para
monitorear cosechas, recursos forestales y marinos, para la
explotación del suelo y para determinar su humedad.

En Con Ciencia y Trabajo, el gerente de Proyectos de la Comisión
Nacional de Actividades Espaciales, Fernando Hisas, habló de la
participación de la Argentina en el programa.

del Blog CON CIENCIA Y TRABAJO

lunes, 10 de septiembre de 2007

NANOCIENCIAS




Nanociencias rumbo al cómputo cuántico

La Real Sociedad y la Real Academia de Ingeniería de Gran Bretaña, publican un reporte intitulado Nanociencia y nanotecnologías, oportunidades e incertidumbres, en el que se habla de los avances en las industrias química y de semiconductores, que mediante investigaciones conjuntas pueden aportar grandes avances en la creación de espectaculares soluciones de almacenamiento, en espacios microscópicos.

El reporte señala que actualmente "se exploran alternativas a los chips basados en silicón, por ejemplo, materiales plásticos para pantallas de plástico flexible", asimismo, resalta que los semiconductores de nanopartículas, pueden ser sintonizados para absorber los espectros de la luz.

El gran reto del desarrollo de las nanotecnologías implica la manipulación de materia a nivel molecular, es decir, a trabajar sobre la estructura de átomos en particular; con lo que los procesadores que hoy conocemos se convertirán en "armatostes" comparados con los microprocesadores cuánticos que serán del tamaño de una molécula.

El cómputo cuántico revolucionará distintas áreas de la informática como son; la seguridad basada en la encriptación, que haría obsoletos los mecanismos actuales, ya que también provee una solución que podría ser prácticamente imposible de violar por los hackers. Otro campo de gran impacto será la administración de bases de datos, la factorización de grandes números; así como la teleportación (1), que significa comunicar el estado físico de un objeto a otro ubicado en un espacio físico distinto.

www.laflecha.net

(1) "Mathematical Undecidability, Quantum Nonlocality and the Question of the Existence of God" by A. Driessen and Antoine Suarez

lunes, 27 de agosto de 2007

La cruzada del cambio climático


Firmado por Aceprensa
Fecha: 22 Agosto 2007


La idea de que el cambio climático, atribuido a la acción humana, es innegable, está adquiriendo un aire de cruzada que lleva a intentar cerrar la boca a todo discrepante. Esta deriva es sintomática de una sociedad que, a la vez que se dice contraria a todo dogma, acaba acusando de herejía al que pone en duda las nuevas creencias. Pero este cambio en el clima del debate público empieza a molestar a los que piensan que los temas científicos requieren discusión más que forzado consenso.

Muestra de esta irritación son las respuestas que ha encontrado el reportaje de portada de Newsweek (13-08-07), dedicado a los que ponen de manifiesto los puntos débiles de la explicación del cambio climático. El reportaje utiliza para calificarlos el término de “negacionistas”, el mismo que suele utilizarse para los “negacionistas” del holocausto judío, y da a entender que su postura se debe a que están financiados por la industria petrolífera.

A este planteamiento responde el columnista Jeff Jacoby en The Boston Globe: “¿No sería más eficaz contestar a los críticos, algunos de los cuales son expertos del clima altamente acreditados, con datos científicos y argumentos, en lugar de lanzar insidiosas insinuaciones de venalidad y engaño?”. “El calentamiento global atribuido a la acción humana es una hipótesis científica, no un artículo de fe o un dogma ideológico. El escepticismo y la duda son enteramente apropiados en el campo de la ciencia, donde la verdad está determinada por las pruebas, la experimentación y la observación, no por el consenso o la revelación. Sin embargo, cuando se trata del calentamiento global, el desacuerdo es tratado como herejía, como una creencia perniciosa cuyos defensores deben ser avergonzados, evitados o silenciados”.

La actitud de Newsweek no es el único ejemplo que cita Jacoby. “Heidi Cullen, experta del Weather Channel, ha sugerido que se retire la certificación del American Meteorological Society a los meteréologos de televisión que se atrevan a poner en duda las predicciones de un calentamiento global catastrófico”. Frente a estas actitudes, concluye Jeff Jacoby: “Desprestigiar a aquellos que resisten al ‘consenso científico’ como traidores, aduladores o enemigos de la humanidad puede ser emocionalmente satisfactorio o incluso profesionalmente lucrativo”. Jacoby lo califica como “acoso indefendible”.

viernes, 24 de agosto de 2007

¿Que podemos aprender de grandes simulaciones de flujos turbulentos?

Por Pablo Minini

El fenómeno de la turbulencia puede observarse en la atmósfera, los océanos, y en la magnetosfera terrestre. Aunque las condiciones físicas en estos medios son muy diferentes, todos comparten la propiedad de tener números de Reynolds (la razón entre el acoplamiento no lineal entre modos y la disipación) muy grandes. Suele decirse que el problema de la turbulencia es el último problema clásico, y que la dificultad del problema hace que cualquier intento por comprender el fenómeno sea en vano. Recientemente, el uso de supercomputadoras permitió estudiar flujos turbulentos en diversos regímenes y con números de Reynolds nunca antes explorados en simulaciones. En esta charla presentaremos resultados provenientes de simulaciones numéricas directas a muy alta resolución y leyes de escala en estos sistemas, la formación de estructuras coherentes, el desarrollo de un rango de escalas con propiedades autosemejantes, y cómo interactúan entre si los modos en las diversas escalas.

martes, 31 de julio de 2007

Augusto COMTE – EL POSITIVISMO

PARA COMTE EN LA HISTORIA SE DA UN PROGRESO,

DONDE HABRÍA TRES ESTADIOS:

1) EL RELIGIOSO O MÍTICO DONDE LAS EXPLICACIONES
DE LOS FENÓMENOS SE LAS ATRIBUÍAN A LOS DIOSES.

(Aquí es importante resaltar que no hay que caer en la típica
explicación de maestra de secundaria atea que se basa en
en estas ideas. El Dios que estudiamos no es un GOD-OF-THE-GAPS
es decir un Dios que llena los agujeros donde la ciencia no
llega a explicar. Explicación de los truenos por ejemplo)

2)EL ESTADIO FILOSÓFICO O METAFÍSICO.

3) EL ESTADIO CIENTÍFICO DONDE LOS ÚNICO QUE VALE ES LO QUE SE PUEDE VERIFICAR EXPERIMENTALMENTE. A ESTO LLAMA COMTE EL “DATO POSITIVO”. ES POR ESO QUE LA DOCTRINA DE COMTE SE LLAMA “POSITIVISMO”.

COMTE Y SUS SEGUIDORES PONEN EN JUICIO EL CONCEPTO
DE CAUSA. SI UNA BOLA DE BILLAR GOLPEA A OTRA, NO SE DIRÁ QUE LA PRIMERA CAUSA EL MOVIMIENTO DE LA SEGUNDA.
ES DECIR SÓLO SE QUE LA PRIMERA LLEGÓ A TOCAR A LA SEGUNDA Y LUEGO LA SEGUNDA SE MOVIÓ.

NOTA: Algunos autores afirman que en el distinto concepto de CAUSA se basa la diferencia entre la filosofía y la ciencia. Hay quienes prefieren llamar ley de invariabilidades a las leyes científicas.
-------------------------------------------------------------------------------------
¿CÓMO SE EXPLICA QUE TENEMOS CIENTÍFICOS QUE PRACTICAN
SERIAMENTE LA RELIGIÓN? Y ¿CÓMO SIGUE HABIENDO CADA VEZ MÁS FILÓSOFOS?

miércoles, 25 de julio de 2007

HACIA LOS LÁSER DE RAYOS X

Luz coherente en el ultravioleta lejano: una nueva herramienta para explorar aplicaciones en nanociencia y nanotecnología

Carmen S. Menoni

NSF Engineering Research Center for Extreme Ultraviolet Science and Technology and Department of Electrical & Computer Engineering
Colorado State University

La demostracion reciente de laseres de longitud de onda en el ultravioleta lejano (l=5-50 nm) esta expandiendo el campo de la optica en nuevas direcciones. Esta luz, con longitud de onda de nanometros, es especialmente atractiva para investigar sistemas de dimensiones por debajo de 100 nm. En esta charla de nivel introductorio, se describiran experimentos noveles en microscopia de alta resolucion, nanolitografia and nanomaquinado recientemente demonstrados en Colorado State University usando laseres avanzados especialmente diseñados para emitir luz con longitudes de onda entre 10 y 50 nm.

Introducción al pensamiento científico

Introducción al pensamiento científico
Matías Munárriz
Buenos Aires.
Argentina
Entre las primeras materias que debe cursar un alumno en la Universidad están las
que se identifican con nombres como Metodología de la investigación, Introducción a la
Tecnología, Epistemología, Introducción al pensamiento científico. Como los cursos más
concurridos responden a esta última denominación, parece razonable ponerla en el título.
En el dictado de estos cursos se presume que tanto los estudios universitarios
como el ejercicio profesional se refieren a una serie de problemas que pueden encararse
con alguna teoría sistemática. Asimismo, está implícita la confianza en que el mejor
proceso de aprendizaje consiste en recorrer el trayecto que va de las teorías científicas
hasta las reglas del arte de la práctica profesional con un enfoque predominantemente
racional.
Este trabajo es un examen selectivo y descriptivo del programa estándar de una
materia como Introducción al pensamiento científico. Examen porque repasa el contenido
sin aliviar al cursante de estudiar lo que la cátedra indique; selectivo porque se tratan
algunos puntos; descriptivo porque se ha esquivado el rigor propio de la materia. Las
citas y referencias se eligieron por su capacidad para expresar las opiniones que
representan según el esquema del redactor, siempre está vigente la posibilidad de que
las haya mejores.
Por último, es probable que la lectura del trabajo sea más útil promediando la
cursada de la materia.
El pensamiento científico
1. ¿La astrología y el psicoanálisis son ciencias? ¿cómo se origina y se transmite
el sida? ¿la Tierra gira alrededor del Sol? ¿la educación colabora al progreso personal?
¿cuáles son las causas y consecuencias del cambio climático? Sobre estas cuestiones
tenemos opiniones; si profundizamos, nos metemos en discusiones sobre la calidad de
los argumentos, la validez de los datos, la diferencia entre hechos y opiniones, los
métodos que se aplicaron, como se elaboraron las conclusiones, etc.
2. La capacidad del tiempo presente para concretar el cambio con un sentido
optimista - en otras palabras, el crecimiento, el progreso - viene justamente de la
concentración en el estudio y la investigación sobre la técnica y las ciencias naturales para
el fomento de la economía, junto con el desarrollo de las ciencias sociales aplicadas al
perfeccionamiento del gobierno y la administración de las actividades de las
organizaciones públicas y privadas. Es tan notable esa concentración que "nuestra
situación intelectual viene determinada por una intensidad investigadora, cual no se ha
dado en ningún otro ambiente cultural de épocas precedentes". (A. Dempf, La unidad de
la ciencia, pág. 13).
3. ¿Qué significa "pensamiento científico"? Sobre pensamiento y ciencia, el
diccionario de la Real Academia Española proporciona estas acepciones: "pensamiento
... 5. conjunto de ideas propias de una persona o colectividad;" "ciencia ... 2. cuerpo de
doctrina metódicamente formado y ordenado, que constituye un ramo particular del saber
humano." Con estos elementos se puede formar una impresión inicial del contenido del
asunto.
En la práctica se verifica que en los cursos sobre la materia, los textos, los artículos
y las exposiciones no las redactaron científicos prácticos, sino que incluyen la producción
de estudiosos que mientras comentan las actividades de esos científicos prácticos desde
la sociología, la psicología, la historia, etc, con la esperanza de que esos enfoques sirvan
para aclarar los problemas, dar soluciones y proporcionar métodos.
En general, se acepta que é sta es la manera adecuada para abordar y presentar el
tema; sin embargo el resultado es un consenso inestable, temporario, precario, sobre la
naturaleza del pensamiento científico, su historia, sobre como avanza o se crea el
conocimiento. Que adquiere la forma de un g rupo de opiniones, que contiene un grupo de
opiniones, a la manera de "uso, modo o costumbre que está en boga durante algún
tiempo, o en determinado país..." - que si bien referido a prendas de vestir - es la primera
acepción de moda en el diccionario de la Real Academia Española.
4. Sería muy bueno contar en lugar de ese consenso inestable, con una explicación
general, clara, sencilla, accesible a todos los entendimientos sobre la historia, las formas
como avanza o se crea el conocimiento. Pero parece que no es posible, por lo menos si
se insiste en la búsqueda en los términos que se anotan en el punto 3. Sobre esa
imposibilidad, Dempf afirmando que "la unidad de la ciencia no es otra que la unidad de
la Filosofía", le atribuye a la crisis de la filosofía la incapacidad para resolver la confusión
acerca de la ciencia. Su opinión es que hasta 1850 la filosofía se presentaba organizada
en grandes sistemas que pretendían "abarcar y explicar el orden universal de la realidad.
Sin embargo, los dos grandes acontecimientos más transcendentes del siglo XIX - la
universal difusión del lenguaje físico-matemático y el desarrollo de la conciencia histórica -
han quebrantado esta vieja unidad de la Filosofía y de la ciencia provocando la crisis más
aguda porque ha pasado la Filosofía,...". (A. Dempf, ob. cit. pág. 288).
5. Entre el material de estudio de una materia como la que tratamos predominan
los autores que mientras se preguntan como se asegura la certeza de los resultados de
las ciencias, estudian las condiciones que estimulan descubrimientos e inventos, la
historia de alguna rama en particular. Están más preocupados por el "¿cómo es esto?"
que “¿por qué es esto?". Su trabajo está dedicado a separar las interpretaciones
científicas de las que no lo son - la demarcación de los conceptos científicos - y a la
validez de los resultados del método científico, casi siempre a partir del tratamiento del
caso de las ciencias físico-químicas y naturales.
Por su parte, los científicos dedicados a la investigación - para quienes “los
productos tangibles de un laboratorio de investigación son sus artículos científicos,
repositorio de una serie de hechos descubiertos y caracterizados por los investigadores”.
(R. Pérez Tamayo, Existe el método científico? pág. 273) - no parecen muy interesados en
el asunto. Para ellos, dice Pérez Tamayo, el método científico ”es la suma de los
principios teóricos, de las reglas de conducta y de las operaciones manuales y mentales
que usaron en el pasado y hoy siguen usando los hombres de ciencia para generar
nuevos conocimientos científicos”. (R. Pérez Tamayo, ob. cit. pág. 253).
La materia y el alumno
6. La Universidad es una institución compleja, que reúne facultades, institutos,
escuelas profesionales, centros de investigación, donde se cursan los estudios de mayor
nivel de la enseñanza. Desde mediados del siglo XX se insiste en que está en crisis o en
transición. A pesar de lo cual sus autoridades insisten en adjudicarle la misión de
"promover, difundir y preservar la cultura a través del contacto directo con el pensamiento
universal prestando particular atención a los problemas argentinos, y mediante los
estudios humanistas, la investigación científica y tecnológica y la creación artística” (M.
Mollis, La universidad argentina en tránsito, pág. 59).
7. Tan amplio contenido de actividades debe contemplarse también desde la
formación profesional. Porque para la mayoría de las personas, la universidad es el lugar
donde se estudia y se obtienen títulos, que el alumno elige con criterio práctico,
desinteresado de planteos ideológicos. Lo que a él le interesa es la capacidad del título
para desempeñar una actividad profesional según las condiciones del mercado laboral,
que muchas veces ni siquiera lo obliga a terminar la carrera. Así el alumno “es consciente
de que no adquiere idoneidad profesional, sino solamente un título profesional, sabe que
es en su actividad futura donde rigurosamente va a aprender” (L. Jalfen, ¿Qué hacer con
la Universidad? pág. 64).
8. En el programa de una carrera profesional se busca conjugar el amplio
panorama de los estudios humanistas, la investigación científica y tecnológica con la
estado del arte propio de la época. El programa de una carrera se organiza para que
termine con materias relacionadas con el estado de la práctica profesional, previo pasaje
por el estudio y asimilación de las ciencias afines con dicha carrera. Entonces aparecen
al principio de los estudios las matemáticas, la física para las ingenierías; la anatomía, la
fisiología para la medicina; la historia, la ciencia política para el derecho.
9. "Introducción al pensamiento científico" se relaciona estrictamente con los
conocimientos y estudios de las “ciencias”. Su dictado se justifica confiando en que el
alumno adquirirá los hábitos benéficos que se atribuyen a la práctica del enfoque
científico.
Precisiones sobre el tema
10. En el siglo XVII se difunde en la cristiandad occidental el interés por entender la
realidad en todos sus detalles. El "método experimental" - que está en la raíz de los
intentos para racionalizar la realidad física - se basa en la confianza de que la naturaleza,
por un lado, tiene una constitución objetiva independiente de quién la estudia, y por el otro,
exhibe un comportamiento regular y previsible, que puede formularse a través de las
"leyes". A los experimentos acompañan la cuantificación y las mediciones, que necesitan
el concurso de aparatos, la definición de unidades de referencia, la especificación de
modos de medir, el cómputo mediante fórmulas de cálculo, etc.
11. Desde el siglo XIX crece la disponibilidad de máquinas, aparatos y
procedimientos que se instalan en el mundo laboral y la vida cotidiana, que se atribuye
comúnmente a los avances en las ciencias y sus aplicaciones prácticas. Entre los
historiadores de la técnica hay una postura más precisa - con el antecedente del progreso
de la ingeniería - que atribuye ese progreso tanto a la mejora de lo disponible como a la
innovación y la invención. En su ámbito propio, la ingeniería funciona con un planteo que
"supone la intervención, previamente planeada en el acontecer natural, por medio de
hipótesis de trabajo rudimentarias y de investigaciones empíricas de datos
sistemáticamente ordenados y críticamente comprobados". También, y desde la técnica,
"los resultados de la investigación científico natural pueden ser siempre usados
técnicamente. Desde cierto punto de vista da lo mismo producir un efecto en un
laboratorio para probar una teoría o que el mismo efecto se use en un proceso industrial
para obtener un resultado práctico. Como los conocimientos científico naturales no se
pueden usar directamente, el ingeniero los hace aprovechables: rendimiento constante,
proceso seguro, costos más reducidos." (Universidad Austral, Lecciones de Historia de la
Técnica, Apuntes de clase, pág. 52)
12. El crecimiento en la cantidad y calidad de objetos, procedimientos, materiales
que se da en la medicina, las comunicaciones, los transportes, el espacio exterior, etc,
junto con la expansión en los conocimientos y aplicaciones en la física, la química, la
biología naturales y las transformaciones en el medio ambiente físico, confirman la
capacidad y eficacia de los métodos de trabajo propios de las ciencias naturales. La
eficacia agranda el prestigio e inclinan a pensar sobre los beneficios de extender el
enfoque de las ciencias naturales a otros campos. Claro que no es gratis: por ejemplo,
con la cuantificación matemática de las cualidades sensibles de los cuerpos la cantidad
excluye a la cualidad. El esfuerzo por comprender la realidad en esos términos lleva a
afirmar que el verdadero orden de cosas está formado por los objetos traducibles a un
código lógico-matemático, físico-químico. La acción científico-técnica se aplica a la
intervención del hombre en el medio físico, modificándolo a lo largo del tiempo, y de ahí el
interés por la lógica y las leyes naturales, que son permanentes. Sobre este tema, "en una
forma de consideración más diferenciada, se ve que la mayoría de las limitaciones
pueden ser modificadas a lo largo del tiempo. La única excepción está constituida por la
lógica y las leyes naturales que escapan básicamente a la acción humana". (F. Rapp,
Filosofía analítica de la técnica, pág. 53).
13. En estas condiciones, se combina una sensación de precariedad - los
resultados actuales serán superados en el futuro - con la confianza en la acumulación de
los conocimientos. Algo así como "se admite como principio general que la ciencia
consiste fundamentalmente en su proceso evolutivo en virtud de la acumulación de los
resultados científicos, y que se puede y se debe estar satisfecho de los resultados
obtenidos en cada caso, pero que no se puede saber si una vez llenas las actuales
lagunas de la ciencia será necesario investigar nuevos campos del saber, todavía
inexplorados, todo lo cual llevaría consigo una nueva y profunda resolución en la
percepción del orden natural." (A. Dempf, ob. cit. pág. 289)
14. La formación del estudiante y la acción profesional está condicionada, por un
lado, por la aversión por sistemas que abarquen y expliquen el orden universal de la
realidad y la difusión del lenguaje físico-matemático, y por el otro, por el abandono de las
concepciones trascendentes sobre el hombre, la historia y la sociedad. "La segmentación
se da ahora entre dos cuerpos de disciplinas - las de la naturaleza y las del hombre - y
esto determina necesariamente la orientación y la formación de los profesionales
universitarios. Si pensamos en un médico, por ejemplo tiene como base de su mirada la
formación en física, química y biología, comprenderemos lo limitada que es su
comprensión del ser humano. Y aunque se lo intentara complementar con un abordaje
psicológico, no dejaría de ser un mero "zurcido". Los seres humanos, sobre todo hoy, no
pueden ser comprendidos con la mirada clínica de las facultades de medicina inspiradas
en el saber químico-biológico, ni tampoco complementado con la psicología o cualquier
otra disciplina del campo "psi". (L. Jalfen, ob. cit. pág. 45)
15. Con criterios utilitarios, los dos cuerpos de disciplinas (las de la naturaleza y
las del hombre) no le piden a las teorías más que la predicción con certeza, sin atender a
cuestiones más profundas ocultas detrás de los símbolos abstractos. "Los magníficos y
regulares sistemas que eran el orgullo de la física clásica le parecían a Kiekegardad
interpretaciones estrechas y simbólicas de un pequeño aspecto de la vasta varia
abundancia de la realidad". (R. H. March, Física para poetas, pág. 273).
En la antigüedad clásica, ya pasaba con la discusión sobre si la Tierra gira
alrededor del Sol o viceversa. Para hacer sus cálculos - muy precisos por otra parte - para
los calendarios, por ejemplo, los astrónomos aunque conocían la respuesta correcta,
negaban en la práctica el gobierno del S ol sobre la Tierra hasta bien entrado el siglo XVI.
¿Cómo puede producirse esa ambigüedad? Según Koestler "se mantuvo, no por
amenazas exteriores, sino por una especie de censor instalado dentro de la mente que la
mantuvo separada en compartimentos estrictamente estancos. El principal interés és
salvar las apariencias. El significado original de esta ominosa frase es la de que una
teoría debe ajustarse a los fenómenos observados o apariencias: es decir, concordar con
los hechos. Pero, poco a poco, la frase fue significando otra cosa. Un astrónomo salvaba
los fenómenos, si lograba inventar una hipótesis que resolviese los movimientos
regulares de los planetas según orbitas circulares, sin atender al hecho de que la hipótesis
fuese verdadera o no, esto es, si era físicamente posible o no." (A. Koestler, Los
sonámbulos, pág. 75)
Estudios, título y profesión
16. Respecto a la pertinencia de la materia, las carreras y el mundo laboral pueden
dividirse en dos grupos. Por un lado donde se aprende con la práctica; en ese caso, se
tenderá a privilegiar la capacidad operativa antes que la formación de bases teóricas;
por ejemplo, en la resolución de casos, como ocurre con la administración. Aquí "la
pregunta, explícita o no, ya no es: ¿es eso verdad? sino ¿para que sirve? (J.F. Lyotard,
citado en L. Jalfen, ob. cit. pág. 60).
En cambio, hay otras donde influyen los resultados de la investigación o donde
imperan grandes teorías que se reemplazan cuando pierden vigencia, como le pasa a la
psiquiatría o a la economía.
17. Hay carreras, especialmente las que dependen del avance científicotecnológico,
cuyo ejercicio puede clasificarse en tres modos: mejorar lo existente o
incorporar la mejor tecnología disponible o innovar y desarrollar esas tecnologías. Cada
modo tiene una relación particular con el pensamiento científico.
Los programas de Introducción al pensamiento científico
18. En general, los programas incluyen las opiniones de algunos autores sobre la
ciencia y el trabajo de los científicos, la descripciones de opiniones sobre el método
científico, un panorama de historia de la ciencia y las relaciones entre ciencia, técnica y
sociedad.
19. Aristóteles "fue el primer filósofo de la ciencia que destacó la demarcación de las
interpretaciones científicas de las no científicas. Sostenía que tal demarcación debía
lograrse antes de subdividir las interpretaciones científicas en aquellas que son
aceptables y aquellas que no lo son."(J. Losee, Introducción histórica a la filosofía de la
ciencia, pág. 187).
En el siglo XX hubo autores - muchos a partir de sus primeras experiencias en el
campo físico matemático - que por encima de las realizaciones materiales y de los
métodos concretos se pusieron a elaborar un proyecto dirigido a la búsqueda de reglas
estrictas del pensamiento y metodológicas para darle a la razón humana una eficacia en
sus metas propias, suponiendo que así le darían una seguridad que no poseía. Las
propuestas de Popper, Kuhn y otros, predominarán en la producción escrita y la
enseñanza. (ref. J.J. Sanguineti, Ciencia y modernidad).
20. Sobre el método científico Pérez Tamayo describe cuales son a su juicio los
esquemas que se pueden proponer (R. Pérez Tamayo, ob. cit. pág. 253ss)
1) Método inductivo-deductivo, "la ciencia se inicia con observaciones individuales, a
partir de las cuales plantean generalizaciones cuyo contenido rebasa el de los hechos
inicialmente observados. Así se generan predicciones que hay que confirmar o rechazar.
Asimismo, se acepta la existencia de una realidad exterior que el hombre percibe por los
sentidos y comprende por su inteligencia: para muchos partidarios de este esquema,
también nos permite explotarla en nuestro beneficio." Incluye entre los partidarios a los
científicos contemporáneos en general.
2) Método a priori - deductivo, "el conocimiento científico se adquiere por medio de la
captura mental de una serie de principios generales, a partir de los cuales se deducen sus
instancias particulares, que pueden o no ser demostradas objetivamente. Estos
principios generales son invariables y eternos."
3) Método hipotético - deductivo, "En este grupo caben todos científicos y filósofos de la
ciencia que han postulado la participación inicial de elementos teóricos o hipótesis en la
investigación científica, que anteceden y determinan a las observaciones la ciencia se
inicia con conceptos no derivados de la experiencia del mundo que "está afuera", sino
postulados en forma de hipótesis por el investigador, por medio de su intuición. Además
de generar tales conjeturas posibles sobre la realidad, el científico las pone a prueba, o
sea las confronta con la naturaleza por medio de observaciones y/o experimentos. En
este esquema del método científico, la inducción no desempeña ningún papel..."
4) No hay tal método, porque o "el estudio histórico nunca ha revelado un grupo de reglas
teóricas o prácticas seguidas por la mayoría de los investigadores en sus trabajos " o
porque "si bien en el pasado pudo haber habido un método científico, su ausencia actual
se debe al crecimiento progresivo y a la variedad de las ciencias, lo que ha determinado
que hoy existan no uno sino muchos métodos científicos."
Saldo final
¿Las realizaciones materiales de la ciencia y sus métodos pueden explicarse con
opiniones tan variadas y contradictorias? Como sus autores son intelectuales tal vez se
les pueda extender el comentario de un colega - bien que hombre de acción y de letras
antes que estudioso - "(los intelectuales) Por que su pensamiento buscan la adhesión, no
la prueba, porque se apoyan en bibliotecas, más que en la experiencia." (A. Malraux,
Antimemorias, pág. 42).
Al terminar es pertinente revisar puntos como la vigencia de las teorías, el método
en las ciencias sociales, los límites de la acción de los científicos y la cuestión realismo
versus representación.
- Los criterios utilitarios no le piden a las teorías más que la predicción con certeza. Pero
nada es perfecto: "Es cierto que el cementerio de las bellas ideas (teorías) muertas es
muy vasto, y la física de las partículas no es la única en testimoniarlo. Me acuerdo con una
sonrisa apenas despuntada, de un proverbio irónico que servía de epígrafe en la esquela
del deceso de una idea sobre cosmología que yo estimaba muerta a golpes de
observación: Nada más atroz que la muerte abyecta de una bella teoría por los
abominables hechos." (R. Ommes, Filosofía de la ciencia contemporánea, pág. 300).
- El método ha preocupado a los especialistas cuando tratan cuestiones que no admiten
un uso intensivo de las matemáticas. Asimismo, esa preocupación se da bastante más en
las ciencias humanas que en las ciencias de la naturaleza. Por ejemplo, el recurso a la
estadística. Sin embargo no alcanza para los exigentes: "sin intentar entrar en detalles, se
admitirá como esencial que los métodos estadísticos ofrecen un medio precioso para
acelerar el descubrimiento de reglas empíricas, pero sería erróneo considerar que son
suficientes para alcanzar la coherencia permitida por el método científico completo." (R.
Ommes, Filosofía de la ciencia contemporánea, pág. 301)
Mientras tanto, los investigadores suelen apartarse de las polémicas metodológicas.
También es cierto que el uso intensivo de las matemáticas, el rigor metodológico, la
veracidad y seguridad en los resultados no aseguran a una ciencia que sus predicciones
sean atendidas; como la demografía cuando contradice las opiniones contrarias al control
de la natalidad.
- ¿Hay límites para la acción de los científicos? Está claro que la capacidad de la
combinación entre ciencia y técnica no hace más bueno al hombre, al contrario, supone un
poder que puede dañar toda la vida natural y humana. La ciencia tiene límites. Uno, es el
de la propia naturaleza, al cual debe resignarse el científico más allá de toda libertad
teórica que contengan las especulaciones sobre reglas y métodos. El otro es un límite
moral. "Los límites insuperables son dos: la misma naturaleza, en la que la ciencia debe
forzosamente - con coacción física - someterse, aún teniendo en cuenta toda la libertad
teórica de le epistemología moderna; y el bien del hombre, al que la ciencia-técnica debe
servir y frente al cual ella por si misma es ciega. El límite en este segundo caso no es
"físicamente coactivo" sino moral. La ingeniería genética, por ejemplo, podrá hacer todo lo
que quiera (físicamente) con el hombre, pero no todo lo que haga habrá de ser
necesariamente bueno para el hombre." (J.J. Sanguineti, ob. cit. pág. 100).
- La cuestión del realismo propone la pregunta: ¿qué nos enseña la ciencia sobre la
realidad de las cosas? Desde la antigüedad clásica se opuso al realismo otra doctrina: la
ciencia ofrece una representación de la realidad que preserva todas las apariencias de
los fenómenos (salvar las apariencias). Que se conjuga con esta interpretación: "el
conocimiento científico es sólo un modelo creado por el pensamiento para controlar mejor
los fenómenos". (J.J. Sanguineti, ob. cit. pág. 30).
Eso significa que no se espera llegar hasta la naturaleza íntima de las cosas, sino más
bien la permanencia de sus relaciones mutuas. Defendiendo esta opinión, Omnes
concluye: "Nada de lo que sabemos parece desvanecer la duda sobre este conocimiento
de las relaciones o, si se prefiere, de los principios. No obstante, como no se trata más
que de relaciones, no podemos encerrarlas en una visión intuitiva y fiel, y no podemos
suministrar de ellas más que una representación que pasa por las formas de la lógica y de
las matemáticas, y guarda, inevitablemente, una cierta distancia con la realidad. (R.
Ommes, Filosofía de la ciencia contemporánea, pág.289).
Al inicio de las discusiones que terminaron con su proceso, las censuras a Galileo venían
desde la concepción de una ciencia puramente representativa; curiosamente, los
censores estaban muy cerca de los autores actuales.
- Por las limitaciones que los propios autores le adjudican, la ciencia representativa es
una opción precaria. Es mucho más atractiva, en cambio la siguiente interpretación: "El
conocimiento científico-natural es hipotético porque el mundo es contingente y no
llegamos a conocerlo en su totalidad material." (J.J. Sanguineti, ob. cit. pág. 30)
Agrega que "las ciencias experimentales, aunque no reúnan las condiciones para
constituir un saber definitivo, no se reducen a una construcción lógica que nada tiene que
ver con la realidad salvo sus consecuencias empíricas. Las hipótesis alternativas nacen
de una familiaridad con la realidad, multiplemente adquirida, y nunca se habrían
imaginado si el hombre no conociera de algún modo las cosas naturales y sus posibles
modos de comportarse."
"El conocimiento físico (también el histórico, en otro orden cosas) despierta e l interés del
hombre precisamente porque en las cosas y acontecimientos contingentes encontraremos
implicancias necesarias. En la realidad visible se traslucen al intelecto relaciones
invisibles. Y estas relaciones, propiedades y entidades, situadas más allá de lo
observable son las que de continuo guían nuestra conducta entre las cosas y nos llevan a
comprender lo que los sentidos tan sólo nos representan." (J.J. Sanguineti, ob. cit. pág.
30)
Referencias
A. Dempf, La unidad de la ciencia, Ediciones Rialp, Madrid, 1959
Real Academia Española, Diccionario de la Lengua Española, Madrid, 1992
Ruy Pérez Tamayo, Existe el método científico? Fondo de Cultura Económica, México
DF, 1998
Luis Jalfen, ¿Qué hacer con la Universidad? Ediciones Corregidor, Buenos Aires, 2001
Marcela Mollis, La universidad argentina en tránsito, Fondo de Cultura Económica, Buenos
Aires, 2001
Arthur Koestler, Los sonámbulos, Eudeba, Buenos Aires, 1963
Universidad Austral, Lecciones de Historia de la Técnica, Apuntes de clase, Buenos Aires, 1998
F. Rapp, Filosofía analítica de la técnica, Alfa, Buenos Aires, 1981
Robert H. March, Física para poetas, Siglo XXI Editores, México, 1988
John Losee, Introducción histórica a la filosofía de la ciencia, Alianza Editorial, Madrid, 1979
Juan José Sanguineti, Ciencia y modernidad, Ediciones Carlos Lolhé, Buenos Aires, 1988
André Malraux, Antimemorias, Sur-Sudamericana, Buenos Aires, 1968
Ronald Ommes, Filosofía de la ciencia contemporánea, Idea Books, Barcelona, 2000

lunes, 9 de julio de 2007

EL FIN DE LAS CERTIDUMBRES

EL FIN DE LAS CERTIDUMBRES
Autor: Ilya Prigogine Editorial . O. Jacob 1996

Este libro de divulgación destaca la falta de certidumbre que existe en la Física. En un problema sencillo la Física alcanza gran exactitud, esto no es así en el caso donde hay muchas variables en juego: “Física de los sistemas complejos”. Es el caso del “caos” puesto en evidencia por el meteorologista Lorenz (1963). Sin embargo en el tema del caos se tienen ecuaciones deterministas (incluso las hay muy simples) para las cuales es imposible predecir el comportamiento a largos tiempos. Es evidente para la persona corriente la falta de exactitud de los pronósticos meteorológicos y que en ellos sólo se habla de probabilidades, concepto que usará mucho Prigogine.

Pero el problema de fondo que quiere estudiar P. es el de la coexistencia de leyes determinísticas de la Física y la libertad del hombre. Esta paradoja puede resolverse en el marco de lo que hoy se llama relación “mente-cerebro” (alma - cuerpo) bajo la alternativa: o la parte espiritual tiene poder para mandar sobre la materia (cosa nada ilógica pensando en el poder de ángeles o demonios, para el que cree en su existencia), o la opción por la que se inclina P. diciendo que el mismo mundo físico del que esta compuesto el hombre tiene cierto indeterminismo, capacidad de creación...En esto se muestra muy confuso.

Sin embargo estamos en un falso dilema ya que separamos totalmente la mente del cerebro a la manera de la “res cogitans” y “res extensa” de Descartes...como si nos acompañara un pequeño fantasmita.

En la Física P. investiga la termodinámica del no-equilibrio (irreversible), la termódinamica tradicional estudiaba estados en equilibrio (reversibles).

Otro de los puntos en los que insistirá en todo el libro consiste en el agregar “la flecha del tiempo” en Física. En efecto, tanto la Física Clásica como la Cuántica son invertibles respecto del tiempo. (No tienen en cuenta que un papel se torna amarillo con el paso de los años). P. hará un esfuerzo gigantesco para construir una nueva Física que supere la Clásica de Newton, la Relativista de Einstein y la Mecánica Cuántica. En esta nueva Física deben aparecer el caos, la complejidad, la irreversibilidad, la flecha del tiempo, la vida (autoorganización), y la solución al conflicto entre determinismo y libertad... Un químico que quizo superar a todos los físicos.

Los trabajos de P. son recientes, muy especializados y hasta ahora, solo confirmados en casos simples por la computadora. Faltaría la construcción coherente de su teoría y lo mas importante: su verificación experimental.

También estudia la teoría del Big Bang como el proceso irreversible por excelencia y en lo menos fundamentado del libro afirma que el tiempo (eterno) es anterior al Big Bang y que no hay creación “ex - nihilo”. Esto parece equivocado ya que si nada cambia no hay tiempo. El tiempo es la medida del movimiento según un antes y un después. Es importante tener en cuenta que P. no leyó el reciente libro “Tiempo y Universo” de Castagnino M y Sanguineti, J. J.

P. incursiona en lo ideológico: El futuro no es dado. Se ha llegado al fin de las certidumbres. Pero esto es generalizar los resultados de la física no lineal y caótica a la filosofía (esto no es válido, al menos como lo plantea P.).

Existen muchas certidumbres y muchas incertidumbres. De estas últimas la que presenta el principio de Heisemberg y ahora el caos en el terreno físico. Y la ya conocida por los griegos derivada de la libertad del Hombre.

sábado, 7 de julio de 2007

La erosión 'electromagnética' de las atmósferas de Marte, Venus y Titán

por César Bertucci
Space & Atmospheric Physics Group
Imperial College London, Reino Unido.

La erosión de las atmósferas de los planetas no magnetizados del sistema solar por acción del viento solar (el plasma solar en expansión supersónica que inunda el sistema solar) es actualmente uno de los problemas centrales de la física espacial. Su importancia radica en el rol que esta interacción tiene en la evolución de las atmósferas de planetas como Marte que otrora pudieron haber albergado condiciones atmosféricas propicias para la vida. El problema físico al que se asocia esta 'erosión' consiste en el acoplamiento electromagnético entre un viento de plasma magnetizado, poco denso (i.e.: sin colisiones) y el plasma que resulta de la ionización de la alta atmósfera y la exosfera de estos cuerpos. Como resultado de la baja tasa de colisiones, y de la conservación de la cantidad de movimiento y de la energía, los átomos y moléculas planetarios que acaban de ser ionizados son acelerados por los campos electromagnéticos asociados al viento solar incidente y se incorporan a este último, provocando el escape de atmosférico mencionado. La contraparte de ese escape es el frenado del viento de plasma alrededor del planeta, que puede ser percibido por instrumentos tales como un magnetómetro, ya que debido a la alta conductividad, las parcelas de plasma están 'pegadas' a las líneas de campo magnético. En este seminario pasaremos revista a los aspectos observables de este proceso de erosión para el caso de los planetas Marte y Venus, basándonos en las mediciones 'in situ' de las propiedades del plasma por parte de distintas naves espaciales enviadas a esos objetos. Finalmente, presentaremos el caso de Titán, el satélite mayor de Saturno, actualmente bajo la lupa de la misión Cassini.

miércoles, 20 de junio de 2007

FÍSICA Y RELIGIÓN EN PERSPECTIVA




JERZY A. JANIK nació en Lodz (Polonia). Es investigador del Instituto de Física Nuclear de Cracovia desde 19960. Graduado en Física y Matemática por la Universidad de Jagellonica de Cracovia y Doctor en Ciencias Físicas. Sus estudios comprenden el movimiento en la materia condensada, en particular en cristales líquidos y cristales plásticos. Es miembro de las Academias de Ciencias de Polonia y Noruega. El Profesor Janik organiza los seminarios periódicos “Ciencia-Religión-Historia” que tienen lugar cada dos años en Castelgandolfo. Se considera un físico experimental, aunque muchos de sus trabajos tienen un carácter teórico. Su pasión por la Historia y su interés por la Filosofía no son frecuentes entre los científicos. Gran conocedor de la realidad de los países del Este, su actividad científica le ha posibilitado un continuo trato con intelectuales de toda la geografía del Oriente europeo. En su conversación se entrevé su profunda y vieja amistad con Karol Wojtila.


Muchos físicos del siglo xx fueron llevados por la mecánica clásica a la creencia en el determinismo. Aunque la llegada de la mecánica cuántica invalidó los antiguos argumentos, la mentalidad mecanicista aún permanece. ¿Qué nuevos datos aporta la física actual a este importante problema?

-En el siglo XIX se pensaba que la física sólo añadía nuevos detalles a la ciencia, y que la arquitectura general del universo estaba completa. La ideología positivista de este período les hacía estar quizá demasiado orgullosos de sus logros.

En la física trabajamos bajo la influencia de paradigmas, es decir, creencias generalizadas entre los profesionales de la física, que nadie cuestiona. En la mecánica clásica se pensaba que la física newtoniana era estrictamente determinista. Recientemente hemos celebrado los 300 años de los Principia Mathematica. Durante 270 años creímos en el determinismo estricto de las ecuaciones newtonianas. Ahora asistimos al abandono de estos paradigmas. Y ello se debe a las computadoras. Hasta ahora los problemas de la física de Newton eran calculables mediante simples operaciones matemáticas. Los únicos problemas que se discutían eran el movimiento de los planetas en torno al sol, o el péndulo. Éramos completamente deterministas: “Sé que esto siempre ocurrirá así". Todo podía ser calculado. En torno a los años 60 se supo que las ecuaciones de Newton, sobre todo las que incluían términos no lineales, llevaban a soluciones o trayectorias de sistemas, lo que se llama hiperspace, que tiene más de 3 coordenadas.

A pesar de que formalmente eran deterministas, las soluciones que se daban eran muy sensibles a cualquier mínima variación de las condiciones exteriores. Es lo que a principios de siglo los pioneros de este cambio llamaban "el efecto mariposa": imaginemos que en una galaxia lejana hay una mariposa que cambia su dirección de vuelo. Se supone que un hecho tan mínimo no incide en la tierra. Pues hay fenómenos tan sensibles que sufren estas consecuencias. La física basada en ellos no es determinista, porque cualquier cosa hace cambiar el comportamiento del sistema. Lo que vale entonces es la descripción probabilística, muy semejante a la mecánica cuántica. El cambio de paradigma frente a la física newtoniana supone negar el estricto determinismo y en la mayoría de los casos reemplazarlo.

El determinismo no es lo mismo que la causalidad, que es más complicada. La causalidad actúa en la física porque el presente tiene una relación causal con el futuro, y también con el pasado. También desde el punto de vista filosófico el futuro y el pasado están determinados por el presente. Si conocemos el estado presente de un sistema, podemos en parte fijar, directamente o de modo probabilístico, el pasado y el futuro. La noción filosófica de causalidad es un asunto diferente, e incluye la física. Me remito a mi filósofo preferido, Aristóteles. Cualquier cambio de un ente tiene su causa en otro ente.

-Entre científicos no suele gozar de buena reputación la filosofía: se considera que un razonamiento filosófico tiene sólo la validez de una opinión, sin rigor de ciencia. ¿Por qué considera Vd. válido el conocimiento filosófico?

-Hoy la ciencia y la filosofía están separadas. Los filósofos han olvidado la necesidad de progresar más, y las ciencias han perdido de vista la necesidad de la filosofía. Los filósofos tienen pocos conocimientos científicos, porque es imposible combinar tantos conocimientos especializados. Es muy necesaria la colaboración entre ambas.

La ciencia está muy interesa en describir el universo en general y los objetos que puedan experimentarse en la química, la física, la biología, la psicología, etc. Pero en la ciencia se llega a un punto en el que no es posible la pregunta de por qué existe algo en vez de nada. Eso es una cuestión puramente filosófica. Si Dios existe es una cosa que no puede contestar la ciencia. La física nos lleva a la metafísica, que posee un grado de abstracción superior al de la física.

Tengo respeto al agnosticismo en los físicos. Pero cuando dicen que son agnósticos porque son científicos hacen una extrapolación. Pueden serlo, pero no partiendo de la física. Hay que ser ateos honestos. La física no da prueba negativa de Dios o de la realidad trascendente: no es su objeto. En general los físicos no son todos ateos o agnósticos. Quizá lo sea una mayoría. Pero hay que ser extremadamente delicado. Eso no es un resultado de la ciencia, depende de otros factores personales: el sufrimiento, la pobreza de un pueblo... Hay también físicos creyentes. Otros dicen que como punto de partida de sus estudios no admiten un Dios personal. Aun siendo grandes expertos, en ese caso hacen una aproximación infantil a la religión.

No creo que la filosofía sea apologética. También sucede cuando vemos que la extrapolación de la física en el terreno de la metafísica está en armonía con la física: es sólo una descripción, pero no la verdad completa; simplemente nos acercamos a ella, pues está más allá de la filosofía.

Y puede estar en armonía con la ciencia. Eso da cierta razón para decir que el punto de vista religioso es más lógico que su contrario. La metafísica no tiene porqué ser necesariamente para la investigación científica lo que es hoy día. No sé qué ocurrirá en el futuro, porque parecen verse ciertos indicios metafísicos u ontológicos en la física. Quizá dentro de veinte o treinta años la filosofía llegue a ser necesaria para la física.

-¿Son muchos los científicos a los que les preocupa el hecho religioso y su relación con la ciencia?

-Los físicos que van más allá de la física, como Heisenberg, pueden mantener una armonía con la ciencia mediante generalizaciones externas a ella. Ha llegado el momento en el que los físicos debemos ser filósofos profesionales: es la metafísica la que les permite afirmar la existencia de Dios. Sería un problema ingenuo asegurar que tenemos un creador, que le hemos captado en el inicio gracias a la teoría del "Big Bang".

Puede ser probable, pero no está probado. Soy un tanto escéptico acerca de la posibilidad de encontrarle en la física, aunque ya he dicho que está en declive la postura que separa la ciencia y la filosofía. Se trata de llegar a una nueva sabiduría combinada. No puedo usar el argumento de la causa primera sólo dentro de la física, sino la causalidad según la metafísica.

-¿Cuál es la actitud del Papa ante la ciencia y su progreso? ¿Podría hablarnos de sus encuentros en Castelgandolfo?

-Somos amigos desde 1952, cuando era vicario de Cracovia. Le invitábamos a esquiar. Durante estas excursiones con cinco o seis personas discutíamos de filosofía y de ciencia a lo largo de todo el día. El no dudaba ni de la religión ni de la filosofía. Él fue quien me enseñó las bases del aristotelismo y del tomismo. Decidí estudiar filosofía seriamente. Nos reunimos mucho durante esos años también en mi casa, cuando ya era cardenal. Hace ya veinte años que esas excursiones transformaron en cinco o seis reuniones anuales en mi casa de Cracovia. Cuando fue elegido Papa, le envié una carta felicitándole y mostrándole mi pena porque sería ya imposible seguir reuniéndonos. Pero él me contestó planteándome ir cada dos años a Castelgandolfo, en sus vacaciones, con un grupo de intelectuales. La mayoría éramos físicos.

En 1980 tuvo lugar la primer reunión y ahora son cada dos años Hemos celebrado ya la sexta. La gente va cambiando. Discutimos sobre filosofía y ciencia. Este año había biólogos y hablamos del problema del reduccionismo científico: si podemos proceder en la investigación observando cada vez partes más pequeñas, intentando alcanzar una comprensión global mediante un acercamiento supramicroscópico. La conclusión es que no se puede utilizar este enfoque reduccionista, porque nos da sólo una colección de partes. Es una simple descripción. En la ciencia estamos cada vez más sensibilizados ante la necesidad de hablar de los objetos como un todo y no sólo como partes. El reduccionismo ha tenido mucho éxito, no lo niego. A él le debemos la tecnología y la evolución de la física. Pero ha llegado el momento de pensar los objetos desde la metafísica, y verlos como entes sustanciales, como totalidades.

Organizo el programa de estas reuniones según los asistentes. Se los sugiero al Papa un año y medio antes. Hago llegar la propuesta a los participantes. Es algo muy general, que se puede cambiar, pero intento que se mantenga cierta unidad. Discutimos mucho las cuestiones antes de ir a Roma. El Papa en las cenas se explaya sobre lo que opina de las ciencias modernas. Atiende mucho a lo que le decimos. Su extensa formación filosófica le permite comprender la física desde el nivel metafísico. Es muy interesante. Una vez tuve una experiencia chocante: un colega presentó explicaciones muy herméticas, sin que se entendiese nada. Al día siguiente, en una excursión con el Papa, me explicó lo que ese hombre había querido decir, dejando de lado los términos científicos y usando el planteamiento hilemórfico Era absolutamente correcto: sus comentarios tan estrechamente relacionados con la física son muy estimulantes.

martes, 12 de junio de 2007

Radio ocultamiento satelital GPS y atmósfera

La idea de utilizar ocultamientos mutuos entre diferentes satélites para sondear la atmósfera e ionósfera terrestre, tiene su origen en un método utilizado hace algunas décadas para estudiar otros planetas. Los parámetros geofísicos actualmente obtenibles a partir de la interacción de la radiación electromagnética con la atmósfera terrestre, son diversos; por ejemplo, la temperatura, la densidad, la presión y la densidad eléctrónica. Desde 2001, miles de perfiles verticales de estas variables, distribuidos en todo nuestro planeta, son procesados a partir de ocultamientos de satélites de baja altura (LEOs) tanto sobre océanos como sobre continentes y bajo cualquier situación climática. Dicha información es utilizada en aplicaciones de monitoreo, análisis, investigación y predicción del clima. En esta charla describiremos los principios generales, las posibilidades de explotación, las propiedades y las limitaciones de los métodos de ocultamiento satelital entre satélites GPS y LEOs, a fin de lograr un mayor conocimiento de la atmósfera.

Dr Alejandro de la Torre

miércoles, 6 de junio de 2007

LOS CRUZADOS ATEOS DE LA CIENCIA

Richard Dawkins, en guerra contra la religión

Firmante: Phillip Elias

La convicción de que ciencia y religión son incompatibles nunca ha sido mayoritaria. Pero hoy un puñado de científicos han emprendido una particular cruzada atea publicando libros de divulgación con los que quieren sacar a la humanidad de la vana creencia en Dios. El más conocido es el profesor de Oxford Richard Dawkins, estudioso de la evolución, cuyo libro "The God Delusion", traducido ahora al castellano (1), ha alcanzado amplia difusión, y también bastantes críticas de otros colegas científicos.


Dawkins describe su libro como la culminación de su guerra contra la religión. Y aunque es un mamotreto de 480 páginas, es de lectura fácil, casi podríamos decir una lectura ligera. Hay poco que Dawkins no haya dicho antes.

Comienza exonerando a científicos como Einstein de cualquier sospecha de creencia religiosa y condenando el puesto privilegiado que a su juicio tiene la religión en la sociedad. También rechaza el agnosticismo, pues Dawkins cree que "la hipótesis Dios" puede ser abordada por la ciencia, y por lo tanto es empíricamente verificable. Dedica dos capítulos a desacreditar los argumentos a favor de la existencia de Dios. El primero trata de las cuatro primeras vías de Tomás de Aquino y el segundo lo dedica específicamente al argumento del diseño.

Dawkins se ocupa también de la religión en general. Especula sobre posibles motivos para dar razón de que la religión haya estado presente en todas las sociedades. Trata de explicar la moralidad humana utilizando el concepto darwinista de selección natural. En los siguientes capítulos pasa a la ofensiva: los preceptos religiosos son inmorales; las creencias religiosas han causado la mayoría de los problemas del mundo; y la educación de los niños en la fe es una forma de abuso de menores. En el capítulo final Dawkins explica su idea de cómo la ciencia puede ser para la humanidad esa fuente de inspiración que ha sido usurpada por la religión.

Muchas metáforas, pocos argumentos

Aunque trata de la religión, hay pocas referencias directas a textos de teología o filosofía. Cuanto más rico y reconocido es un argumento sobre la existencia de Dios, menos atención le dedica. Su estilo coloquial es claro, pero al precio de la superficialidad. Y es que Dawkins utiliza muchas metáforas, pero pocos argumentos. Prefiere arremeter con ataques indiscriminados: la gente no cree realmente en Dios, pues les entristece morir; el Dios del Antiguo Testamento es "celoso, mezquino, injusto, sanguinario..." (y sigue así durante varias líneas). La mayoría del libro se alimenta de anécdotas personales, burlas sobre fundamentalistas cristianos, terroristas islámicos y la piedad popular católica, junto a historias horribles sobre el fanatismo y la intolerancia religiosa.

Pero Dawkins ciertamente no ha pretendido escribir un trabajo académico. Después de todo, ocupa la cátedra Charles Simonyi para el Conocimiento Público de la Ciencia, y para Dawkins el "conocimiento público" significa dos cosas: popularidad y persuasión. La personalidad y la posición de Dawkins garantizaban que "The God Delusion" sería popular. Pero ¿es convincente?

El tipo de persuasión que Dawkins busca es una persuasión psicológica. Explícitamente dice que se propone hacer consciente al público de cuatro cosas: el poder de la selección natural como causa explicativa; la educación religiosa como una forma de abuso de menores; la posibilidad de ser feliz, equilibrado, ético e intelectualmente completo siendo ateo; y el "orgullo ateo" para contrarrestar la persecución contra los ateos. Dawkins quiere que la gente "atrapada por la religión" sea capaz de "salir del armario" y declarar su ateísmo.

En este sentido, el libro puede ser visto como una especie de guía de autoayuda para ateos.

Aunque Dawkins declara que el culto a la personalidad es altamente indeseable, su libro está plagado de anécdotas personales en las que él sale triunfador, comentarios joviales que ponen de relieve el ingenio colectivo de Dawkins y de los colegas que piensan como él. Se supone que el lector debe sentirse un privilegiado porque se le permita echar un vistazo a las sutiles mentes de esta elite. ¿Pero esto es convincente?

Lo que explica todo

La selección natural es una idea extremadamente poderosa y Dawkins es muy experto a la hora de utilizarla. Sin embargo, cuando la utiliza filosóficamente cae en la redundancia. Por ejemplo, en su modo de entender la moralidad. Dawkins sostiene que tenemos códigos morales porque en el pasado supusieron alguna ventaja selectiva en la evolución. ¿Y cómo sabemos que esos códigos morales conferían alguna ventaja en la selección natural? Porque los tenemos.

Así que tenemos la moral que teníamos que tener: una conclusión redundante y determinista. (Curiosamente, Dawkins "no está interesado" en la cuestión del libre albedrío). La misma conclusión inadecuada vale para su aplicación de la selección natural a Dios, la causalidad, la verdad, la existencia... La selección natural por sí misma no puede explicar el "porqué" de nada.

Otra de las convicciones que Dawkins quiere difundir –"no hay algo así como un niño cristiano"– simplemente manifiesta su prejuicio antirreligioso. Se pregunta por qué un niño con una etiqueta religiosa no es tan escandaloso como "un niño marxista" o como "un niño ateo". Pero ¿sería también indignante que hubiera un "niño inglés" o una "niña india" o un "niño judío"? En realidad, Dawkins disfraza su verdadero propósito –quitar la religión de cualquier identidad cultural– con una acusación emotiva de abuso de menores.

Un espantapájaros religioso

La crítica más repetida contra el libro de Dawkins es que desconoce a su enemigo (la religión), y que monta en su lugar un espantapájaros. Dawkins cree que la llamada "hipótesis Dios" –que "existe una inteligencia sobrehumana y sobrenatural, que deliberadamente diseñó y creó el universo y todo lo que existe en él, incluidos nosotros"– es científicamente comprobable. En el sentido moderno, ciencia es el estudio de la materia física o natural. Pero ¿cómo se puede comprobar una hipótesis que es, por definición, sobrenatural y metafísica?

En realidad, Dawkins no cree que la existencia de Dios sea comprobable. Pero no admitirá ninguna epistemología fuera de la ciencia. Para él, la realidad no material no existe, y por lo tanto Dios no existe. No es extraño que "no esté interesado" en el libre albedrío, o en la causa de que la materia exista. No cree que pueda salir la luz de cualquier cuestión filosófica, sea cual sea. Es un rancio positivista, lleno de prejuicios contra la metafísica.

___________________

(1) Richard Dawkins. "El espejismo de Dios". Espasa-Calpe. Madrid (2007). 480 págs. 23,90 €. T.o.: "The God Delusion".