Tusquets. Barcelona (1993).
Alan Lightman es físico y profesor de cosmología y redacción literaria en Estados Unidos. Con Sueños de Einstein inicia una carrera literaria que se adivina prometedora y audaz. Así lo parece indicar el que en su país este libro haya estado durante meses en las listas de los más vendidos, sin ser de un autor conocido ni tratarse de una novela light.
La fábula con que se inicia nos presenta a un joven oficinista -Albert Einstein- en Berna, un día de abril del año 1905, dormido sobre su mesa de trabajo. Durante los últimos meses ha soñado muchas veces con el tiempo. Son estos sueños los que llenan cada uno de los breves capítulos que conforman el libro. Cada sueño imagina un mundo distinto en el que la noción del tiempo es diversa.
De este modo, los sueños de Einstein nos acercan a mundos inverosímiles, divertidos e ingeniosos. En algunos hay dos tiempos; en otros el tiempo es visible por todas partes; también existen mundos en los que sólo cuenta el presente, o en los que se empieza a contar desde atrás; en otros, el tiempo tiene una textura pegajosa. En esta amplia gama de situaciones, el autor prodiga una exuberante imaginación, sujeta a una matemática racional que en ningún caso deja indiferente al lector.
Lightman utiliza un estilo desprovisto de adornos, sin que por ello desmerezca la calidad de su prosa. Al contrario, la economía lingüística a que somete sus páginas es un atractivo más, que se vincula estrechamente con el hecho de que su autor sea un hombre de ciencia.
Begoña Lozano
jueves, 27 de septiembre de 2007
domingo, 23 de septiembre de 2007
Flujos Turbulentos
por Pablo Mininni
Departamento de Física, FCEyN.
El fenómeno de la turbulencia puede observarse en la atmósfera, los océanos, y en la magnetosfera terrestre. Aunque las condiciones físicas en estos medios son muy diferentes, todos comparten la propiedad de tener números de Reynolds (la razón entre el acoplamiento no lineal entre modos y la disipación) muy grandes. Suele decirse que el problema de la turbulencia es el último problema clásico, y que la dificultad del problema hace que cualquier intento por comprender el fenómeno sea en vano. Recientemente, el uso de supercomputadoras permitió estudiar flujos turbulentos en diversos regímenes y con números de Reynolds nunca antes explorados en simulaciones. En esta charla presentaremos resultados provenientes de simulaciones numéricas directas a muy alta resolución y discutiremos leyes de escala en estos sistemas, la formación de estructuras coherentes, el desarrollo de un rango de escalas con propiedades autosemejantes, y cómo interactúan entre si los modos en las diversas escalas.
Departamento de Física, FCEyN.
El fenómeno de la turbulencia puede observarse en la atmósfera, los océanos, y en la magnetosfera terrestre. Aunque las condiciones físicas en estos medios son muy diferentes, todos comparten la propiedad de tener números de Reynolds (la razón entre el acoplamiento no lineal entre modos y la disipación) muy grandes. Suele decirse que el problema de la turbulencia es el último problema clásico, y que la dificultad del problema hace que cualquier intento por comprender el fenómeno sea en vano. Recientemente, el uso de supercomputadoras permitió estudiar flujos turbulentos en diversos regímenes y con números de Reynolds nunca antes explorados en simulaciones. En esta charla presentaremos resultados provenientes de simulaciones numéricas directas a muy alta resolución y discutiremos leyes de escala en estos sistemas, la formación de estructuras coherentes, el desarrollo de un rango de escalas con propiedades autosemejantes, y cómo interactúan entre si los modos en las diversas escalas.
miércoles, 19 de septiembre de 2007
GRAVEDAD CUÁNTICA
Imagen de Casiopea A (una estrella en explosión) – el tipo de fenómeno que podría se usado como prueba observacional para la gravedad cuántica (cortesía de la imagen por: NASA y Centro de Ciencia Chandra)
Durante el siglo XX, la física se fundamentó, en general, sobre dos grandes pilares: la mecánica cuántica y la teoría de relatividad. Sin embargo, a pesar de los enormes éxitos logrados por cada una de ellas, las dos aparecen ser incompatibles. Esta embarazosa contradicción, en el corazón mismo de física teórica, se ha transformado en uno de los grandes desafíos permanentes en la ciencia.
La teoría de la relatividad general da cuenta a la perfección de la gravitación. Por su parte, la aplicación a la gravedad de la mecánica cuántica requiere de un modelo específico de gravedad cuántica. A primera vista, parecería que la construcción de una teoría de gravedad cuántica no sería más problemático que lo que resultó la teoría de la electrodinámica cuántica (EDC), que ya lleva más de medio siglo con aplicaciones más que satisfactorias.
En lo medular, la EDC describe la fuerza electromagnética en términos de los cambios que experimentan las llamadas partículas virtuales, que son emitidas y rápidamente absorbidas de nuevo; el principio de incertidumbre (1) de Heisenberg nos dice que ellas no tienen que conservar la energía y el movimiento. Así la repulsión electrostática entre dos electrones puede ser considerada como la emisión, por parte de un electrón, de fotones virtuales y que luego son absorbidos por el otro.
La misma mecánica, pero a través de los cambios de la partícula virtual de la gravedad el «gravitón» (el quantum del campo gravitacional), podría considerarse para estimar la atracción gravitacional entre dos cuerpos. Pero gravitones nunca se han visto. La gravedad es tan débil que puede obviarse a escala molecular, donde los efectos cuánticos son importantes. Ahora, si los cambios que podrían realizarse en los gravitones sólo se producen en la interacción entre dos puntos de masa, es posible, entonces, que en los cuerpos masivos se ignore los efectos cuánticos. El principio de incertidumbre de Heisenberg nos señala que no podemos medir simultáneamente la posiciónen x y la velocidad en x de una partícula subatómica, pero esta indeterminación es imperceptible para los planetas, las estrellas o las galaxias.
Pero el principal obstáculo, sin embargo, es la cantidad de complicados procesos que implica examinar un gran número de gravitones. La gravedad se diferencia crucialmente del electromagnetismo al no ser lineal. Esta inlinealidad surge porque la gravedad posee la energía, y ésta tiene la masa, que gravita. En el lenguaje cuántico, esto implica que gravitones interactúan recíprocamente con otro gravitones, a diferencia de los fotones, que interactúan sólo con cargas y corrientes eléctricas y no con otros fotones. Ahora, como los gravitones interactúan el uno con el otro, las partículas de materia son rodeadas por complejas redes de gravitones virtuales que forman «lazos cerrados», muy semejante a «árboles bifurcados».
En la teoría de campo cuántica, los lazos cerrados son un signo de problema; ellos normalmente producen respuestas infinitas en los cálculos de procesos físicos. En EDC, tales lazos ocurren cuando un electrón emite y absorbe de nuevo su propio fotón. En ese caso, los infinitos son soslayados a través de un procedimiento matemático conocido como renormalización. Si éste es hecho correctamente, se obtienen razonables respuestas. La QED es lo que se llama una teoría renormalizable porque todos los infinitos pueden ser soslayados sistemáticamente; en efecto, solo un conjunto de operaciones matemáticas es suficiente para eliminar los infinitos.
Lamentablemente, tal procedimiento sistemático no es operativo cuando la mecánica cuántica es aplicada a la relatividad general; la teoría es, por lo tanto, «no-renormalizable». Cada proceso que implique progresivamente más lazos cerrados de gravitones introduce nuevas variantes de términos infinitos. Lo anterior, coarta la investigación para muchísimos fenómenos de interés, y sugiere que puede que haya básicamente algo que esté errado en la relatividad general, en la mecánica cuántica, o en ambas.
Pero miremos más allá del problema de renormalización, ¿qué pasaría si nos remontáramos a un momento en que todo lo que podemos ver, y hasta lo que hay más allá de nuestro «horizonte» de 13.000 millones de años luz, estaba comprimido hasta un volumen menor que el de un núcleo atómico? A estas densidades descomunales, que se dieron durante los primeros 10–43 segundos del universo (lo que se conoce como «tiempo de Planck»), tanto los efectos cuánticos como la gravedad habrían sido importantes. ¿Qué pasa cuando los efectos cuánticos convulsionan todo un universo?
Por ello, la física será incompleta y conceptualmente insatisfactoria en tanto no se disponga de una teoría adecuada de la gravedad cuántica. Algunos teóricos creen que ya es tiempo de explorar las leyes físicas que prevalecían en el tiempo de Planck, y han propuesto algunas hipótesis interesantes. Sin embargo, no hay consenso sobre qué ideas hay que descartar. Lo que es seguro es que debemos rechazar nuestras queridas concepciones del espacio y el tiempo basadas en el sentido común: el espaciotiempo a muy pequeña escala podría tener una estructura caótica, espumosa, sin ninguna flecha temporal bien definida; puede que haya una generación y fusión continua de agujeros negros primores y minúsculos. La actividad podría ser lo bastante violenta para generar nuevos dominios espaciotemporales que evolucionarían como universos independientes. Eventos más tardíos (en particular la fase inflacionaria que se describe en el capítulo XVI) podrían haber borrado cualquier rastro de la era cuántica inicial. El único lugar donde podrían observarse efectos cuántico-gravitatorios sería cerca de las singularidades centrales de los agujeros negros (de donde ninguna señal puede escapar). Una teoría sin consecuencias evidentes fuera de estos dominios tan exóticos e inaccesibles no es verificable. Para que se la tome en serio debe estar íntimamente insertada o, en su efecto, articulada en alguna teoría con fundamento empírico, o bien debe percibirse como una conclusión inevitable y convincente.
Durante las últimas décadas, varias tentativas han sido hechas para buscarle una solución al problema de la no-renormalización de la gravedad cuántica y caminar hacia la unificación de todas las fuerzas. La aproximación más esperanzadora para alcanzar ese viejo anhelo de los físicos es la teoría de las «supercuerdas», que ya anteriormente vimos.
Sin embargo, recordemos aquí que en la teoría de las supercuerdas se presume una escala natural energética determinada por la energía de Planck, alrededor de unos 1019 GeV. Esto es 1017 veces más alto que los tipos de energías que pueden ser producidos en los aceleradores de partículas más grandes, lo que imposibilita contrastar con la teoría la existencia misma de las supercuerdas. No obstante, los teóricos esperan que a escala de energía accesible tanto la física, la relatividad general, el electromagnetismo, las fuerzas nucleares débiles y fuertes, las partículas subatómicas surjan de la teoría de las supercuerdas como una aproximación. Así, se espera conseguir con ese modelo de cuerdas no sólo una ajustada descripción de la gravedad cuántica, sino que también intentar con ella la anhelada unificación de las fuerzas.
Lamentablemente, no hay un único límite de baja energía para la teoría de las supercuerdas como tampoco un sólo modelo de la teoría. Por un tiempo, lo anterior pareció como una barrera infranqueable, pero en años recientes, y a través de una mayor abstractación matemática, se ha construido un nuevo modelo de supercuerdas conocido como «la teoría M» que amalgama dentro de ella otras teorías de supercuerdas.
Por ahora, es demasiado pronto para pronunciarse si la teoría M es finalmente el medio que reconciliará la gravitación y la mecánica cuántica, pero sí debería poder cumplir con algunas expectativas, como ser las de explicar algunos hechos básicos sobre el mundo físico. Por ejemplo, el espaciotiempo de cuatro dimensional tendría que surgir de la teoría, más bien que ser insertado en ella. Las fuerzas y las partículas de naturaleza también deberían ser descritas, preferentemente incluyendo sus propiedades claves, como fuerzas de interacción y masas. Sin embargo, a no ser que la teoría M, o una variante futura, pueda ser proyectada a la baja energía de los laboratorio de física para poder ser contrastada, corre el riesgo de empezar a ser olvidada y finalmente archivada como uno más de los muchos y elegantes ejercicios matemáticos que se han elaborado para la física en los últimos tiempos.
Si la teoría de supercuerda es una pérdida de tiempo o no, ello está por verse. Por ahora, el desafío más duro a superar por la teoría es entender por qué el espacio de 9 dimensiones más el tiempo se «comprime» bajo el aspecto de nuestro espacio habitual tetradimensional (el tiempo más las tres dimensiones espaciales), en vez de hacerlo en tres o cinco dimensiones, y ver cómo sucede esto. Aún hay un espacio infranqueable entre la teoría de supercuerdas y los fenómenos observables. La teoría de supercuerdas plantea problemas demasiado difíciles ahora mismo para los matemáticos. En este aspecto, es muy diferente de la mayor parte de teorías físicas: normalmente, el aparato matemático de las teorías se desarrolla antes que éstas. Por ejemplo, Einstein utilizó conceptos geométricos desarrollados en el siglo XIX, no tuvo que partir de cero para construir las matemáticas que necesitaba.
Por su parte, los físicos cuerdistas se acorralan en lo que es fácil de comprobar, es difícil de calcular y lo que es fácil de calcular, es difícil comprobar. En consecuencia, pareciera que el camino que se está siguiendo es pretender desarrollar la teoría más y más, y hacer cálculos cada vez más difíciles de manera de poder predecir cosas que sean fáciles de observar. ¿El camino tendrá tiempo y final? Nadie tiene por ahora la respuesta.
El físico Eugene Wigner escribió un célebre artículo sobre este particular que llevaba por título «La irrazonable efectividad de la matemática en las ciencias físicas». También es un hecho notable que el mundo exterior muestre tantas estructuras susceptibles de descripción en «lenguaje» matemático (sobre todo cuando tales estructuras se alejan mucho de las experiencias cotidianas que moldearon la evolución de nuestros cerebros). Edward Witten, el principal experto en supercuerdas, describe dicha teoría como «una física del siglo XXI que cayó en el siglo XX». Sin embargo, sería más extraordinario que seres humanos de cualquier siglo llegaran a desarrollar una teoría tan «final» y general como pretenden ser las supercuerdas.
(1) ¿incerteza o indetermiación? Una hace más bien a nuestro desconocimiento. La otra a la inexistencia de las variables. En la guerra fría USA usaba incerteza y la URSS indeterminación. El tema ya entra en la filosofía y la Lógica (ver "Nociones Generales de Lógica y Filosofía" de Juan Alfredo Casaubon)
jueves, 13 de septiembre de 2007
Satélites italo-argentinos : los ojos del espacio
El Sistema Italo Argentino para Satélites para la Gestión de
Emergencias (SIASGE) es un programa de cooperación entre Argentina e
Italia, con la conformación de un sistema de satélites con tecnología
de última generación.
Esta tecnología permitirá acceder a información para prevenir, mitigar
y evaluar desastres naturales. Los datos también se utilizarán para
monitorear cosechas, recursos forestales y marinos, para la
explotación del suelo y para determinar su humedad.
En Con Ciencia y Trabajo, el gerente de Proyectos de la Comisión
Nacional de Actividades Espaciales, Fernando Hisas, habló de la
participación de la Argentina en el programa.
del Blog CON CIENCIA Y TRABAJO
lunes, 10 de septiembre de 2007
NANOCIENCIAS
Nanociencias rumbo al cómputo cuántico
La Real Sociedad y la Real Academia de Ingeniería de Gran Bretaña, publican un reporte intitulado Nanociencia y nanotecnologías, oportunidades e incertidumbres, en el que se habla de los avances en las industrias química y de semiconductores, que mediante investigaciones conjuntas pueden aportar grandes avances en la creación de espectaculares soluciones de almacenamiento, en espacios microscópicos.
El reporte señala que actualmente "se exploran alternativas a los chips basados en silicón, por ejemplo, materiales plásticos para pantallas de plástico flexible", asimismo, resalta que los semiconductores de nanopartículas, pueden ser sintonizados para absorber los espectros de la luz.
El gran reto del desarrollo de las nanotecnologías implica la manipulación de materia a nivel molecular, es decir, a trabajar sobre la estructura de átomos en particular; con lo que los procesadores que hoy conocemos se convertirán en "armatostes" comparados con los microprocesadores cuánticos que serán del tamaño de una molécula.
El cómputo cuántico revolucionará distintas áreas de la informática como son; la seguridad basada en la encriptación, que haría obsoletos los mecanismos actuales, ya que también provee una solución que podría ser prácticamente imposible de violar por los hackers. Otro campo de gran impacto será la administración de bases de datos, la factorización de grandes números; así como la teleportación (1), que significa comunicar el estado físico de un objeto a otro ubicado en un espacio físico distinto.
www.laflecha.net
(1) "Mathematical Undecidability, Quantum Nonlocality and the Question of the Existence of God" by A. Driessen and Antoine Suarez
Suscribirse a:
Entradas (Atom)