Liliana Arrechea
Departamento de Física, FCEyN, UBA.
Los bombeadores cuánticos son dispositivos microscópicos en los que se consigue transporte neto de carga o de spin entre dos reservóreos en equilibrio. Han sido implementados experimentalmente en estructuras semiconductoras llamadas ``puntos cuánticos'' y son considerados realizaciones experimentales en el mundo cuántico del efecto ``ratchet'', introducido por Feynman en su famosas `lectures'
miércoles, 21 de mayo de 2008
sábado, 3 de mayo de 2008
Schrödinger, Erwin
Físico austriaco, n. en Viena el 12 ag. 1887, y m. en la misma ciudad el 4 en. 1961.
Su máxima contribución a la Física moderna es la célebre ecuación de ondas que lleva su nombre. Establece en 1926, como consecuencia de una serie admirable de trabajos, el formalismo matemático de la Mecánica ondulatoria. Los fundamentos de una nueva mecánica, valedera para corpúsculos materiales en general (átomos y moléculas, en particular) se introdujeron casi simultáneamente, siguiendo dos caminos diferentes. Heisenberg (1925; v.) alcanzó sus conclusiones apartándose de toda idea intuitiva, tan en boga en aquel tiempo, considerando solamente relaciones entre entes observables y los mensajes (como él llamó) que nos envían los átomos; es decir, las frecuencias y las intensidades de las rayas espectrales, así como los niveles de energía. Llega a la conclusión de que estas magnitudes pueden representarse por matrices (v.), cuyo algoritmo matemático es bien conocido. Crea así la Mecánica de matrices que desarrollan y aplican inmediatamente Bohr y Jordán, por un lado, y Dirac por otro.
El físico francés Louis de Broglie (v.) había llegado en 1821 a la conclusión de que algunos desacuerdos existentes entre la teoría atómica de Bohr (v.) y la realidad experimental pueden desaparecer si se admite que toda partícula en movimiento lleva asociada consigo una onda cuya longitud valea=hlp,siendo h la constante de Planck y p la cantidad de movimiento de la partícula. La prueba experimental directa de la existencia de esta onda no tuvo lugar, sin embargo, hasta 1927, en que los físicos americanos C. J. Davisson y L. H. Germer la descubrieron por azar. A partir de las ideas de Broglie y utilizando la Dinámica analítica, S. desarrolla la Mecánica ondulatoria y llega a su célebre ecuación a la que satisface la onda asociada. Es una ecuación diferencial cuyo tratamiento es bien conocido por los matemáticos y que sólo admite soluciones en casos muy particulares, que resultan estar totalmente de acuerdo con las condiciones de cuantificación impuestas por Bohr de manera casi intuitiva y que muchas veces parecían arbitrarias. Quizá el mayor mérito de S. consiste en haber demostrado en 1926 que las dos nuevas Mecánicas, la de matrices y la ondulatoria, son equivalentes, complementándose de forma tal que representan dos aspectos de la misma realidad. Se trata de una sola Mecánica, que aclara de forma satisfactoria muchos hechos que estaban oscuros. Actualmente y con las aportaciones de Dirac y von Neumann ha tomado un aspecto mucho más axiomático. La nueva Mecánica ha conducido a clasificar las partículas elementales en dos grupos: los bosones, con función de onda simétrica, que no están sujetos al principio de exclusión de Pauli y sigue la estadística de Bose-Einstein, y los fermiones, con función de onda antisimétrica, que sí están sujetos al principio de exclusión y que siguen la estadística de FermiDirac.
Ha colaborado con N. Wiener relacionando la información con la negantropía (entropía negativa), lo que le llevó a publicar un librito muy discutido, titulado What is life (¿Qué es la vida?), que tuvo una acertada réplica en el que publicó poco después J. Palacios, titulado De la Física a la Biología. Le fue concedido el premio Nobel en 1933.
Su máxima contribución a la Física moderna es la célebre ecuación de ondas que lleva su nombre. Establece en 1926, como consecuencia de una serie admirable de trabajos, el formalismo matemático de la Mecánica ondulatoria. Los fundamentos de una nueva mecánica, valedera para corpúsculos materiales en general (átomos y moléculas, en particular) se introdujeron casi simultáneamente, siguiendo dos caminos diferentes. Heisenberg (1925; v.) alcanzó sus conclusiones apartándose de toda idea intuitiva, tan en boga en aquel tiempo, considerando solamente relaciones entre entes observables y los mensajes (como él llamó) que nos envían los átomos; es decir, las frecuencias y las intensidades de las rayas espectrales, así como los niveles de energía. Llega a la conclusión de que estas magnitudes pueden representarse por matrices (v.), cuyo algoritmo matemático es bien conocido. Crea así la Mecánica de matrices que desarrollan y aplican inmediatamente Bohr y Jordán, por un lado, y Dirac por otro.
El físico francés Louis de Broglie (v.) había llegado en 1821 a la conclusión de que algunos desacuerdos existentes entre la teoría atómica de Bohr (v.) y la realidad experimental pueden desaparecer si se admite que toda partícula en movimiento lleva asociada consigo una onda cuya longitud valea=hlp,siendo h la constante de Planck y p la cantidad de movimiento de la partícula. La prueba experimental directa de la existencia de esta onda no tuvo lugar, sin embargo, hasta 1927, en que los físicos americanos C. J. Davisson y L. H. Germer la descubrieron por azar. A partir de las ideas de Broglie y utilizando la Dinámica analítica, S. desarrolla la Mecánica ondulatoria y llega a su célebre ecuación a la que satisface la onda asociada. Es una ecuación diferencial cuyo tratamiento es bien conocido por los matemáticos y que sólo admite soluciones en casos muy particulares, que resultan estar totalmente de acuerdo con las condiciones de cuantificación impuestas por Bohr de manera casi intuitiva y que muchas veces parecían arbitrarias. Quizá el mayor mérito de S. consiste en haber demostrado en 1926 que las dos nuevas Mecánicas, la de matrices y la ondulatoria, son equivalentes, complementándose de forma tal que representan dos aspectos de la misma realidad. Se trata de una sola Mecánica, que aclara de forma satisfactoria muchos hechos que estaban oscuros. Actualmente y con las aportaciones de Dirac y von Neumann ha tomado un aspecto mucho más axiomático. La nueva Mecánica ha conducido a clasificar las partículas elementales en dos grupos: los bosones, con función de onda simétrica, que no están sujetos al principio de exclusión de Pauli y sigue la estadística de Bose-Einstein, y los fermiones, con función de onda antisimétrica, que sí están sujetos al principio de exclusión y que siguen la estadística de FermiDirac.
Ha colaborado con N. Wiener relacionando la información con la negantropía (entropía negativa), lo que le llevó a publicar un librito muy discutido, titulado What is life (¿Qué es la vida?), que tuvo una acertada réplica en el que publicó poco después J. Palacios, titulado De la Física a la Biología. Le fue concedido el premio Nobel en 1933.
sábado, 26 de abril de 2008
En busca de la superlente
Roberto Merlín
Department of Physics, University of Michigan
En la primera parte de la charla hablaremos de cómo la óptica de campo cercano, o sub-longitud de onda (subl), experimentó un enorme crecimiento en los últimos años, especialmente a partir de los trabajos de John Pendry acerca de superlentes basadas en láminas delgadas con índice de refracción negativo. Discutiremos como el límite de resolución propuesto por Abbe en 1873 está relacionado con el principio de incerteza de Heisenberg y cómo se puede romper el límite de difracción sin violar ninguna ley física.
En la segunda parte, introduciremos el concepto de placas de campo cercano (“near-field plates”). Estas estructuras proveen un enfoque subl a frecuencia arbitraria, usando una propiedad de las ecuaciones de Maxwell hasta ahora inexplorada. La distribución de campo electromagnético subl se asemeja a la de las láminas de índice de refracción negativo. La estructura diseñada está relacionada a la de una lente de Fresnel en cuanto la difracción fuerza al campo incidente a converger. Sin embargo, en esta superlente el enfoque se produce por un tipo de interferencia cuyo origen es, sorprendentemente, electro- o magnetoestático. Las implementaciones prácticas de esta superlente prometen aplicaciones en las áreas de almacenamiento de datos, sensado sin contacto, imágenes de alta resolución y nanolitografia. Presentaremos resultados experimentales para una superlente de microondas, demostrando un enfoque l/20 de radiación de 1 GHz.
Department of Physics, University of Michigan
En la primera parte de la charla hablaremos de cómo la óptica de campo cercano, o sub-longitud de onda (subl), experimentó un enorme crecimiento en los últimos años, especialmente a partir de los trabajos de John Pendry acerca de superlentes basadas en láminas delgadas con índice de refracción negativo. Discutiremos como el límite de resolución propuesto por Abbe en 1873 está relacionado con el principio de incerteza de Heisenberg y cómo se puede romper el límite de difracción sin violar ninguna ley física.
En la segunda parte, introduciremos el concepto de placas de campo cercano (“near-field plates”). Estas estructuras proveen un enfoque subl a frecuencia arbitraria, usando una propiedad de las ecuaciones de Maxwell hasta ahora inexplorada. La distribución de campo electromagnético subl se asemeja a la de las láminas de índice de refracción negativo. La estructura diseñada está relacionada a la de una lente de Fresnel en cuanto la difracción fuerza al campo incidente a converger. Sin embargo, en esta superlente el enfoque se produce por un tipo de interferencia cuyo origen es, sorprendentemente, electro- o magnetoestático. Las implementaciones prácticas de esta superlente prometen aplicaciones en las áreas de almacenamiento de datos, sensado sin contacto, imágenes de alta resolución y nanolitografia. Presentaremos resultados experimentales para una superlente de microondas, demostrando un enfoque l/20 de radiación de 1 GHz.
sábado, 12 de abril de 2008
¿Ecos de Loschmidt, hay Reversión Temporal en el Mundo Cuántico?
Hacia la resolución de las incógnitas legadas por Boltzmann y Einstein.
Horacio M. Pastawski
FaMAF- Universidad Nacional de Córdoba
El siglo XX terminó sin que se resolvieran algunas preguntas fundamentales. Entre ellas, la polémica entre Boltzmann y Loschmidt: Por qué, siendo las leyes de la mecánica reversibles, observamos una flecha del tiempo? Boltzmann intuía la responsabilidad del caos de la mayoría de los sistemas dinámicos. La mecánica cuántica complicó el panorama y el “Caos Cuántico” nació sin un marco dinámico.
Nuestros experimentos de Resonancia Magnética Nuclear nos indujeron a desarrollar un cuantificador del caos dinámico en la mecánica cuántica, el Eco de Loschmidt, obtenido al realizar la reversión temporal de una excitación en presencia de perturbaciones. Este permite progresar en la interpretación del problema de la decoherencia, los estados de superposición macroscópica (gato de Schrödinger) y en el entendimiento del límite clásico-cuántico, avances imprescindibles para los progresos de la nanotecnología y el desarrollo de la computación e información cuánticas.
Horacio M. Pastawski
FaMAF- Universidad Nacional de Córdoba
El siglo XX terminó sin que se resolvieran algunas preguntas fundamentales. Entre ellas, la polémica entre Boltzmann y Loschmidt: Por qué, siendo las leyes de la mecánica reversibles, observamos una flecha del tiempo? Boltzmann intuía la responsabilidad del caos de la mayoría de los sistemas dinámicos. La mecánica cuántica complicó el panorama y el “Caos Cuántico” nació sin un marco dinámico.
Nuestros experimentos de Resonancia Magnética Nuclear nos indujeron a desarrollar un cuantificador del caos dinámico en la mecánica cuántica, el Eco de Loschmidt, obtenido al realizar la reversión temporal de una excitación en presencia de perturbaciones. Este permite progresar en la interpretación del problema de la decoherencia, los estados de superposición macroscópica (gato de Schrödinger) y en el entendimiento del límite clásico-cuántico, avances imprescindibles para los progresos de la nanotecnología y el desarrollo de la computación e información cuánticas.
jueves, 3 de abril de 2008
El Diablo de Maxwell
¿A alguien le interesa hablar sobre el diablo de Maxwell?. Para el que no haya oido hablar de el, este personage fue ideado por Maxwell hace mucho tiempo durante sus estudios de la termodinámica.
El diablo es un ser imaginario, inteligente, de reducidas dimensiones, y capaz de distinguir atomos individuales. Aparentemente este diablo es capaz de romper la segunda ley de la termodinamica.
Imaginemos que el diablo esta en una pared que separa dos gases (izquierda y derecha) que inicialmente estan a la misma temperatura. El diablo controla una nano-puerta en la pared que puede abrir y cerrar a su antojo. Los gases tienen una distribucion de velocidades y el diablo se dedica a dejar la puerta abierta para los que los atomos rapidos del gas de la izquierda pasen a la derecha y los lentos de la derecha pasen a la izquierda. Para cualquier otro tipo de atomos la puerta se mantiene cerrada.
Al cabo de un tiempo el gas de la derecha se calentará, y el de la izquierda se enfriará. El trabajo realizado por el diablo es en principio arbitrariamente pequeño, asi que se rompe el segundo principio de la termodinamica.
Pero todos sabemos que el segundo principio se ha mantenido firme durante siglos a pesar de numerosisimos intendos de desbancarlo. Mi preguntas son: ¿Hay algun error en el enunciado?. Si la respuesta es no, entonces pregunto, con la llegada de la nanotecnoligia seria posible intentar construir el diablo de Maxwell y ver si es cierto que se puede violar el segundo principio?.
El diablo es un ser imaginario, inteligente, de reducidas dimensiones, y capaz de distinguir atomos individuales. Aparentemente este diablo es capaz de romper la segunda ley de la termodinamica.
Imaginemos que el diablo esta en una pared que separa dos gases (izquierda y derecha) que inicialmente estan a la misma temperatura. El diablo controla una nano-puerta en la pared que puede abrir y cerrar a su antojo. Los gases tienen una distribucion de velocidades y el diablo se dedica a dejar la puerta abierta para los que los atomos rapidos del gas de la izquierda pasen a la derecha y los lentos de la derecha pasen a la izquierda. Para cualquier otro tipo de atomos la puerta se mantiene cerrada.
Al cabo de un tiempo el gas de la derecha se calentará, y el de la izquierda se enfriará. El trabajo realizado por el diablo es en principio arbitrariamente pequeño, asi que se rompe el segundo principio de la termodinamica.
Pero todos sabemos que el segundo principio se ha mantenido firme durante siglos a pesar de numerosisimos intendos de desbancarlo. Mi preguntas son: ¿Hay algun error en el enunciado?. Si la respuesta es no, entonces pregunto, con la llegada de la nanotecnoligia seria posible intentar construir el diablo de Maxwell y ver si es cierto que se puede violar el segundo principio?.
viernes, 14 de marzo de 2008
Ahora abrirán un parque tecnológico en la Universidad Austral
Silicon Valley es el nombre con el que, durante la década del '70, se bautizó en Estados
Unidos a una enorme extensión de terreno virgen que, de un día para el otro, y a partir del
impulso que brindaron investigadores y docentes de la Universidad de Stanford, se
convirtió en la sede donde se desarrolló la revolución informática. Todo, a partir de un
simple invento: el microprocesador.
Hoy, en Silicon Valey están radicadas compañías como Apple, Cisco, eBay, Hewlett-
Packard, Yahoo!y Google, sólo por nombrar a las más famosas.
Algo del espíritu generado por ese enorme polo de industrias tecnológicas es el que se
quiere recrear con la inauguración del parque científico, tecnológico y empresarial de la
Universidad Austral, que está construyéndose en una terreno de 27 hectáreas rodeado de
bosques junto al campus que esa casa de estudios tiene en Pilar.
El ambicioso proyecto apunta a convertirse en una urbanización planificada para las
empresas cuyo objetivo básico es promover la cultura de la innovación y la competitividad.
Y tiene como objetivo principal atraer a firmas de comunicaciones, informática, software,
biotecnología, laboratorios, robótica y agroaplicaciones.
Para hacerlo, ofrecen una serie de beneficios impositivos que van desde la eximición del
pago por seis años de los municipales y de diez años en los de orden provincial. Pero
además, ponen a disposición el acceso a programas nacionales e internacionales destinados
a la investigación y al desarrollo empresarial y el acceso a facilidades crediticias.
La idea de quienes están trabajando en la iniciativa es que el parque sea una de las patas de
un centro en el que también se integre la universidad, para crear un clima de generación de
conocimientos y de información. Y confían que la oferta de puestos de trabajo de altísima
calificación sirva para atraer a científicos e investigadores que hoy desarrollan su trabajo en
el exterior.
Pero además, el parque tecnológico generará un enorme impacto económico y social en esa
región, por los 8 mil puestos de trabajo en forma indirecta que, se estima, se abrirán. El
efecto ya se está viendo en la zona: los terrenos cercanos ya aumentaron considerablemente
su valor.
Unidos a una enorme extensión de terreno virgen que, de un día para el otro, y a partir del
impulso que brindaron investigadores y docentes de la Universidad de Stanford, se
convirtió en la sede donde se desarrolló la revolución informática. Todo, a partir de un
simple invento: el microprocesador.
Hoy, en Silicon Valey están radicadas compañías como Apple, Cisco, eBay, Hewlett-
Packard, Yahoo!y Google, sólo por nombrar a las más famosas.
Algo del espíritu generado por ese enorme polo de industrias tecnológicas es el que se
quiere recrear con la inauguración del parque científico, tecnológico y empresarial de la
Universidad Austral, que está construyéndose en una terreno de 27 hectáreas rodeado de
bosques junto al campus que esa casa de estudios tiene en Pilar.
El ambicioso proyecto apunta a convertirse en una urbanización planificada para las
empresas cuyo objetivo básico es promover la cultura de la innovación y la competitividad.
Y tiene como objetivo principal atraer a firmas de comunicaciones, informática, software,
biotecnología, laboratorios, robótica y agroaplicaciones.
Para hacerlo, ofrecen una serie de beneficios impositivos que van desde la eximición del
pago por seis años de los municipales y de diez años en los de orden provincial. Pero
además, ponen a disposición el acceso a programas nacionales e internacionales destinados
a la investigación y al desarrollo empresarial y el acceso a facilidades crediticias.
La idea de quienes están trabajando en la iniciativa es que el parque sea una de las patas de
un centro en el que también se integre la universidad, para crear un clima de generación de
conocimientos y de información. Y confían que la oferta de puestos de trabajo de altísima
calificación sirva para atraer a científicos e investigadores que hoy desarrollan su trabajo en
el exterior.
Pero además, el parque tecnológico generará un enorme impacto económico y social en esa
región, por los 8 mil puestos de trabajo en forma indirecta que, se estima, se abrirán. El
efecto ya se está viendo en la zona: los terrenos cercanos ya aumentaron considerablemente
su valor.
miércoles, 20 de febrero de 2008
El efecto Casimir y correcciones hipotéticas al potencial gravitatorio
Ricardo S. Decca
Department of Physics, Indiana University-Purdue University Indianápolis
Esta presentación describe nuestros esfuerzos para caracterizar posibles correcciones al potencial gravitatorio newtoniano, a distancias características de 100 nm, entre las distintas masas. Mostraremos como la pequeña separación entre las masas nos fuerza a hacer las mediciones en un régimen donde las fluctuaciones de vacío juegan un papel importante. Describiremos nuestro aparato experimental y la técnica usada para tratar de minimizar el efecto de las fluctuaciones de vacío. También mostraremos como nuestras mediciones de la fuerza Casimir están en contra de lo que se esperaría cuando las propiedades ópticas de las muestras, en particular la absorción, son tenidas en cuenta.
Department of Physics, Indiana University-Purdue University Indianápolis
Esta presentación describe nuestros esfuerzos para caracterizar posibles correcciones al potencial gravitatorio newtoniano, a distancias características de 100 nm, entre las distintas masas. Mostraremos como la pequeña separación entre las masas nos fuerza a hacer las mediciones en un régimen donde las fluctuaciones de vacío juegan un papel importante. Describiremos nuestro aparato experimental y la técnica usada para tratar de minimizar el efecto de las fluctuaciones de vacío. También mostraremos como nuestras mediciones de la fuerza Casimir están en contra de lo que se esperaría cuando las propiedades ópticas de las muestras, en particular la absorción, son tenidas en cuenta.
Etiquetas:
efecto Casimir,
fluctuación del vacío,
Gravitación
Suscribirse a:
Entradas (Atom)