martes, noviembre 08, 2005

La fuerza de Lorentz y el campo magnético

Los vectores polares (aquellos vectores referidos normalmente con el término "vector") transforman cambiando su signo frente a una transformación de paridad (x -> -x). Por ejemplo, el vector posición r.

Los vector axiales (o pseudovectores), transforman sin cambiar su signo frente a una transformación de paridad. A diferencia de los vectores normales, los vectores axiales necesitan de una convención para obtener su orientación (usualmente dada con la regla de la mano derecha), es decir, su signo depende de la convención usada. Por ejemplo, el vector momento angular L = r x p.

Un producto vectorial de dos vectores polares da lugar a un vector axial. El producto vectorial de un vector polar por un vector axial da lugar a un vector polar. El producto vectorial de dos pseudovectores es un pseudovector.
Tenemos, por ejemplo, que el campo magnético, que corresponde al rotacional del potencial vector, es un vector axial, B = ▼ x A.

Campos producen fuerzas cuando actúan sobre cargas. Las fuerzas, sin embargo, son cantidades observables y no pueden depender de la orientación y del sistema de coordenadas elegido para describir la física. Esto es, las fuerzas han de ser vectores polares.

Por tanto, si la naturaleza ha de hacer depender una fuerza de B, entonces B ha de entrar en un producto vectorial en ella, de forma que el producto vectorial de un vector axial (B) con uno polar, dé un vector polar.

Esta es una explicación sencilla y curiosa de por qué la fuerza de Lorentz es perpendicular al campo magnético y sin embargo es paralela al campo eléctrico F = q(E + v x B).

domingo, noviembre 06, 2005

"Conócete a tí mismo"

Una de las piezas clave para descifrar los secretos del universo a gran escala, como el inicio del espacio y el tiempo, su evolución, la formación de estructuras materiales, etc., es comprender primero las leyes de lo más pequeño, que se nos muestran en la tierra en los aceleradores de partículas o en los experimentos de detección.

Algunos de estos experimentos son llevados a cabo bajo tierra y los de detección de la posible materia oscura incluso bajo montañas, en las entrañas de nuestro planeta. Parece una característica desconcertante y profunda de este universo, que para entender lo lejano o lo más grande nos vemos en la necesidad de entender o lanzar una antenta mirada a lo más cercano o más pequeño, y esto es algo que no sólo vale para la física.



Un ejemplo magnífico es el Laboratorio de Física Nuclear y Altas Energías de la Universidad de Zaragoza en el antiguo túnel ferroviario de Canfranc en el pirineo aragonés, un enclave fabuloso y de profunda relevancia histórica durante la segunda guerra mundial.

miércoles, noviembre 02, 2005

Una tenue señal de radio desde la profundidad del espacio intergaláctico. Segunda parte.

Recordemos los componentes que nos interesan para la reionización en z > 6: El fondo cósmico de microondas a mayor temperatura que la actual, el medio intergaláctico lleno de hidrógeno neutro y las fuentes de reionización.

Para empezar equipémonos con el concepto de temperatura del espín. La temperatura del espín es una forma de medir la temperatura de una nube de hidrógeno neutro (HI) con la relación entre la cantidad de átomos que contiene con electrón de espín paralelo respecto del espín nuclear, frente a los átomos con electrón de espín antiparalelo respecto del espín nuclear. A mayor proporción de espín paralelo mayor temperatura. La diferencia de la configuración entre paralelo y antiparalelo se denomina estructura hiperfina del hidrógeno. La transición del estado paralelo al antiparalelo, o al revés, se denomina spin-flip y da lugar a una diferencia energética que corresponde con un fotón de longitud de onda de 21 cm (1450 MHz). Esta transición se usa a menudo para detectar HI en el universo local. Por contra, la temperatura cinética es una medida de la energía cinética de las partículas, la cual, para un gas ideal, está en relación con la presión y el volumen. Este último concepto suele ser el referido cuando se usa el término temperatura sin más.

¿Qué procesos hacen variar la temperatura del espín? Básicamente:

- La absopción de fotones de 21 cm que hacen cambiar el estado del espín del electrón,

- La colisión de átomos de hidrógeno que, con la energía adecuada, pueden dar lugar a la transición en el espín del electrón y

- La absorpción de fotones de Lyman-alfa, en un proceso conocido con el nombre de efecto de Wouthuysen-Field, que consiste en que un átomo de HI con el electrón en el orbital n = 1 puede absorber un fotón pasando a n = 2 (transición de Lyman-alfa) y decaer espontáneamente, emitiendo otro fotón, otra vez a n = 1, pero esta vez a un estado del espín distinto del inicial.

Veamos esto ya con el caso concreto que nos interesa aquí. Los procesos mencionados hacen que la temperatura del espín del hidrógeno neutro del medio intergaláctico (IGM) se acople a, o dependa de:

- La temperatura del fondo cósmico de fotones (CMB), debido a la absorpción de fotones de 21 cm del fondo (primer proceso mencionado arriba). Esto hace que la temperatura del espín tienda a igualarse a la temperatura del CMB en un tiempo relativamente corto.

- La energía cinética del HI en el IGM debido a las colisiones atómicas y la absorpción de fotones de Lyman-alfa (segundo y tercer procesos mencionados arriba). En primer mecanismo es evidente; las colisiones son la energía cinética misma y si estas afectan a la temperatura del espín, ambas temperaturas (la temperatura cinética y la temperatura del espín) quedan acopladas. El segundo mecanismo es algo más complejo. En un campo de radiación ambiente en el medio interestelar suficiéntemente opaco (o en el IGM compuesto por HI en aquel tiempo) las interacciones entre fotones y HI llevan a ambos al equilibrio termodinámico, alcanzando los fotones una distribución de Boltzmann (límite de la distribución del cuerpo negro para energías altas de los fotones, hv >> kT), cerca de la frecuencia de Lyman-alfa, y con una temperatura igual a la temperatura cinética del medio. A su vez, los fotones de Lyman-alfa son responsables de la transición mencionada, quedando así ambas temperaturas acopladas. Por otro lado, es importante mencionar que en un medio de muy baja densidad como el IGM el acoplamiento por colisiones atómicas será despreciable frente a los otros dos otros procesos.

Durante la época oscura y antes de la aparición de las primeras fuentes de reionización, el IGM expande de forma adiabática con la expansión del espacio, cosa que hace disminuir su temperatura cinética. Al mismo tiempo, la temperatura del espín se mantiene igual a la temperatura del CMB a través del primer mecanismo de acoplamiento. La temperatura del CMB también desciende en expansión adiabática del fondo de fotones, pero la expansión adiabática de un gas de fotones pierde menos temperatura que la expansión adiabática de un gas de partículas no-relativistas (la temperatura del primero evoluciona con 1/a, siendo a el factor de escala, y la temperatura del segundo con 1/a²), por tanto, la temperatura cinética del IGM caerá por debajo de su temperatura del espín y la temperatura del CMB, un tiempo tras la recombinación y antes de la aparición de las fuentes de reionización.

Tan pronto como aparecen las primeras fuentes de reionización, éstas producen picos de emisión en el ultravioleta (10 a 4000 Angstroms) que ya incluyen, o se desplazan, con la expansión del espacio, a la longitud de onda de Lyman-alfa (1216 Angstroms). Esto hace que el mecanismo de acoplamiento a través de la absorpción de fotones de Lyman-alfa se haga dominante y el acoplamiento a través de la absorpción de fotones de 21 cm del fondo deje de serlo. Así, la temperatura del espín del IGM es llevada hacia la temperatura cinética del IGM, que era menor que la temperatura del CMB. Esta divergencia de las temperaturas del espín del IGM y de la mayor fuente de fotones en el universo (el CMB), hace que aparezca una línea de absorpción (de los fotones de 21 cm del CMB) la cual, en princpio, deberíamos poder detectar en nuestros mapas del fondo, aunque, naturalmente, muy desplazada hacia longitudes de onda mayores.

La evolución y el colapso gravitatorio de las fuentes de reionización hace incrementar la temperatura cinética del IGM debido a la fotoionización, las ondas de choque durante el colapso, y el aumento de densidad durante el colapso mismo. El mecanismo de acoplamiento a través de los fotones de Lyman-alfa, todavía activo, hace incrementar por tanto la temperatura del espín conjuntamente con la temperatura cinética e independiéntemente de la temperatura del CMB. Esto ocurre de forma efectiva y es de esperar que la temperatura del espín sobrepase la temperatura del CMB. Una vez que la temperatura del espín ha sobrepasado el valor de la temperatura del CMB, aparece una línea de emisión de 21 cm observable en principio hoy también, aunque muy desplazada a longitudes de onda mayores.

Tan pronto la reionización acaba, esta línea desaparece, al no quedar prácticamente HI que produzca la transición del spin-flip.

Resumiendo, aparece una línea de absorpción de los fotones de 21 cm del CMB cuando aparecen las primeras fuentes de reionización, que se convierte luego en una línea de emisión cuando éstas son suficiéntemente fuertes. Esa línea desaparece al terminar la reionización. La línea de 21 cm es, por tanto, un indicador excelente del proceso de reionización, su naturaleza y su época cosmológica.

Queda para una tercera parte tratar sobre los instrumentos de detección de estas ténues líneas, que, adelantandome un poco, son principalmente el SKA y el LOFAR, fabulosas obras de ingeniería de nuestro tiempo. Explicaré también las teorías sobre la reionización, sus fuentes, su época cosmológica, sus signaturas en el CMB y las líneas de 21 cm, etc.

viernes, octubre 28, 2005

Una tenue señal de radio desde la profundidad del espacio intergaláctico. Primera parte.

La inflación crea, a partir de fluctuaciones cuánticas, las perturbaciones de la métrica del espacio-tiempo que darán lugar al colapso gravitacional. Empezar con esta frase sin calentar antes los músculos puede parecer brusco, pero véase esto, que sirve de introducción. El colapso será primero de materia oscura fría no-bariónica. Esto ha de ser así en el modelo vigente porque esta materia sólo interactúa gravitacionalmente, al contrario que los bariones, a los que la presión de la radiación impedirá colapsar (la masa de Jeans del fluido de bariones y radiación antes de la recombinación es un valor colosal debido a la presión de la radiación). Recordemos que, antes de la recombinación, los fotones interactúan con suficiénte energía con los electrones impidiéndoles ligarse a los protones para formar hidrógeno neutro. Estamos a un desplazamiento al rojo z = 1100 y el universo es una sopa homogenea e isótropa de partículas.

Tan pronto como se produce la recombinación (unión de protones y electrones para formar hidrógeno neutro), la masa de Jeans decrece espectacularmente a un valor de unas 100.000 veces la masa del sol. Recordemos sobre la masa de Jeans: La presión y la gravitación de una nube de gas están en batalla de forma que para una presión dada existe una masa mínima a partir de la cual el gas colapsará, pero masas menores no podrán colapsar, ya que la gravitación no será suficientemente fuerte como para vencer a la presión. Esa masa es la de Jeans. Su disminución tras la recombinación es evidente; la presión de la radiación deja de ser relevante, ya que tras la recombinación la radiación queda desacoplada de los bariones. Ya no se trata de un fluido con fotones que generan una presión brutal sobre los bariones, sino un gas de bariones los cuales generan presiones razonables entre sí y, por otro lado, fotones. La nueva masa de Jeans de 100.000 veces la masa del sol es la masa de un típico cúmulo globular de los que podemos observar hoy en nuestra Vía Láctea.

Para determinar mejor las condiciones de partida, mientras seguimos mentalmente en z = 1100, debemos preguntarnos por la forma y cantidad de esas inhomogeneidades de materia oscura. Había inhomogeneidades de todos los tipos, grandes y pequeñas, pero, había mayor cantidad de pequeñas que de grandes. A menor tamaño, mayor cantidad, grosso modo. La cantidad de inhomogeneidades por cada tamaño posible se denomina “espectro de potencia”. El espectro de potencia predicho por la inflación se llama espectro de Harrison-Zel’dovich y se cree que corresponde bien con las observaciones.

Tras la recombinación los fotones no interactúan con el hidrógeno neutro chocando con él e ionizándolo, porque no tienen ya suficiénte energía. Por el contrario, algunos son absorbidos por el hidrógeno neutro, excitándolo, pero sin ionizarlo. El grueso del fondo cósmico pasa a una longitud de onda correspondiente con el infrarrojo y el universo entra así en una “época oscura”; no hay luz con longitud de onda visible en el fondo, y, la que hay, es prácticamente absorbida por el hidrógeno neutro. Esta época durará hasta z ~ 20.

Durante esta época ocurre un proceso cosmológico de mayor importacia: El colapso gravitacional de los bariones (término que de forma muy general puede ser sustituido por hidrógeno y algún que otro elemento más pesado) para formar estructuras materiales. Mientras las inhomogeneidades de materia oscura existen en halos de tamaños variados (debido al espectro de potencia mencionado), los bariones entran en escena en grumos de masa igual o mayor que la masa de Jeans y atraídos por los halos correspondientes de materia oscura.

A partir de entonces aparece un proceso de uniones entre los halos de materia oscura, aquellos sobre los cuales se avalanzan bariones y también aquellos sobre los cuales no se avalanzan bariones, formando estructuras cada vez mayores de acuerdo con el modelo de formación jerárquica.

Algunos bariones, por tanto, empiezan a avalanzarse sobre los “halos” de materia oscura. Su densidad aumenta y aumenta por tanto también su temperatura: A mayor densidad mayor agitación térmica al disminuir el volumen en el que se encuentra el gas y donde tienen lugar los choques entre bariones. Además, el colapso es un proceso violento a grandes velocidades que genera ondas de choque, igual que las que producen los aviones supersónicos al romper la barrera del sonido, desde el centro hacia las afueras del halo. El paso de la onda de choque da energía a los bariones en su camino, calentándolos adicionalmente. El aumento de agitación térmica es sinónimo de aumento de presión (como en una olla a presión). Las condiciones que determinan la masa de Jeans se modifican, haciéndola aumentar, y los bariones ya no tienen por qué colapsar, o, por lo menos, no tienen por qué hacerlo con tanta facilidad, al ser su presión mayor.

Ocurre entonces que si los bariones pueden perder energía más rápido de lo que son calentados, entonces su presión disminuirá y podrán colapsar eficientemente. Es decir, la característica básica de aquellos bariones que están en proceso de colapso resulta ser su capacidad de perder energía. Es una característica tan fundamental que todo el proceso de formación galáctica viene reconocido por el nombre de “colapso disipativo”. De ahí aparecerán los primeros discos en rotación ligados gravitacionalmente. Estos discos sufren inestabilidad gravitatoria debido a inhomogeneidades en ellos (inestabilidad de Toomre) y dan lugar a la formación estelar.

Mientras tanto, el medio intergaláctico sigue poblado con hidrógeno neutro; la parte de los bariones no colapsados o eyectados durante colapsos. Las primeras estrellas o quizás los primeros discos en cuásares emitirán radiación que ionizará ese hidrógeno, casi en su práctica totalidad (salvo una fracción). A este proceso se lo denomina reionización, al volver el universo a ionizarse (ya lo estaba antes de la recombinación) y ocurre más o menos entre 6 < z < 20. El hecho que el universo estuvo compuesto por hidrógeno neutro es visible hoy en la absorpción de todo un rango de longitudes de onda en la luz que recibimos de los cuásares lejanos. El hidrógeno absorbe fotones, y en vez de observarse esto en líneas de absorpción, se observa en un continuo, al quedar las lineas desplazadas a distintos desplazamientos al rojo a través de una región continua del espacio llena de material absorbente. Este efecto se denomina Gunn-Peterson y es observable para cuásares en z > 6. Por debajo (z < 6), aparecen líneas de absorbción de hidrógeno neutro pero solo en lugares puntuales, correspondiendo con esa fracción del hidrógeno intergaláctico que no fue reionizada (que se encuentra en zonas denominadas nubes de Lyman-alfa).

Nos encontramos, por tanto, con los siguientes ingredientes en z > 6: Un fondo cósmico de microondas a mayor temperatura que la actual, un medio intergaláctico lleno de hidrógeno neutro y unas fuentes de reionización en medio del colapso gravitacional: las primeras estrellas (populación III) y los cuásares. Una de las principales preguntas es saber qué papel jugaron las primeras estrellas (cuya naturaleza es poco conocida) o los cuásares en la reionización, así como la época en la que ésta tuvo lugar (reionización “rápida” 6 < z < 10 ó “extensa” 6 < z < 20).

Con esta introducción estamos ahora preparados para abordar un tema fascinante y grandioso: La heróica aventura para la deteción de posibles señales de radio de 21 cm., extremadamente ténues, de la época de la recombinación. Explicaré la física (la razón de esas señales y sus características) y me detendré un poco con los fabulosos proyectos para su detección, grandes retos de ingeniería y precisión.

jueves, octubre 27, 2005

El principio cosmológico. Tercera parte: El orígen de la homogeneidad

En el modelo cosmológico vigente existe una razón para la homogeneidad, aunque no necesariamente para la isotropía. En el universo recién nacido existen zonas en contacto causal, al tratarse de un espacio donde todas las distancias son prácticamente cero. El contacto causal hace que ese estado inicial sea homogeneo dentro de esas zonas. Un instante tras este estado, el universo entra en una fase de expansión acelerada, aumentando sus distancias de forma exponencial en un periodo muy corto de tiempo. Esto hace que la homogeneidad inicial de esas zonas se transfiera a todos los puntos expandidos en el espacio, sin perderse en ese tiempo tan corto. Como siempre, la analogía del globo viene bien para entenderlo. En el globo deshinchado podemos dibujar una mancha. Cuando el globo se hincha la mancha se hace más grande. El periodo de expansión exponencial se denomina inflación.

Esta idea también nos indica que aquellos puntos que quedan fuera del horizonte causal de aquellas zonas iniciales no son parte de sus respectivas burbujas inflacionarias. Fuera de nuestra burbuja inflacionaria, hay, por tanto, algo que no estuvo en contacto causal con ella. No es necesariamente de esperar que la burbuja inflacionaria sea exáctamente igual al universo observable actual (el horizonte de partículas), pero sí es de esperar que la burbuja tenga un límite. Por tanto, más allá de ese límite no tiene por qué haber homogeneidad.

La inflación también proporciona una sorprendente explicación a la inhomogeneidad a escalas menores, esto es, la existencia de estructuras materiales en el universo. La razón de ellas se encuentra en las fluctuaciones cuánticas del vacío durante el periodo inflacionario. Estas fluctuaciones quedan „congeladas“ debido a la fuerte expansión. Un argumento heurístico para entenderlo es el siguiente: un par virtual de partícula – antipartícula creado del vacío no tiene tiempo de aniquilarse debido a la rápida expansión del espacio. La explicación técnica es algo más compleja y no hace uso de esos términos.

El caso es que ese quedarse „congeladas“ hace que estas fluctuaciones cuánticas se conviertan en perturbaciones reales de densidad energética del campo que las crea (el inflatón, el campo causante de la inflación), haciendo a su vez que la métrica del espacio-tiempo de fondo quede perturbada. Tras un proceso algo misterioso y poco entendido denominado recalentamiento, en el cuál se transfiere energía del inflatón a otros campos materiales creando partículas, la materia caerá en esos potenciales gravitatorios de la métrica perturbada, dando lugar a la formación de estructuras y su colapso gravitacional.

El tema de la isotropía es algo más complejo en mi opinión. Si encuentro tiempo para aclarar mis ideas y resumirlo habrá una cuarta parte.

martes, octubre 25, 2005

No es un cono, es una lágrima

Imaginemos el universo un instante después del inicio del tiempo, donde las distancias eran mucho menores que hoy ya que el espacio no estaba tan expandido. Consideremos un objeto imaginario localizado a una distancia muy pequeña (infinitesimalmente pequeña) de nuestra posición - la posición comóvil que ocupamos ahora - y emitiendo (supuestos) fotones. Estos debieron ser detectables para un observador imaginario localizado en nuestra posición comóvil entonces.

Lo curioso del modelo cosmológico vigente es que podríamos detectar fotones de ese objeto hoy, tras una larga expansión del espacio, y estaríamos viendo el objeto casi en el mismo estado de evolución que el estado de evolución que aquel supuesto observador observó entonces un instante después del inicio del tiempo. Es decir, estaríamos recibiendo fotones emitidos un instante después de aquellos que el observador imaginario recibió.

Una forma de entender esto es con el concepto de cono de luz pasado. El cono de luz pasado es la zona geométrica de puntos en el espacio-tiempo donde exitían eventos que pueden afectarnos causalmente hoy (a la velocidad de la luz). A medida que uno avanza en el pasado, el cono de luz se agranda: cada vez hay más y más objetos cuya luz nos alcanza hoy. Esto viene a resultar en el hecho que en un espacio-tiempo estático el cono de luz tiene forma de cono con vértice en nosotros y agrandándose hacia el pasado. De ahí su nombre.

En un espacio-tiempo dinámico, como el del modelo cosmológico actual, esto no es así. Uno avanza mentalmente hacia atrás en el tiempo y encuentra más y más objetos cuya luz nos alcanza hoy, pero el cono de luz aumenta menos que en el caso estático. Esto es así porque, al avanzar hacia atrás en el tiempo, la contracción del espacio (como avanzamos hacia atrás en el tiempo, la expansión del espacio se convierte en contracción) hace que los objetos estén a distancias menores que lo estarían en un espacio-tiempo estático. O sea, a medida que vamos hacia atrás en el tiempo el la “sección” de ese cono para cada instante temporal será menor que en el caso estático.

Pero ocurre que, avanzando hacia atrás en el tiempo, tarde o temprano se llega a una época donde la “contracción” del espacio es tan fuerte que la “sección” del cono de luz empieza a disminuir, y lo hace cada vez más rápido ya que la velocidad de expansión, o el parámetro de Hubble, tiende a infinito a medida que nos acercamos a t = 0.

El resultado es que el cono de luz “se dobla” y acaba teniendo forma de lágrima (analogía tomada de aquí). De ahí que los objetos que estuvieron muy cerca de nuestra posición comóvil en el inicio del tiempo, podrían ser, en teoría, vistos ahora también. Los primeros fotones emitidos entonces por ese objeto imaginario alcanzan a nuestro observador imaginario situado en nuestra posición comóvil. Los siguientes fotones avanzan en el espacio hacia nosotros, pero la expansión del espacio los arrastra tan rápido que estos fotones, de forma efectiva, se alejan de nuestra posición comóvil. A medida que la velocidad de expansión va disminuyendo en el tiempo la velocidad de estos fotones “gana” a la expansión del espacio y los fotones vuelven a acercarse hacia nuestra posición comóvil y nos alcanzan ahora.


jueves, octubre 20, 2005

¿Qué fue del EURD?

El EURD (Espectrógrafo Ultravioleta extremo para la Radiación Difusa), proyecto español, lanzado en 1997 en el satélite (español) MINISAT-01, con el fin de estudiar la naturaleza de la radiación difusa en la banda de 300 a 1000 Angstroms y testear así ciertas hipótesis sobre su orígen. Entre ellas, orígenes atmosféricos, orígen en la fase coronal del medio interestelar de la burbuja local en la que se encuentra el sol, y orígen en un fenómeno cosmológico; una interesante hipótesis de Sciama sobre los neutrinos - más información en la citada página.

La página no está actualizada y contacté hace un tiempo con el autor, que muy amablemente contestó diciendo que ya no se dedicaba a eso, pero parece que por falta de tiempo no fué capaz de proporcionarme más información. Desde entonces ya ha pasado algo de tiempo y yo también he olvidado el tema, pero pensé que sería bonito retomarlo. Así las cosas, sigo con la duda sobre los resultados de aquella misión, dado lo poco que se encuentra en internet sobre ella. Esto entra en relación con una misión actual, de objetivos similares, aunque no idénticos, el CHIPS, sobre la que he hablado aquí.



Comentarios e información adicional son bienvenidos.

miércoles, octubre 19, 2005

El principio cosmológico. Segunda parte: Pruebas observacionales

Las pruebas más importantes de que la distribución de materia y campos en el universo es homogenea e isótropa a cierta escala las proporcionan (o pueden proporcionar) los siguientes fenómenos:

Fondo cósmico de microondas

El fondo cósmico de microondas es una distribución de fotones que presenta una curva de un cuerpo negro prácticamente perfecto. Un cuerpo negro está en equilibrio termodinámico a una temperatura determinada y su espectro de emisión (la cantidad de fotones a una y otra frecuencia) tiene una curva muy característica que depende sólo de la temperatura del cuerpo. Este equilibrio termodinámico es la evidencia más sólida de la homogeneidad e isotropía del universo.

Según el modelo del big-bang, hubo una época en la cual el universo estuvo formado por una sopa de partículas, en la cual los fotones chocaban constantemente con los electrones en un proceso que se conoce como scattering o interacción de Thomson. Esta sopa era prácticamente homogenea, exceptuando ciertas anisotropías denominadas primarias. Debido a la expansión del universo, esta sopa de partículas perdió temperatura hasta que los electrones y los protones que deambulaban también por ahí, se unieran felizmente para formar hidrógeno neutro (formado por un protón y un electrón). Los fotones se encontraron entonces con camino libre para viajar sin interacción, ya que los electrones con los que habían estado chocando antes dejaron deambular libremente y quedadon ligados a los protones. Este periodo de la historia del universo se denomina recombinación y ocurrió unos 400.000 años después del big-bang a una temperatura de 3.000° K. La materia y la radiación quedaron disociadas (a la recombinación se la denomina también a veces desacople) y a partir de entonces seguirán básicamente caminos distintos (aunque esto no es cierto del todo y dará lugar a las denominadas anisotropías secundarias).

La radiación citada la observamos hoy en el fondo cósmico de microondas y admiramos su homogeneidad e isotropía.

Mapas de galaxias

El instrumento matemático básico para analizar la distribución de galaxias es la función de correlación. Dada una distribución de objetos cualesquiera, estimando la probabilidad de que dado un objeto en un volumen se encuentre otro objeto separado una distancia dada del primero, se puede definir una función denominada función de correlación de dos puntos. Esta función proporciona una medida de la desviación sobre una distribución estadísticamente homogenea (una distribución de Poisson).

Si uno multiplica la distancia dada por un valor arbitrario (es decir, hace un cambio de escala) y obtiene la misma función de correlación excepto una constante multiplicativa, se dice que la distribución del objeto en cuestión presenta una invariaza de escala. La constante multiplicativa proporciona la dimensión de correlación (que da una medida de cómo de ramificada está la distribución), que está en relación con la dimensión fractal (que da una medida de cómo la estructura es capaz de rellenar el espacio).

Para escalas menores que 100 Mpc, la distribución de galaxias es aparentemente fractal y cumple lo mencionado arriba. Sin embargo, para escalas mayores que 100 Mpc esto no es así y se observa homogeneidad e isotropía [1].

Velocidades peculiares

En un universo sin velocidades peculiares el único "movimiento" medible (que no es realmente un movimiento) sería el flujo de Hubble. Las velocidades peculiares aparecen debido a la gravitación a la que están sometidas las galaxias a escalas de cúmulos galácticos (donde, además, la geometría del espacio-tiempo no tiene por qué ser necesariamente la de Robertson-Walker, que es la que describe un espacio homogeneo e isótropo en expansión).

Hubo una época del universo en la cuál las perturbaciones gravitatorias no eran suficiéntemente grandes para producir velocidades peculiares notables. Esto es visible en la homogeneidad e isotropía del fondo cósmico de microondas. Entonces no había grandes inhomogeneidades de densidad energética que pudieran dar lugar a movimientos peculiares, pero desde entonces el colapso gravitacional ha ido creciendo y las velocidades peculiares aumentando.

Los estudios sistemáticos de las velocidades peculiares tienen una historia algo turbulenta y no parece haber resultados muy claros, por lo menos por el momento. Un resumen corto y claro se encuentra aquí.

Fuentes de radio

El método es similar al mencionado en las galaxias. Las fuentes de radio (cuasares) también están agrupadas pero a grandes escalas de más de 100 Mpc su distribución también parece ser homogenea e isótropa. Además, proporcionan una muestra que, en promedio, se encuentra a un desplazamiento al rojo mayor que las galaxias.

Fondo cósmico de rayos-X

De forma algo similar al fondo cósmico de microondas, existe un fondo de rayos-X (y ultravioleta extremo, cosa que nos llevará un día de estos a un interesante periplo por la inacabada historia de un proyecto español) llenando todo el cielo.

Su razón se cree en múltiples fuentes no resueltas de galaxias activas (AGN) con emisión de rayos-X, aunque su curiosa homogeneidad e isotropía siguen siendo algo misteriosas.

En la próxima entrega sobre este tema intentaré explicar las razones de que el universo cumpla el principio cosmológico a la escala a la que se observa que lo cumple (100 Mpc en el universo actual y cuando tenía sólo 400.000 años a prácticamente cualquier escala), así como la razón de que no lo cumpla donde no lo cumple (por debajo de 100 Mpc hoy y en las anisotropías primarias cuando tenía sólo 400.000 años, así como la especulación de qué puede ocurrir a escalas mayores que el universo observable).

martes, octubre 18, 2005

El principio cosmológico. Primera parte: Su orígen y el principio de Mach

La relatividad especial está definida sobre el conjunto de sistemas de referencia inerciales, que conforman un marco preferido sobre el cuál acontecen los eventos físicos. Este conjunto de sistemas sirve como base para definir la primera ley de Newton y la segunda ley de Newton adquiere un sentido cuando es referida a ese marco, el de los sistemas de referencia inerciales. Así, por ejemplo, el agua en un cubo de agua en rotación en un universo completamente vacío adquiere una forma cóncava diferenciándose su movimiento de aquel que sufriría el agua en un sistema de referencia inercial. Por definición, sobre el agua actúan fuerzas.

Ernst Mach defendía que la inercia es una propiedad de un cuerpo que aparece de la interacción con otros cuerpos (principio de Mach). La inexistencia de una referencia material externa a un cuerpo lo privaría de inercia y, dada la falta de un marco de sistemas de referencia inerciales (por definición según Mach, al no ser ésta una propiedad del espacio-tiempo), no habría razón para la aplicabilidad de la segunda ley de Newton si tampoco existiese una referencia material. Así, por ejemplo, el cubo de agua en un universo completamente vacío, no adquiriría una forma cóncava según Mach y, por tanto, sobre el agua no actuarían fuerzas.

La relatividad general incluye en parte el principio de Mach, que era una de las metas de Albert Einstein. En el caso del cubo de agua en fenómeno se denomina ‘arrastre del sistema de referencia’ y es objeto de prueba experimental con la Gravity Probe B. La idea sería, por ejemplo, poner un cubo de agua en una esfera hueca y hacer rotar a esta y no al cubo. La relatividad general predice concavidad e introduce la relatividad del giro deseada por Ernst Mach. Si los campos gravitatorios desaparecen y uno pasa a la relatividad especial, que es el límite de la relatividad general cuando no hay campo gravitatorio o no hay materia en el espacio-tiempo, el giro vuelve a ser absoluto y los sistemas inerciales aparecen como una plataforma preferida sobre la cuál hacer física.

Esto disgustaba a Einstein, que era de la opinión que la inercia debía ser determinada por las masas siempre. En aquel tiempo él razonaba de la siguiente forma: Si uno considera el universo como un conjunto de masas de forma que el espacio-tiempo es plano lejos de ellas (asíntóticamente plano, se dice), entonces siempre existe forma de violar el principio de Mach yéndose lejos de las masas y obteniendo el límite de la relatividad especial, que permite observar al giro como propiedad absoluta en el espacio, al contrario que el movimiento lineal, relativo, que da lugar a ese conjunto de sistemas de referencia especiales. Esta era una situación inaceptable. Sin embargo, para determinar una solución a las ecuaciones en la relatividad general hacen falta, además de la configuración de masas en el espacio-tiempo, unas condiciones de contorno. En vista de esto, Einstein se puso manos a la obra para encontrar aquellas condiciones de contorno tales que fuese imposible encontrar un espacio-tiempo plano que determinase la inercia como una propiedad independiente de la materia.

Aquí se nos explica que:

Einstein objected [...], because it showed that the field equations allowed inertia to exist in an empty universe, which Einstein viewed as "inertia relative to space", and he still harbored hopes that general relativity would fulfill Mach's idea that inertia should only be possible in relation to other masses.


Una de sus soluciones fue la de una métrica singular del espacio-tiempo, tal que cualquier transformación de coordenadas, en cualquier posición, la dejase invariante y nunca igual a la métrica plana. Esta propuesta fue desechada pronto. Como interlocutor en la discusión de las implicaciones astronómicas de la introducción del principio de Mach en la relatividad general, Einstein tenía nada menos que a su contemporáneo Willem de Sitter. Según éste, tal métrica requeriría de unas masas (necesarias para curvar el espacio-tiempo y dar lugar a ella) inobservadas, cosa no muy distinta a la idea del ether previa a la relatividad especial (Peebles [1] nos hace notar aquí la analogía con la materia oscura). Otra de sus soluciones fue proponer lo que Milne luego llamó el principio cosmológico; un universo con una distribución homogenea e isótropa de materia en todo el espacio, de forma que en ningún lugar de él hubiera sitio para una métrica plana del espacio-tiempo vacío. Según Einstein, el universo debía ser, además, espacialmente cerrado sobre sí mismo (finito pero ilimitado) y estático. Fue de Sitter el que más tarde mostrara que las condiciones impuestas por Einstein no eran suficientes para obtener el resultado que él se proponía (una excelente discusión se encuentra aquí).

Independiéntemente de lo correcto o no del uso de estas ideas para la introducción del principio de Mach, lo importante es que la idea del principio cosmológico fue acogida con entusiasmo y ha resultado ser fructífera y confirmada por la experiencia, como veremos.

Pero parémonos antes a entender los conceptos de isotropía y homogeneidad. Isótropo significa con las mismas propiedades en todas las direcciones y homogeneo con las mismas propiedades en todo punto. El universo puede ser isótropo sin ser homogeneo, por ejemplo, si la tierra fuese su centro y, desde ella, el universo fuera esféricamente simétrico (por ejemplo, casquetes esféricos de decreciente densidad de estrellas desde la tierra, cosa que iría en contra del principio Copernicano). El universo también puede ser homogéneo sin ser isótropo, por ejemplo, teniendo un campo magnético uniforme en una dirección del espacio. El principio cosmológico requiere ambas, homogeneidad e isotropía en la distribución de la materia y los campos en el espacio. No se requieren estas propiedades a lo largo del tiempo.

En el próximo artículo explicaré cuáles son las observaciones que soportan el principio cosmológico.

[1] J.P.E Peebles, Principles of Physical Cosmology. Princeton University Press (1993).

sábado, octubre 15, 2005

The quantum experience y el misterio de la doble ranura

Lo extraordinario y lo místico tienen una raíz común. Extraordinario es aquello fuera del orden, o regla natural, y lo místico incluye misterio o una razón oculta. La física intenta hacer salir a la superficie la razón oculta de las cosas, y la busca en fenómenos que sin duda consideramos extraordinarios, al encontrarse la mayoría de ellos más allá de la experiencia cotidiana. Se trata de un descubrimiento de lo oculto, una desvelación, o revelación, como la manifestación de la verdad oculta.

La actividad de la ciencia física se convierte así en algo que nos pone frente a frente con el misterio más profundo del universo. Albert Einstein decía “sostengo que el sentimiento cósmico religioso constituye la más fuerte y noble motivación de la investigación científica” (véase http://www.geocities.com/alschairn/einstein/einstein.htm), entendiendo el concepto de misticismo más allá de lo meramente religioso tal y como se entiende o suele entender hoy.

Hace un par de días he tenido ocasión de ayudar a preparar, y observar luego - en el marco de una actividad no-profesional - el experimento de la doble ranura con láser. Un láser de luz polarizada, digamos en dirección vertical z, es lanzado y separado en dos rayos por un “beam splitter”. Estos rayos luego se hacen confluir y se observan sobre una pantalla. El experimento de la doble ranura es trivial en ese marco “clásico”, ya que en la pantalla hay un patrón de interferencia si hay dos rayos que confluyen, y no la hay si se tapa uno de los caminos y queda sólo un rayo (se ve un punto de un sólo láser).

Pero la realidad es extremadamente sublime y sobre todo el siglo pasado nos ha mostrado que trasciende los intentos de adaptarla a los razonamientos que emergen de la experiencia cotidiana. Uno puede bloquear uno de los caminos con un polarizador en dirección x, y en el otro camino poner un polarizador en dirección z. Si no se hace nada más, ocurre que tras la zona de confluencia de ambos rayos no hay interferencia, al quedar un camino tapado (el del polarizador en x) y el otro no (el del polarizador en z). Sin embargo, si luego se pone un polarizador a 45° (45° de ángulo entre x - z), tras la zona de confluencia y delante de la pantalla el resultado es que hay interferencia. Esto es increíble desde el punto de vista clásico y difícil de digerir, aún cuando uno lo espera según la teoría cuántica. Este experimento se denomina “quantum eraser”.

Con toda la modestia del mundo puedo asegurar que para mí algo así es como lo que para el montañero es alcanzar la cima, o para algunos hombres bailar alrededor del fuego, o incluso para otros la aparición de la Virgen; una experiencia profunda sobre un nivel de lo real que está más allá de nuestra vida cotidiana y nos pone ante el abismo de una realidad mucho mas vasta de lo que nunca podremos imaginar.

jueves, octubre 13, 2005

Colaboración

Cualquiera que quiera animarse a colaborar en este weblog con cualquier idea, para poder darle algo más de continuidad de la que puedo darle yo, está invitado a contactame.

viernes, julio 15, 2005

En obras...

No entiendo por qué los formatos del IE el Opera y el Firefox no son iguales y la columna aparece donde le da la gana, y eso que yo no hago nada mas que seleccionar la forma de la página de las que hay. Así que, por el momento, este formato es provisional... y así se queda durante las vacaciones, por lo menos hasta finales de agosto.

jueves, julio 14, 2005

JWST

El James Webb Space Telescope (JWST), cuyo nombre original era Next Generation Space Telescope, será puesto en órbita en el 2011 en el punto Lagrange L2 del sol y la tierra a 1.5 millones de kilómetros de la tierra. Para comparar, el HST (Hubble Space Telescope) está en una órbita a 600 km de la superficie terrestre.



La órbita del JWST es óptima para la observación infrarroja, al estar alejada de la influencia térmica de la tierra y la luna. El JWST trabajará en el rango entre 0.6 y 28 micrones con una sensibilidad mucho mayor que cualquier telescopio actual.



Lo que sigue es un pequeño resumen de los objetivos científicos, más o menos tal y como está explicado en la página del JWST.

La principal meta del telescopio es el estudio de la formación galáctica y estelar. La formación galáctica está ligada a la primera formación estelar. Después de la recombinación (formación del hidrógeno neutro unos 400.000 años después del big-bang) el universo entra en la época oscura (dark ages) siendo opaco a la luz ultravioleta absorbida por el hidrógeno neutro. Cuando las primeras fuentes de luz fueron suficientemente potentes, el hidrógeno quedó disociado. Determinar cuáles fueron las primeras fuentes de luz que reionizaron al universo, así como la época en la que la reionización tuvo lugar, es uno de los retos de la cosmología moderna.



La observación infrarroja de fuentes muy débiles es necesaria para la detección de las primeras galaxias y estrellas. De hecho uno de los descubrimientos en los últimos diez años ha sido las Low Surface Brightness Galaxies, galaxias de bajo brillo superficial (el brillo superficial es el flujo de luz recibido por ángulo sólido subtendido por la fuente emisora) que forman una parte esencial de la populación de galaxias (quizás veamos alguna que otra sorpresa con los catálogos recientes). Estas galaxias tienen un brillo superficial tan bajo que quedan por debajo del "ruido" de fondo de cielo nocturno.

La naturaleza de la formación estelar es otro de los objetivos “estelares” del JWST. Con su gran sensibilidad en el infrarrojo podrá ver más adentro de nubes protoestelares y medir sus características (la luz infrarroja no es absorbida por ellas). Una de las preguntas básicas es sobre la función inicial de masa (IMF, Initial Mass Function). Esta determina la cantidad de estrellas de una determinada masa que se forman a partir de una nube protoestelar (Giant Molecular Clouds). La cuestión es sobre la universalidad de esa función o si el mismo proceso de formación estelar influye sobre ella, autorregulándose.

La medición del brillo y las características de estrellas varias en la Vía Láctea, sobre todo dentro de cúmulos globulares, lleva a otro de los objetivos: la determinación de la edad y el orígen de nuestra galaxia. Por último también se pretende estudiar la formación de planetas y discos planetarios. Aunque el JWST no será capaz de fotografiar exoplanetas, quizás sí pueda medir el espectro de la atmósfera de alguno.

miércoles, julio 13, 2005

Microcuásares

Una noticia del descubrimiento de un microcuásar que emite mas de lo que predice la teoría. Pero ¿qué es un microcuásar? Un microcuásar es un sistema binario con una estrella orbitando una estrella de neutrones o un agujero negro. El efecto que se produce es similar a observado en un cuásar pero a escala más pequeña. He encontrado una figura que lo describe de maravilla (y a veces una imagen vale más que mil palabras):

viernes, julio 08, 2005

La GP-B y el gravitomagnetismo

Nota: Lo que viene ahora pretende ser didáctico, pero requiere haber oído alguna vez sobre los potenciales eléctrico y magnético, su relación con los campos eléctrico y magnético, y sobre la ley de Ampere.

La gravitación es una fuerza que viene modelada en la relatividad general por un objeto matemático de diez componentes independientes (un tensor simétrico de segundo orden) para cada punto del espacio-tiempo. Este objeto es la métrica del espacio-tiempo y representa algo así como el equivalente al “el potencial” gravitatorio en la gravitación newtoniana, como veremos más abajo. La métrica de denota guv, donde u y v son subíndices que van desde 0 hasta 3 (un total de 16 componentes, aunque sólo 10 de ellos independientes debido a la simetría).

Cuando uno analiza problemas de campos débiles (o por lo menos no extremadamente fuertes) la métrica se puede descomponer en dos partes:

guv = nuv + huv

donde nuv es la métrica de un espacio-tiempo plano n00 = -1, n11 = n22 = n33 = 1 (las demás cero) y huv una perturbación. La perturbación huv se puede separar en tres partes: (1) una parte escalar dada por h00, (2) una vectorial dada por h0i (igual a hi0 por simetría) y (3) una parte tensorial dada por hij. Aquí los índices latinos i, j van desde 1 a 3 (a diferencia de u, v que van de 0 a 3).

Para los efectos de gravitoelectricidad y gravitomagnetismo nuestra atención se centra en (1) y (2). Buscando la analogía con electromagnetismo, se pueden relacionar h00 con el potencial escalar Ф y h0i con el potencial vector Ai. Como, dados los potenciales, las ecuaciones de Maxwell se derivan tomando:

E = -▼ Φ - dA/dt
B = ▼ x A,

Se puede proceder de forma similar con h00 y h0i para obtener “ecuaciones de Maxwell gravitatorias”. El campo E resultante es el gravitoelectrico y el B es el gravitomagnético.

Notar que para el caso estático E = -▼ Φ y la divergencia del gradiente de Φ (el laplaciano de Φ) da lugar a la ecuación de Poisson para el campo gravitatorio que nos lleva a la gravitación newtoniana:

▼² Φ = - 4 π G ρ

De ahí que nombrase antes a la métrica “potencial gravitatorio”, ya que esa identificación vale, por lo menos en campos débiles, para h00.

Notar también que toda métrica diagonal, como por ejemplo la de Schwarzschild o la de Robertson-Walker, no presenta gravitomagnetismo (los g0v y por tanto h0i son cero).

Análogamente al electromagnetismo, se puede definir también una fuerza “de Lorentz” que actúa sobre cargas (q = m, masas para la gravitación) en el seno de esos campos.

F = q (E + v x B)

Como esa es la fuerza que ”actúa sobre” vemos que el campo gravitomagnético sólo ejerce fuerza sobre masas en movimiento (con velocidad v) y no sobre masas estáticas. Por otro lado notar que, al igual que en electromagnetismo, la separación entre E y B es dependiente del sistema de referencia.

Veamos ahora esto en relación con la Gravity Probe B. La intención es entenderlo de forma cualitativa y, por tanto, nos quedaremos en la analogía del electromagnetismo, pero antes de ello haremos un periplo por dos fenómenos más que no son objeto de la GP-B.

Supongamos que tenemos un cuerpo esférico (cuerpo pequeño de prueba) que rota alrededor de su eje y lo dejamos acercarse desde el infinito, por medio de la gravedad, hacia una gran masa esférica en rotación (también alrededor de su eje). A partir de ahora usaré el término rotación para denotar el giro del cuerpo sobre sí mismo y traslación para el giro del cuerpo alrededor de la gran masa esférica. En un principio, la masa grande puede generar tres efectos peculiares sobre la dirección del rotación del cuerpo esférico (un cambio en la dirección de rotación se denomina precesión), además de un efecto sobre la traslación.

Antes de explicar los efectos de precesión vamos brevemente con el cambio de trayectoria. Incluso si el cuerpo se acerca en su trayectoria inicial a la masa por el lado opuesto a la dirección de rotación de la masa grande, llegará a un límite de distancia radial a partir de la cual se verá obligado a cambiar su dirección para dar vueltas alrededor de la masa en el mismo sentido de giro que esta. Es decir, el cuerpo que se acerca se ve arrastrado y obligado a desviar su trayectoria en la dirección de la rotación de la masa. Este límite se denomina “ergo-región”. Este efecto es característico de un espacio-tiempo de Kerr (masa con simetría esférica pero en rotación) y, que yo sepa, no es objeto de interés en la GP-B. Vamos ahora con los efectos de precesión.

El primer efecto de precesión se conoce como precesión de Thomas y es meramente una consecuencia de la relatividad especial (y no tiene nada que ver con la gravitación). Es debido a que los ángulos durante rotaciones dependen del sistema de referencia (contracción de Lorentz), cosa que hace que los vectores transportados en una rotación acaben cambiando algo su dirección. Es el caso, por ejemplo, del electrón con su espín girando alrededor del núcleo atómico para el cual la precesión de Thomas hará cambiar la dirección de su espín. Creo que para el caso de movimiento geodésico (sin aceleraciones adicionales a las producidas por la gravedad) del cuerpo de prueba que se acerca a la masa, este efecto debería ser nulo (pero no lo puedo afirmar con seguridad).

Tras este periplo por los efectos que realmente no son objeto del estudio con la GP-B, volvemos al gravitomagnetismo. Precisamente los dos efectos siguientes son resultado de él.

El átomo de hidrógeno formado por un protón y un electrón nos va a servir de analogía para el caso. Podemos imaginarlo de forma clásica: el protón y el electrón ambos con su espín, es decir, como bolitas rotando respecto de su eje, y a su vez el electrón girando en órbita alrededor del protón.

El efecto que nos interesa entender es el siguiente: La dirección del espín del electrón se verá modificada según el campo magnético en el que se encuentre sumergido. Volviendo al caso gravitatorio: El eje de rotación del cuerpo test, se verá modificado según el campo gravitomagnético en el que se encuentre sumergido.

El campo magnético en el que se encuentra sumergido el electrón se constituye como suma del campo magnético generado por momento magnético del espín (momento magnético intrínseco) del protón y el campo magnético generado por el momento magnético producido por el movimiento angular del protón (el electrón ve moverse al protón con su carga, y cargas en movimiento producen campos magnéticos).

La razón de la forma de ambos campos es consecuencia de la ley de Ampere, que nos dice que todo flujo de cargas (J) - en traslación o rotación - da lugar a un campo magnético (B):

▼ x B = J

El flujo de carga aparece al considerar el protón girando respecto del electrón y el protón mismo como una bola que, al girar, hace moverse la carga (la suya propia). Para el caso gravitatorio hay una ecuación similar el flujo de masas - en traslación o rotación (concretamente la de traslación de la gran masa respecto de la masa test y la de rotación de la gran masa respecto de su eje) - dará lugar a un campo gravitomagnético.

Aparece, por tanto, una precesión debida a dos efectos: Lo que se viene a llamar la interacción espín-órbita y lo que se viene a llamar interacción espín-espín, denotando lo el primer “espín” aquello que se ve influido (precesión) y lo segundo (órbita o espín) aquello que influye.

Para ver la influencia de estos campos sobre el electrón volvamos a la fuerza de Lorentz F = q v x B. El electrón lo imaginamos como una bola, la cual “mueve” carga generando una velocidad de la carga. La fuerza de Lorentz se convierte en un torque, con la dirección:

T ~ w x B

Siendo w un vector paralelo al eje de giro. Tanto el campo producido por la rotación del protón, como el campo producido por la traslación del protón girando alrededor del electrón (desde el punto de vista del electrón), crearán ambos una fuerza sobre el electrón haciendo girar su eje de rotación. Si el eje de rotación del electrón está alineado con el campo magnético, la fuerza no se aparece (el efecto neto es nulo). No creo que sea necesario ir a mayores detalles. En la figura abajo he dibujado un caso. El campo magnético es horizontal (saliendo de la pantalla) y el electrón rota respecto del eje vertical. La fuerza de Lorentz creará un torque para inclinar su eje de giro.



Algo parecido ocurre en el caso gravitacional. Uno de los efectos se conoce como precesión geodética o precesión de de-Sitter. Se trata de la interacción espín-órbita y ocurre sólo si el eje de rotación del cuerpo no está alineado con el eje perpendicular al plano de su movimiento alrededor de la masa (para el caso electromagnético la interacción espín órbita se conoce como precesión de Larmor). En el caso de la tierra, por ejemplo, el eje de rotación también sufre una precesión (debido a la posición del plano lunar), de la cual una parte es el efecto relativista. El otro efecto se conoce como precesión de Lense-Thirring y se trata de la interacción espín-espín. Es posible elegir una trayectoria óptima de movimiento tal que ambos efectos actúen de forma perpendicular para poder ser medidos mejor. Esta trayectoria óptima resulta ser una órbita polar: El eje de la órbita polar es perpendicular al eje de rotación de la tierra por lo que los campos gravitomagnéticos que generan también lo son.

En la figura de abajo: El campo gravitomagnético producido por la órbita es perpendicular a la pantalla y genera la flecha (variación de la dirección de la rotación de la masa pequeña) donde pone “geodetic” (T ~ w x B). El campo gravitomagnético producido por el espín es vertical y genera la flecha donde pone “frame dragging” (T ~ w x B).



La Gravity Probe B fue lanzada hace más de un año y en el 2006 proporcionara el primer conjunto de datos que nos mostrarán si la relatividad general es correcta o no. Si hasta entonces todavía escribo aquí me dedicaré intensivamente a analizar los resultados, así que a estar atentos.

GP-B STATUS AT A GLANCE
=============================
Mission Elapsed Time: 437 days (62 weeks/14.32 months)
Science Data Collection: 308 days (44 weeks/10.10 months)
Current Orbit #: 6,449 as of 4:30PM PST
Spacecraft General Health: Good
[...]

miércoles, julio 06, 2005

Tras las huellas del CHIPS

La burbuja local; un entorno de baja densidad (unos 10^-3 átomos por centímetro cúbico), en el que se encuentra localizado el sistema solar. Su forma alargada “vertical”, de unos 100 pc en dirección del plano galáctico y unos 200 pc perpendicular a él, hace que se la denomine a veces “chimenea local”. El entorno está compuesto básicamente de hidrógeno ionizado a altas temperaturas (a menor densidad mayor temperatura en el medio interestelar, dada la hipótesis de equilibrio de presión - recordemos la ecuación de un gas ideal), lo que se denomina fase HIM (Hot Interstellar Medium) del medio interestelar.



En el marco del modelo de McKee-Ostriker, el HIM es calentado básicamente debido a ondas de choque de supernovas y vientos estelares hasta una temperatura de un millón de grados y emite en el ultravioleta extremo (EUV) y parte de rayos-X. De acuerdo con esto, la burbuja local fue formada hace unos 10 millones de años muy probablemente debido a la explosión de supernovas cercanas, concretamente de la asociación OB de Escorpio-centauro (Sco-Cen). Gran parte de las supernovas se originan en asociaciones OB, cúmulos de 10 a 100 estrellas de tipos O y B, que son calientes, masivas y se encuentran durante poco tiempo dentro de la secuencia principal en el diagrama de Hertzsprung-Russell. La asociación Sco-Cen se encuentra relativamente cerca del sol y debió haberse encontrado más cerca en el pasado.

Una vez calentado el HIM, este empieza a enfriarse. Los procesos de enfriamiento más comunes son la emisión de radiación electromagnética tras colisiones. Los electrones de los átomos excitados tras una colisión (electrones contra iones) bajan por los niveles de energía emitiendo radiación. A bajas temperaturas (cien mil grados) se dan las colisiones de hidrógeno y helio, pero a temperaturas mayores aparecen colisiones y emisión de metales pesados (O, C, N, etc.). A temperaturas del orden del millón de grados es previsible la emisión de isótopos del hierro. Sin embargo, el medio interestelar puede ser pobre en hierro debido al agotamiento de este al pasar a formar parte del polvo interestelar (iron depletion).

El CHIPS es un satélite lanzado en el 2003, que tiene como objetivo estudiar el espectro en el rango del UV extremo del gas caliente en las inmediaciones del sistema solar, dentro de la burbuja local, para sacar conclusiones sobre sus procesos de enfriamiento y extrapolar a burbujas de este tipo (la fase HIM). En la página de ciencia del CHIPS se lo proclama como un hito en la compresión de los procesos de interacción entre las estrellas y el medio interestelar dentro de las galaxias.



Pues bien, ya existen los primeros resultados, los cuales no acabo de entender, pero que parecen interesantes. Se han encontrado una linea de emisión muy débil de FeIX, pero las lineas del FeX – FeXII no se han detectado en absoluto. La emisión débil del hierro se puede deber a agotamiento de este, pero la ausencia de las lineas de FeX – FeXII no. El último papel, cuyo abstract copio a continuación, todavía está por aparecer. Un tema interesante para estar alerta.

The first year of CHIPS (Cosmic Hot Interstellar Plasma Spectrometer) high-resolution EUV spectral measurements showed that the expected EUV emission from hot gas in the local bubble, primarily from Fe, is nearly absent. To determine whether this is because of Fe depletion or is owing to the absence of hot gas, we have been observing in the last year in a higher sensitivity mode and report on our latest results. We continue to see only very faint EUV emission and have determined that at least part of the detected emission arises from within the solar system, rather than the local interstellar medium. We present our latest EUV spectra and discuss their implications for answering the question posed above.

martes, julio 05, 2005

Nota histórica sobre la formulación de la relatividad general

Hoy quiero llamar la atención sobre un papel reciente sobre historia de la ciencia. Fijémonos en la siguiente foto:



¿Qué nos está preguntando Einstein? Nos pregunta si Ruv = 0. (En la notación moderna los subíndices latinos i, j se usan para coordenadas tridimensionales y los subíndices griegos u, v para cuatro dimensiones). Desconozco el orígen de la foto, que he encontrado casualmente, pero probablemente se trata de una conferencia en la que Einstein explicaba los pasos que le llevaron a la formulación de la teoría general de la relatividad o la relatividad general misma.

¿Qué quiere decir esa pregunta y por qué la preguntaba retóricamente? Veamos las ecuaciones de Einstein tal y como son en la relatividad general:

Ruv – ½ guv R = Tuv

El lado izquierdo de las ecuaciones de Einstein describe la geometría del espacio y el tiempo. El objeto Ruv (u, v = 0, 1, 2, 3), conocido como tensor de Ricci, se deriva del tensor de curvatura de Riemann (el tensor de Ricci es la contracción, o traza, del tensor de Riemann), que proporciona los valores de la curvatura del espacio-tiempo en cada punto de él. El objeto guv es la métrica y R el escalar de Ricci (la contracción del tensor de Ricci). El lado derecho de las ecuaciones de Einstein describe la materia y contiene al tensor de energía-momento Tuv. Si el lado derecho es cero, se trata de las ecuaciones para el vacío (sin materia).

Einstein nos pregunta si Ruv = 0, es decir, si las ecuaciones del campo gravitacional en el vacío son tales que el tensor de Ricci es cero. Esto es correcto ya que el tensor de Ricci es:

Ruv = Tuv - ½ guv T

siendo T la traza del tensor de energía-momento. Si Tuv = 0, entonces T = 0 y ocurre ciertamente que Ruv = 0. Estas son por tanto las ecuaciones de Einstein en el vacío. No obstante, esta forma de escribirlas, en vez de la usual Ruv – ½ guv R = Tuv ó Ruv – ½ guv R = 0 para el vacío, recuerda a una expresión para las ecuaciones que el mismo Einstein estuvo considerando durante un tiempo antes de dar con las correctas. Concrétamente:

Ruv = Tuv

Estas ecuaciones sólo coinciden con las verdaderas si T, la traza de Tuv, es cero también, T = 0. Pero esto es una restricción severa a la materia del universo, ya que no toda ella tiene un tensor de energía-momento con traza cero. Uno de los fenómenos que más interesaban a Einstein en 1914, antes de la formulación de las ecuaciones correctas, y que guiaron sus pasos en la búsqueda de las ecuaciones, era la deflección de la luz que Einstein intuía como un fenómeno necesario de una nueva teoría de la gravitación. La luz, en general el campo electromagnético, sí tiene tensor de energía-momento con traza cero T = 0.

La historia para llegar a las ecuaciones correctas a partir de esas ecuaciones incorrectas es fabulosa y trata de un apasionado carteo e intercambio de opiniones entre Einstein y Hilbert. Einstein, con su forma más intuitiva, había planteado perfectamente los dos pilares sobre los que la teoría debía descansar: el principio de equivalencia y la covarianza general (invarianza antes cambios generales de coordenadas), así como el trasfondo matemático necesario para abordar el problema (geometría de Riemann) con la ayuda de su amigo Marcel Grossmann. A este resultado llegó tras un tortuoso camino comenzado tras la formulación de la relatividad especial en 1905. Hilbert, basándose en los principios propuestos por Einstein y aplicando formalmente el principio de acción mínima dio con la forma correcta de las ecuaciones. Einstein lo hizo
después / antes / al tiempo (?) de recibir la solución de Hilbert que le había pedido por carta y siguiendo su vía intuitiva.

De ahí nace una controversia histórica sobre el autor de las ecuaciones correctas. Ambos protagonistas dieron por zanjada la cuestión educadamente tras las publicaciones en la navidad de 1915, pero el tema sigue inquietando a muchos. Aquí se proporciona un resumen excelente del tema: http://arxiv.org/physics/0504179

martes, junio 21, 2005

Anisotropías en el fondo cósmico de neutrinos

Wayne Hu es uno de los pesos pesados en la física del fondo cósmico de microondas (su página personal en http://background.uchicago.edu/~whu/ contiene información sobre el fondo a todos los niveles). Hu introdujo hace unos años ya en http://arxiv.org/astro-ph/9801234 Structure Formation with Generalized Dark Matter, el concepto de Generalized Dark Matter (GDM) o Materia Oscura Generalizada. Se trata de un modelo fenomenológico que pretende describir la acción de la materia oscura con la mayor generalidad posible, como combinación en proporciones arbitrarias de los componentes conocidos: WIMPS (materia oscura fría), neutrinos (caliente), energía oscura como densidad energética oscura y otras propuestas como campos escalares.

Los neutrinos del fondo cósmico de neutrinos se desacoplaron del resto de la materia y la radiación durante los primeros minutos de existencia del universo y presentan equilibrio térmico, con una curva de cuerpo negro, isótropa y homogenea, salvo sus anisotropías. Igual que el fondo de microondas.
También, al igual que el fondo de microondas, el fondo de neutrinos presenta una viscosidad debido al cuadrupolo de su distribución de temperatura. Dipolo, cuadrupolo, octopolo, son los modos (armónicos esféricos) con cuya suma se describen las anisotropías que se denotan por la letra l (dipolo l = 1, cuadupolo l = 2, etc.). La viscosidad ( "parámetro de viscosidad") del cuadrupolo del fondo de neutrinos induce un amortiguamiento de las anisotropías de los fotones del fondo, concrétamente del primer pico (modo l = 200), aunque yo no tengo (todavía) nada claro el mecanismo físico que actúa para este efecto.

Se presenta así la posibilidad de inferir sobre las anisotropías del fondo de neutrinos, sin siquiera haber medido el fondo de neutrinos, a través de las anisotropías del fondo de microondas. En la noticia de nature se mencionan observaciones que podrían sugerir algo así, pero esto ha de ser verificado todavía. Recordemos que los datos del segundo año del WMAP todavía no están publicados (tras más de un año de demora).

lunes, junio 20, 2005

Early Black Holes Grew Up Quickly

Gratamente sorprendido estoy de este artículo de prensa, que explica y resume de forma concisa y cabal los mecanismos físicos y las hipótesis que se proponen en http://arxiv.org/astro-ph/0506040 Rapid growth of high redshift black holes. Aviso: No es un artículo como otros, ya que requiere pararse a pensar lo que se lee.

jueves, junio 16, 2005

XMMU J2235.3-2557

Noticia: Un cúmulo galáctico en z = 1.4
http://sci.esa.int/science-e/www/object/index.cfm?fobjectid=36646

Se trata de un cúmulo hecho y derecho, con gas intracumular con su emisión de rayos-X, y no es sólo una agrupación de galaxias (proto-cluster), como las que ya se han detectado incluso cerca de z = 4.

En la noticia se afirma:
This discovery calls for a reconsideration of current theories, since until recently astronomers believed that structures like this did not even exist at such early epochs. "We have underestimated how quickly the early Universe matured into its present-day incarnation," said Dr Piero Rosati, of the European Southern Observatory, Garching, Germany, and a member of the team. "It is now clear that the Universe grew up fast."

Lo cual me parece una afirmación bastante dudosa. La formación de cúmulos puede ser un fenómeno que se da por encima de z = 2 en el modelo cosmológico vigente. Fijémonos en estas hojas de J. Mohr, en http://cosmology.astro.uiuc.edu/~jmohr/, profesor de astronomía de la universidad de Illinois y autoridad en el tema de cúmulos galácticos.





(La linea azul de la primera hoja es el modelo cosmológico vigente). Los resultados que muestra aquí se basan en el formalismo de Press-Schechter, que ya he mencionado varias veces hablando sobre los cúmulos galácticos. Estos resultados son también soportados por simulaciones de la formación de estructuras en el modelo CDM.

El papel original del descubrimiento del cúmulo se puede encontrar en http://arxiv.org/abs/astro-ph/0503004.

sábado, junio 11, 2005

La contaminación del primer pico

Las anisotropías del fondo cósmico de microondas son desviaciones de la curva del cuerpo negro a una temperatura de 2,73° K. Su valor es de una diezmilésima de grado aproximadamente. Se clasifican en anisotropías primarias y secundarias. Las anisotropías primarias son anisotropías de cuando el universo tenía unos 400.000 años, es decir, eran desviaciones sobre la curva del cuerpo ya entonces y que se han mantenido hasta ahora. Si sólo existieran las anisotropías primarias veríamos hoy la misma imagen del fondo que entonces, solo que más fría. Pero esa imagen no es exáctamente la misma y la causa de ello son las anisotropías secundarias, que son generadas debido a la interacción de la radiación con la materia en el tiempo que va desde la recombinación hasta ahora.

Entre las anisotropías primarias se encuentran los picos acústicos. Antes de la recombinación existe un plasma de electrones, protones, neutrones y fotones, en el que los fotones interactúan con los electrones impidiéndolos ligarse a los protones para formar hidrógeno neutro. Por otro lado, la presión de la radiación actúa en contra de la gravitación de los bariones (protones y neutrones), impidiéndoles colapsar gravitacionalmente. La dinámica es como la de un oscilador armónico (un muelle): Una inhomogeneidad de densidad intentará colapsar, pero la presión de la radiación se lo impedirá y empezará a oscilar (compresiones y rarefacciones). Las inhomogeneidades de densidad se modelan separándolas en una serie de "modos" con distintas longitudes de onda. Una función cualquiera normalilla con altos y bajos -en este caso de densidad- puede ser descompuesta en una suma de sinusoidales (en el caso del cielo se trata de una suma de armónicos esféricos) cada una de las cuales contribuye con un factor. La compresión-rarefacción de mayor tamaño que podemos observar corresponde al colapso de una inhomogeneidad de densidad del tamaño del horizonte en aquella época. Inhomogeneidades mayores existen, pero no oscilan, al desaparecer el fluido inmediatamente después de la recombinación (los fotones se desacoplan de los bariones). Al tratarse de una compresión-rarefacción del fluido habrá un efecto directo sobre la temperatura de él y por tanto de los fotones, de ahí que sea una anisotropía.

Esa compresión-rarefacción la vemos hoy en los datos del fondo formando lo que se conoce como el “primer pico” correspondiente con un "modo" de una escala de un grado angular en el cielo (el modo l = 200). La potencia del primer pico da información sobre los potenciales gravitatorios existentes (la cantidad de materia), así como la dinámica de la oscilación (la fracción de bariones) y es la fuente esencial de información cosmológica en el fondo cósmico de microondas.

Una de las anisotropías secundarias es el efecto Sunyaev-Zeldovich (SZE). Para entenderlo mencionemos primero que los cúmulos galácticos contienen una gran cantidad de gas circundando a las galaxias. Se trata de un plasma ionizado, que tiene una masa de hasta seis veces mayor a la masa de la materia bariónica galáctica y que, dada su alta temperatura a unos 10^6 K, emite rayos-X. Los fotones del fondo cósmico de microondas interactúan con los electrones libres del gas intracumular (scattering de Compton inverso) y obtienen energía de ellos, saliéndose de la curva del cuerpo negro que conforman. El resultado es una anisotropía. Los fotones son desplazados a frecuencias mayores, cosa que resulta en que la parte de Rayleigh-Jeans del espectro de Planck parezca más fría y la parte de Wien más caliente. Como los detectores trabajan fundamentalmente en la parte de Rayleigh-Jeans se dice que el SZE provoca un enframiento. La anisotropía depende de la densidad y la temperatura de los electrones del medio intracumular, parámetros que están relacionados con la masa del cúmulo galáctico.

Para calcular la contribución del SZE al fondo (espectro angular del SZE) se procede de la siguiente forma: Se calcula la cantidad de cúmulos de distintas masa y para distintas distancias y tamaños, concrétamente, para distintos tamaños angulares en el cielo de los cúmulos galácticos. Cúmulos galácticos los hay desde varios grados (cúmulos de Virgo y Coma) hasta escalas de arcominuto y menores. De ahí, con su masa, se puede pasar a estimar la intensidad del efecto de Compton inverso a distintas escalas angulares. La contribución aumenta a medida que disminuye la escala angular.



La contribución del SZE al modo l = 200 (vease arriba) se cree bien determinada y se cree no excesivamente relevante, en teoría.

En la práctica la cosa es compleja. Para saber con certeza la contribución del SZE a las distintas escalas angulares, hace falta correlacionar espacialmente los cúmulos galácticos con sus conocidas masas, con anisotropías en el fondo, que correspondan al valor esperado. Esto no estaba al alcance de la tecnología hasta hace poco y los primeros estudios serios empiezan a aparecer.

En uno de ellos ya del 2003, del que se hace eco esta noticia también algo antigua, se afirma que la controbución del SZE es tal que el primer pico podría estar “contaminado” hasta un 30%, de forma que las conclusiones sobre el modelo cosmológico que se han obtenido hasta ahora de él serían incorrectas. Las conclusiones del estudio ya han sido puestas en duda aquí. No está dicha la última palabra todavía sobre este tema...

lunes, junio 06, 2005

"Millennium Simulation"

En el marco del proyecto Virgo de simulaciones cosmológicas se vienen realizando una serie de simulaciones colosales, de las cuales la más reciente es:

http://www.mpa-garching.mpg.de/galform/press/
Publicada en una noticia de prensa el 2 de Junio (ver por ejemplo esta noticia en universetoday.com).

La página enlazada de la simulación vale la pena leerla. Es cortita de leer y contiene diagramas impresionantes, sobre la distribución de materia a distintas escalas y edades del universo.

miércoles, mayo 25, 2005

Detección de exoplanetas

Descubierto un exoplaneta a 15.000 años luz de distancia.

El método usado es el de microlente gravitacional. En general, cuando un cuerpo masivo se pone delante de una fuente de luz, la luz se ve distorsionada por la gravitación del cuerpo en concordancia con las predicciones de la relatividad general. En este caso se trata de una estrella con su planeta, que se ponen delante de otra. En casos en los que el sistema que produce la lente es binario (como este) la imagen distorsionada tiene una forma característica que es reconocible y muy sensible a la masa de los dos componentes que la producen. EL planeta ha sido descubierto en el marco del experimento Optical Gravitational Lensing Experiment de la universidad de Varsovia y el papel se puede encontrar aquí: http://arxiv.org/abs/astro-ph/0505451

Por otro lado, ya que estamos con detección de planetas, me gustaría comentar esta noticia.

El objeto está casi dos veces más lejos de su estrella que lo que está Plutón del sol (el objeto está a 55 UA) y es cinco veces más masivo que Júpiter. La detección ha sido por medio de una fotografía a 2 micrones en el infrarrojo, ya que el objeto emite tiene una temperatura de unos 2000° K. La foto no muestra luz reflejada. El objeto se considera una “sub-enana marrón” en órbita alrededor de una una enana marrón.

Mi impresión, aunque se anuncie alegremente que se trata de un primer paso es que para detectar planetas tipo tierra hace falta una sensibilidad y resolución exageradamente mayores si se quiere obtener una imagen en infrarrojo. La tierra está 55 veces más cerca de su estrella y tiene una temperatura unas cien veces menor. Además, el sistema solar contiene un polvo interplanetario a más de 250° K a 1 UA, con un pico alrededor de 15 micrones, bastante cerca de lo que un planeta tipo tierra probablemente emite. Creo que lo que hace falta en un caso así es buscar la forma de detectar además la luz reflejada, aunque tan cerca de la estrella puede ser un verdadero reto.

sábado, mayo 21, 2005

Dudas sobre la "galaxia oscura"

Mencionada en una aportación anterior, la hipotética galaxia oscura podría ser una nube de gas arrancada de una galaxia del cúmulo de Virgo debido a fuerzas de marea o presión del gas intracumular. En este papel http://arxiv.org/astro-ph/0505397 "A large HI cloud near the centre of the Virgo cluster" se comenta el descubrimiento de una nube de gas de esas características y se postula que la hipotética galaxia oscura podría ser de la misma naturaleza.

En el papel del descubrimiento de la galaxia oscura (http://arxiv.org/abs/astro-ph/0502312) se argumentaba que la no existencia de nubes adyacentes era un indicio serio de que la nube no pudo ser arrancada, ya que este tipo de procesos no generan un bloque único de gas, sino varios. De igual forma, asumiendo que la nube fue arrancada por gravitación de galaxias vecinas, la alta velocidad de rotación indicaba que esas galaxias debían estar relativamente cerca, cosa que no se observó. Quizás las observaciones no fueron suficiéntemente sensibles. Habrá que esperar.

miércoles, mayo 18, 2005

Los problemas de la energía oscura

Noticia: Dark Energy Could be a Breakdown of Einstein's Theory

Los cúmulos galácticos han de servir en un programa de observaciones de la universidad de Princeton para determinar la naturaleza de la energía oscura y su impacto en el modelo cosmológico. Del procedimiento ya he hablado aquí comentando las investigaciones de Alain Blanchard (Cúmulos galácticos y modelos cosmológicos) que no difiere esencialmente de este.

La idea es esclarecer con ello los denominados "dos problemas de la constante cosmológica/energía oscura". El viejo: Por qué la constante cosmológica tiene precisamente el valor que tiene para acelerar la expansión del espacio, siendo que la teoría cuántica de campos predice un valor de unos ciento veinte órdenes de magnitud mayor. El nuevo: Por qué la aceleración de la expansión ocurre precisamente ahora y no antes o después. Y, naturalmente, la pregunta básica de qué es realmente lo que produce la expansión, si la constante cosmológica (modificación geométrica de la gravitación de la relatividad general), la energía oscura (algún tipo de componente exótico, desconocido, del universo) u otro tipo de mecanismo (ver por ejemplo lo escrito referente a las alternativas a la energía oscura).

Referencias: Un papel reciente de Mustapha Ishak, el director del proyecto Remarks on the formulation of the cosmological constant/dark energy problems y un referencia en él sobre los métodos de estudio de los cúmulos galácticos
Constraining the Evolution of Dark Energy with a Combination of
Galaxy Cluster Observables

lunes, mayo 02, 2005

Extreme scale structure

La radiación de sincrotón producida en los cuásares puede y suele dar lugar a una polarización de las ondas de radio emitidas. Cuando la luz polarizada pasa a través de un campo magnético sufre una rotación (rotación de Faraday) dependiente de la longitud de onda. Esto puede servir para crear mapas de campos magnéticos en el medio intergaláctico y observar la existencia de correlaciones entre las polarizaciones de cuasars espacialmente separados. En este papel reciente: Large scale correlations of quasar polarisation vectors: Hints of extreme scale structures? http://arxiv.org/astro-ph/0501043 se postula, con demasiada alegría, la existencia de correlaciones a escalas de Gigaparsecs (!), aunque se admite que los datos no son suficientes para afirmar nada con razonable fundamento... En cualquier caso, y volviendo con algo que esperemos tenga más fundamento y futuro: El estudio de los campos magnéticos es uno de los objetivos del telescopio SKA, un proyecto internacional, que será construido dentro de unos cuantos años:

http://www.skatelescope.org/pages/science_key_magnf.htm
http://www.skatelescope.org/

Recomiendo una visita de unos minutos, porque vale la pena.

miércoles, abril 20, 2005

Mini agujeros negros

Noticia: Early Universe Swarmed with Mini Black Holes
http://www.universetoday.com/am/publish/early_mini_black_holes.html?1542005

Estos deben ser los mini agujeros negros postulados por Hawking, cuya existencia no parece (desde mi punto de vista) favorecida por la interpretación actual de los datos del fondo cósmico. La existencia de mini agujeros negros necesita de un espectro de fluctuaciones distinto, donde las fluctuaciones pequeñas tengan mayor potencia. El papel parece no estar todavía a disposición, pero es algo interesante a lo que habrá que seguir la pista...

domingo, abril 17, 2005

HE0107-5240

Noticia: Una estrella reliquia plantea interrogante cósmica.
http://www.astroseti.org/vernew.php?codigo=1159

Se trata de una estrella de contenido muy bajo en metales (elementos distintos al hidrógeno y el helio), los cuales se crearon básicamente en los núcleos estelares. De ahí que su contenido sea fundamentalmente primordial. Esto no la hace diréctamente una estrella de populación III (aquellas compuestas sólo por elementos primordiales). Se especula que las de pop. III fueron muy masivas y la mayoría desaparecieron pronto en forma de supernovas. Bien, el caso es que la clasificación estelar permite populaciones fracionarias, por lo que la HE0107-5240 sería quizás una estrella de populación 2.9. Las diferencias de contenido en metales entre 2.5 y 2.9 no son especialmente notables, pero la diferencia entre 3.0 y 2.9 es esencial: Pasamos de algo de metales a nada, o quizás algún resto de elementos primordiales creados durante la nucleosíntesis del big-bang: Deuterio, helio, litio
, pero no estroncio, que se encuentra en HE0107-5240. Quizás HE0107-5240 realmente sea pop. III, pero fue enriquecida en metales por otros procesos, aunque esta opción no parece probable y necesitaría revisar las teorías de formación estelar. (Y, por cierto, la estrella no tiene 13.7 Gy de antiguedad, como se escribe en algún sitio, sino que esta es la edad de la mayoría de sus componentes).

lunes, abril 11, 2005

WMAP

Hay noticias que brillan por su ausencia. Este es el caso de los datos del segundo año del WMAP, anunciados para Febrero del 2004, hace ya más de un año, y que todavía siguen sin aparecer. Aparentemente hay anomalías que hacen pensar en errores sistemáticos en los datos del primer año. En esta página se puede ver la historia del proyecto: http://map.gsfc.nasa.gov/m_mm/ms_status.html

viernes, abril 08, 2005

Distribución de los satélites de la Vía Láctea

Noticia: Resuelto el misterio del panqueque galáctico
http://www.astroseti.org/vernew.php?codigo=1133

Papel original: The Distribution of Satellite Galaxies: The Great Pancake http://arxiv.org/abs/astro-ph/0503400

La distribución de galaxias satélites conocidas alrededor de la Vía Láctea tiene forma algo aplanada (‘pancake’ o panqueque como se traduce arriba). Las simulaciones actuales, con una elección genérica de las condiciones de contorno, predecían una forma esférica. Sin embargo, aquí se ha considerando, entre otras cosas, que el influjo de material hacia el grupo local no proviene de todas las direcciones, sino principalmente del filamentos cósmicos dominante que confluye a él.

jueves, abril 07, 2005

¿Dónde están los bariones?

Otra vez una notica ya algo más antigua: http://www.astroseti.org/vernew.php?codigo=951
Los científicos encuentran la materia perdida

Según el papel Baryons in the warm-hot intergalactic medium http://arxiv.org/astro-ph/0007217, basado en simulaciones y en el papel previo The Low Redshift Lyman Alpha Forest in Cold Dark Matter Cosmologies http://arxiv.org/astro-ph/9807117, de 30% a 40% de la materia bariónica (un 2% de la densidad energética total del universo en el modelo cosmológico de la concordancia) del universo en desplazamientos al rojo bajos (menores que 2), debería encontrarse en una fase caliente (WHIM - warm-hot intergalactic medium) a una temperatura entre 10^5 y 10^7 grados y localizada en estructuras filamentosas alejadas de los cúmulos galácticos.

Según el citado papel el orígen de este gas es básicamente primordial, debido a la baja eficiencia del colapso gravitacional asociado con la formación galáctica y su alta temperatura es debida a un fenómeno que debió haber tenido una gran importancia durante la formación de grandes estructuras: Las ondas de choque, como transmisores de energía, producidas debido a colisiones en un modelo jerárquico de formación de estructuras (donde las estructuras más pequeñas van uniéndose y formando las más grandes). Entre desplazamiento al rojo mayor y menor que 2 se postula que se produce una transición, donde el gas pasa de estar en una fase difusa (densa y de temperatura menor que 10^5 grados) que observamos como el bosque de Lyman-alfa a la fase WHIM.



La figura, tomada del citado papel, muestra la localización del WHIM: Las zonas verdes corresponden con densidades diez veces mayores a la de la densidad energética del universo y las zonas rojas densidades 10.000 veces mayores.

La deteción del WHIM es un reto observacional y de ahí lo excelente de la noticia y también su punto crítico que requiere confirmación. El mismo Jerry Ostriker me contestaba amablemente a mí en un mail:

In the general IGM (in which of 90% of the total matter lives), there was no easy way to detect the baryon fraction. We suggested that if the gas were at about one million degrees, the temp that our calculations said it should be at, then it would be seen in absorption (Oxygen lines) and other means.

jpo

sábado, abril 02, 2005

Galaxias satélites

Noticia: New Milky Way Dwarf Satellite Galaxy Discovered
http://www.universetoday.com/am/publish/dwarf_galaxy_uma.html?2832005

El problema de la falta observacional de galaxias satélites (missing satellite problem) ya lo he comentado muy brevemente en "Agujeros negros y formación galáctica". El modelo cosmológico basado en la materia oscura fría predice unas diez veces mayor cantidad de galaxias satélites (varios cientos en el Grupo Local, por ejemplo), probablemente enanas, que la observada actualmente alrededor de las galaxias espirales y grandes elípticas. Estos satélites pueden ser precisamente galaxias muy pequeñas, quizás algo mayores que los cúmulos globulares, muy difíciles de detectar, o quizás galaxias algo mayores, pero oscuras (sin formación estelar), como la descubierta hace poco (ver "Una galaxia oscura").

En el marco del modelo cosmológico mencionado, la masa de Jeans tras la recombinación es de unos 10^5 Msol (la masa de un cúmulo globular). Las primeras estructuras tienen por tanto una masa de ese orden y empiezan a unirse en un proceso relativamente violento dando lugar a las galaxias observadas hoy, y, a una gran cantidad de objetos primordiales ("building blocks", como se las nombra en el papel que voy a mencionar a continuación) que quedan orbitando alrededor de ellas.

En el papel A New Milky Way Dwarf Galaxy in Ursa Major http://arxiv.org/abs/astro-ph/0503552, papel al que refiere la noticia de prensa, se describe el descubrimiento de una galaxia muy pequeña por medio del SDSS (Sloan Digital Sky Survey). Del estudio de sus características se esperan datos reveladores sobre la historia de la formación galáctica.

jueves, marzo 31, 2005

Rotación y magnetismo

Papel: Are rotation curves in NGC 6946 and the Milky Way magnetically supported?
http://arxiv.org/astro-ph/0503657

El interés de Eduardo Battaner y Estrella Florido (de la Universidad de Granada) en la influencia de los campos magnéticos en la formación de estructuras en el universo (el famoso "cartón de huevos" de Battaner...) así como en las dinámica galáctica, viene ya de largo.

Este papel presenta una alternativa, arriesgada en el marco de la cosmología actual, a la materia oscura galáctica (aquella necesaria para que las curvas de rotación cuadren con las observaciones), en la cual los campos magnéticos tendrían una influencia fundamental sobre la dinámica del medio interestelar y las estrellas.

Aunque a mí me es un misterio cómo el campo magnético puede dirigir la dinámica de las estrellas en la galaxia de igual forma que lo puede hacer la gravitación, no quería perder oportunidad de mencionar este papel. En interesado puede leer más en The rotation curve of spiral galaxies and its cosmological implications http://arxiv.org/astro-ph/0010475 (un papel de más de 120 páginas del propio Battaner).

martes, marzo 29, 2005

Cúmulos galácticos y modelos cosmológicos

A falta de nada nuevo que haya llamado mi atención (o que entre dentro de lo que me veo capaz de comentar), voy a recuperar algunas noticias antiguas que creo que fueron relevantes.

Noticia (antigua): Dudas sobre la energía oscura
http://www.universetoday.com/am/publish/dark_energy_doubts.html

La formación de estructuras de gran escala depende, en general, solo de la gravitación y de las condiciones iniciales de la distribución material (espectro de perturbaciones). Por tanto, la abundancia de cúmulos galácticos, así como su distribución en el espacio de desplazamientos al rojo, ha de estar determinada por la geometría y los componentes del universo, es decir, por el modelo cosmológico. Este hecho hace de los cúmulos galácticos una fuente para testear modelos cosmológicos y es la motivación de las investigaciones de Alain Blanchard.

La base de la formulación teórica es lo conocido como formalismo de Press-Schechter, que proporciona la función de masa (el número de cúmulos en función de su masa) en relación a parámetros cosmológicos y el desplazamiento al rojo.

Es necesario, por tanto, no sólo contar cúmulos (number counts), sino determinar las masas de ellos. En general, de lo que se parte es de observaciones de rayos-x (x-ray surveys, que es de lo que parte Blanchard, el cuál basa su estudio en los resultados del XMM-Newton). Dada la luminosidad de un cúmulo es posible determinar la masa en base a ciertas hipótesis de equilibrio de los componentes del cúmulo (hydrostatic isothermal beta-model), pero la situación no es simple, ya que, en principio, la luminosidad depende de otros factores, como la hidrodinámica y la inyección de energía por parte de supernovas. Las relaciones entre masa y luminosidad, así como la temperatura del cúmulo son objeto de controversia.

Dada la relación, el truco consiste en ponerse a contar cúmulos a distintos desplazamientos al rojo, clasificándolos por sus masas, insertar los valores en el formalismo de Press-Schechter y ver si las observaciones casan con el modelo cosmológico. En esas relaciones se basa el estudio de Blanchard, que, aparentemente haciendo uso de una muestra significativa de cúmulos, llega a la conclusión de que el modelo cosmológico que mejor encaja con sus observaciones es el de un universo tipo Einstein-deSitter (plano, pero únicamente con materia) y no el de la concordancia con 73% de energía oscura. Sin embargo, el mismo Blanchard admite en sus conclusiones que un desconocimiento de las relaciones entre masa, teperatura y luminosidad cambiaría bastante las cosas.

El papel original de Alain Blanchard (segunda edición desde 2003, cuando dió lugar a la noticia):
http://arxiv.org/astro-ph/0502220

jueves, marzo 24, 2005

... y otra alternativa a la energía oscura

Papel: Viable exact model universe without dark energy from primordial inflation http://arxiv.org/abs/gr-qc/0503099

Propone una alternativa a la energía oscura en la misma linea que el papel de Kolb et al. discutido abajo (que de hecho es referido en el papel). Abajo se trataba de la siguiente hpótesis: El universo está contenido en una perturbación de mayor tamaño que el horizonte, lo cual lleva a un observador local a medir las variaciones del factor de escala (y con ello la aceleración) dependientes del fondo dinámico producido por la perturbación.

Aquí la situación es algo distinta. Se asume que nos encontramos en una zona de baja densidad (igual a la densidad energética de la materia, es decir, 27% de la crítica) dentro de un universo (más allá del horizonte) plano. Asumir un universo plano en nuestros modelos nos lleva a cometer errores en el cálculo de distancias. Calcular según la métrica que realmente corresponde con el universo dentro del horizonte, lleva a los valores de luminosidad de las supernovas 1a a coindir, curiosamente, con los valores en el modelo actual (con 73% de energía oscura).

El hecho de que el universo aparezca plano en las observaciones del fondo cósmico de microondas a z = 1100, se debe a que las condiciones de contorno de ambas soluciones (la abierta local y la plana global) necesarias para hacerlas encajar, implican que nuestra "burbuja de baja densidad" fue de mayor densidad en el pasado. Concrétamente fue de densidad crítica justo a la salida de la inflación y ha ido perdiendo densidad desde entonces.

Por tanto este modelo propone una solución que encaja con (1) la distancia de luminosidad de las supernovas 1a en relación con su desplazamiento al rojo (dato del cual se infiere la aceleración en el modelo actual) y (2) la curvatura nula.