Hace 9 meses
lunes, diciembre 17, 2007
Preguntas frecuentes sobre la expansión del universo
Actualización el 5 de junio de 2008.
¿Qué quiere decir que el universo expande?
La cosmología actual se basa en la relatividad general y el principio cosmológico. El principio cosmológico postula homogeneidad e isotropía en la distribución de materia en el espacio a grandes escalas. Homogeneidad e isotropía en la distribución de materia significa que no hay variación en las propiedades de la materia a lo largo del espacio y que estas propiedades son las mismas en cualquier dirección del cielo. No significa no obstante que tales propiedades queden invariantes en el tiempo.
Evidentemente, el universo no es homogéneo a "pequeñas" escalas (por ejemplo, nuestra galaxia con su diámetro de unos 100.000 años luz y su entorno), pero las observaciones corroboran que el universo sí es homogéneo a escalas de mas de 100 megaparsec (Mpc), es decir unos 326 millones de años luz, y que también debió ser extremadamente homogéneo en su totalidad hasta pasados unos 300.000 años desde el primer instante del tiempo (hoy ya han pasado unos 13.700 millones de años, o 13.7 giga-años, desde el inicio).
Imponiendo la condición del principio cosmológico en las ecuaciones de relatividad general se deduce directamente una clase de soluciones matemáticas en la que el espacio del universo ha de expandir o contraer necesariamente. Un universo estático sería como un lápiz apoyado sobre su punta. Las observaciones indican que el espacio del universo expande, por lo que se descartan las soluciones con contracción. En las escalas consideradas tal afirmación significa que las distancias entre dos puntos espaciales cualesquiera (a tales escalas) aumentan con el tiempo.
El aumento de las distancias con el tiempo cumple la ley de Hubble, que nos dice que la variación de tales distancias es mayor a medida que consideramos distancias mayores. Esto se escribe usualmente haciendo uso de la velocidad aparente de recesión v. Si considero una distancia L con un extremo en mi y otro lejos, el extremo lejano se aleja de mi a una velocidad aparente de recesión v = H L con H el parámetro de Hubble con unidades de velocidad por unidad de longitud. Por ejemplo, actualmente se cree que el parámetro de Hubble vale 71 Km / s por cada Mpc. Esto significa que un extremo a distancia de 100 Mpc se aleja de nosotros a 7.100 Km / s.
Hay que notar especialmente que tal velocidad es una velocidad aparente que se debe a un cambio de la geometría del espacio (y consecuente modificación de distancias) y no a un movimiento de los objetos en el espacio. No es que el otro extremo surque el espacio alejándose de nosotros, sino que el espacio mismo se lo lleva al estar éste en expansión.
Vale, expanden las distancias a grandes escalas pero ¿expanden también los cúmulos galácticos, las galaxias, los sistemas plantarios, los planetas, las personas y los átomos?
En general, la solución expansiva de las ecuaciones de Einstein se deduce de una única condición de contorno: el principio cosmológico. Si la distribución de densidad energética es homogenea e isótropa, entonces se obtienen soluciones que expanden de acuerdo con las observaciones. Para el universo a muy grandes escalas el principio cosmológico se cumple de hecho, y, efectivamente, se observa la expansión. Para escalas menores la distribución de materia no es homogenea e isótropa, como por ejemplo nuestra galaxia. No obstante, sí existe un componente del universo del que se cree que tiene su densidad homogeneamente distribuida por el espacio hasta escalas microscópicas. Se trata de la energía oscura.
Un universo sin materia y únicamente con energía oscura es perféctamente homogeneo e isótropo y expande en todas las escalas consideradas. Es decir, una longitud L aumenta siempre con el tiempo, independiéntemente de si L = 100 Mpc o L = 1 cm. Evidentemente la expansión para L = 1 cm. es muy pequeña en comparación con L = 100 Mpc de acuerdo con la ley de Hubble, pero en tal universo la expansión existiría a todas las escalas. Pero ¿qué ocurre en un universo que contiene materia y energía oscura? ¿Qué ocurre si la energía oscura es homogenea e isótropa siempre, pero la materia sólo a muy grandes escalas?
Esta pregunta es de difícil respuesta. Lo que sí está claro es que a niveles atómicos y de objetos ligados por fuerzas moleculares existen otras fuerzas diferentes a la gravitación que actúan en contra de la tendencia expansiva del espacio producida por la energía oscura. Hay un interesante y sencillo artículo que analiza el caso de un átomo con un electrón desde el punto de vista newtoniano y de la relatividad general:
In an expanding universe, what doesn't expand?
En él se muestra que la estabilidad del átomo depende (i) del tipo de expansión (acelerada, exponencial, etc.) y (ii) del momento angular del electrón. Una de las conclusiones del artículo es que para expansiones dominadas por la materia y la radiación los átomos son estables y no expanden con el espacio.
En cúmulos galácticos, galaxias y sistemas planetarios, los cuales, sin embargo, quedan sólo ligados por medio de la gravitación, el efecto de la energía oscura no está descartado, pero, si existe, es difícil de observar. Hay que notar que para distancias pequeñas la velocidad aparente de expansión se hace indistinguible observacionalmente de las velocidades peculiares de los objetos que se mueven en el espacio. Esto nos pone frente a la dificultad de distinguir experimentalmente el fenómeno de expansión. El fenóneno de expansión a nivel del sistema solar se ha postulado en algunos casos para explicar la desconcertante anomalía de las Pioneer. Nótese no obstante que no está realmente claro aún que la expansión se de de hecho a tal escala.
¿Pero expande el espacio o expande el espacio-tiempo?
Depende del sistema coordenado usado para describir la física. El usual en cosmología se denomina comóvil y tiene dos características especiales: observa homogeneidad e isotropía en la distribución de materia en el espacio y el paso del tiempo global corresponde con nuestro paso local del tiempo. En tal sistema lo que expande es el espacio. Es decir, una distancia L era menor hace muchos años y será mayor dentro de muchos años, pero un intervalo de tiempo T es siempre igual. Existe no obstante otro sistema también usado en cosmología denominado conforme que también observa homogeneidad e isotropía en la distribución de materia en el espacio, pero en el cuál el paso del tiempo es algo diferente y viene afectado por la expansión. En tal sistema no sólo aumentan las distancias sino también los intervalos de tiempo. Lo que hoy consideramos un intervalo de tiempo T(hoy) en el sistema con "tiempo conforme" hace muchos años fue un intervalo de tiempo T(antes) < T(hoy). Nótese que este tiempo es un tiempo especial diferente del usado comúnmente, pero cuya definición es perféctamente legítima en la relatividad general.
La expansión es un efecto Doppler
No. Al menos no en el marco de la relatividad general y la cosmología estándar. El efecto Doppler se da porque una fuente que emite luz se mueve respecto de un observador. La luz es observada con diferente longitud de onda, que será mayor si la fuente se aleja del observador. En cosmología esta situación no se da porque las galaxias no se alejan de nosotros moviéndose en el espacio, sino aparentemente debido a la modificación de la geometría. Estríctamente se pueden considerar a las galaxias en reposo respecto del sistema de referencia comóvil, salvo por sus velocidades peculiares resultado de atracción gravitatorio local con su entorno. La velocidad de recesión y el desplazamiento al rojo de las galaxias lejanas son un efecto de la geometría variable del universo.
La analogía usual es la malla que se estira o el globo que se hincha
Correcto, tal analogía es perféctamente valida para entender la expansión (pero sólo eso y no conviene esperar de ella que nos explique otras cosas). La analogía captura perféctamente la idea anterior de que las galaxias (bolitas en la malla o los puntos en el globo) están en reposo y, pese a ello, se alejan aparentemente unas de otras debido a la expansión. Una analogía alternativa es la del pastel de pasas, cuyas pasas se alejan las unas de otras cuando el pastel expande y se hace más grande en el horno.
Todo esto es mentira porque he leído que Andrómeda se acerca a nosotros y no se aleja
Nadie debería pensar esto tras leer las respuestas anteriores, pero insistiendo en ello y responiendo a esta pregunta en concreto: la galaxia Andrómeda está en el Grupo Local de galaxias, un conjunto de galaxias dispersas en una región de varios Mpc. Estas galaxias tienen velocidades peculiares altas debido a su interacción gravitatoria entre ellas, en concreto la Vía Láctea y la galaxia Andrómeda se acercan a unos 130 Km / s entre si. Si la expansión del espacio se diese dentro del Grupo Local (véase pregunta ¿expanden también las galaxias, los planetas, las personas o los átomos?) entonces entonces habría una velocidad aparente de recesión de unos 70 Km / s entre ambas, no suficiente para evitar su colisión en un futuro.
¿Qué es el desplazamiento al rojo y qué es el factor de escala?
El desplazamiento al rojo es una medida de la relación entre la longitud de onda emitida por una galaxia lejana y la longitud de onda que medimos nosotros aquí y hoy. Se denota con la letra z y se define como . El factor de escala es una medida de la expansión del espacio. Nos da una relación entre las distancias y con ello también las longitudes de onda. Se denota con la letra a y se define como . En el big-bang a = 0 y ahora a = 1. Su relación con el desplazamiento al rojo es .
¿Cuáles son las pruebas de la expansión?
Estríctamente hablando, y sin confundir esto con otras pruebas del modelo cosmológico, yo consideraría tres pruebas. El desplazamiento al rojo de la luz de las galaxias lejanas, la prueba del brillo de Tolman (variación característica del brillo superficial en un espacio en expansión), la dilatación temporal cosmológica y la variación de la densidad de la radiación del fondo de microondas con el tiempo. Potencialmente existen otros fenómenos con dependencia fuerte con la expansión del espacio como el conteo de galaxias, la variación del tamaño angular, etc. pero que no dan lugar a pruebas sólidas debido a la dificultad para establecer criterios observacionales claros que separen lo esencial de lo secundario en esas observaciones.
¿Qué es la dilatación temporal cosmológica?
Un fenómeno que ocurre a un desplazamiento al rojo z y necesita de un tiempo To es observado por nosotros dilatado, necesitando de un tiempo T = To (1 + z) para ocurrir. Sobre este tema más en la siguiente entrada en este blog:
La dilatación temporal gravitatoria
¿Qué es la variación de temperatura del fondo de microondas?
La temperatura del fondo de microondas varía con el despazamiento al rojo según T = To (1 + z) -que es la misma fórmula que arriba solo que ahora T denota la temperatura. Esta variación puede medirse de diferentes formas, todas ellas estudiando la intensidad de la interacción de los fotones del fondo con otros medios como el interestelar o el intracumular.
¿Qué es el test de brillo de Tolman?
Poca información se encuentra en internet sobre este test, así que aquí va su derivación matemática. El brillo superficial es:
Siendo f el flujo y d el diámetro angular, que se define como
Siendo la distancia angular y el tamaño del objeto. Por tanto, el brillo superficial es:
La distancia angular se relaciona con la distancia de luminosidad como , siendo el desplazamiento al rojo. Por tanto:
El flujo bolométrico medido para una fuente de luminosidad L es:
Por tanto:
Que es igual a:
Es decir, el brillo superficial, de objetos conocidos y de los que se sabe que tienen tal brillo superficial S(z = 0), decrece con la cuarta potencia del desplazamiento al rojo.
¿Existen objetos que receden a mayor velocidad que c respecto de nosotros?
Sí, en todo modelo cosmológico que cumple la ley de Hubble y en el cual el universo es suficiéntemente grande, se da tal cosa. Esto es debido a que v = H d es de validez general y uno puede encontrar D tales que D > c / H y con ello v = H D > c. A la distancia D = c / H se la denomina radio de Hubble. Que haya objetos más allá con velocidades de recesión v > c no viola la relatividad especial ya que, como hemos mencionado, no se trata de un movimiento de objetos en el espacio sino de un cambio de la geometría.
Durante la inflación el universo expandió a mayor velocidad que la de la luz en el vacío
Afirmación con poco sentido esta. Independiéntemente del tipo de expansión la recesión superlumínica es siempre posible si el espacio es suficiéntemente grande tal y como hemos visto antes. Lo que determina la inflación no es tanto la velocidad de expansión sino el tipo de expansión. No es conveniente hablar de tiempos y tamaños en cosmología, sino de desplazamientos al rojo y tipos de evolución del factor de escala con el tiempo. En la época inflacionaria el factor de escala varía con a ~ e^(Ht), en la época de la radiación con a ~ t^(1/2), en la de la materia con a ~ t^(2/3) y en la de la energía oscura con a ~ e^(Ht).
Si algo recede a velocidad aparente v > c respecto de nosotros nunca podremos observar la luz que emite
Falso. Depende del comportamiento del parámetro de Hubble.
Si el parámetro de Hubble decrece siempre, el radio de Hubble será cada vez mayor y acabará incluyendo al fotón en cuestión o a la luz emitida por el objeto. Esa luz acabará alcanzandonos después de entrar en nuestra esfera de Hubble. En todos los modelos con materia y radiación el parámetro de Hubble decrece siempre con el tiempo.
Si el parámetro de Hubble se mantiene constante en el tiempo, la luz de un objeto más allá de nuestro radio de Hubble no nos alcanzará nunca ya que nunca podrá entrar en nuestra esfera de Hubble y vencer con su velocidad peculiar c a la velocidad de recesión v > c. Para un modelo que contiene sólo energía oscura en forma de una constante cosmológica el parámetro de Hubble es siempre constante. Se dice que en tal modelo se forma un horizonte de eventos cosmológico.
Para modelos de universo con materia y constante cosmológica, como probablemente es nuestro universo, la situación es algo más compleja pero básicamente se reduce en el futuro al caso del modelo con sólo energía oscura en forma de constante cosmológica. Esto es así porque la densidad de la materia y la radiación disminuyen con el tiempo, mientras que la densidad de la constante cosmológica no. Por tanto, un modelo así acaba siendo dominado prácticamente en 100% por la constante cosmológica. En esos modelos existe por tanto también un horizonte de eventos cosmológico.
Los modelos en los que el parámetro de Hubble aumenta con el tiempo también tienen horizonte de eventos cosmológico, pero son excesivamente exóticos.
¿A qué distancia se encuentra un fotón emitido en t = 0?
En el modelo cosmológico estándar asumido hoy esa distancia es de 47.000 millones de años-luz. A esa distancia se la conoce con el nombre de horizonte de partículas actual. Es mayor que 13.7 giga-años luz porque durante los 13.7 giga-años de edad del universo, el espacio entre nuestra posición comóvil y tal hipotético fotón ha expandido. Si te mueves sobre una cinta transportadora a 1 metro por segundo, al final de tu trayecto de 10 segundos habrás avanzado más de diez metros ya que la cinta te ha transportado. Igual con los fotones en un espacio en expansión.
¿Puedo encontrar una relación entre época de emisión de la luz de una galaxia y distancia a la que se encuentra?
Para un espacio estático la cosa es fácil: luz emitida hace N años y que recibimos hoy, se encontraba a N años-luz de nosotros cuando fue emitida. Para un espacio dinámico la situación es compleja y no existe una expresión analítica para el caso general. La solución al problema consiste en integrar numéricamente la primera ecuación de Friedmann, cosa que pongo yo a disposición en mi calculadora cosmológica. Lo que permite esta es introducir un modelo cosmológico determinado por la densidad de materia y constante cosmológica, e introducir un desplazamiento al rojo de la luz medida para saber la distancia a que se encontraba el objeto al emitir la luz y la época en la que la luz fue emitida, por mencionar los dos parámetros más relevantes.
¿Qué definiciones de distancia hay en un espacio en expansión?
Distancia propia: Distancia de la fuente emisora de la luz de la cual se mide el desplazamiento al rojo en Mega-años luz. Es la distancia que se mediría poniendo un metro entre emisor y receptor (cosa físicamente imposible). No es la distancia que se recorrería al hacer un viaje entre receptor y emisor (debido a la expansión del espacio). Es la distancia D que entra en la ley de Hubble v = H D.
Distancia comóvil: La distancia propia entre el factor de escala. Tal definición de distancia proporciona una distancia que se mantiene constante a pesar de la expansión del espacio. Suele ser de utilidad en algunos problemas determinados. El término distancia comóvil y distancia propia se usa de forma contraria a la definida aquí en algunas referencias. Lo importante es saber cuál de ambas entra en la ley de Hubble, ya que con eso queda determinada la primera independiéntemente del nombre que se le de luego.
Distancia recorrida por la luz: Distancia recorrida por la luz desde la emisión hasta la recepción. Es siempre igual en años-luz a los años de recorrido de la luz.
Distancia del diametro angular: Distancia en relación con el diametro angular de la fuente de luz. Da una idea de la distancia hasta nosotros en el instante en el que se emitió la luz.
Distancia de luminosidad: Distancia aparente según la luminosidad de la fuente de luz. También conocido como módulo de distancia. Muy usada cuando se trata con candelas estándar.
No es necesariamente cierto que el espacio expanda con estándares de medida constantes, porque también podría ser que la materia o los estándares de medida disminuyesen y el espacio quedase constante o estático
Eso es cierto en parte. Cinemáticamente existe una equivalencia entre ambas descripciones. Es decir, es equivalente un espacio en expansión con metros constantes y un espacio estático con metros en contracción. No obstante, la dinámica no es la misma. La relatividad general sólo proporciona una dinámica para explicar el primer fenómeno y no incluye una equivalencia dinámica entre ambas situaciones. Existen teorías de gravitación (escalar-tensor) que sí incluyen ambas descripciones y las tratan como equivalentes tanto cinemática como dinámicamente. Una entrada en este blog con un tema similar a este:
La variación de las constantes fundamentales
¿Se conserva la energía durante la expansión del universo?
Una explicación detallada en la siguiente entrada de este blog:
Conservación de la energía y expansión del universo
Etiquetas:
expansión del universo,
relatividad general
sábado, diciembre 15, 2007
Multiversos, modalidad y el principio cosmológico perfecto
Necesidad, posibilidad, contingencia ¿cuáles son los criterios que nos hacen hablar con propiedad sobre tales términos en relación con la realidad? ¿cómo distinguir lo esencial de lo accidental? y ¿cuál es la relación de lo teóricamente posible con lo efectivamente real? Preguntas como esta están en la base de las teorías físicas actuales, pese a la poca atención que se les otorga, y se arraigan hoy básicamente en la idea de mundos posibles de Leibniz.
Hace unas décadas Hermann Bondi y Thomas Gold sentaban las bases de la teoría del universo estacionario, que luego fue ampliada y adaptada por Fred Hoyle incluyendo con ello una modificación de la relatividad general. Una de las ideas residentes en el fondo filosófico que dió lugar a la teoría, y con ella a la adaptación de la relatividad general propuesta por Hoyle, es que nuestro universo no puede ser un caso concreto, una solución concreta, o una "instancia" específica, a las ecuaciones que describen la física local, sino que, como objeto singular y único, ha de determinar las ecuaciones que rigen la física local.
Preguntas como por qué el universo expande y por qué es homogeneo e isótropo, frente a ecuaciones de la física gravitacional que permiten esa y muchas otras posibilidades, no tienen cabida en esa forma de ver las cosas, sino que son condiciones determinantes para formular las ecuaciones de la física gravitacional, y de ahí la motivación para Hoyle de modificar la relatividad general consecuentemente. La piedra angular de la teoría es el principio cosmológico perfecto, que postula que las condiciones físicas son iguales tanto a lo largo del espacio como del tiempo a grandes escalas. Este principio era considerado por Bondi y Gold como condición necesaria para poder expresar la idea de que las leyes locales de la naturaleza son una consecuencia de la física global y no al revés.
La historia de la ciencia y las observaciones nos han apartado definitivamente de la teoría del estado estacionario, y con ella, de muchas de las preguntas metafísicas que dieron lugar a ella. La física actual parte de una idea que es precisamente opuesta y asume unas ecuaciones de movimiento locales, genéricas, que extrapola a la totalidad de lo existente y de las cuales nuestro universo es una solución particular. Esta linea de pensamiento se refleja no sólo en la física estándar y la relatividad general, sino también en extensiones de ella. La relatividad general nos describe múltiples soluciones posibles a sus ecuaciones de movimiento. Estas soluciones sólo pueden ser puestas en correspondencia con lo real a través de la observación y la consiguiente imposición de condiciones de contorno y condiciones iniciales adecuadas, como por ejemplo homogeneidad e isotropía para nuestro universo.
Es evidente que, extrapolada esta posición, ha de dar lugar, de una u otra forma, a la idea de multiversos como múltiples diferentes posibilidades o soluciones a las ecuaciones de movimiento. Las ideas de Bondi, Gold y Hoyle pueden parecer anticuadas, pero su actualidad es evidente y personalmente estoy seguro que esos problemas y preguntas acabarán retomándose en el contexto de la cosmología cuántica, que deberá resolver o indicarnos el camino sobre la posible existencia de mutiples instancias de universo. En concreto, un problema relacionado es precisamente el mencionado ya una vez en este blog y que conviene releer:
No será esta la última vez que trate este interesante tema, en mi opinión necesario, que relaciona fuertemente la filosofía de la ciencia y su historia con las últimas ideas sobre los modelos cosmológicos, de cosmología cuántica, que pueden ser base para sustentar el big-bang.
Un papel interesante que trata sobre las ideas de Hoyle, Gold y Bondi:
The Laws of Physics and the Universe. Yuri Balashov.
Una nota histórica sobre el debate entre universo estacionario y big-bang:
http://www.aip.org/history/cosmology/ideas/bigbang.htm
De izquierda a derecha: Thomas Gold, Hermann Bondi y Sir Fred Hoyle.
Hace unas décadas Hermann Bondi y Thomas Gold sentaban las bases de la teoría del universo estacionario, que luego fue ampliada y adaptada por Fred Hoyle incluyendo con ello una modificación de la relatividad general. Una de las ideas residentes en el fondo filosófico que dió lugar a la teoría, y con ella a la adaptación de la relatividad general propuesta por Hoyle, es que nuestro universo no puede ser un caso concreto, una solución concreta, o una "instancia" específica, a las ecuaciones que describen la física local, sino que, como objeto singular y único, ha de determinar las ecuaciones que rigen la física local.
Preguntas como por qué el universo expande y por qué es homogeneo e isótropo, frente a ecuaciones de la física gravitacional que permiten esa y muchas otras posibilidades, no tienen cabida en esa forma de ver las cosas, sino que son condiciones determinantes para formular las ecuaciones de la física gravitacional, y de ahí la motivación para Hoyle de modificar la relatividad general consecuentemente. La piedra angular de la teoría es el principio cosmológico perfecto, que postula que las condiciones físicas son iguales tanto a lo largo del espacio como del tiempo a grandes escalas. Este principio era considerado por Bondi y Gold como condición necesaria para poder expresar la idea de que las leyes locales de la naturaleza son una consecuencia de la física global y no al revés.
La historia de la ciencia y las observaciones nos han apartado definitivamente de la teoría del estado estacionario, y con ella, de muchas de las preguntas metafísicas que dieron lugar a ella. La física actual parte de una idea que es precisamente opuesta y asume unas ecuaciones de movimiento locales, genéricas, que extrapola a la totalidad de lo existente y de las cuales nuestro universo es una solución particular. Esta linea de pensamiento se refleja no sólo en la física estándar y la relatividad general, sino también en extensiones de ella. La relatividad general nos describe múltiples soluciones posibles a sus ecuaciones de movimiento. Estas soluciones sólo pueden ser puestas en correspondencia con lo real a través de la observación y la consiguiente imposición de condiciones de contorno y condiciones iniciales adecuadas, como por ejemplo homogeneidad e isotropía para nuestro universo.
Es evidente que, extrapolada esta posición, ha de dar lugar, de una u otra forma, a la idea de multiversos como múltiples diferentes posibilidades o soluciones a las ecuaciones de movimiento. Las ideas de Bondi, Gold y Hoyle pueden parecer anticuadas, pero su actualidad es evidente y personalmente estoy seguro que esos problemas y preguntas acabarán retomándose en el contexto de la cosmología cuántica, que deberá resolver o indicarnos el camino sobre la posible existencia de mutiples instancias de universo. En concreto, un problema relacionado es precisamente el mencionado ya una vez en este blog y que conviene releer:
No será esta la última vez que trate este interesante tema, en mi opinión necesario, que relaciona fuertemente la filosofía de la ciencia y su historia con las últimas ideas sobre los modelos cosmológicos, de cosmología cuántica, que pueden ser base para sustentar el big-bang.
Un papel interesante que trata sobre las ideas de Hoyle, Gold y Bondi:
The Laws of Physics and the Universe. Yuri Balashov.
Una nota histórica sobre el debate entre universo estacionario y big-bang:
http://www.aip.org/history/cosmology/ideas/bigbang.htm
De izquierda a derecha: Thomas Gold, Hermann Bondi y Sir Fred Hoyle.
Etiquetas:
cosmología cuántica,
relatividad general
viernes, diciembre 14, 2007
Andrei Sakharov
Un día como hoy, el 14 de diciembre de 1989, moría en Moscú el físico y cosmólogo ruso Andrei Sakharov, persona clave en el desarrollo del programa nuclear soviético, y, más tarde, convencido pacifista y defensor de los derechos humanos y ganador del premio Nobel de la paz en 1975, el cual no pudo recoger por no poder abandonar la URSS. Wikipedia tiene un buen artículo sobre él, que creo conviene haber leído una vez, y hoy es una buena ocasión para ello.
Andrei Sakharov
Andrei Sakharov
Etiquetas:
biografías
jueves, diciembre 13, 2007
Galileo y el principio de equivalencia
Existe un famoso argumento de Galileo sobre la validez del principio de equivalencia, que viene a decir algo así:
Vamos a ver que este argumento tiene parte de verdadero, pero también parte de falso. Consideremos que el principio de equivalencia no es válido, que es en definitiva el punto de partida del argumento de Galileo. Es decir, la masa inercial no es igual a la masa gravitatoria .
Consideremos dos cuerpos, el 1 y el 2, ambos en caída libre hacia la tierra que ejerce un campo gravitatorio sobre ellos:
La fuerza sobre ellos es:
Por tanto, las aceleraciones de los cuerpos aplicando la segunda ley de Newton son:
Por otro lado, la aceleración del sistema conjunto es:
Ahora, consideremos que . Esto significa que:
Desarrollando esto:
Que es cierto si:
Es decir, si:
Si ahora imponemos la condición que y desarrollamos igual que antes, llegamos que la condición es cierta si:
Es decir, ambas no pueden cumplirse a la vez y, por tanto, está entre y de forma que una de las masas "estira" de la otra.
Volviendo ahora al argumento de Galieo nos encontramos con que su primera conclusión es correcta: el cuerpo M+m no puede caer con aceleración mayor que M y m.
No obstante, la segunda conclusión que se sigue de esa primera no es correcta. Es decir, de la primera conclusión no se sigue que M+m, M y m hayan de caer todos con la misma aceleración. Como hemos visto M+m podría caer más rápido que uno de los dos y más despacio que el otro. Cuál de los dos depende de la relación entre masas inerciales y gravitatorias. Esto sería consistente con una posible violación del principio de equivalencia.
Galileo Galilei
Sirva esta entrada como pequeño homenaje al Galileo Galilei. Que conste que el hecho que yo pueda hoy analizar así sus ideas no hace mas que honor a la cita de Max Gluckman: "Ciencia es toda disciplina en que los tontos de una generación pueden llegar más lejos que los genios de la precedente"
Consideremos un cuerpo de masa M y otro de masa m, con M > m. Asumamos que los cuerpos más masivos caen más rápido. Si unimos M y m por medio de algún cable o cuerda sin masa en un solo sistema de masa M+m, al caer este, m frenará a M (hemos asumudo que m cae más despacio que M), por lo que M+m caerá más despacio que M. Esto contradice la hipótesis de partida, por lo que todos los cuerpos han de caer con la misma aceleración.
Vamos a ver que este argumento tiene parte de verdadero, pero también parte de falso. Consideremos que el principio de equivalencia no es válido, que es en definitiva el punto de partida del argumento de Galileo. Es decir, la masa inercial no es igual a la masa gravitatoria .
Consideremos dos cuerpos, el 1 y el 2, ambos en caída libre hacia la tierra que ejerce un campo gravitatorio sobre ellos:
La fuerza sobre ellos es:
Por tanto, las aceleraciones de los cuerpos aplicando la segunda ley de Newton son:
Por otro lado, la aceleración del sistema conjunto es:
Ahora, consideremos que . Esto significa que:
Desarrollando esto:
Que es cierto si:
Es decir, si:
Si ahora imponemos la condición que y desarrollamos igual que antes, llegamos que la condición es cierta si:
Es decir, ambas no pueden cumplirse a la vez y, por tanto, está entre y de forma que una de las masas "estira" de la otra.
Volviendo ahora al argumento de Galieo nos encontramos con que su primera conclusión es correcta: el cuerpo M+m no puede caer con aceleración mayor que M y m.
No obstante, la segunda conclusión que se sigue de esa primera no es correcta. Es decir, de la primera conclusión no se sigue que M+m, M y m hayan de caer todos con la misma aceleración. Como hemos visto M+m podría caer más rápido que uno de los dos y más despacio que el otro. Cuál de los dos depende de la relación entre masas inerciales y gravitatorias. Esto sería consistente con una posible violación del principio de equivalencia.
Galileo Galilei
Sirva esta entrada como pequeño homenaje al Galileo Galilei. Que conste que el hecho que yo pueda hoy analizar así sus ideas no hace mas que honor a la cita de Max Gluckman: "Ciencia es toda disciplina en que los tontos de una generación pueden llegar más lejos que los genios de la precedente"
Etiquetas:
mecánica newtoniana
martes, diciembre 11, 2007
Mecánica cuántica determinista - Gerardus 't Hooft
Las ideas revolucionarias del premio Nobel de física Gerardus 't Hooft sobre la mecánica cuántica están resumidas en estos dos papeles:
La teoría de 't Hooft es extrañísima. Con esto no quiero decir que sea menos o más correcta, sino que se desvía notablemente de otras ideas más cercanas a la física establecida.
La idea fundamental parece ser que consiste en que existe un conjunto de operadores u observables cuya evolución es determinista. A estos operadores los denomina "beables" (be-ables) o "variables ontológicas". Se trata de operadores que commutan siempre y dan por tanto lugar a una evolución determinista.
Los sistemas cuánticos usuales no pueden ser descritos por operadores u observables que commuten siempre, condición (no commutar) que es la expresión matemática de la indeterminación.
Intentar o forzar que los sistemas cuánticos más simples sean expresados en función de estos operadores beables da lugar a un problema con la estabilidad energética: el hamiltoniano no está acotado inferiormente. Esto significa que los sistemas físicos dejan de ser estables al no existir un mínimo energético.
Pero, aparentemente, 't Hooft encuentra una forma de resolver este problema sin tener que tirar por la borda el determinismo. Esto lo hace a costa de introducir pérdida de información o irreversibilidad temporal a la escala de la evolución temporal de los beables. En definitiva, los beables no dan lugar a una evolución temporal unitaria (la evolución temporal unitaria es una de las piedras angulares de la cuántica), que es la que preserva los estados puros y no aumenta la entropía.
Para ir de los beables a los estados cuánticos y observables realmente medibles, hace falta por tanto un paso conceptual adicional. Este consiste en asumir que los beables se agrupan en clases de equivalencia, aquellos que tienen un futuro común. Estas clases de equivalencia son los estados cuánticos usuales.
En la imagen de abajo se ve un ejemplo. Los estados 1 y 4 son equivalentes ya que su evolución futura es idéntica. Una vez existe una transición que sale del estado 4, es imposible acceder a 4 en cualquier tiempo futuro, por lo que la reversibilidad temporal, tan usual en la física actual, es rota a nivel fundamental.
Esto es lo poco que entiendo yo de la teoría. Vaya, que básicamente no entiendo nada, pero lo que he hecho aquí es proporcionar una pequeña guía de cómo se entrelazan un par de conceptos básicos en ella.
La visión detrás de todo esto es que la relatividad general y su covarianza general, o incluso el modelo estándar con sus simetrías de gauge, no son mas que situaciones que aparecen debido a la pérdida de información al nivel fundamental de las variables ontológicas. Que nadie me pregunte cómo y apuesto que el mismo 't Hooft no lo sabe con certeza.
En los papeles mencionados analiza sistemas muy sencillos como el oscilador armónico desde esta perspectiva radicalmente nueva, pero creo que por el momento eso es todo. Ni siquiera tengo la impresión de que la teoría sea capaz de explicar algo tan estándar como el experimento EPR.
Gerardus 't Hooft
- Quantum Gravity as a Dissipative Deterministic System
- The mathematical basis for deterministic quantum mechanics
La teoría de 't Hooft es extrañísima. Con esto no quiero decir que sea menos o más correcta, sino que se desvía notablemente de otras ideas más cercanas a la física establecida.
La idea fundamental parece ser que consiste en que existe un conjunto de operadores u observables cuya evolución es determinista. A estos operadores los denomina "beables" (be-ables) o "variables ontológicas". Se trata de operadores que commutan siempre y dan por tanto lugar a una evolución determinista.
Los sistemas cuánticos usuales no pueden ser descritos por operadores u observables que commuten siempre, condición (no commutar) que es la expresión matemática de la indeterminación.
Intentar o forzar que los sistemas cuánticos más simples sean expresados en función de estos operadores beables da lugar a un problema con la estabilidad energética: el hamiltoniano no está acotado inferiormente. Esto significa que los sistemas físicos dejan de ser estables al no existir un mínimo energético.
Pero, aparentemente, 't Hooft encuentra una forma de resolver este problema sin tener que tirar por la borda el determinismo. Esto lo hace a costa de introducir pérdida de información o irreversibilidad temporal a la escala de la evolución temporal de los beables. En definitiva, los beables no dan lugar a una evolución temporal unitaria (la evolución temporal unitaria es una de las piedras angulares de la cuántica), que es la que preserva los estados puros y no aumenta la entropía.
Para ir de los beables a los estados cuánticos y observables realmente medibles, hace falta por tanto un paso conceptual adicional. Este consiste en asumir que los beables se agrupan en clases de equivalencia, aquellos que tienen un futuro común. Estas clases de equivalencia son los estados cuánticos usuales.
En la imagen de abajo se ve un ejemplo. Los estados 1 y 4 son equivalentes ya que su evolución futura es idéntica. Una vez existe una transición que sale del estado 4, es imposible acceder a 4 en cualquier tiempo futuro, por lo que la reversibilidad temporal, tan usual en la física actual, es rota a nivel fundamental.
Esto es lo poco que entiendo yo de la teoría. Vaya, que básicamente no entiendo nada, pero lo que he hecho aquí es proporcionar una pequeña guía de cómo se entrelazan un par de conceptos básicos en ella.
La visión detrás de todo esto es que la relatividad general y su covarianza general, o incluso el modelo estándar con sus simetrías de gauge, no son mas que situaciones que aparecen debido a la pérdida de información al nivel fundamental de las variables ontológicas. Que nadie me pregunte cómo y apuesto que el mismo 't Hooft no lo sabe con certeza.
En los papeles mencionados analiza sistemas muy sencillos como el oscilador armónico desde esta perspectiva radicalmente nueva, pero creo que por el momento eso es todo. Ni siquiera tengo la impresión de que la teoría sea capaz de explicar algo tan estándar como el experimento EPR.
Gerardus 't Hooft
Etiquetas:
mecánica cuántica
lunes, diciembre 03, 2007
Speed of Light in Non-Trivial Vacua
La existencia de una velocidad invariante c es una característica que está íntimamente ligada a la relatividad especial y con ella las transformaciones de Lorentz y la relación entre sistemas de referencia inerciales. Tal velocidad determina la estructura causal del espacio-tiempo plano de la relatividad especial y nos proporciona una medida de cómo el espacio y el tiempo quedan relacionados en esa entidad que denominamos espacio-tiempo.
La variación del tal constante fundamental con dimensiones de velocidad carece de sentido físico. En realidad, ninguna constante dimensional puede variar de forma físicamente medible, sino que sólo pueden variar las constantes adimensionales. La razón es que una variación en una constante dimensional es simplemente indetectable, ya que nunca pudemos saber si lo que varía es c o lo que está variando son nuestros estándares de medida para el metro y el segundo.
Ahora bien, nuestra formulación de una teoría de variación de la constante adimensional de acoplamiento del electromagnetismo (constante de Sommerfeld o alfa) podemos hacerla, equivalentemente, con una teoría de c variable o una de h variable. De esas dos opciones una será más sencilla que la otra, y probablemente, se ajustará más a los principios usuales sobre los que asentamos la física. No obstante, hay que dejar claro que la verdadera variación de una constante, medible y verificable sólo puede ser la variación de alfa.
Asumamos por tanto una teoría en la que c permanece constante por definición y distingamos explícitamente esta velocidad invariante c de la velocidad de la luz en el vacío.
El vacío en la teoría cuántica de campos es el estado de ausencia de partículas reales y campos clásicos en el marco de la geometría plana del espacio-tiempo de la relatividad especial. Tal estado viene determinado, además, por la ruptura de simetría electrodébil por decaimiento del campo de Higgs, ya que a altas energías y con la simetría del campo de Higgs restaurada el vacío es diferente y el espectro de partículas diferente.
La velocidad de la luz en el vacío depende por tanto de la definición de vacío y, para el caso del vacío mencionado, es decir, para el vacío tras la ruptura electrodébil y con ausencia de partículas reales y campos clásicos en el marco del espacio-tiempo plano, tal velocidad coincide con la velocidad invariante c. Tomemos este vacío como nuestro punto de partida o referencia.
Ocurre que si tal vacío es modificado, la luz pasará a propagarse por él con velocidad diferente que c. Tal resultado se puede entender ya clásicamente en las ecuaciones de Maxwell, viendo que la velocidad de la luz depende esencialmente de las propiedades del vacío, en concreto de su permitividad y permeabilidad del vacío.
La teoría cuántica de campos proporciona además una explicación física para tal variación. Para entender la idea conviene entender primero el concepto de propagador. Esto es una función que nos determina la probabilidad de encontrar una partícula en un punto un instante de tiempo determinados, habiéndola localizado en un instante de tiempo anterior en otro punto determinado.
Esta función tiene una forma diferente dependiendo de si la teoría considera interacciones o no. Esto se puede entender intuitivamente por medio de diagramas de Feynman.
Primero, podemos considerar un fotón libre en una supuesta teoría que no contempla la interacción del campo electromagnético con el campo que da lugar a fermiones elementales de carga eléctrica no nula. Esto es la línea 1 de la figura de abajo:
Si tomasemos esto como referencia, el fotón se propagaría sin más a velocidad c a través de ese vacío por definición.
No obstante, segundo, podemos, y debemos, considerar un fotón en una teoría que contempla la interacción del campo electromagnético con el campo que da lugar a fermiones elementales de carga eléctrica no nula. Este es el caso más realista. En el caso de interacciones el propagador es corregido por efectos cuánticos. Estas interacciones se modelan como partículas virtuales, que son lineas internas en los diagramas (lineas que no tienen un extremo libre).
Los efectos cuánticos pueden considerarse como una expansión en serie de diferentes formas. Una de ellas es en función del número de lazos (loops). El diagrama 2 de la figura de arriba nos muestra la corrección de un lazo al propagador del fotón y considera las correcciones de dos lazos como despreciables. El significado físico de ese diagrama es que el fotón, mientras se propaga, se convierte en un par electrón-positrón, los cuales se aniquilan luego en un fotón, que sigue propagándose. A este fenómeno se lo conoce con el nombre de polarización del vacío.
El fotón propagándose por el vacío en el espacio-tiempo de Minkowski con todas sus correcciones debido a interacción con las partículas de carga eléctrica, se propagapor definición, en ese vacío de referencia, a la velocidad c.
Para ilustrar la idea de correcciones cuánticas y entender mejor sus consecuencias físicas podemos notar que el propagador vale no sólo para partículas reales, sino en general también para partículas virtuales. Estas partículas modelan las interacciones en la teoría cuántica de campos. Se puede mostrar que la propagación de fotones virtuales según el primer propagador (1) modelando una interacción da lugar al potencial de Coulomb que varia con 1/r². No obstante, la propagación de fotones virtuales según el segundo propagador (2) modelando una interacción da lugar una modificación del potencial de Coulomb dentro de un átomo de hidrógeno, que explica fenómenos como el desplazamiento de Lamb.
Volvamos con el fotón real. En un vacío real con interacciones existe una corrección a su propagador que en primer órden equivale al diagrama 2. En nuestro vacío de referencia tal corrección no rompe la invarianza de Lorentz (véase por ejemplo Ryder "Quantum Field Theory" el capítulo sobre renormalización de QED) y resulta por tanto en una velocidad de propagación es c.
Sin embargo, tal corrección abre una puerta a que la propagación sea a diferente velocidad en diferentes vacíos. Sobre el par electrón-positrón pueden actuar diferentes modificaciones del vacío, como por ejemplo un campo magnético externo. Una influencia de este tipo actúa diréctamente sobre la propagación del fotón. También otras como un campo gravitatorio o una cavidad dando lugar a un vacío de Casimir.
En general, el segundo propagador quede modificado por una corrección adicional que resulta de una modificación de la simetría de Lorentz, en definitiva, del espacio-tiempo de Minkowski (un campo de fondo que selecciona una dirección preferida, unas condiciones de contorno, etc.). Todas estas modificaciones tienen algo en común y es que cambian la energía del vacío que tomamos como referencia en nuestro vacío de referencia. Esto da lugar a que el segundo propagador quede modificado por una corrección adicional que tiene el efecto de dotar de masa a la partícula, en este caso el fotón.
Es decir, la velocidad de la luz en el vacío depende en general de la energía del vacío. Para vacíos de mayor energía es de esperar que la luz se propague a velocidad menor que c, y para vacío de menor energía es de esperar que la luz se propague a velocidad mayor que c.
Este segundo caso es el que se da en un vacío de Casimir. Entre las placas del experimento de Casimir existen menos modos de oscilación que fuera debido a que sólo pueden existir ondas estacionarias. Esto hace al vacío menos energético. El fenómeno de propagación superlumínica en un vacío de Casimir se denomina efecto Scharnhorst. Por varias razones se piensa que esto no tiene consecuencias para la causalidad, pero esa es otra historia porque esto se empieza a hacer demasiado largo.
El resultado que la velocidad de la luz en el vacío depende en general de la energía del vacío es una conclusión del siguiente papel:
SPEED OF LIGHT IN NON--TRIVIAL VACUA. J.I. Latorre, P. Pascual, R. Tarrach
La variación del tal constante fundamental con dimensiones de velocidad carece de sentido físico. En realidad, ninguna constante dimensional puede variar de forma físicamente medible, sino que sólo pueden variar las constantes adimensionales. La razón es que una variación en una constante dimensional es simplemente indetectable, ya que nunca pudemos saber si lo que varía es c o lo que está variando son nuestros estándares de medida para el metro y el segundo.
Ahora bien, nuestra formulación de una teoría de variación de la constante adimensional de acoplamiento del electromagnetismo (constante de Sommerfeld o alfa) podemos hacerla, equivalentemente, con una teoría de c variable o una de h variable. De esas dos opciones una será más sencilla que la otra, y probablemente, se ajustará más a los principios usuales sobre los que asentamos la física. No obstante, hay que dejar claro que la verdadera variación de una constante, medible y verificable sólo puede ser la variación de alfa.
Asumamos por tanto una teoría en la que c permanece constante por definición y distingamos explícitamente esta velocidad invariante c de la velocidad de la luz en el vacío.
El vacío en la teoría cuántica de campos es el estado de ausencia de partículas reales y campos clásicos en el marco de la geometría plana del espacio-tiempo de la relatividad especial. Tal estado viene determinado, además, por la ruptura de simetría electrodébil por decaimiento del campo de Higgs, ya que a altas energías y con la simetría del campo de Higgs restaurada el vacío es diferente y el espectro de partículas diferente.
La velocidad de la luz en el vacío depende por tanto de la definición de vacío y, para el caso del vacío mencionado, es decir, para el vacío tras la ruptura electrodébil y con ausencia de partículas reales y campos clásicos en el marco del espacio-tiempo plano, tal velocidad coincide con la velocidad invariante c. Tomemos este vacío como nuestro punto de partida o referencia.
Ocurre que si tal vacío es modificado, la luz pasará a propagarse por él con velocidad diferente que c. Tal resultado se puede entender ya clásicamente en las ecuaciones de Maxwell, viendo que la velocidad de la luz depende esencialmente de las propiedades del vacío, en concreto de su permitividad y permeabilidad del vacío.
La teoría cuántica de campos proporciona además una explicación física para tal variación. Para entender la idea conviene entender primero el concepto de propagador. Esto es una función que nos determina la probabilidad de encontrar una partícula en un punto un instante de tiempo determinados, habiéndola localizado en un instante de tiempo anterior en otro punto determinado.
Esta función tiene una forma diferente dependiendo de si la teoría considera interacciones o no. Esto se puede entender intuitivamente por medio de diagramas de Feynman.
Primero, podemos considerar un fotón libre en una supuesta teoría que no contempla la interacción del campo electromagnético con el campo que da lugar a fermiones elementales de carga eléctrica no nula. Esto es la línea 1 de la figura de abajo:
Si tomasemos esto como referencia, el fotón se propagaría sin más a velocidad c a través de ese vacío por definición.
No obstante, segundo, podemos, y debemos, considerar un fotón en una teoría que contempla la interacción del campo electromagnético con el campo que da lugar a fermiones elementales de carga eléctrica no nula. Este es el caso más realista. En el caso de interacciones el propagador es corregido por efectos cuánticos. Estas interacciones se modelan como partículas virtuales, que son lineas internas en los diagramas (lineas que no tienen un extremo libre).
Los efectos cuánticos pueden considerarse como una expansión en serie de diferentes formas. Una de ellas es en función del número de lazos (loops). El diagrama 2 de la figura de arriba nos muestra la corrección de un lazo al propagador del fotón y considera las correcciones de dos lazos como despreciables. El significado físico de ese diagrama es que el fotón, mientras se propaga, se convierte en un par electrón-positrón, los cuales se aniquilan luego en un fotón, que sigue propagándose. A este fenómeno se lo conoce con el nombre de polarización del vacío.
El fotón propagándose por el vacío en el espacio-tiempo de Minkowski con todas sus correcciones debido a interacción con las partículas de carga eléctrica, se propagapor definición, en ese vacío de referencia, a la velocidad c.
Para ilustrar la idea de correcciones cuánticas y entender mejor sus consecuencias físicas podemos notar que el propagador vale no sólo para partículas reales, sino en general también para partículas virtuales. Estas partículas modelan las interacciones en la teoría cuántica de campos. Se puede mostrar que la propagación de fotones virtuales según el primer propagador (1) modelando una interacción da lugar al potencial de Coulomb que varia con 1/r². No obstante, la propagación de fotones virtuales según el segundo propagador (2) modelando una interacción da lugar una modificación del potencial de Coulomb dentro de un átomo de hidrógeno, que explica fenómenos como el desplazamiento de Lamb.
Volvamos con el fotón real. En un vacío real con interacciones existe una corrección a su propagador que en primer órden equivale al diagrama 2. En nuestro vacío de referencia tal corrección no rompe la invarianza de Lorentz (véase por ejemplo Ryder "Quantum Field Theory" el capítulo sobre renormalización de QED) y resulta por tanto en una velocidad de propagación es c.
Sin embargo, tal corrección abre una puerta a que la propagación sea a diferente velocidad en diferentes vacíos. Sobre el par electrón-positrón pueden actuar diferentes modificaciones del vacío, como por ejemplo un campo magnético externo. Una influencia de este tipo actúa diréctamente sobre la propagación del fotón. También otras como un campo gravitatorio o una cavidad dando lugar a un vacío de Casimir.
En general, el segundo propagador quede modificado por una corrección adicional que resulta de una modificación de la simetría de Lorentz, en definitiva, del espacio-tiempo de Minkowski (un campo de fondo que selecciona una dirección preferida, unas condiciones de contorno, etc.). Todas estas modificaciones tienen algo en común y es que cambian la energía del vacío que tomamos como referencia en nuestro vacío de referencia. Esto da lugar a que el segundo propagador quede modificado por una corrección adicional que tiene el efecto de dotar de masa a la partícula, en este caso el fotón.
Es decir, la velocidad de la luz en el vacío depende en general de la energía del vacío. Para vacíos de mayor energía es de esperar que la luz se propague a velocidad menor que c, y para vacío de menor energía es de esperar que la luz se propague a velocidad mayor que c.
Este segundo caso es el que se da en un vacío de Casimir. Entre las placas del experimento de Casimir existen menos modos de oscilación que fuera debido a que sólo pueden existir ondas estacionarias. Esto hace al vacío menos energético. El fenómeno de propagación superlumínica en un vacío de Casimir se denomina efecto Scharnhorst. Por varias razones se piensa que esto no tiene consecuencias para la causalidad, pero esa es otra historia porque esto se empieza a hacer demasiado largo.
El resultado que la velocidad de la luz en el vacío depende en general de la energía del vacío es una conclusión del siguiente papel:
SPEED OF LIGHT IN NON--TRIVIAL VACUA. J.I. Latorre, P. Pascual, R. Tarrach
Etiquetas:
constantes fundamentales,
teoría cuántica de campos
sábado, octubre 20, 2007
El desplazamiento al rojo cosmológico como resultado de la curvatura del espacio-tiempo
Consideremos el espacio-tiempo de Schwarzschild, con su métrica de la cual sólo nos van a interesar las coordenadas temporal y radial. El elemento de linea escrito en las coordenadas de Schwarzschild es (c = G = 1):
Consideremos dos observadores, ambos localizados en puntos espaciales constantes, digamos y . El tiempo propio de un observador cualquiera es:
Como r = constante y por tanto dr = 0 para ambos, se tiene:
La relación entre intervalos de tiempos propios es el inverso que la relación entre frencuencias , por lo que:
Esto proporciona un desplazamiento al rojo o al azul de un fotón emitido en y recibido en . La terminología usual es que se trata de un efecto debido a la curvatura del espacio-tiempo.
Pasemos a cosmología, con un espacio de Robertson-Walker, del cual sólo nos interesan las coordenadas temporal y radial. El elemento de linea escrito en coordenadas comóviles es (c = G = 1):
Igual que antes, dos observadores en puntos constantes y , tienen unos tiempos propios:
La relación entre frecuencias es:
No hay variación de frecuencias debido a la curvatura del espacio-tiempo. La variación de frecuencias entre un fotón emitido y otro recibido en una posición y época diferente es de naturaleza distinta y se debe a la expansión del espacio. Si alguien está interesado en la derivación de la variación de frecuencias para tal caso le remito al Wald capítulo 5. Esta relación resulta ser:
Ahora, si escribimos la métrica cosmológica de Robertson-Walker en coordenadas conformes:
tenemos que dos observadores en puntos constantes y , tienen unos tiempos propios:
y la relación de frecuencias es:
Con esto realmente o estríctamente hablando no hemos demostrado nada, pero creo que sirve de indicador que el mismo resultado de la relación entre frencuencias puede interpretarse de formas diferentes. Por un lado la expansión del espacio tal y como Wald deriva ese resultado, y por otro como curvatura del espacio-tiempo, en analogía a la relación entre frecuencias en un espacio-tiempo de Schwarzschild.
Consideremos dos observadores, ambos localizados en puntos espaciales constantes, digamos y . El tiempo propio de un observador cualquiera es:
Como r = constante y por tanto dr = 0 para ambos, se tiene:
La relación entre intervalos de tiempos propios es el inverso que la relación entre frencuencias , por lo que:
Esto proporciona un desplazamiento al rojo o al azul de un fotón emitido en y recibido en . La terminología usual es que se trata de un efecto debido a la curvatura del espacio-tiempo.
Pasemos a cosmología, con un espacio de Robertson-Walker, del cual sólo nos interesan las coordenadas temporal y radial. El elemento de linea escrito en coordenadas comóviles es (c = G = 1):
Igual que antes, dos observadores en puntos constantes y , tienen unos tiempos propios:
La relación entre frecuencias es:
No hay variación de frecuencias debido a la curvatura del espacio-tiempo. La variación de frecuencias entre un fotón emitido y otro recibido en una posición y época diferente es de naturaleza distinta y se debe a la expansión del espacio. Si alguien está interesado en la derivación de la variación de frecuencias para tal caso le remito al Wald capítulo 5. Esta relación resulta ser:
Ahora, si escribimos la métrica cosmológica de Robertson-Walker en coordenadas conformes:
tenemos que dos observadores en puntos constantes y , tienen unos tiempos propios:
y la relación de frecuencias es:
Con esto realmente o estríctamente hablando no hemos demostrado nada, pero creo que sirve de indicador que el mismo resultado de la relación entre frencuencias puede interpretarse de formas diferentes. Por un lado la expansión del espacio tal y como Wald deriva ese resultado, y por otro como curvatura del espacio-tiempo, en analogía a la relación entre frecuencias en un espacio-tiempo de Schwarzschild.
Etiquetas:
expansión del universo,
mitos y leyendas,
relatividad general
Suscribirse a:
Entradas (Atom)