skip to main |
skip to sidebar
La inflación crea, a partir de fluctuaciones cuánticas, las perturbaciones de la métrica del espacio-tiempo que darán lugar al colapso gravitacional. Empezar con esta frase sin calentar antes los músculos puede parecer brusco, pero véase esto, que sirve de introducción. El colapso será primero de materia oscura fría no-bariónica. Esto ha de ser así en el modelo vigente porque esta materia sólo interactúa gravitacionalmente, al contrario que los bariones, a los que la presión de la radiación impedirá colapsar (la masa de Jeans del fluido de bariones y radiación antes de la recombinación es un valor colosal debido a la presión de la radiación). Recordemos que, antes de la recombinación, los fotones interactúan con suficiénte energía con los electrones impidiéndoles ligarse a los protones para formar hidrógeno neutro. Estamos a un desplazamiento al rojo z = 1100 y el universo es una sopa homogenea e isótropa de partículas.
Tan pronto como se produce la recombinación (unión de protones y electrones para formar hidrógeno neutro), la masa de Jeans decrece espectacularmente a un valor de unas 100.000 veces la masa del sol. Recordemos sobre la masa de Jeans: La presión y la gravitación de una nube de gas están en batalla de forma que para una presión dada existe una masa mínima a partir de la cual el gas colapsará, pero masas menores no podrán colapsar, ya que la gravitación no será suficientemente fuerte como para vencer a la presión. Esa masa es la de Jeans. Su disminución tras la recombinación es evidente; la presión de la radiación deja de ser relevante, ya que tras la recombinación la radiación queda desacoplada de los bariones. Ya no se trata de un fluido con fotones que generan una presión brutal sobre los bariones, sino un gas de bariones los cuales generan presiones razonables entre sí y, por otro lado, fotones. La nueva masa de Jeans de 100.000 veces la masa del sol es la masa de un típico cúmulo globular de los que podemos observar hoy en nuestra Vía Láctea.
Para determinar mejor las condiciones de partida, mientras seguimos mentalmente en z = 1100, debemos preguntarnos por la forma y cantidad de esas inhomogeneidades de materia oscura. Había inhomogeneidades de todos los tipos, grandes y pequeñas, pero, había mayor cantidad de pequeñas que de grandes. A menor tamaño, mayor cantidad, grosso modo. La cantidad de inhomogeneidades por cada tamaño posible se denomina “espectro de potencia”. El espectro de potencia predicho por la inflación se llama espectro de Harrison-Zel’dovich y se cree que corresponde bien con las observaciones.
Tras la recombinación los fotones no interactúan con el hidrógeno neutro chocando con él e ionizándolo, porque no tienen ya suficiénte energía. Por el contrario, algunos son absorbidos por el hidrógeno neutro, excitándolo, pero sin ionizarlo. El grueso del fondo cósmico pasa a una longitud de onda correspondiente con el infrarrojo y el universo entra así en una “época oscura”; no hay luz con longitud de onda visible en el fondo, y, la que hay, es prácticamente absorbida por el hidrógeno neutro. Esta época durará hasta z ~ 20.
Durante esta época ocurre un proceso cosmológico de mayor importacia: El colapso gravitacional de los bariones (término que de forma muy general puede ser sustituido por hidrógeno y algún que otro elemento más pesado) para formar estructuras materiales. Mientras las inhomogeneidades de materia oscura existen en halos de tamaños variados (debido al espectro de potencia mencionado), los bariones entran en escena en grumos de masa igual o mayor que la masa de Jeans y atraídos por los halos correspondientes de materia oscura.
A partir de entonces aparece un proceso de uniones entre los halos de materia oscura, aquellos sobre los cuales se avalanzan bariones y también aquellos sobre los cuales no se avalanzan bariones, formando estructuras cada vez mayores de acuerdo con el modelo de formación jerárquica.
Algunos bariones, por tanto, empiezan a avalanzarse sobre los “halos” de materia oscura. Su densidad aumenta y aumenta por tanto también su temperatura: A mayor densidad mayor agitación térmica al disminuir el volumen en el que se encuentra el gas y donde tienen lugar los choques entre bariones. Además, el colapso es un proceso violento a grandes velocidades que genera ondas de choque, igual que las que producen los aviones supersónicos al romper la barrera del sonido, desde el centro hacia las afueras del halo. El paso de la onda de choque da energía a los bariones en su camino, calentándolos adicionalmente. El aumento de agitación térmica es sinónimo de aumento de presión (como en una olla a presión). Las condiciones que determinan la masa de Jeans se modifican, haciéndola aumentar, y los bariones ya no tienen por qué colapsar, o, por lo menos, no tienen por qué hacerlo con tanta facilidad, al ser su presión mayor.
Ocurre entonces que si los bariones pueden perder energía más rápido de lo que son calentados, entonces su presión disminuirá y podrán colapsar eficientemente. Es decir, la característica básica de aquellos bariones que están en proceso de colapso resulta ser su capacidad de perder energía. Es una característica tan fundamental que todo el proceso de formación galáctica viene reconocido por el nombre de “colapso disipativo”. De ahí aparecerán los primeros discos en rotación ligados gravitacionalmente. Estos discos sufren inestabilidad gravitatoria debido a inhomogeneidades en ellos (inestabilidad de Toomre) y dan lugar a la formación estelar.
Mientras tanto, el medio intergaláctico sigue poblado con hidrógeno neutro; la parte de los bariones no colapsados o eyectados durante colapsos. Las primeras estrellas o quizás los primeros discos en cuásares emitirán radiación que ionizará ese hidrógeno, casi en su práctica totalidad (salvo una fracción). A este proceso se lo denomina reionización, al volver el universo a ionizarse (ya lo estaba antes de la recombinación) y ocurre más o menos entre 6 < z < 20. El hecho que el universo estuvo compuesto por hidrógeno neutro es visible hoy en la absorpción de todo un rango de longitudes de onda en la luz que recibimos de los cuásares lejanos. El hidrógeno absorbe fotones, y en vez de observarse esto en líneas de absorpción, se observa en un continuo, al quedar las lineas desplazadas a distintos desplazamientos al rojo a través de una región continua del espacio llena de material absorbente. Este efecto se denomina Gunn-Peterson y es observable para cuásares en z > 6. Por debajo (z < 6), aparecen líneas de absorbción de hidrógeno neutro pero solo en lugares puntuales, correspondiendo con esa fracción del hidrógeno intergaláctico que no fue reionizada (que se encuentra en zonas denominadas nubes de Lyman-alfa).
Nos encontramos, por tanto, con los siguientes ingredientes en z > 6: Un fondo cósmico de microondas a mayor temperatura que la actual, un medio intergaláctico lleno de hidrógeno neutro y unas fuentes de reionización en medio del colapso gravitacional: las primeras estrellas (populación III) y los cuásares. Una de las principales preguntas es saber qué papel jugaron las primeras estrellas (cuya naturaleza es poco conocida) o los cuásares en la reionización, así como la época en la que ésta tuvo lugar (reionización “rápida” 6 < z < 10 ó “extensa” 6 < z < 20).
Con esta introducción estamos ahora preparados para abordar un tema fascinante y grandioso: La heróica aventura para la deteción de posibles señales de radio de 21 cm., extremadamente ténues, de la época de la recombinación. Explicaré la física (la razón de esas señales y sus características) y me detendré un poco con los fabulosos proyectos para su detección, grandes retos de ingeniería y precisión.
En el modelo cosmológico vigente existe una razón para la homogeneidad, aunque no necesariamente para la isotropía. En el universo recién nacido existen zonas en contacto causal, al tratarse de un espacio donde todas las distancias son prácticamente cero. El contacto causal hace que ese estado inicial sea homogeneo dentro de esas zonas. Un instante tras este estado, el universo entra en una fase de expansión acelerada, aumentando sus distancias de forma exponencial en un periodo muy corto de tiempo. Esto hace que la homogeneidad inicial de esas zonas se transfiera a todos los puntos expandidos en el espacio, sin perderse en ese tiempo tan corto. Como siempre, la analogía del globo viene bien para entenderlo. En el globo deshinchado podemos dibujar una mancha. Cuando el globo se hincha la mancha se hace más grande. El periodo de expansión exponencial se denomina inflación.
Esta idea también nos indica que aquellos puntos que quedan fuera del horizonte causal de aquellas zonas iniciales no son parte de sus respectivas burbujas inflacionarias. Fuera de nuestra burbuja inflacionaria, hay, por tanto, algo que no estuvo en contacto causal con ella. No es necesariamente de esperar que la burbuja inflacionaria sea exáctamente igual al universo observable actual (el horizonte de partículas), pero sí es de esperar que la burbuja tenga un límite. Por tanto, más allá de ese límite no tiene por qué haber homogeneidad.
La inflación también proporciona una sorprendente explicación a la inhomogeneidad a escalas menores, esto es, la existencia de estructuras materiales en el universo. La razón de ellas se encuentra en las fluctuaciones cuánticas del vacío durante el periodo inflacionario. Estas fluctuaciones quedan „congeladas“ debido a la fuerte expansión. Un argumento heurístico para entenderlo es el siguiente: un par virtual de partícula – antipartícula creado del vacío no tiene tiempo de aniquilarse debido a la rápida expansión del espacio. La explicación técnica es algo más compleja y no hace uso de esos términos.
El caso es que ese quedarse „congeladas“ hace que estas fluctuaciones cuánticas se conviertan en perturbaciones reales de densidad energética del campo que las crea (el inflatón, el campo causante de la inflación), haciendo a su vez que la métrica del espacio-tiempo de fondo quede perturbada. Tras un proceso algo misterioso y poco entendido denominado recalentamiento, en el cuál se transfiere energía del inflatón a otros campos materiales creando partículas, la materia caerá en esos potenciales gravitatorios de la métrica perturbada, dando lugar a la formación de estructuras y su colapso gravitacional.
El tema de la isotropía es algo más complejo en mi opinión. Si encuentro tiempo para aclarar mis ideas y resumirlo habrá una cuarta parte.
Imaginemos el universo un instante después del inicio del tiempo, donde las distancias eran mucho menores que hoy ya que el espacio no estaba tan expandido. Consideremos un objeto imaginario localizado a una distancia muy pequeña (infinitesimalmente pequeña) de nuestra posición - la posición comóvil que ocupamos ahora - y emitiendo (supuestos) fotones. Estos debieron ser detectables para un observador imaginario localizado en nuestra posición comóvil entonces.
Lo curioso del modelo cosmológico vigente es que podríamos detectar fotones de ese objeto hoy, tras una larga expansión del espacio, y estaríamos viendo el objeto casi en el mismo estado de evolución que el estado de evolución que aquel supuesto observador observó entonces un instante después del inicio del tiempo. Es decir, estaríamos recibiendo fotones emitidos un instante después de aquellos que el observador imaginario recibió.
Una forma de entender esto es con el concepto de cono de luz pasado. El cono de luz pasado es la zona geométrica de puntos en el espacio-tiempo donde exitían eventos que pueden afectarnos causalmente hoy (a la velocidad de la luz). A medida que uno avanza en el pasado, el cono de luz se agranda: cada vez hay más y más objetos cuya luz nos alcanza hoy. Esto viene a resultar en el hecho que en un espacio-tiempo estático el cono de luz tiene forma de cono con vértice en nosotros y agrandándose hacia el pasado. De ahí su nombre.
En un espacio-tiempo dinámico, como el del modelo cosmológico actual, esto no es así. Uno avanza mentalmente hacia atrás en el tiempo y encuentra más y más objetos cuya luz nos alcanza hoy, pero el cono de luz aumenta menos que en el caso estático. Esto es así porque, al avanzar hacia atrás en el tiempo, la contracción del espacio (como avanzamos hacia atrás en el tiempo, la expansión del espacio se convierte en contracción) hace que los objetos estén a distancias menores que lo estarían en un espacio-tiempo estático. O sea, a medida que vamos hacia atrás en el tiempo el la “sección” de ese cono para cada instante temporal será menor que en el caso estático.
Pero ocurre que, avanzando hacia atrás en el tiempo, tarde o temprano se llega a una época donde la “contracción” del espacio es tan fuerte que la “sección” del cono de luz empieza a disminuir, y lo hace cada vez más rápido ya que la velocidad de expansión, o el parámetro de Hubble, tiende a infinito a medida que nos acercamos a t = 0.
El resultado es que el cono de luz “se dobla” y acaba teniendo forma de lágrima (analogía tomada de aquí). De ahí que los objetos que estuvieron muy cerca de nuestra posición comóvil en el inicio del tiempo, podrían ser, en teoría, vistos ahora también. Los primeros fotones emitidos entonces por ese objeto imaginario alcanzan a nuestro observador imaginario situado en nuestra posición comóvil. Los siguientes fotones avanzan en el espacio hacia nosotros, pero la expansión del espacio los arrastra tan rápido que estos fotones, de forma efectiva, se alejan de nuestra posición comóvil. A medida que la velocidad de expansión va disminuyendo en el tiempo la velocidad de estos fotones “gana” a la expansión del espacio y los fotones vuelven a acercarse hacia nuestra posición comóvil y nos alcanzan ahora.
El EURD (Espectrógrafo Ultravioleta extremo para la Radiación Difusa), proyecto español, lanzado en 1997 en el satélite (español) MINISAT-01, con el fin de estudiar la naturaleza de la radiación difusa en la banda de 300 a 1000 Angstroms y testear así ciertas hipótesis sobre su orígen. Entre ellas, orígenes atmosféricos, orígen en la fase coronal del medio interestelar de la burbuja local en la que se encuentra el sol, y orígen en un fenómeno cosmológico; una interesante hipótesis de Sciama sobre los neutrinos - más información en la citada página.
La página no está actualizada y contacté hace un tiempo con el autor, que muy amablemente contestó diciendo que ya no se dedicaba a eso, pero parece que por falta de tiempo no fué capaz de proporcionarme más información. Desde entonces ya ha pasado algo de tiempo y yo también he olvidado el tema, pero pensé que sería bonito retomarlo. Así las cosas, sigo con la duda sobre los resultados de aquella misión, dado lo poco que se encuentra en internet sobre ella. Esto entra en relación con una misión actual, de objetivos similares, aunque no idénticos, el CHIPS, sobre la que he hablado aquí.
Comentarios e información adicional son bienvenidos.
Las pruebas más importantes de que la distribución de materia y campos en el universo es homogenea e isótropa a cierta escala las proporcionan (o pueden proporcionar) los siguientes fenómenos:
Fondo cósmico de microondas
El fondo cósmico de microondas es una distribución de fotones que presenta una curva de un cuerpo negro prácticamente perfecto. Un cuerpo negro está en equilibrio termodinámico a una temperatura determinada y su espectro de emisión (la cantidad de fotones a una y otra frecuencia) tiene una curva muy característica que depende sólo de la temperatura del cuerpo. Este equilibrio termodinámico es la evidencia más sólida de la homogeneidad e isotropía del universo.
Según el modelo del big-bang, hubo una época en la cual el universo estuvo formado por una sopa de partículas, en la cual los fotones chocaban constantemente con los electrones en un proceso que se conoce como scattering o interacción de Thomson. Esta sopa era prácticamente homogenea, exceptuando ciertas anisotropías denominadas primarias. Debido a la expansión del universo, esta sopa de partículas perdió temperatura hasta que los electrones y los protones que deambulaban también por ahí, se unieran felizmente para formar hidrógeno neutro (formado por un protón y un electrón). Los fotones se encontraron entonces con camino libre para viajar sin interacción, ya que los electrones con los que habían estado chocando antes dejaron deambular libremente y quedadon ligados a los protones. Este periodo de la historia del universo se denomina recombinación y ocurrió unos 400.000 años después del big-bang a una temperatura de 3.000° K. La materia y la radiación quedaron disociadas (a la recombinación se la denomina también a veces desacople) y a partir de entonces seguirán básicamente caminos distintos (aunque esto no es cierto del todo y dará lugar a las denominadas anisotropías secundarias).
La radiación citada la observamos hoy en el fondo cósmico de microondas y admiramos su homogeneidad e isotropía.
Mapas de galaxias
El instrumento matemático básico para analizar la distribución de galaxias es la función de correlación. Dada una distribución de objetos cualesquiera, estimando la probabilidad de que dado un objeto en un volumen se encuentre otro objeto separado una distancia dada del primero, se puede definir una función denominada función de correlación de dos puntos. Esta función proporciona una medida de la desviación sobre una distribución estadísticamente homogenea (una distribución de Poisson).
Si uno multiplica la distancia dada por un valor arbitrario (es decir, hace un cambio de escala) y obtiene la misma función de correlación excepto una constante multiplicativa, se dice que la distribución del objeto en cuestión presenta una invariaza de escala. La constante multiplicativa proporciona la dimensión de correlación (que da una medida de cómo de ramificada está la distribución), que está en relación con la dimensión fractal (que da una medida de cómo la estructura es capaz de rellenar el espacio).
Para escalas menores que 100 Mpc, la distribución de galaxias es aparentemente fractal y cumple lo mencionado arriba. Sin embargo, para escalas mayores que 100 Mpc esto no es así y se observa homogeneidad e isotropía [1].
Velocidades peculiares
En un universo sin velocidades peculiares el único "movimiento" medible (que no es realmente un movimiento) sería el flujo de Hubble. Las velocidades peculiares aparecen debido a la gravitación a la que están sometidas las galaxias a escalas de cúmulos galácticos (donde, además, la geometría del espacio-tiempo no tiene por qué ser necesariamente la de Robertson-Walker, que es la que describe un espacio homogeneo e isótropo en expansión).
Hubo una época del universo en la cuál las perturbaciones gravitatorias no eran suficiéntemente grandes para producir velocidades peculiares notables. Esto es visible en la homogeneidad e isotropía del fondo cósmico de microondas. Entonces no había grandes inhomogeneidades de densidad energética que pudieran dar lugar a movimientos peculiares, pero desde entonces el colapso gravitacional ha ido creciendo y las velocidades peculiares aumentando.
Los estudios sistemáticos de las velocidades peculiares tienen una historia algo turbulenta y no parece haber resultados muy claros, por lo menos por el momento. Un resumen corto y claro se encuentra aquí.
Fuentes de radio
El método es similar al mencionado en las galaxias. Las fuentes de radio (cuasares) también están agrupadas pero a grandes escalas de más de 100 Mpc su distribución también parece ser homogenea e isótropa. Además, proporcionan una muestra que, en promedio, se encuentra a un desplazamiento al rojo mayor que las galaxias.
Fondo cósmico de rayos-X
De forma algo similar al fondo cósmico de microondas, existe un fondo de rayos-X (y ultravioleta extremo, cosa que nos llevará un día de estos a un interesante periplo por la inacabada historia de un proyecto español) llenando todo el cielo.
Su razón se cree en múltiples fuentes no resueltas de galaxias activas (AGN) con emisión de rayos-X, aunque su curiosa homogeneidad e isotropía siguen siendo algo misteriosas.
En la próxima entrega sobre este tema intentaré explicar las razones de que el universo cumpla el principio cosmológico a la escala a la que se observa que lo cumple (100 Mpc en el universo actual y cuando tenía sólo 400.000 años a prácticamente cualquier escala), así como la razón de que no lo cumpla donde no lo cumple (por debajo de 100 Mpc hoy y en las anisotropías primarias cuando tenía sólo 400.000 años, así como la especulación de qué puede ocurrir a escalas mayores que el universo observable).
La relatividad especial está definida sobre el conjunto de sistemas de referencia inerciales, que conforman un marco preferido sobre el cuál acontecen los eventos físicos. Este conjunto de sistemas sirve como base para definir la primera ley de Newton y la segunda ley de Newton adquiere un sentido cuando es referida a ese marco, el de los sistemas de referencia inerciales. Así, por ejemplo, el agua en un cubo de agua en rotación en un universo completamente vacío adquiere una forma cóncava diferenciándose su movimiento de aquel que sufriría el agua en un sistema de referencia inercial. Por definición, sobre el agua actúan fuerzas.
Ernst Mach defendía que la inercia es una propiedad de un cuerpo que aparece de la interacción con otros cuerpos (principio de Mach). La inexistencia de una referencia material externa a un cuerpo lo privaría de inercia y, dada la falta de un marco de sistemas de referencia inerciales (por definición según Mach, al no ser ésta una propiedad del espacio-tiempo), no habría razón para la aplicabilidad de la segunda ley de Newton si tampoco existiese una referencia material. Así, por ejemplo, el cubo de agua en un universo completamente vacío, no adquiriría una forma cóncava según Mach y, por tanto, sobre el agua no actuarían fuerzas.
La relatividad general incluye en parte el principio de Mach, que era una de las metas de Albert Einstein. En el caso del cubo de agua en fenómeno se denomina ‘arrastre del sistema de referencia’ y es objeto de prueba experimental con la Gravity Probe B. La idea sería, por ejemplo, poner un cubo de agua en una esfera hueca y hacer rotar a esta y no al cubo. La relatividad general predice concavidad e introduce la relatividad del giro deseada por Ernst Mach. Si los campos gravitatorios desaparecen y uno pasa a la relatividad especial, que es el límite de la relatividad general cuando no hay campo gravitatorio o no hay materia en el espacio-tiempo, el giro vuelve a ser absoluto y los sistemas inerciales aparecen como una plataforma preferida sobre la cuál hacer física.
Esto disgustaba a Einstein, que era de la opinión que la inercia debía ser determinada por las masas siempre. En aquel tiempo él razonaba de la siguiente forma: Si uno considera el universo como un conjunto de masas de forma que el espacio-tiempo es plano lejos de ellas (asíntóticamente plano, se dice), entonces siempre existe forma de violar el principio de Mach yéndose lejos de las masas y obteniendo el límite de la relatividad especial, que permite observar al giro como propiedad absoluta en el espacio, al contrario que el movimiento lineal, relativo, que da lugar a ese conjunto de sistemas de referencia especiales. Esta era una situación inaceptable. Sin embargo, para determinar una solución a las ecuaciones en la relatividad general hacen falta, además de la configuración de masas en el espacio-tiempo, unas condiciones de contorno. En vista de esto, Einstein se puso manos a la obra para encontrar aquellas condiciones de contorno tales que fuese imposible encontrar un espacio-tiempo plano que determinase la inercia como una propiedad independiente de la materia.
Aquí se nos explica que:
Einstein objected [...], because it showed that the field equations allowed inertia to exist in an empty universe, which Einstein viewed as "inertia relative to space", and he still harbored hopes that general relativity would fulfill Mach's idea that inertia should only be possible in relation to other masses.
Una de sus soluciones fue la de una métrica singular del espacio-tiempo, tal que cualquier transformación de coordenadas, en cualquier posición, la dejase invariante y nunca igual a la métrica plana. Esta propuesta fue desechada pronto. Como interlocutor en la discusión de las implicaciones astronómicas de la introducción del principio de Mach en la relatividad general, Einstein tenía nada menos que a su contemporáneo Willem de Sitter. Según éste, tal métrica requeriría de unas masas (necesarias para curvar el espacio-tiempo y dar lugar a ella) inobservadas, cosa no muy distinta a la idea del ether previa a la relatividad especial (Peebles [1] nos hace notar aquí la analogía con la materia oscura). Otra de sus soluciones fue proponer lo que Milne luego llamó el principio cosmológico; un universo con una distribución homogenea e isótropa de materia en todo el espacio, de forma que en ningún lugar de él hubiera sitio para una métrica plana del espacio-tiempo vacío. Según Einstein, el universo debía ser, además, espacialmente cerrado sobre sí mismo (finito pero ilimitado) y estático. Fue de Sitter el que más tarde mostrara que las condiciones impuestas por Einstein no eran suficientes para obtener el resultado que él se proponía (una excelente discusión se encuentra aquí).
Independiéntemente de lo correcto o no del uso de estas ideas para la introducción del principio de Mach, lo importante es que la idea del principio cosmológico fue acogida con entusiasmo y ha resultado ser fructífera y confirmada por la experiencia, como veremos.
Pero parémonos antes a entender los conceptos de isotropía y homogeneidad. Isótropo significa con las mismas propiedades en todas las direcciones y homogeneo con las mismas propiedades en todo punto. El universo puede ser isótropo sin ser homogeneo, por ejemplo, si la tierra fuese su centro y, desde ella, el universo fuera esféricamente simétrico (por ejemplo, casquetes esféricos de decreciente densidad de estrellas desde la tierra, cosa que iría en contra del principio Copernicano). El universo también puede ser homogéneo sin ser isótropo, por ejemplo, teniendo un campo magnético uniforme en una dirección del espacio. El principio cosmológico requiere ambas, homogeneidad e isotropía en la distribución de la materia y los campos en el espacio. No se requieren estas propiedades a lo largo del tiempo.
En el próximo artículo explicaré cuáles son las observaciones que soportan el principio cosmológico.
[1] J.P.E Peebles, Principles of Physical Cosmology. Princeton University Press (1993).
Lo extraordinario y lo místico tienen una raíz común. Extraordinario es aquello fuera del orden, o regla natural, y lo místico incluye misterio o una razón oculta. La física intenta hacer salir a la superficie la razón oculta de las cosas, y la busca en fenómenos que sin duda consideramos extraordinarios, al encontrarse la mayoría de ellos más allá de la experiencia cotidiana. Se trata de un descubrimiento de lo oculto, una desvelación, o revelación, como la manifestación de la verdad oculta.
La actividad de la ciencia física se convierte así en algo que nos pone frente a frente con el misterio más profundo del universo. Albert Einstein decía “sostengo que el sentimiento cósmico religioso constituye la más fuerte y noble motivación de la investigación científica” (véase http://www.geocities.com/alschairn/einstein/einstein.htm), entendiendo el concepto de misticismo más allá de lo meramente religioso tal y como se entiende o suele entender hoy.
Hace un par de días he tenido ocasión de ayudar a preparar, y observar luego - en el marco de una actividad no-profesional - el experimento de la doble ranura con láser. Un láser de luz polarizada, digamos en dirección vertical z, es lanzado y separado en dos rayos por un “beam splitter”. Estos rayos luego se hacen confluir y se observan sobre una pantalla. El experimento de la doble ranura es trivial en ese marco “clásico”, ya que en la pantalla hay un patrón de interferencia si hay dos rayos que confluyen, y no la hay si se tapa uno de los caminos y queda sólo un rayo (se ve un punto de un sólo láser).
Pero la realidad es extremadamente sublime y sobre todo el siglo pasado nos ha mostrado que trasciende los intentos de adaptarla a los razonamientos que emergen de la experiencia cotidiana. Uno puede bloquear uno de los caminos con un polarizador en dirección x, y en el otro camino poner un polarizador en dirección z. Si no se hace nada más, ocurre que tras la zona de confluencia de ambos rayos no hay interferencia, al quedar un camino tapado (el del polarizador en x) y el otro no (el del polarizador en z). Sin embargo, si luego se pone un polarizador a 45° (45° de ángulo entre x - z), tras la zona de confluencia y delante de la pantalla el resultado es que hay interferencia. Esto es increíble desde el punto de vista clásico y difícil de digerir, aún cuando uno lo espera según la teoría cuántica. Este experimento se denomina “quantum eraser”.
Con toda la modestia del mundo puedo asegurar que para mí algo así es como lo que para el montañero es alcanzar la cima, o para algunos hombres bailar alrededor del fuego, o incluso para otros la aparición de la Virgen; una experiencia profunda sobre un nivel de lo real que está más allá de nuestra vida cotidiana y nos pone ante el abismo de una realidad mucho mas vasta de lo que nunca podremos imaginar.
Cualquiera que quiera animarse a colaborar en este weblog con cualquier idea, para poder darle algo más de continuidad de la que puedo darle yo, está invitado a contactame.