martes, 5 de julio de 2016

Cosmología relativista de precisión

Dos grupos distintos de investigadores han realizado las primeras simulaciones completas de un Universo inhomogéneo bajo la RG sin restricciones.

Foto
La Relatividad General (RG) proporciona una herramienta muy útil para describir el Universo en su conjunto. Aunque para el tiempo t=0 predice una singularidad, signo de que ahí falla la teoría y que se necesita una teoría cuántica de gravedad, a partir de ese momento funciona bastante bien. De hecho predice que el Universo o bien se expande o bien se contrae, algo que se puede comprobar.
Pero la RG presenta algunas pegas. Cualquier solución analítica (extraída con lápiz y papel) es muy difícil de calcular, por lo que nos tenemos que conformar algunas veces con soluciones numéricas. Además, para poder extraer soluciones analíticas hay que hacer ciertas aproximaciones, como que el Universo es homogéneo e isótropo, algo que ya propuso Lemaître en su día. Esto es algo que se ha venido asumiendo desde hace tiempo. Si dejamos de lado la homogeneidad e isotropía, entonces es imposible hallar soluciones analíticas y las numéricas necesitan de una potencia computacional muy elevada incluso para los supercomputadores.
El problema es que tras el Big Bang se podría considerar que el Universo era homogéneo e isótropo a escala global, pero no a escalas intermedias. De hecho, si el Universo hubiese sido perfectamente homogéneo no habría galaxias, ni estrellas, ni vida, ni nosotros para planearnos estas cosas. Las estructuras a gran escala del Universo, como los cúmulos de galaxias, se formaron porque, tal y como nos dicen los mapas del fondo cósmico de microondas, había zonas con mayor y menor densidad de gas primordial en donde la gravedad puedo operar localmente para formar esas estructuras.
Los cosmólogos han asumido hasta hace poco que un tiempo tras el Big Bang los efectos relativistas se podían despreciar, así que en lugar de usar RG han estado usando Mecánica Newtoniana para tratar de reproducir esas estructuras a gran escala con bastante éxito. Pero siempre queda la duda.
Ahora dos técnicas numéricas nuevas han permitido usar RG en la simulación relativista de un Universo que no es homogéneo. Estas técnicas permiten simplificar los cálculos computacionales y hacen posible el uso de la RG en este contexto. Estos resultados permitirán contrastar mejor las observaciones, que son cada día más precisas, con la teoría.
Según algunos cosmólogos como Sabino Matarrese (Universidad de Padua), la homogeneidad del Universo es una invención filosófica y que esta asunción, motivada por la necesidad de calcular y no poder conseguirlo, puede haber llevado a los astrónomos a malinterpretar los datos, incluso hasta el límite de concluir que hay una energía oscura que, quizás, en realidad, no está ahí.
Según Eloisa Bentivegna (Universidad de Catania), en principio, para un Universo inhomogéneo las galaxias distantes pueden aparecer como si tuvieran una velocidad de recesión acelerada, imitando así el efecto de una energía oscura. Pero no todo el mundo está de acuerdo con esta conclusión.
Ahora, y de forma independiente, Marco Bruni (University of Portsmouth) y Glenn Starkman (Case Western Reserve University), con sus respectivos colaboradores, han realizado las primeras simulaciones completas de un Universo inhomogéneo bajo la RG y sin restricciones, pues en otros intentos previos se asumía una homogeneidad a gran escala. Para ello han usado modelos computacionales que corren en supercomputadores.
En estos casos se tiene en cuenta, por ejemplo, cómo el espacio-tiempo es curvado localmente en las zonas de mayor densidad en donde se forman los cúmulos de galaxias. Aunque no reproducen toda la complejidad de un Universo real, esta aproximación promete ser una revolución en el campo.
En el grupo europeo se ha usado una técnica que pone el énfasis en las estructuras sobredensificadas, mientras que en el norteamericano se concentran en cómo el Universo se expande y cómo su curvatura afecta la propagación de la luz, que, al fin y al cabo, es la que porta la información en la realidad y es lo que se mide.
Lo curioso es que estas simulaciones numéricas se basan en técnicas que fueron desarrolladas en su día para calcular numéricamente la curvatura del espacio alrededor de dos agujeros negros orbitando el uno al otro y emitiendo ondas gravitacionales. Los resultados obtenidos en su día con estas técnicas permitieron identificar los eventos detectados por LIGO recientemente. Según sostienen algunos expertos del campo, quizá se necesiten dos décadas de trabajo para desarrollar todo el potencial de este tipo de técnicas numéricas.
Se cree que se necesita aumentar las predicciones teóricas para poder así interpretar bien las observaciones que proporcionarán las nuevas grandes instalaciones, como las del Square Kilometer Array de Australia y Sudáfrica.
Ambos equipos dicen que en el futuro aumentarán la sofisticación de sus modelos hasta llegar a un detalle que pueda ser comprobado con observaciones reales.
Una de las preguntas que se podrían contestar es sí la formación de regiones de mayor densidad de materia (y la consecuente formación de galaxias) tuvo efectos sobre la expansión general del Universo. Esto parece que es algo que se podrá comprobar en la nueva generación de observatorios, independientemente de que sean necesarios o no estos nuevos modelos.
Algunos cálculos sostienen que el efecto será prácticamente despreciable y el hecho de que la materia se concentre en ciertas regiones no tendrá efecto sobre la expansión general del Universo.
Aunque siempre hay que comprobar experimentalmente todo esto, muchos científicos del campo esperan que al final se mantengan las predicciones del modelo estándar (homogéneo) del Universo y que la energía oscura siga estando todavía ahí, como el dinosaurio del microcuento.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=4972

No hay comentarios:

Publicar un comentario

Nota: solo los miembros de este blog pueden publicar comentarios.