viernes, 31 de octubre de 2014

Demuestran la teoría estándar sobre la memoria episódica

Consiguen demostrar cómo el hipocampo y el córtex se coordinan a la hora de recuperar recuerdos usando técnicas optogenéticas.
Foto
No es la primera vez que en estas páginas de NeoFronteras hemos visto resultados sobre el borrado de memoria. Ahora, un grupo de investigadores de la Universidad de California en Davis ha conseguido hacer esto mismo en ratones usando luz. El objetivo es saber cómo las diferentes partes del cerebro cooperan para formar y recuperar recuerdos de la memoria episódica.
La memoria episódica es en la que se almacenan los recuerdos de lugares y eventos específicos. 
Se ha teorizado que la recuperación de recuerdos de la memoria necesita de la actividad coordinada entre el córtex y el hipocampo. El aprendizaje requeriría el procesamiento de información en el córtex y el hipocampo reproduciría estos patrones de actividad cuando se recuerda, lo que permitiría experimentar de nuevo un evento. De este modo, si se daña el hipocampo entonces el paciente puede perder décadas de memoria. Pero la demostración de esta teoría ha sido difícil hasta ahora, que es cuando se ha desarrollado la Optogenética, técnica que permite la manipulación y el estudio de los nervios usando luz. Esta técnica se ha convertido ya en un estándar en este campo.
Los investigadores implicados modificaron genéticamente unos ratones para que cuando las neuronas estuvieran activas a la vez emitieran una fluorescencia verde y expresaran un proteína que permitía a las células ser apagadas usando luz.
Foto
Durante el acto de recordar neuronas del hipocampo se conectan con neuronas del córtex. Fuente: Kazumasa Tanaka and Brian Wiltgen/UC Davis..
De este modo, esto permitía saber exactamente qué neuronas del córtex o del hipocampo se activaban durante el aprendizaje o cuando se recordaba algo. Se podía usar una fibra óptica para iluminarlas directamente luz de manera específica y que así dejaran de estar activas.
Así que entrenaron a los ratones para que tuvieran miedo a una caja en donde se les administraba una pequeña descarga eléctrica. Así, al cabo de un tiempo, cuando se ponía los ratones de nuevo en la caja se quedaban paralizados por el miedo, aunque no hubiera descarga.
Pudieron comprobar que las neuronas que estaban activas durante el aprendizaje se activaban de nuevo durante el acto de recordar y consiguieron seguir las conexiones entre las neuronas del hipocampo y las del córtex. Además fueron capaces de demostrar que apagando otras neuronas del hipocampo que no fueran las anteriores los ratones no olvidaban el recuerdo de miedo inducido en el pasado.
Además de todo esto, los investigadores implicados pudieron ver cómo células específicas del córtex se conectaban a la amígdala, que es una región cerebral responsable de las emociones y de la generación de paralización frente al miedo.
El resultado es la primera prueba directa de que el córtex no puede por sí solo recuperar los recuerdos, sino que necesita la ayuda del hipocampo, algo que se había asumido en el campo hace tiempo.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=4520

Estado actual de la Filosofía Cosmológica

Repaso a las cuestiones más importantes de la Filosofía de la Cosmológica
Foto
A raíz del congreso celebrado hace poco en Tenerife, Sean Carroll ha propuesto recientemente en su blog las cuestiones más importantes de la Filosofía de la Cosmología en la actualidad. Son problemas aún abiertos y puede que alguno de ellos se quede así por mucho tiempo o incluso para siempre, pero determinan el modo en el que los físicos crean modelos cosmológicos. 
Parece interesante repasar la lista, así que lo haremos tratando de ser los más divulgativos posibles.

¿Está el Universo sintonizado de manera fina?
Las leyes de la Física dependen de varios parámetros que parecen tener valores determinados. El cambio de valor en alguno de esos parámetros parece que da al traste con el Universo tal y como lo conocemos y con lo que llamamos vida. Así por ejemplo, si se dan cambios en los parámetros de la fuerza nuclear débil no tenemos elementos químicos pesados al no haber reacciones de fusión. Pero es aún más dramático el cambio en las condiciones del vacío cuántico. Si, por ejemplo, la energía oscura fuera más potente el Universo se hubiera expandido rápidamente y no se hubieran las galaxias y estrellas. Cuestiones similares se dan para el campo de Higgs y otras cuestiones.
También hay estudios que señalan que unos cambios pueden ser compensados con otros y que se necesitan cambios grandes unilaterales para que el Universo pase a ser algo irreconocible. El caso es que no se sabe el alcance de esta sintonización [1].
Los físicos se dividen filosóficamente en dos. Los primeros son los “naturalistas”, que creen que hay procesos aún por descubrir que explican por qué los valores son los que son y no otros. Los demás creen que hay un multiverso inmensamente grande (y en su mayoría aburrido) en donde se dan todas las posibilidades y que nos ha tocado un universo en el que los valores de los parámetros obtenidos al azar han dado lugar a un universo interesante en donde aparece la vida y seres que se plantean estas cosas rodeados de un desierto de universos sin vida.

¿Cómo está relacionada la flecha del tiempo con el estado del Universo durante el Big Bang?
Como ya sabemos todos, las leyes de la Física que los humanos enunciamos son reversibles en el tiempo, pero la Naturaleza no lo es. Los huevos rotos no se cohesionan de nuevo, el agua evaporada no vuelve por sí sola al recipiente que la contenía, etc. El crecimiento de la entropía (desorden) parece indicar que el tiempo siempre avanza del pasado al futuro y es imposible retroceder en sentido contrario. Es lo que llamamos “flecha del tiempo” [2], [3]. La expansión del Universo parece que también está ligada a este sentido del tiempo. La flecha del tiempo parece estar ligada además al concepto de causalidad. Sin esta flecha no parece posible que se pueda mantener un sistema de causa-efecto.
En la interpretación habitual de la Mecánica Cuántica el proceso de medida colapsa la función de ondas de manera irreversible. Así que, ¿está además ligada al proceso de medida cuántica?
Pero si hay una flecha del tiempo, ¿cuándo quedó definida? Lo más lógico es pensar que quedo definida en algún momento durante el Big Bang. En ese momento el Universo tenía una entropía muy baja y desde entonces la entropía total no ha parado de crecer. Como no sabemos la naturaleza real del tiempo ni tenemos una teoría cuántica de gravedad (que explique la microestructura del espacio-tiempo) no sabemos si se puede explicar la génesis de la flecha del tiempo a través de algún tipo de proceso dinámico que a partir de unos microestados desconocidos proporcione los macroestados que medimos. Incluso quizás la explicación de la flecha del tiempo se pueda hacer fuera del marco de una teoría cuántica de gravedad.
¿Cuál es el papel apropiado del principio antrópico?
El principio antrópico establece que cualquier teoría sobre el Universo tiene que ser consistente con la existencia del ser humano. El Universo tiene una serie de propiedades que determinan nuestra existencia, luego entonces dichas condiciones se verifican al existir nosotros. Los intentos de usar este principio han llevado a una gran polémica y controversia entre los cosmólogos [4].
Para unos es un simple “pleonasmo”. Nosotros hemos aparecido y evolucionado en un universo con ciertas condiciones, así que es natural que las leyes físicas nos parezcan naturales y apropiadas para nosotros. Es el Universo el que genera a los humanos y no los humanos los que generan el Universo.
Pese a todo, algunos usan este principio para hacer ciertas predicciones. El problema es cómo son los “humanos” o “alienígenas”que observan el Universo.
Si tal principio se puede usar para realizar predicciones entonces, ¿cómo tenemos que definir apropiadamente la clase de observadores? Si tal clase existe, ¿qué nos hace pensar que pertenecemos a esa clase? ¿La predicción de la existencia de entes como los cerebros de Boltzmann [5],[6] sirve como prueba en contra de un escenario cosmológico?
¿Qué partes del reino de lo inobservable deberían jugar un papel en los modelos cosmológicos?
En muchos modelos cosmológicos se asume la existencia de entes u objetos que no se pueden observar: universos bolsillos, universos bebé, ramificaciones de la función de onda del universo, etc. Esto deriva en un multiverso que está, generalmente, fuera de toda experimentación [7]. Así que es legítimo preguntarse si esos entes caen fuera de lo que llamamos ciencia al no poder ser observados. Si algunos modelos los incorporan, ¿cómo debemos da adaptar el método científico para incorporar el concepto de falsabilidad?
Algunos físicos sugieren que si se propone un modelo cosmológico que incorpore el multiverso y este predice ciertas propiedades observables en nuestro universo entonces y estas se encuentran, entonces es una prueba a favor del modelo. Esto es típico de modelos como el inflacionario, que parecen predecir un multiverso y ciertas pruebas empíricas predichas que parecen observarse (a la espera de refutar o confirmar los modos-B [8], [9]). Entonces, ¿cómo de seguros podemos estar sobre los escenarios propuestos para el Big Bang que incluyen inflación? ¿Cómo podemos evaluar bajo el punto del método científico estos modelos? ¿Podemos afirmar que existen esos otros universos aunque jamás tengamos pruebas directas de ellos?

¿Cómo es el estado cuántico del Universo y cómo evoluciona?
El problema en este punto es que no tenemos una teoría cuántica de la gravedad y, por tanto, no podemos formular a nivel cuántico el Universo. Tampoco sabemos qué aspectos de la interpretación de la Mecánica Cuántica afectan a una modelización cuántica del Universo en su conjunto. Así por ejemplo, ¿se dan los mundos múltiples de Everett? Si es así aparece de nuevo el multiverso [10].
¿Bajo qué condiciones las diferentes partes del estado cuántico son reales en el sentido de que los observadores que hay dentro las tengan en cuenta? Es decir, ciertos conceptos cuánticos pueden ser un simple mecanismo de cálculo para los humanos que creamos la teoría, pero que no tendrían correspondencia con un observable en el mundo real [11].
¿Qué papel juegan la decoherencia y la probabilidad cuántica en la evolución cosmológica? ¿Cómo aparece el comportamiento clásico del Cosmos que vemos a partir de su estado su cuántico?

¿Son el espacio y el tiempo fundamentales o son propiedades emergentes?
El espacio y el tiempo (sean absolutos o relativos) son las últimas referencias sobre las que se asientas las teorías físicas. Hasta ahora se les ha considerado como entes fundamentales que tienen existencia propia, pero podrían ser propiedades emergentes que están en el todo y que no están en cada una de las partes constituyentes. De este modo, por debajo habría otros entes cuya interacción dan lugar a lo que llamamos espacio-tiempo [12],[13],[14],[15].
Se cree que una buena teoría cuántica de gravedad debe de cuantizar el espacio-tiempo y que hay algo así como cuantos de espacio y tiempo que juegan el papel de agentes que, al interaccionar entre sí, crean a la escala macroscópica lo que percibimos como espacio y tiempo. ¿Cuáles serían los grados de libertad de estos entes?
La Mecánica Cuántica se define en un “espacio” abstracto matemático que se denomina espacio de Hilbert, ¿se puede tener un espacio de Hilbert bien definido para la función de onda del Universo? ¿Es la evolución del tiempo fundamental o el tiempo emerge de correlaciones dentro de un estado estático? Algunos físicos creen que el tiempo podría ser, de todos, modos fundamental.
¿Cuál es el papel del infinito en Cosmología?
La pregunta que primero nos viene a la mente es si es posible que el Universo sea infinitamente grande en tamaño (el Universo observable siempre es finito) y si podemos distinguir entre infinito y algo realmente muy grande. En los modelos cosmológicos se asume un universo infinito o ilimitado desde el punto de vista geométrico del espacio. Además, en Relatividad General se considera una esfera de universo, que puede ser tan arbitrariamente grande como se desee, para hacer las predicciones, pero no se hacen cálculos para un radio infinito de esfera de universo. ¿Un universo infinito implica un universo relleno infinitamente y en todo momento de materia?
Por último, ¿puede explicarse la existencia de la flecha del tiempo si el Universo tiene una infinidad de espacio en el que evolucionar? Al fin y al cabo, la flecha del tiempo parece estar conectada con la expansión del Universo.
¿Puede el Universo tener un comienzo o puede ser eterno?
En los modelos cíclicos el Universo es eterno y ha existido siempre. Esta idea aparece una y otra vez en Cosmología una vez que los modelos cíclicos previos son refutados por las observaciones. En el modelo más sencillo hay una única flecha del tiempo que viene del infinito pasado y se prolonga en el futuro infinito. Puede ser un universo que recolapsa (por una energía oscura que cambia de signo) y rebota en otro Big Bang [16]
u otra suerte de renacimiento a través, quizás, de la caída a otro estado de vacío cuántico. En todo caso, estos modelos deben explicar el estado de baja entropía de lo que llamamos Big Bang.
También podría darse un universo simétrico en el tiempo, con dos sentidos opuestos en la flecha del tiempo y centrado alrededor de un punto de baja entropía (el Big Bang).
Puede que el Universo tenga un principio, entonces, ese primer momento, ¿requiere de una causa o de una explicación más profunda? ¿Por qué hay algo en lugar de nada? [17]
¿Cómo se aplican las leyes físicas y la causalidad al Universo en su conjunto?
Recientemente se ha propuesto que las leyes físicas podrían cambiar o evolucionar en el tiempo. Se ha propuesto incluso un escenario de multiverso regenerativo sobre un tiempo fundamental y no emergente en el que hay cierta evolución darwiniana por la que ciertos universos se ven favorecidos para su “reproducción” más que otros [18]. Si es así, ¿qué aspecto se selecciona?, ¿su simplicidad, su bondad, su interés, su fecundidad? Si es así, entonces el Universo quizás no sea completo en sí mismo, ¿requiere de factores externos para mantenerlo?
Bajo este prisma, las leyes de la física no habría que entenderlas como entidades que gobernarían el Universo, sino como un conjunto compacto que representan un gran número de hechos. ¿Requieren las leyes físicas de una explicación definitiva o simplemente son?

¿Cómo surgen y evolucionan el orden y las estructuras complejas?
¿Es la complejidad un fenómeno transitorio o depende de la generación de entropía? ¿Estos principios generales gobiernan la complejidad física, biológica o psicológica? ¿Es la aparición de vida algo probable o inevitable? ¿Qué papel juega la consciencia en el Universo?
Copyleft: atribuir con enlace a http://neofronteras.com/?p=4521

¿Nuevo diseño de reactor de fusión?

La compañía Lockheed Martin dice que podrá tener un reactor de fusión comercial de 100 Mw de potencia en 10 años.
Foto
La compañía Lockheed Martin ha declarado recientemente que va a desarrollar un nuevo tipo de reactor de fusión nuclear por confinamiento magnético mucho más pequeño, compacto y eficiente que los tokamaks. 
La idea es la de siempre: mantener un plasma hidrógeno muy caliente en donde se den reacciones fusión nuclear. Como la temperatura necesaria para esto es enorme (100 millones de grados), no se puede construir un contenedor para el plasma hecho de material normal y, en su lugar, se usa una “botella” magnética.
Para crear esta botella normalmente se usan campos magnéticos de forma toroidal, es decir, en forma de rosquilla. Es lo que se llama una configuración de tipo tokamak. Lo malo es que el plasma es inestable en el seno de este tipo de sistema y, al cabo de poco tiempo, toca la pared de la vasija, se contamina, se enfría y se detienen las reacciones de fusión en su seno (si las hay). Para prolongar este tiempo se hacen tokamaks cada vez más grandes. El tokamak del ITER por ejemplo pesará 23.000 toneladas y volumen de plasma será de 840 metros cúbicos. ITER es una prueba de concepto de fusión nuclear no comercial (no generará energía neta) en la que participan muchos países debido a su elevado coste (20.000 millones de dólares en principio).
Pero Lockheed Martin dice poder conseguir algo mejor con menos dinero, de una forma más limpia y antes gracias a un nuevo diseño de botella magnética. Además, según la compañía, sería mucho más compacto, una décima parte que el ITER. Dicen que en 5 años pueden conseguir el primer diseño en funcionamiento que mantendría el plasma confinado una decena de segundos. En otros 5 años dice que se podría construir un prototipo comercial que rindiera 100 MW de potencia. Un reactor de este tipo que quepa en un camión podría abastecer de corriente eléctrica a una ciudad de 100.000 habitantes a un precio inferior al del carbón.

Incluso alguno de sus promotores sueñan con poner un reactor de fusión de este tipo en los aviones de un futuro cuando los combustibles fósiles se agoten, lo cual suena un tanto insensato o, simplemente, es la forma para que una compañía que normalmente construye aviones militares se meta en este tipo cosas.
La configuración de este reactor consiste en un sistema magnético diferente al del tokamak que no pasan por el centro del sistema (por el “agujero” de la “rosquilla”). La inexistencia de este hueco material permite reducir los problemas de calentamiento del sistema y de contaminación del plasma a la vez que simplifica la arquitectura.
No se saben muchos detalles. Lockheed Martin afirma haber reunido los mejor de varias tecnologías en esto, pero lo mostrado se parece a la configuración de geometría cusp o “picket fence” a la que se le añaden espejos magnéticos en los extremos, al menos según un patente al respecto. En un sistema picket fence el plasma es confinado a lo largo de un eje que va por el centro de un sistema de anillos y los electroimanes producen un campo que se ensancha en la parte central. La idea es que si una partícula cargada del plasma del eje se mueve hacia afuera siente una fuerza ejercida por el campo que la empuja hacia adentro. Se supone que esto hace que el plasma sea más estable. Este diseño se inventó en los años cincuenta del pasado siglo. Los intentos de realizarlo se abandonaron debido a las pérdidas de plasma de los prototipos de electroimanes normales de aquel entonces. Se supone que el uso electroimanes superconductores mejoría este sistema al proporcionar campos magnéticos más intensos. Además, al añadir espejos magnéticos en los extremos se minimizarían las fugas a lo largo del eje. El diseño de los espejos magnéticos es también antiguo y el que escribe recuerda haberlo visto en un Scientific American hace más de 20 años.
Quizás sea demasiado bueno para ser verdad. La realidad es que Lockheed Martin ha proporcionado poca información técnica al respecto y los expertos del campo no pueden evaluar la propuesta de manera justa. No hay artículo publicado en revista internacional ni nada por el estilo, de momento, sólo una promesa al respecto.
La comunidad científica internacional se muestra escéptica sobre el éxito de la propuesta.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=4524

Interpretación de los mundos múltiples interactuantes

Proponen una nueva interpretación de la Mecánica Cuántica según la cual el comportamiento del mundo cuántico podría ser el resultado de interacciones entre muchos universos clásicos paralelos.
Foto
Un problema aún sin resolver en Física Teórica, de lo varios que hay, es la interpretación de la Mecánica Cuántica (MC). Esta rama de la Física ha cosechado muchísimos éxitos y permite, por ejemplo, predecir los espectros de los elementos. Sin embargo, hay varios aspectos de ella que son un tanto confusos.
El aspecto confuso más conocido es el asunto de la medición. Un sistema cuántico puede estar en varios estados a la vez que evolucionan de manera determinista y conjuntamente y siguen así mientras que no produzca ninguna alteración procedente del “exterior”. Pero este sistema colapsa a un estado en concreto cuando se efectúa una medición. Lo malo es que no se puede predecir cuál será ese estado tras la medición. 
Llevado a un extremo de aplicarse a objetos macroscópicos podemos llegar al absurdo de que el gato de Schrödinger está vivo y muerto a la vez y que sólo colapsa a uno de los estados al abrir la caja. Es lo que se ha llamado el problema de la medida. Claro que todo depende de la interpretación que se considere.
Hay varias interpretaciones de la MC y todas ellas dan lugar a los mismos números y a los mismos resultados experimentales, que se sepa hasta ahora. Son, básicamente, posturas filosóficas. Entre ellas está la interpretación estadística, la interpretación de Copenhague, la onda piloto de Bohm, la de los mundos múltiples de Everett, etc.
La última mencionada es cuanto menos curiosa, pues postula que en cada mediación (y aquí consideramos medición a casi cualquier cosa) el universo se escinde en varios universos, uno para cada posible estado después del colapso. Es decir, cada medida “desdobla” nuestro universo en una serie de posibilidades. En uno de ellos el gato está muerto y en el otro sigue vivo, por ejemplo.
Trabajar en este tema es una tanto pantanoso, pero, aún así, algún físico se atreve de vez en cuando a aportar una nueva interpretación. Es lo que han hecho ahora Howard Wiseman (Griffith University) junto a Michael J. W. Hall (Griffith University) y Dirk-Andre Deckert (University of California Davis). Según ellos el comportamiento del mundo cuántico podría ser el resultado de interacciones entre muchos universos clásicos paralelos sin necesidad de ninguna función de ondas.
Obsérvese que no es lo mismo que se mantiene en la interpretación de mundos múltiples de Everett. No se trata de la generación de nuevos universos, sino de la preexistencia de esos universos paralelos. Además, en la interpretación de Everett no hay interacción entre los universo, que se separan tras la medición sin influirse entre sí.
En esta nueva interpretación, que se puede denominar de los mundos múltiples interactuantes, cada mundo es clásico (sigue el marco newtoniano), pero interactúan entre sí para producir fenómenos que normalmente se atribuyen al mundo cuántico.
Aquí “mundo” significa un universo completo con propiedades bien definidas determinadas por la configuración clásica de sus partículas y campos. Cada mundo evoluciona determinísticamente y las probabilidades surgen debido a la ignorancia de los observadores que ocupan cada mundo.
En el límite en el que hay una infinidad de mundos múltiples de este tipo se recuperaría la función de ondas como un objeto secundario a partir del movimiento de estos mundos.
Lo primero que consiguen estos investigadores es calcular el estado fundamental de un sistema mediante este formulismo. Otro fenómeno cuántico típico es el del efecto túnel. Desde el punto de vista clásico, un objeto con una energía menor a la que tiene una barrera de energía potencial no puede cruzar esa barrera. En MC y en los experimentos se observa que hay una probabilidad no nula de que esa partícula cruce la barrera. Según la nueva interpretación, un mundo se aproxima con una partícula por un lado de la barrera y otra por el otro en otro mundo. En un caso se aumentará la velocidad y en otro rebotará sobre la barrera. Al observar el fenómeno se interpreta que es la primera partícula la que ha atravesado la barrera.
El experimento de la doble rendija también puede explicarse mediante esta interpretación. En su trabajo, estos físicos son capaces de reproducir el patrón de interferencia del fenómeno usando 41 mundos interactuantes.
Otro fenómeno que han explicado con esta interpretación es la llamada acción a distancia, fenómeno mediante el cual dos partículas entrelazadas que se encuentran a gran distancia tienen sus colapsos correlacionados en lo que aparenta una acción a mayor velocidad que la luz. También reproducen el teorema de Ehrenfest, la dispersión del paquete de ondas (en la ilustración de cabecera) y la energía de punto cero.
Pero, de todos modos, resta por hacer más trabajo sobre el tema. Estos físicos esperan reclutar más colaboradores para seguir explorando esta idea. Entre otras cosas por solventar está determinar qué clase de “fuerzas” obligan a esos mundos múltiples a interaccionar o si se que requieren condiciones iniciales especiales.
El próximo paso a dar sería encontrar un modo de poner experimentalmente a prueba la nueva interpretación. Esperan que, si esta idea es correcta, haya pequeñas diferencias en las cantidades medidas.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=4530

Las mitocondrias fueron parásitos

Un estudio señala que el proceso de endosimbiosis por el cual unas bacterias pasaron a ser mitocondrias en la célula eucariota fue, al principio, un caso de parasitismo.
Foto
La división más básica de la vida en la Tierra es entre procariotas y eucariotas. Los procariotas son seres unicelulares cuyas células carecen de núcleo diferenciado. Este dominio está constituido por bacterias y arqueas y fueron las primeras formas vida en este planeta. Se cree que todos los seres vivos que existen en la actualidad descienden de una forma unicelular procariota a la que se la denominado LUCA (last universal common ancesto) o último antepasado común universal. Durante miles de millones de años sólo hubo procariotas sobre la Tierra y entonces apareció la célula eucariota a lo largo de un lento proceso por la endosimbiosis seriada que terminaría hace unos 1500 millones de años. 
El proceso de endosimbiosis seriada fue propuesto por Lynn Margulis en diferentes artículos a lo largo de los años sesenta y setenta del pasado siglo. Consiste en la sucesiva incorporación simbiogenética de diferentes bacterias de vida libre (procariotas) dentro de otras células hasta producir los distintos tipos de células eucariotas. Según esta teoría, hubo varias incorporaciones para los casos de las células animales y de los hongos. En la segunda incorporación se incorporó simbióticamente lo que finalmente fueron las mitocondrias y se produjo en un organismo ya nucleado, pero anaeróbico, para dar lugar a los seres aeróbicos capaces de metabolizar oxígeno. Las mitocondrias son las centrales de energía de la célula eucariota y, por tanto, básicas.
Este evento fue fundamental para la historia de la vida en la Tierra, pues sin las mitocondrias para proporcionar energía al resto de la célula no se hubiese producido la gran evolución en biodiversidad que se dio más tarde.
En el caso de las células vegetales se incorporaron también procariotas que finalmente dieron lugar a los cloroplastos. Pero esa es otra historia.
Esta teoría, que al principio no se aceptó, ha terminado siendo la mejor explicación para el origen de los eucariotas, pero todavía se trabaja en los detalles. En este caso vamos a ver un resultado reciente sobre el origen de la mitocondria.
Además la hipótesis endosimbiótica pacífica, también se ha propuesto, alternativamente, que una bacteria parásita fue la que invadió otras células y estas fueron las que, al final, terminaron siendo las mitocondrias.
Independientemente del proceso inicial, según pasó el tiempo, gran parte del genoma de esas bacterias ancestrales se fue perdiendo según los genes del núcleo celular tomaban sus funciones. Pero algunos genes todavía se conservan. Este genoma mitocondrial se hereda solamente por vía materna en los seres pluricelulares. Esta cualidad permite hacer investigación genealógica en la historia evolutiva humana, por ejemplo.
El ADN mitocondrial puede ser secuenciado y comparado con otros genomas. Es precisamente lo que han hecho unos investigadores de University of Virginia. Compararon el ADN mitocondrial con los genomas de 18 tipos distintos de bacterias que se cree que están relacionadas con las mitocondrias.
Los resultados obtenidos apoyan la teoría parasitaria. “Decimos que las teorías actuales, que sostienen que la relación entre la bacteria y la célula anfitriona fue simbiótica y mutuamente beneficiosa, son probablemente erróneas”, afirma Martin Wu.
En su lugar proponen que la relación era antagonista y que, al principio, la bacteria parasitaría la célula anfitriona. Solamente más tarde la relación fue simbiótica, cuando se cambió la dirección del transporte de ATP producido en las mitocondrias hacia la célula anfitriona. El ATP es la molécula de energía de la célula, una suerte de moneda energética.
Estos investigadores han reconstruido el genoma ancestral a partir del actual genoma de las mitocondrias y de los genomas de esas otras 18 bacterias que se cree que están emparentadas con esa bacteria ancestral. Pueden “retropredecir” que aquella bacteria ancestral realmente robaba energía en forma de ATP de la célula anfitriona al comienzo de la relación, hace 2000 millones de años. Esto es precisamente lo contrario de lo que pasó más tarde y pasa ahora.
Aunque este resultado es de ciencia básica no hay que menospreciarlo, pues tiene sus aplicaciones prácticas. Las disfunciones mitocondriales pueden contribuir a la aparición de ciertas enfermedades como el Alzheimer, Parkinson, diabetes y enfermedades ligadas al envejecimiento. En todo caso, es un resultado bello e interesante que tiene valor por sí mismo.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=4528

Cómo detectar vida en exotierra

Un estudio analiza las posibilidades de detectar vida en exotierras en el futuro a través de bioindicadores.
Foto
Aunque todavía no hemos descubierto Tierra II, sí hemos descubierto miles de exoplanetas. Hay esperanzas de que la nueva generación de telescopios pueda descubrir a ese planeta de tipo rocoso similar a la Tierra a la distancia adecuada como para que albergue agua líquida. Pero, ¿se podrá detectar vida en él? 
Un estudio reciente indica que con la próxima generación de telescopios terrestre no podrá determinarse la presencia de vida, pero sí se podrá con alguna misión espacial.
Básicamente, para poder detectar vida tal y como la conocemos se necesita tomar un espectro de la atmósfera del planeta en cuestión para registrar la presencia, además de agua, de ciertos compuestos que indiquen un desequilibrio químico. Así por ejemplo, la presencia de oxígeno libre en gran cantidad junto con sustancias oxidables indicaría que hay un aporte continuo de oxígeno, posiblemente de origen biológico a través de la fotosíntesis.
Puede que haya vida en el planeta y, sin embargo, no haya oxígeno libre en su atmósfera. Eso sucedió en la Tierra hace miles de millones de años. Incluso aunque se detecte oxígeno eso no quiere decir que haya necesariamente vida. Puede haber procesos abióticos que produzcan oxígeno, sobre todo si es en pequeña cantidad, por ejemplo mediante fotólisis del agua.
Hace unos días veíamos en esta misma web cómo se ha podido detectar agua en un planeta gaseoso del estilo de Neptuno. Para ello hubo que restar el espectro de antes y durante el tránsito para sacar la débil señal del vapor de agua. Pero un planeta de tipo rocoso del tamaño de la Tierra es mucho más pequeño en comparación y además tiene una atmósfera fina. La absorción espectral de su atmósfera en comparación con el disco de su estrella es minúscula.
Timothy Brandt y David Spiegel (Instituto de Estudios Avanzados de Princeton) han realizado un estudio sobre las posibilidades de obtener esos débiles espectros en el futuro y qué se necesitaría para ello.
Pese a que dispondremos pronto de telescopios en tierra con una abertura de más de 30 metros, con estos telescopios no se podrán tomar espectros de exotierras. Para poder tomar estos espectros se necesitarán misiones espaciales dedicadas a ello. Ni siquiera el telescopio James Webb podrá realizar esta tarea. Este telescopio, que se espera será lanzado en 2018, podrá tomar espectros de planetas grandes, pero no de exotierras.
Para poder detectar oxígeno y agua en una exotierra lejana será necesario el uso de coronógrafos para así bloquear la luz de la estrella alrededor de la cual gire el planeta.
Además del asunto del agua y el oxígeno, Brandt y Spiegel discuten también la posible detección de clorofila. En la Tierra este pigmento refleja más luz en el infrarrojo que en el visible (es el famoso efecto wood en fotografía), lo que produce un resalte en esa zona del espectro denominado “borde rojo de la clorofila”. Esto es algo que se puede observar en la Tierra. Sin embargo, las “plantas” de otros planetas pueden haber dado con pigmentos que no sean la clorofila para realizar la fotosíntesis, pues esas plantas pueden estar optimizadas para otras zonas del espectro electromagnético u haber encontrado una solución mejor.
Los investigadores analizaron la relación señal/ruido para saber si es posible detectar estos indicadores en los espectros. Una relación de 10 significa que la señal se 10 veces más intensa que el ruido.
Además, han calculado la resolución espectral necesaria para detectar estos biomarcadadores, es decir, la resolución en longitud de onda o frecuencia. Una resolución de 100 significa que las diferencias más pequeñas en longitudes de onda pueden resolverse en una parte entre 100.
Pues bien, para detectar agua (que es lo más fácil) llegan a la conclusión de que basta con una resolución espectral de 20, aunque lo ideal es que sea de 40 a 200. Si se asume una resolución de 150 la razón señal/ruido sólo necesita ser 3 para poder detectar agua.
El oxígeno gaseoso necesita una resolución mínima de 150 y una razón de 6. Observar ozono (que se forma a partir del oxígeno) en el ultravioleta parece ser aún más difícil.
El borde rojo de la clorofila necesita una resolución mínima de sólo 20, pero una razón señal/ruido seis veces superior a la necesaria para el oxígeno. Si la vegetación cubriese un tercio de la superficie del planeta en cuestión, entonces esta señal se podría registrar fácilmente.
Esto indica que una futura misión espacial iría encaminada principalmente a detectar agua y oxígeno, dejando el asunto de la clorofila a un lado, sobre todo por la controversia que genera su hipotética existencia. Tal misión podrían ser ATLAS, pero a estas alturas de diseño, los autores del estudio no se atreven a asegurarlo. La misión ATLAS no está aprobada por la NASA, de aprobarse quizás se lanzase en el periodo 2025-2035.
El éxito también dependería de la distancia que hubiese entre nosotros y esa exotierra. Si estuviera gran distancias las posibilidades se saber si contiene vida se reducirían mucho
Copyleft: atribuir con enlace a http://neofronteras.com/?p=4527

Gran transferencia horizontal de genes

Ha habido una gran transferencia horizontal de cientos de genes entre bacterias y arqueas en numerosas ocasiones, lo que haría de la THG un mecanismo mucho más importante para la evolución de los microorganismos de lo que se creía hasta ahora.
Foto
La vida en la Tierra se clasifica en tres dominios básicos: arquea, bacteria y eucaria. Las dos primeras son procariotas (sin núcleo diferenciado) y los eucariotas sí tienen núcleo diferenciado y dentro de él estarían los animales, las plantas y los hongos, además de los protistas. 
Aunque a primera vista las arqueas y bacterias pueden parecer similares, la realidad es que son muy distintas, como los análisis genéticos demuestran. Un ser humano tiene más en común con un geranio que una bacteria con una arquea.
Las arqueas son procariotas que muchas veces viven en ambientes extremos en donde la acidez, temperatura u otra propiedad física o química mata a la mayoría de seres vivos, por lo que muchos extremófilos son arqueas. Su nombre se presta a confusión porque da a entender que serían más antiguas o primitivas que las bacterias, pero no es necesariamente así.
Ahora, un grupo internacional de investigadores ha descubierto que ha habido una gran transferencia horizontal de genes entre bacterias y arqueas.
La transferencia vertical de genes es la habitual y es la que ocurre cuando un organismo recibe material genético de sus antepasados, por ejemplo de sus padres. La transferencia horizontal de genes, por el contrario, es un proceso en el que un organismo transfiere material genético a otra célula que no es descendiente suya.
La transferencia horizontal de genes (THG) en seres pluricelulares es escasa, pero se sabe que se da, general entre miembros de una misma especie. A nivel de microorganismos es más común, sobre todo entre bacterias. Es la forma en la cual, por ejemplo, algunas bacterias adquieren resistencia frente a los antibióticos.
Lo que dice este resultado es mucho más interesante, porque no hablamos ya de THG entre miembros de distintas especies, o entre miembros de distinto género, familia, orden, filo o reino, sino entre miembros de distinto dominio.
Las arqueas y bacterias parecen que han intercambiado docenas, sino cientos de genes entre ellas en numerosas ocasiones. Lo que haría de la THG un mecanismo mucho más importante para la evolución de los microorganismos de lo que se creía.
Para poder afirmar esto los investigadores implicados usaron un cluster de ordenadores para analizar computacionalmente 267568 genes codificantes de proteínas de los 134 genomas secuenciados de arqueas y los compararon con 1847 genomas bacterianos.
Encontraron que el origen de 13 grupos de arqueas se correspondía con 2264 adquisiciones procedentes de bacterias. Muchos de estos genes están relacionados con funciones metabólicas. Así por ejemplo, algunas arqueas cuyos antepasados usaban compuestos inorgánicos para generar energía, se pasaron al uso de compuestos orgánicos y a vivir, por tanto, en distintos ambientes, cuando capturaron los genes apropiados.
Uno de los investigadores implicados dice que se sabía que la THG jugaba un papel importante, pero no se imaginaba que fuera responsable de semejante gran parte de la evolución microbiana.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=4526

UN REFLEJO ESPECULAR EN KIVU LACUS ( TITAN ) FOTOGRAFIADO POR LA SONDA CASSINI EL 24 JULIO 2012


Nombre de destino:Titán
Es un satélite de:Saturno
Misión:Cassini-Huygens
Las naves espaciales:Cassini Orbiter
Instrumento:Mapeo Visual e Infrarrojo Espectrómetro
Tamaño del producto:640 x 640 píxeles (ancho x alto)
Producido por:Universidad de Arizona
Full-Res TIFF:PIA18433.tif (1.229 MB)
Full-Res JPEG:PIA18433.jpg (17.58 kB)


Esta imagen en color infrarrojo cercano muestra un reflejo especular, o reflejo solar, fuera de un lago de hidrocarburos denominado Kivu Lacus en la luna de Saturno, Titán.
Lacus Kivu es un lago relativamente pequeño de Titán - unos 48,2 millas (77,5 km) de ancho - situado muy cerca del polo norte de la luna.
La vista fue obtenida durante el sobrevuelo de la Cassini el 24 de julio de 2012, también llamada la "T85" sobrevuelo por el equipo de la Cassini. Esta fue la más intensa reflexión especular que Cassini había visto hasta la fecha.
Cassini vio su primera reflexión especular en Titán el 7 de julio de 2009 (véase PIA12481 ) - esto proporciona confirmación sólida de líquido en el hemisferio norte de la luna. Otro reflejo solar fue visto en Kraken Mare el 21 de agosto del 2014 (ver PIA18432 ).
Las reflexiones especulares sólo se pueden ver cuando la nave espacial Cassini está en el lugar correcto en relación con el sol y el Titán de tal manera que el espejo como reflejo de un lago refleja la luz del sol directamente a la nave espacial. Requieren el sol para estar por encima del horizonte en el lugar del lago, por lo que ninguno fue visible hasta después de equinoccio de primavera del hemisferio norte de Titán en 2009, cuando los mares se iluminó (ver PIA17470 ).
El, área blanca brillante representa el brillo apagado del lago Kivu Lacus. El rosa es especular skyglow --- bruma iluminada desde abajo por la reflexión especular fuera del lago. El color rosa pálido que viene de justo por encima de la reflexión especular se ha sugerido para representar las primeras oleadas visto en Titán, y por lo tanto las primeras ondas de la superficie del mar jamás detectados fuera de la Tierra.
La vista fue obtenida por el instrumento Cassini visible e infrarrojo del espectrómetro (VIMS) a una distancia de 18.600 millas (30.000 kilómetros) de Titán. No es, sin embargo, el mismo color de luz visible que el ojo humano vería. En longitudes de onda visibles, el ojo humano vería un orbe anaranjado nebuloso (ver PIA14913 ), y no sería capaz de ver el reflejo especular, que se esparció por la bruma atmosférica de Titán antes de alcanzar el espacio.
Rojo en la imagen corresponde a una longitud de onda de 5,0 micras, corresponde verdes a 2,8 micras, y azul corresponde a 2,0 micras. La media luna del cielo azul aquí resulta de la dispersión de neblina atmosférica de Titán, que es más intenso en cortas longitudes de onda (más azules). Esta imagen se ha interpolado desde su forma original de píxeles de 64 por 64.
La misión Cassini-Huygens es un proyecto cooperativo de la NASA, la Agencia Espacial Europea y la Agencia Espacial Italiana.JPL, una división del Instituto de Tecnología de Pasadena, California, dirige la misión para el Directorio de Misiones Científicas de la NASA en Washington. El equipo VIMS tiene su base en la Universidad de Arizona en Tucson.
Más información acerca de Cassini está disponible en http://www.nasa.gov/cassini y http://saturn.jpl.nasa.gov .
Crédito de la imagen:
NASA / JPL-Caltech / Universidad de Arizona / Universidad de Idaho

FUENTE

Photojournal: NASA's Image Access Home Page

UN REFLEJO ESPECULAR EN KRAKEN MARE ( TITAN ) FOTOGRAFIADO POR LA SONDA CASSINI EL 21 AGOSTO 2014




Nombre de destino:Titán
Es un satélite de:Saturno
Misión:Cassini-Huygens
Las naves espaciales:Cassini Orbiter
Instrumento:Mapeo Visual e Infrarrojo Espectrómetro
Tamaño del producto:2002 x 2002 píxeles (ancho x alto)
Producido por:Universidad de Arizona
Full-Res TIFF:PIA18432.tif (12.03 MB)
Full-Res JPEG:PIA18432.jpg (127,3 kB)
Este mosaico de color de la nave espacial Cassini de la NASA muestra el sol brillando fuera de los mares polares del norte de Titán. Mientras que Cassini ha capturado, por separado, vistas de los mares polares (ver PIA17470 ) y el sol brillando fuera de ellos (ver PIA12481 y PIA18433 ) en el pasado, esta es la primera vez que ambos han sido vistos juntos en la misma vista.
El reflejo solar, también llamado un reflejo especular, es el área brillante cerca de la posición de las 11 en punto de la parte superior izquierda. Esto como un espejo de reflexión, conocido como el punto de especular, es en el sur del mar más grande de Titán, Kraken Mare, al norte de la isla de un archipiélago que separa dos partes separadas del mar.
Este sunglint particular era tan brillante como para saturar el detector de infrarrojos y Espectrómetro de Mapeo (VIMS) instrumento visual de la Cassini, que captura la imagen. Es también el sunglint visto con la elevación más alta de observación hasta el momento - el sol fue un total de 40 grados sobre el horizonte como se ve desde Kraken Mare en este momento - mucho mayor que los 22 grados visto en PIA18433 . Debido a que era tan brillante, este destello fue visible a través de la neblina en longitudes de onda mucho más bajos que antes, hasta 1,3 micras.
La parte sur de Kraken Mare (la zona que rodea a la función especular hacia arriba a la izquierda) muestra un "anillo de bañera" - un margen brillante de los depósitos se evaporan - lo que indica que el mar era más grande en algún momento en el pasado y se ha convertido en más pequeño debido a la evaporación. Los depósitos son de material que queda después de las de metano y etano líquido se evapora, algo parecido a la corteza salina en un salar.
Los datos de mayor resolución de este sobrevuelo - el área visto inmediatamente a la derecha de la sunglint - cubren el laberinto de canales que conectan Kraken Mare a otro gran mar, Ligeia Mare. Sí Ligeia Mare está parcialmente cubierto en su parte norte por un complejo brillante, en forma de flecha de nubes. Las nubes están hechas de gotitas de metano líquido, y podrían ser reponiendo activamente los lagos con las precipitaciones.
La vista fue obtenida durante la Cassini 21 de agosto 2014, sobrevuelo de Titán, también conocida como "T104" por el equipo de la Cassini.
La vista contiene información de color real, aunque no es el color natural del ojo humano vería. Aquí, rojo en la imagen corresponde a 5,0 micras, verde a 2,0 micras, y azul a 1,3 micras. Estas longitudes de onda corresponden a ventanas atmosféricas a través del cual la superficie de Titán es visible. El ojo humano sin ayuda vería nada más que neblina, como en PIA12528 .
La misión Cassini-Huygens es un proyecto cooperativo de la NASA, la Agencia Espacial Europea y la Agencia Espacial Italiana.JPL, una división del Instituto de Tecnología de Pasadena, California, dirige la misión para el Directorio de Misiones Científicas de la NASA en Washington. El equipo VIMS tiene su base en la Universidad de Arizona en Tucson.
Más información acerca de Cassini está disponible en http://www.nasa.gov/cassini y http://saturn.jpl.nasa.gov .
Crédito de la imagen:
NASA / JPL-Caltech / Universidad de Arizona / Universidad de Idaho

FUENTE

Photojournal: NASA's Image Access Home Page

Por qué las bacterias son casi indestructibles

Diverse_e_Coli

Imagen: Mattosaurus (Wikimedia Commons)



La bacteria Escherichia coli está programada para sobrevivir a las agresiones. El equipo liderado por Elise Darmon, de la Universidad de Edimburgo, acaba de desentrañar los mecanismos genéticos que permiten a este tipo de microorganismos sobreponerse a todo tipo de ataques externos, incluida nuestra respuesta inmunitaria para combatir la infección. 





Escrito por Aberrón

FUENTE
Por qué las bacterias son casi indestructibles

Fogonazos

Se confirma la existencia de una población de cuásares "tranquilos"

Instituto de Astrofísica de Andalucía/CSIC
Cuásares fotografiados por el telescopio espacial Hubble. Fuente: J. Bahcall (IAS, Princeton), M. Disney (Univ. Wales), NASA
Cuásares fotografiados por el telescopio espacial Hubble. Crédito: J. Bahcall (IAS, Princeton), M. Disney (Univ. Wales), NASA

Los cuásares, objetos muy lejanos y tremendamente energéticos, parecen mostrar una evolución con respecto a la distancia ya que, según nos alejamos, los cuásares poco luminosos de nuestro entorno van dejando paso a objetos cada vez más brillantes. Esto podría deberse a un proceso evolutivo, que indicaría que los cuásares se apagan con el tiempo, o a un simple sesgo observacional que enmascarara otra realidad: los cuásares monstruosos y de rápida evolución, muchos ya extintos, conviven con una población tranquila que evoluciona a un ritmo mucho más pausado pero que, debido a las limitaciones tecnológicas, aún no hemos sido capaces de investigar.
 Gracias a la resolución del Gran Telescopio Canarias, Jack W. Sulentic, astrónomo del Instituto de Astrofísica de Andalucía (IAA-CSIC), y su equipo han podido obtener por primera vez datos espectroscópicos de cuásares distantes y poco luminosos con la calidad necesaria para poder determinar sus parámetros esenciales, como su composición química, la masa del agujero negro central o el ritmo al que este va absorbiendo materia.

"Hemos podido confirmar que, en efecto, además de los cuásares muy energéticos y de evolución rápida, existe una población de desarrollo lento. Tanto, que no parece existir una fuerte evolución entre los cuásares de este tipo que vemos en nuestro entorno y aquellos que comenzaron a brillar hace más de diez mil millones de años", apunta Ascensión del Olmo, investigadora del IAA-CSIC que participa en el estudio.

Sí que han hallado, no obstante, una diferencia dentro de esta población de cuásares tranquilos. "Los cuásares locales muestran una mayor proporción de elementos pesados, como aluminio, hierro o magnesio, que sus análogos distantes, lo que evidencia un enriquecimiento producido por el nacimiento y muerte de las sucesivas generaciones de estrellas", destaca Sulentic. "Este resultado constituye un excelente ejemplo de las nuevas ventanas al universo que está proporcionando la nueva clase de grandes telescopios como GTC", concluye el investigador.

FUENTE

NOTICIAS DEL COSMOS

LA CUENCA ATLANTIS

Chaos in Atlantis basin

LA CUENCA ATLANTIS

Marte está acribillado de cráteres. Los científicos calculan que el Planeta Rojo recibe el impacto de unos 200 meteoroides cada año.
Aunque la mayoría de sus pequeños cráteres son bastante recientes, Marte cuenta con un gran número de cráteres antiguos y de gran tamaño, tales como la región vagamente circular que se puede ver en el centro de esta imagen, conocida como la Cuenca Atlantis. Este cráter es tan antiguo que su borde exterior ha sido borrado por la erosión. Se piensa que se formó hace unos 4.000 millones de años, durante el ‘bombardeo intenso tardío’ – un periodo en el que los planetas rocosos del Sistema Solar interior fueron acribillados por un número inusualmente alto de asteroides. 
La Cuenca Atlantis se encuentra en las tierras altas del sur de Marte. En esta región del planeta se pueden encontrar muchas estructuras y formaciones geológicas diferentes, como las que se pueden ver en esta imagen: acantilados, cráteres de impacto, canales tallados en grandes pendientes, crestas y escarpes. 
Quizás la formación que más llame la atención sea el terreno desigual que ocupa el centro de esta imagen. Se trata deAtlantis Chaos, una planicie baja que cubre un área de unos 170 kilómetros de largo y 145 km de ancho, que contiene varios cientos de pequeñas colinas con la cima plana, conocidas como ‘mesas’. Se piensa que estos montículos de color pardo son el resultado de la lenta erosión de una meseta antaño lisa y plana. 
En esta zona de Marte hay varias cuencas de gran tamaño que parecen estar parcialmente conectadas. Los geólogos piensan que podrían haber estado llenas de agua en algún momento de la historia del Planeta Rojo, formando el gran lago Eridana, una hipotética masa de agua con una extensión de más de un millón de kilómetros cuadrados, el equivalente a los territorios de España y Francia. 
Varias misiones espaciales, entre las que destaca Mars Express, han encontrado pruebas de que estas cuencas contienen minerales que sólo se forman en presencia de agua, similares a los presentes en ciertos tipos de arcillas aquí en la Tierra. Estos minerales y los profundos canales tallados en las laderas de la cuenca, como los que se pueden ver en la parte inferior de esta imagen, sugieren que el agua estuvo presente en la Cuenca Atlantis y en sus alrededores. 
Este mosaico está compuesto por cuatro imágenes tomadas por la Cámara Estéreo de Alta Resolución de Mars Express los días 28 de diciembre de 2008, 29 de diciembre de 2008, 6 de febrero de 2009 y 5 de enero de 2014. La resolución es de 14 metros por píxel. 
Esta imagen fue publicada por primera vez el 12 de junio de 2014 en la página del Centro Aeroespacial Alemán DLR.
FUENTE