Vistas de página en total

viernes, 8 de junio de 2012

La Tierra necesita un plan de emergencia

A lo largo de la historia, la Tierra ha vivido cinco grandes episodios de extinciones masivas asociados a cambios climáticos que han modificado las características de todo el planeta. Un artículo en la revista Nature, en el que han participado investigadores del Consejo Superior de Investigaciones Científicas (CSIC), analiza las fuerzas que “pueden estar dirigiendo” un nuevo cambio en el estado planetario y aporta posibles herramientas para minimizar sus consecuencias.
Las épocas de transición que la Tierra ha experimentado a lo largo de su historia representan sólo un 5%. El resto del tiempo se ha mantenido estable. El último gran cambio tuvo lugar hace unos 14.000 años, cuando el 30% de la superficie terrestre perdió la capa de hielo que la cubrió durante el último periodo glacial. La última edad de hielo había durado unos 100.000 años, mientras que el periodo de transición se alargó poco más de tres milenios. Desde entonces, el planeta ha mantenido unas características más o menos estables hasta la aparición y el desarrollo de la civilización humana.

El investigador de la Estación Biológica de Doñana Jordi Bascompte, que ha participado en el trabajo, afirma que “los humanos estamos provocando cambios que podrían llevar a un nuevo estado planetario; estos cambios parecen involucrar alteraciones en la química de la atmósfera y los océanos, y grandes trastornos en los flujos de energía desde el principio hasta el final de la cadena alimentaria”.

La investigación destaca que la humanidad, por tanto, es la principal promotora de las circunstancias que están motivando este cambio del estado planetario. El incremento de la población está asociado a un mayor consumo de recursos y energía, y a la transformación y fragmentación del paisaje que alteran las condiciones atmosféricas, oceánicas y terrestres que, a su vez, amenaza la supervivencia de la
biodiversidad actual.

La humanidad crece


La tasa de crecimiento anual de la población es de unos 77 millones de personas, casi 1.000 veces superior que la experimentada hace entre 10.000 años y 400 años, cuando se situaba en unas 67.000 personas. El estudio destaca que el incremento de la población ha traído consigo la transformación del 43% de la superficie terrestre en áreas urbanas y agrícolas. Del mismo modo, los humanos controlan el uso de hasta el 40% de la producción primaria mundial, lo que limita el acceso de otras especies a este recurso. A su vez, el consumo de combustibles fósiles ha supuesto un aumento de la concentración de CO2 atmosférico de un 35% y ha provocado un descenso del 0,05 en el pH oceánico.

El impacto del conjunto de alteraciones que está sufriendo el planeta es mayor que la suma individual de cada una de esas alteraciones. El también investigador de la Estación Biológica de Doñana del CSIC y colaborador del trabajo Eloy Revilla considera que “si estos impactos directos superan el 50%, incluso las áreas inalteradas del planeta sufrirán las consecuencias”. Según el artículo, “si la tasa de incremento de la población se mantiene y también lo hace el nivel de consumo de recursos, este porcentaje será alcanzado hacia 2025 y llegará al 55% en 2045”.

Minimizar los impactos


Lo que sucederá cuando se llegue a tales niveles de impacto es todavía incierto, pero Revilla opina que “esos porcentajes deberían preocuparnos muy seriamente”. No obstante, se intuyen algunas consecuencias como la pérdida de servicios ambientales. El artículo señala aspectos como una pérdida de productividad en las tierras de cultivo, una menor capacidad de almacenamiento de CO2 y el colapso del stock pesquero.

Para minimizar estos posibles impactos y no superar la barrera de impacto del 50%, el artículo propone las siguientes medidas: reducir la tasa de crecimiento anual de la población y su consumo de recursos asociado, sustituir el mayor nivel energético posible por
fuentes renovables, aumentar la eficiencia en la producción de alimentos y mejorar la gestión de las zonas de la Tierra que aún no han sido dominadas por humanos. Según el artículo, la humanidad está en una encrucijada crítica en la que debe decidir si quiere guiar los cambios del planeta o simplemente dejar que las cosas sucedan.

¿Por qué desaparecieron los insectos gigantes?

Imagina un mundo poblado por libélulas gigantes con envergaduras de hasta 70 centímetros. No es ciencia ficción. Hace unos 300 millones de años, a finales del periodo Carbonífero y principios del Pérmico, los insectos alcanzaron sus mayores tallas. Un equipo de científicos de la Universidad de California en Santa Cruz (EEUU) ha estudiado a estos gigantes a través del registro fósil y propone que fue la evolución de las primeras aves el factor decisivo en la disminución de tamaño que sufrieron los insectos posteriormente.

Las teorías actuales atribuyen el empequeñecimiento de estos animales a una disminución en el oxígeno atmosférico, que en aquella época era del 30 por ciento, frente al 21 por ciento actual. El nuevo estudio, publicado en PNAS, recopila datos de 10.500 fósiles de insectos y los relaciona con los niveles de
oxígeno de cada época. Los resultados revelan algunas contradicciones, como indica Matthew Clapham, uno de los autores: "El tamaño de los insectos prehistóricos se relaciona con la cantidad de oxígeno existente en un período de 200 millones de años. Después, al final del Jurásico y principios del periodo Cretácico, hace unos 150 millones de años, el oxígeno aumentó pero el tamaño del insecto disminuyó".

Por otro lado, los científicos comprobaron que este momento coincidió con una mayor especialización de las
aves. Esta pudo ser, según los investigadores, una importante fuerza evolutiva hacia una disminución en el tamaño de los insectos voladores, que necesitaban una mayor capacidad de maniobra para escapar de los nuevos depredadores.
Sin embargo, los autores destacan la dificultad de extraer conclusiones relevantes, ya que existe un vacío de 20 millones en el registro
fósil de los insectos que hace muy difícil de detectar el momento exacto en el que se produjo el cambio de tamaño.

Secuencian el genoma de un bebé no nacido

Un equipo de científicos de la Universidad de Washington (EEUU) ha conseguido secuenciar el genoma casi completo de un bebé no nacido a partir de sangre materna y de saliva del padre. Esta técnica no invasiva no supone ningún daño para el bebé y permitirá predecir posibles enfermedades antes del nacimiento del niño.

Actualmente los diagnósticos genéticos prenatales se obtienen de células fetales que los médicos consiguen del líquido amniótico o de la
placenta. Estas pruebas implican la inserción de una aguja o tubo en el útero y en el 1 por ciento de los casos pueden tener consecuencias negativas para la salud del bebé.

A finales de los 90, un grupo de investigadores comprobó que el 10 por ciento del
ADN libre que flota en la sangre de una mujer embarazada proviene del feto, un descubrimiento que hizo posible la reconstrucción de algunos fragmentos del material genético del bebé a partir de la sangre materna. Ahora, un nuevo estudio que se publica en Science Translational Medicine describe una técnica que permite secuenciar el genoma casi completo del futuro hijo comparando el ADN de la sangre de la madre con el de la saliva del padre. Los científicos han ensayado el método con éxito en una mujer embarazada de 18 semanas y media. "Es la primera vez que se secuencia el genoma de un feto con técnicas no invasivas", afirma Jay Shendure, uno de los autores. El equipo secuenció el genoma del bebé después del nacimiento y comprobó que sus predicciones tenían un 98 por ciento de fiabilidad.

Los científicos también han buscado
mutaciones en el genoma de las que no son portadores ni el padre ni la madre al haberse generado durante la fecundación o el desarrollo embrionario, y que son de especial interés ya pueden ayudar a prevenir enfermedades no esperadas.
Según Schendure, se necesitarán unos 2 años para poner la técnica apunto y empezar a usarla clínicamente, ya que estima que el estudio puede costar unos 50.000 dólares americanos por niño. Sin embargo, el investigador opina que los datos que aportará el uso generalizado de este procedimiento también supondrán un ahorro importante en gastos médicos posteriores.

La NASA descubre un bosque bajo el hielo del Ártico

Es un bosque en medio del desierto helado. Así lo describen, en un comunicado, los científicos que han descubierto, en una expedición de la NASA, que el Océano Ártico se está tiñendo de verde por la proliferación de plantas marinas microscópicas, que son esenciales para la vida en otros mares, pero que no habían sobrevivido hasta ahora en un ecosistema tan frío.
El calentamiento global está, según el trabajo que publican esta semana en 'Science' detrás de un fenómeno que hasta ahora no se había detectado en toda su amplitud.
La expedición ICESCAPE (siglas de Impactos del Clima en los Ecosistemas y la Química del Ártico) exploró las aguas de los mares de Beaufort y Chukchi, en Alaska, a bordo de un rompehielos estadounidense. "Hemos observado una masiva expansión del fitoplancton entre 800 centímetros y 1,3 metros en la capa helada del primer año en el mar Chukchi", aseguran los autores.
Comparativa del hielo en 1979 y 2011, recogida por la NASA. |NASA Comparativa del hielo en 1979 y 2011, recogida por la NASA. |NASA
Esa capa se extiende en más de 100 kilómetros, un fenómeno que no había sido observado hasta ahora. El equipo ahora lo ha descubierto, ya fue capaz de encontrar hace un tiempo una 'selva amazónica' en medio del desierto de Mojave, en California, como recuerda Paola Bontempi, del programa de Biología Oceánica de la NASA.
Los cambios en el Ártico ya habían sido detectados por imágenes de satélite de la NASA. La expedición tenía como objetivo confirmar los datos, en un lugar de difícil acceso desde tierra.
Hasta ahora se pensaba que estas plantas que tiñen de verde el agua y son la base de la cadena alimenticia marina, sólo crecían después de que el hielo del mar se retiraba, lo que ocurre en verano. El problema, dice el biólogo Sam Laney, del Woods Hole Oceanographic Institution, está en que, igual que un aguacero hace florecer el desierto, la acumulación de agua de deshielo en cortos periodos de tiempo en el Ártico tienen importantes efectos sobre el ecosistema.

Flores bajo el hielo

Según sus análisis, al adelgazarse el hielo, la luz solar llega a las aguas que hay bajo la capa helada sobre el mar, lo que permite que la planta se desarrolle. "Si alguien me hubiera preguntado si veríamos flores bajo el hielo, les habría dicho que no era posible", reconoce Kevin Arrigo, de la Universidad de Stanford y líder de la expedición. "Ha sido una completa sorpresa", ha asegurado.
El fitoplancton, además, tuvo un crecimiento extremadamente activo, llegando a doblar su cantidad en un solo día, cuando las flores, en aguas abiertas, tardan dos o tres. Es más, los investigadores estiman que estas tasas pueden llegar a multiplicar por 10 las tasas de crecimiento de las plantas en aguas abiertas.
Como el fitoplancton, a su vez, consume grandes cantidades de dióxido de carbono, los científicos tendrán que evaluar, más adelante, cuánto CO2 está entrando en el Océano Ártico si resulta que estas plantas llegan a ser comunes bajo el hielo. "En este momento no sabemos si estas floraciones acaban de empezar a producirse o si es que no las hemos observado antes", señala Arrigo, quien cree que si el hielo sigue adelgazando, al final se convertirá en un bosque sobre el mar.

martes, 5 de junio de 2012

¿Qué futuro le espera a la Vía Láctea?

Tres nuevos estudios dados a conocer en la revista Astrophysical Journal sugieren que la Vía Láctea y su vecina Andrómeda se fusionarán dando lugar a una nueva y gigantesca galaxia elíptica dentro de cuatro mil millones de años. Una tercera galaxia, la Galaxia del Triángulo u objeto Messier M33, que acompaña a Andrómeda, podría unirse también a esta fusión.

Se trata de una teoría que se maneja desde hace mucho tiempo, ya que ambas galaxias se atraen por su fuerza de gravedad. Sin embargo, hasta ahora no se sabía con seguridad si chocarían entre sí o solo se deslizarían muy cerca. Usando datos muy precisos obtenidos con el telescopio espacial Hubble, astrónomos de la NASA han confirmado que la colisión frontal será un hecho. Además, los autores del estudio señalan que a partir de ese momento cambiará para siempre el aspecto del cielo y, de paso, la historia de nuestro Sol y su sistema de planetas, pues miles de estrellas serán impulsadas hacia órbitas muy diferentes de las actuales. Concretamente, las simulaciones realizadas muestran que el sistema solar se desplazará y ocupará una posición mucho más alejada del corazón galáctico

El avión solar despega de Madrid rumbo a Rabat

El pasado viernes 25 de mayo aterrizaba en Madrid desde Suiza el avión solar Solar Impulse. Ahora, tras comprobar el estado del aparato y haber descansado lo suficiente, acaba de despegar camino hacia la capital de Marruecos en lo que se convertirá en el primer vuelo solar entre dos continentes, antesala del futuro vuelo hacia América el próximo año y la vuelta al mundo sin consumir una gota de combustible en un futuro no muy lejano.

El proyecto no busca la hazaña, sino el impulso de las energías renovables como una alternativa real al consumo de combustibles fósiles. De ahí que el nombre, Solar Impulse (Impulso Solar, en castellano) no haga alusión al gran hito de la aviación que supondría dar la vuelta al mundo en una aeronave sin consumir ni una gota de combustible.
Ahora, tras haber conseguido realizar un vuelo de más de 26 horas seguidas sin combustible, tras haber viajado toda una noche en un avión solar y haber cruzado varias fronteras, Bertrand Piccard y André Borschberg se disponen a cruzar a África. El avión despegó del madrileño aeropuerto de Barajas a las 5:22 hora local, cuando la noche todavía caía sobre la capital de España y, un par de horas después, el piloto de Solar Impulse Bertrand Piccard, explicaba desde su Twitter: "Luna llena a mi derecha y amanecer a mi izquierda. Increíble vuelo de Solar Impulse por el momento".
El vuelo está previsto que aterrice en Rabat sobre las 11:00 de la noche, pero lo más importante es el mensaje que supone: las energías renovables han pasado de ser una utopía a ser una realidad. Y hoy, que se celebra el Día Mundial del Medio Ambiente tiene más sentido que nunca.

¿Eran más altos los Homo heidelbergensis o los neandertales?

Analizando fósiles bien conservados de la colección de la Sima de los Huesos de Atapuerca, en Burgos, científicos españoles han estimado la estatura de especies como Homo heidelbergensis, que habitó Europa durante el Pleistoceno Medio y es antepasado de los neandertales. Los resultados, publicados en la revista Journal of Human Evolution y de los que se hace eco la agencia SINC, muestran que tanto los hombres como las mujeres de la población de la Sima de los Huesos eran solo ligeramente más altos en promedio que los hombres y mujeres neandertales. “Ni unos ni otros pueden calificarse como humanos de baja estatura, sino que se sitúan dentro de las categorías de individuos medianos y supermedianos, aunque entre ellos haya también individuos altos”, aseguran los expertos. La estatura de estas dos especies se parecería mucho a la que presentan las poblaciones actuales que viven en latitudes medias, como las de Europa central y mediterránea.

Según los investigadores, dejando al margen las especies de biotipo pequeño como
Homo habilis (Este de África), Homo georgicus (Georgia) y Homo floresiensis (Isla de Flores), todos los humanos conocidos del Pleistoceno Inferior y Medio que habitaron África (Homo ergaster, Homo rhodesiensis), Asia (Homo erectus) y Europa (Homo antecessor, Homo heidelbergensis y Homo neanderthalensis) parecen presentar durante la mayor parte de este período también estaturas medianas y supermedianas, “aunque entre todas ellas podamos encontrar siempre algún individuo alto o muy alto”, señalan. Esto quiere decir que la estatura del género Homo ha permanecido más o menos estable en el tiempo durante casi 2 millones de años, hasta la aparición hace tan solo 200.000 años en África “de una especie rompedora en este sentido”, el Homo sapiens, cuyos primeros representantes eran significativamente más altos que los de cualquier otra especie que hubiera existido hasta ese momento.

“El Homo sapiens presenta un cuerpo más estrecho, huesos más ligeros, estatura más elevada y piernas más largas”, aclara José Miguel Carretero Díaz, coautor de la investigación. Estos rasgos, además de implicar un menor peso corporal (menor masa muscular), favorecen una zancada más larga, mayor velocidad y menor coste energético para mover el cuerpo, caminar y correr. La peculiar anatomía del hombre moderno, concluyen los investigadores, pudo representar una gran ventaja para la supervivencia en Eurasia durante el Pleistoceno Superior, cuando dos especies humanas inteligentes (los neandertales y los cromañones de cuerpo ligero) tuvieron que afrontar duras condiciones climáticas, cambios drásticos en los ecosistemas y competencia ecológica entre ellas.

martes, 22 de mayo de 2012

Teletransportan partículas a 97 km de distancia

El logro de la física, conseguido por científicos chinos, multiplica por más de cien el récord anterior

Un grupo de físicos chinos ha conseguido teleportar, a casi 100 km. de distancia y a través del aire, el estado cuántico de un fotón, multiplicando por más de cien el récord anterior. El logro, que podrá aplicarse a futuros ordenadores y sistemas de comunicación cuánticos, se publica este martes en arXiv.
La teleportación cuántica no consiste en transportar instantáneamente objetos, sino de transferir el "estado" de una o varias partículas, los constituyentes íntimos de la materia, de un lugar a otro y sin necesidad de enviar físicamente la partícula a través del espacio.
Este "milagro" es posible gracias al "entrelazamiento cuántico", una extraña y aún poco comprendida propiedad de las partículas subatómicas que permite que dos (o más) partículas unan sus destinos de tal forma que cualquier cambio de estado que se produzca en una de ellas se refleje de forma instantánea también en la otra, sin importar la distancia que les separe.
La forma en que esas partículas permanecen "unidas" no puede explicarse por medio de la física clásica. A pesar de ello, los científicos llevan ya dos décadas intentando sacar partido de esta extraordinaria capacidad que promete revolucionar tanto las telecomunicaciones como la industria informática.

 

Teletransportan partículas a 97 km de distancia

Comunicaciones con satélites

Desde el año 1993, cuando el científico de IBM Charles Bennett propuso por primera vez el concepto de teleportación cuántica, ésta ha podido llevarse a cabo en numerosos experimentos. A muy cortas distancias dentro de los laboratorios de física y a distancias mayores, de varios kilómetros, utilizando cables de fibra óptica.
Pero esos logros quedaron pulverizados por el trabajo de Jian-Wei Pan, de la Universidad de Ciencia y Tecnología de Shangai, que en 2010 consiguió teleportar fotones a más de 16 km. de distancia y sin utilizar soporte físico alguno, es decir, a través del aire.
Ahora, Pan y su equipo aseguran haber mejorado aún más aquellos resultados con otro experimento en el que han logrado teletransportar fotones a 97 km. de distancia y a través del aire, es decir, sin necesidad de cables de fibra óptica ni otros soportes físicos.
El investigador proclama en su artículo que se trata de un nuevo récord: "Comparado con otros trabajos de teleportación cuántica de fotones, nuestro experimento ha aumentado la distancia en dos órdenes de magnitud. Nuestros resultados demuestran la viabilidad de usar la teleportación cuántica, por ejemplo, en las comunicaciones entre satélites y estaciones con base en tierra".
Todo un hito, pues, que allana un poco más el camino hacia la comprensión, y el aprovechamiento, de propiedades de la materia que escapan por completo a las leyes que rigen en el mundo macroscópico en el que vivimos

Crean una nueva capa de invisibilidad con oro y silicio

El dispositivo puede «ver sin ser visto» gracias a un método de camuflaje plasmónico
Ingenieros de las universidades de Stanford y Pennsylvania han creado una nueva capa de invisibilidad que, por sus capacidades, recuerda a la Sue Storm de la Marvel Comics, con la diferencia de que sus «poderes» extraordinarios son reales y provienen del mundo de la Física. Este detector lumínico, que aparece descrito en la revista Nature Photonics, puede «ver sin ser visto».
El corazón de este dispositivo son unos nanocables de silicio cubiertos por una fina capa de oro. Para hacer que se vuelva invisible, los científicos han utilizado un método denominado camuflaje plasmónico. Algunos de los logros más recientes en el campo de la invisibilidad se han conseguido utilizando metamateriales transformados no homegéneos que tienen la capacidad de curvar la luz alrededor de los objetos, de forma que estos «desaparecen» ante nuestros ojos. Ahora, los científicos han utilizado metamateriales plasmónicos, que logran el mismo efecto, pero de una forma diferente.
Cuando un rayo de luz incide sobre cualquier objeto, rebota sobre él y se dispersa en otras direcciones. Es así como llega hasta nuestros ojos y podemos verlo. Pero los campos de dispersión de la capa plasmónica y interfieren con los del objeto y se anulan mutuamente, de forma que el objeto se vuelve transparente. Simplemente, parece que no está ahí. El fenómeno se conoce como interferencia destructiva. No es la primera vez que se logra. Investigadores de la Universidad de Texas también han podido volver invisible un objeto tridimensional al aire libre con una técnica muy parecida.

Con luz visible

En aquel caso, los científicos realizaron el experimento en el rango de las microondas. Ahora, sin embargo, los ingenieros dicen haber demostrado que el cubrimiento plasmónico es eficaz en la mayor parte del espectro visible de la luz y que el efecto funciona independientemente del ángulo de luz entrante. «Hemos descubierto que una capa de oro cuidadosamente diseñada altera de forma importante la respuesta óptica de los nanocables de silicio», dice Pengyu Fan, responsable de la investigación, de la Universidad de Stanford. Cree que otros materiales de uso común en los chips de ordenador, como el aluminio o el cobre podrían producir el mismo resultado.
En el futuro, estos hallazgos podrán ser aplicados para mejorar células solares, sensores, láseres a pequeña escala, cámaras digitales y sistemas de diagnóstico por imágenes, donde se obtendrían fotos más nítidas e imágenes médicas más precisas.

El «evento Tunguska», ¿provocado por un meteorito?

Científicos aportan una nueva vuelta de tuerca sobre la enigmática explosión que arrasó 2.000 km cuadrados de Siberia en 1908: ahora creen saber dónde está el cráter de impacto
El 30 de junio de 1908, una tremenda explosión de hasta quince megatones rompió el cielo de Tunguska, un remoto lugar de Siberia, arrasando más de 2.000 kilómetros cuadrados de tundra. La onda expansiva no solo derribó árboles como si fueran fichas de dominó, sino que tumbó carruajes y personas a 500 km de distancia. Después, una extraña luz iluminó el norte de Europa y Rusia durante varias noches. La mayoría de los investigadores coincide en que el extraño fenómeno fue provocado por el impacto contra la Tierra de un cometa o un meteorito que explotó a unos cinco o diez km del suelo, pero no se ponen de acuerdo a la hora de elegir al auténtico culpable entre los dos. En los últimos tiempos, la hipótesis de que el responsable fuera un cometa ha ganado fuerza, ya que ni se ha encontrado cráter de impacto -de ser un meteorito, debería haberlo- ni fragmentos del bólido. Sin embargo, un equipo de investigadores italianos dice tener nuevas pruebas que apuntan al segundo sospechoso. Según afirman, un lago cercano puede ser el tan buscado cráter del «evento Tunguska».
El «evento Tunguska», ¿provocado por un meteorito? Durante años, los científicos han debatido sobre la causa del misterioso suceso. Un grupo de expertos de la Universidad de Cornell aportaba en 2009 evidencias sólidas de que el evento pudo haber sido provocado por un cometa. Su núcleo de hielo se habría desecho rápidamente tras su entrada en la atmósfera, motivo por el que no dejó «huellas». Sin embargo, esta teoría tiene una pega, y es que los científicos han encontrado en la zona diferencias en los niveles de carbono, nitrógeno e isótopos de hidrógeno e iridio que son similares en algunos aspectos a los que se encuentran en algunos asteroides. Además, partículas diminutas parecidas a algunos componentes de los meteoritos también han aparecido en la madera de los árboles caídos.
El cráter, en el lago Cheko
Estas pistas pueden no ser suficientes para llegar a una conclusión firme, pero los científicos creen además que el Cheko, un lago poco profundo en forma de embudo de aproximadamente cinco kilómetros, puede esconder el cráter de la explosión.
El equipo llegó a esta conclusión después de analizar el fondo del lago en 1999. En su estudio sísmico y magnético, observó que los sedimentos se habían estado formando durante cien años, lo que coincide con el «evento Tunguska». Es más, incluso se encontraron evidencias de la existencia de un objeto cerca de la mitad del fondo del lago, lo que podría ser algún resto pétreo del meteorito. Quizás el enigma no se resuelva hasta que alguien decida llegar hasta el fondo del lago y recuperar, un siglo después, lo que pudo habernos caído del cielo.

Hallan tinta de un calamar gigante del Jurásico

La tinta de los calamares es tan exitosa para la especie (la utilizan para ocultarse de sus depredadores) que durante 160 millones de años la han usado sin cambiar siquiera su composición. Así lo asegura un equipo de científicos de varios países que ha encontrado un sorprendente resto de ese remoto pasado: dos bolsas con tinta de un cefalópodo gigante que vivió en el Jurásico.
Ambas bolsas fueron localizadas hace un par de años en la formación bautizada como The Peterborough Member de Oxford, en Inglaterra, y su análisis se publica esta semana en la revista 'Proceedings of National Academy of Science' (PNAS). Los científicos comprobaron que la melanina se había preservado intacta lo que fue, reconocen, una auténtica sorpresa. "Se podía estudiar con un detalle exquisito su composición", asegura John Simon, uno de los firmantes del artículo, de la Universidad de Virginia.
Simon y el japonés Shosuke Ito, ambos expertos en melanina, recibieron las muestras del geólogo británico Phillip Wilby y, a su vez, contactaron con otros investigadores de Estados Unidos e India para que utilizaran las técnicas químicas más modernas en el análisis de la tinta. Querían comprobar que, efectivamente, ésta se preservaba en buenas condiciones.
Una vez determinada su composición, los investigadores la compararon con la tinta de un calamar 'Sepia officinalise', típico del Mediterráneo, el mar del Norte y el Báltico y, por tanto, habitual en la dieta europea. "Eran idénticas. Lo que prueba que esa pigmentación no había evolucionado en 160 millones de años", argumenta Simon.
Bolsa de tinta de calamar gigante del Jurásico. |PNAS
Encontrar melanina, según estos investigadores no deja de ser excepcional, aunque no imposible. En general, recuerdan, los tejidos animales se degradan con rapidez. Sólo en condiciones especiales se llegan a conservar, durante millones de años, huesos o impresiones y huellas dejadas por algunos organismos. La melanina, sin embargo, es orgánica pero resiste mucho el paso del tiempo, una cualidad que aún no se sabe a qué se debe.
De hecho, no les resultó nada fácil aislar este elemento de la tinta, sobre todo porque hay muchas bacterias y minerales que adoptan morfologías muy similares. Tuvieron que recurrir a espectrocopía, escáneres con microscopios electrónicos, procesos de oxidación, resonancias y otras complejas técnicas para determinar la compoisicón química exacta de las bolsas. "Los paleontólogos no solemos recurrir a todas estos métodos, así que este trabajo tiene una gran solidez", asegura Simon, en un comunicado de su Universidad.

viernes, 18 de mayo de 2012

Logran generar electricidad a partir de virus

El revolucionario generador tiene la energía suficiente como para iluminar un pantalla de cristal líquido

Un grupo de investigadores del Departamento de Energía del Laboratorio Nacional Lawrence Berkeley (Berkeley Lab), en Estados Unidos, han desarrollado un método para generar energía utilizando virus inofensivos, capaces de convertir la energía mecánica en electricidad. El estudio se publica esta semana en "Nature Nanotechnology".
Imagine por un instante que fuera posible ir cargando el móvil mientras camina, gracias a un pequeño generador, fino como una hoja de papel, incrustado en la suela de su zapato. ¿Imaginación? Es posible, aunque algo así está ahora un poco más cerca de la realidad. Los investigadores, en efecto, lograron crear un generador capaz de producir la corriente necesaria para iluminar una pequeña pantalla de cristal líquido, que funciona pulsando con un dedo un electrodo del tamaño de un sello de correos.
Y es ahí donde está el "truco", ya que el pulsador está recubierto por una fina capa de virus especialmente diseñados y que convierten la fuerza que aplicamos con el dedo en una carga eléctrica. Se trata del primer generador capaz de producir electricidad mediante el aprovechamiento de las propiedades piezoeléctricas de un material biológico. La piezoelectricidad es la capacidad que tiene un sólido de acumular carga eléctrica como respuesta a una tensión mecánica.
Este método podría dar lugar a la fabricación de pequeños dispositivos que produjeran energía eléctrica a partir de los movimientos habituales en cualquier tarea cotidiana, como cerrar una puerta, o subir las escaleras.
"Se necesita más investigación, pero nuestro trabajo es un primer paso hacia el desarrollo de generadores de energía personales, para su uso en nano-dispositivos, y otros mecanismos basados en la electrónica de virus", explica Seung-Wuk Lee, científico de la Universidad de Berkeley y profesor de Bioingeniería. Lee dirigió la investigación al frente de un equipo que incluye, entre otros, a Ramamoorthy Ramesh, profesor de Ciencias de los Materiales en la Universidad de Berkeley, y Byung Yang Lee, del Berkeley Lab.
El efecto piezoeléctrico fue descubierto en 1880 y, desde entonces, ha sido observado en cristales, cerámica, huesos, proteínas y ADN. También se ha llevado a la práctica: los encendedores de los cigarrillos eléctricos y los microscopios de sonda, por ejemplo, no podrían funcionar sin él. Sin embargo, los materiales utilizados para fabricar dispositivos piezoeléctricos son tóxicos, lo que hasta ahora ha limitado el uso generalizado de esta tecnología.
Lee y sus colaboradores se preguntaron si un virus, estudiado en laboratorios de todo el mundo, podía ofrecer una mejor alternativa: el bacteriófago M13, que solo ataca a las bacterias y que es, por lo tanto, inofensivo para las personas. Por supuesto, al ser un virus, se reproduce por millones en cuestión de horas, proporcionando un suministro constante. Además, este virus es fácil de manipular genéticamente.

400 milivoltios

Para conseguir el éxito, los investigadores de Berkeley tuvieron, en primer lugar, que determinar si el virus M13 era, o no, piezoeléctrico. Para ello, Ramesh y Lee aplicaron un campo eléctrico a una película de virus M13, observando lo que ocurría mediante un microscopio especial. Los investigadores vieron entonces que las proteínas helicoidales que envuelven los virus se retorcían y giraban en respuesta, una señal segura del efecto piezoeléctrico.
Los científicos mejoraron aún más el sistema apilando películas compuestas de capas individuales de virus, una encima de otra. Una pila de aproximadamente 20 capas de espesor mostró el mayor efecto piezoeléctrico. Finalmente, fabricaron un generador de virus, basado en la mencionada energía piezoeléctrica. Así, crearon las condiciones para que los virus modificados genéticamente se organizaran de forma espontánea en una película de capas múltiples, que se intercaló después entre dos electrodos revestidos de oro, conectados por cables a una pantalla de cristal líquido.
Cuando se aplicó presión sobre el generador, éste produjo un máximo de 6 nanoamperios de corriente, y 400 milivoltios de potencial. "Ahora estamos intentando mejorar esta técnica", afirma Lee, quien concluye que, "debido a que las herramientas de la biotecnología permiten la producción a gran escala de virus modificados genéticamente, los materiales piezoeléctricos basados en virus podrían ofrecer una ruta sencilla hacia la microelectrónica del futuro".

La NASA enviará a humanos por el Sistema solar en 2021

El futuro cohete será tan alto como un edificio de 36 pisos. Los astronautas que aterrizarán en un asteroide ya se están entrenando

El futuro Sistema de Lanzamiento Espacial (SLS por sus siglas en inglés) en el que trabaja la NASA, está en camino de dar a Estados Unidos el más potente vehículo que nunca haya existido para el envío de seres humanos hacia el espacio profundo antes de diez años. En declaraciones al Club Nacional del Espacio durante un almuerzo cerca del Centro Kennedy de la NASA en Florida, Todd May, gerente del programa SLS dijo que está previsto un vuelo de prueba sin tripulación de la nave espacial Orion en 2014, al que seguirá un test del propio sistema SLS en 2017, y una misión conjunta de lanzador y cápsula con astronautas de entre diez y catorce días que irá y volverá de la Luna en el 2021. "En ese momento, tendremos la capacidad de ir a cualquier lugar del sistema solar donde se pretenda ir", dijo May. Este experto lidera un equipo de ingenieros y diseñadores del centro Marshall de Vuelos Espaciales de la NASA en Huntsville, Alabama. "El objetivo final es poner las botas de los humanos en Marte."
Los diseñadores de Kennedy también están trabajando para preparar un lugar para que el SLS pueda ser ensamblado y puesto a punto para el lanzamiento. La plataforma de lanzamiento 39B ha sido testigo de cambios significativos y el edificio de ensamblaje de vehículos está experimentando modernizaciones para albergar el futuro cohete, que será tan alto como un edificio de 36 pisos.
Una versión de prueba de la cápsula Orión se encuentra en pruebas en el propio centro Kennedy y la nave espacial que hará el primer vuelo de prueba en el espacio llegará en un par de meses. Se experimentará el montaje final en el Centro Kennedy antes de ser montada encima de un cohete Delta IV, para una misión sin astronautas a bordo que pondrá a prueba los sistemas de la nave y el escudo de calor. Muchos elementos del propio cohete SLS ya están en pruebas, incluyendo los motores y propulsores de combustible sólido de cohetes que darán el cohete cerca de 8 millones de libras de empuje en el lanzamiento, el 10 por ciento más que el Saturno V.

 

La NASA enviará humanos por el Sistema solar en 2021

Fuerte para ir a la Luna

La NASA ya cuenta con un inventario de los motores principales del transbordador espacial que se utilizarán para alimentar la etapa central. "Los elementos de propulsión están en muy buena forma", dijo May. "Dieciséis motores principales del transbordador espacial es un buen comienzo." El SLS también usará cohetes propulsores sólidos, como el transbordador, pero las versiones serán de cinco segmentos en lugar de cuatro.
La atención se centra ahora en la versión del SLS diseñada para levantar 70 toneladas en el espacio, lo suficientemente fuerte como para enviar la nave espacial Orion a la Luna. Las versiones posteriores se espera que puedan poner en marcha 130 toneladas, suficientes para llevar módulos de aterrizaje o de otras naves espaciales adecuadas para ir a cualquier otro destino.

Un método para probar la hipótesis de Gaia

Un sorprendente descubrimiento realizado por científicos de la Universidad de Maryland podría confirmar la teoría, según la cual la Tierra es un único y enorme organismo vivient

La clave, al parecer, está en el azufre y en la capacidad de este elemento esencial para la vida para facilitar las hasta ahora misteriosas interacciones entre las criaturas marinas, terrestres y aéreas.
La hipótesis de Gaia, formulada en los años 70 por James Lovelock y Lynn Margulis, sostiene que todos los procesos físicos y biológicos que se dan en la Tierra están inextricablemente conectados y forman un complejo sistema sensible y capaz de regularse por sí mismo.
Una de las principales predicciones que conlleva esta hipótesis es que debería de existir un compuesto del azufre, fabricado por los organismos marinos, capaz de resistir a los procesos de oxidación del agua para salir de ella, viajar por el aire y llegar también a tierra firme.
Ese compuesto sería el «nexo de uión» entre los distintos organismos y ecosistemas del planeta. Para los investigadores, el mejor candidato para cumplir con esa delicada y esencial misión sería el dimetilsulfuro (DMS)

Un método para probar la hipótesis de Gaia
Ahora, el equipo liderado por Harry Oduro, de la Universidad de Maryland, junto al geoquímico James Farquhar y la bióloga marina Kathryn Van Alstyne, de la Western Washington University, han conseguido poner a punto un método para rastrear y medir los movimientos del azufre en tierra, mar y aire. Lo cual podría ser crucial para confirmar, o descartar para siempre, la hipótesis de Gaia.
Según Oduro y sus colegas, su trabajo es la primera medición directa jamás realizada de la composición isotópica del dimetilsulfuro y de su precursor, el dimetilsulfoniopropionato. Medición que revela sutiles diferencias entre estos dos compuestos del azufre producidos por algas y fitoplancton.
El azufre es el décimo elemento más abundante del Universo y forma parte de numerosos compuestos, tanto orgánicos como inorgánicos. Su complejo ciclo le lleva a estar presente en el mar, el aire, la tierra y en todos los seres vivientes, por lo que juega un papel esencial tanto en el clima como en la salud de los organismos y los ecosistemas. «Las emisiones de dimetilsulfuro -explica Oduro- juegan un papel en la regulación del clima a través de su transformación en aerosoles».
Igual que sucede en muchos otros elementos químicos, el azufre se presenta en forma de diferentes isótopos. Todos los isótopos de un mismo elemento se caracterizan por tener en sus átomos el mismo número de electrones y de protones, pero no de neutrones. Por lo tanto, los isótopos de un elemento tienen idénticas propiedades químicas, pero diferente masa y propiedades nucleares. Los isótopos radiactivos de un elemento pueden ser utilizados por los científicos como «firmas» inclonfundibles de la presencia de ese elemento en cualquier compuesto que analicen.
Para Farquhar, el trabajo realizado «establece que deberíamos esperar ver variaciones en las firmas isotópicas del azufre en los océanos bajo diferentes condiciones ambientales y en diferentes organismos. Y la capacidad de hacer esto nos ayudará a responder a importantes cuestiones climáticas y, algún día, a predecir los cambios climáticos con gran exactitud. Y también a probar si la hipótesis de Gaia es o no cierta».

Encuentran minúsculos fragmentos de meteoritos en rocas traídas por el 'Apollo 16'

Las muestras recogidas por los astronautas de las misiones 'Apollo' siguen siendo una extraordinaria fuente de estudio para los científicos. Una investigación publicada esta semana en la revista 'Science' describe el hallazgo de minúsculos fragmentos de meteoritos en las rocas lunares que los tripulantes de la 'Apollo 16' trajeron a la Tierra en 1972.
Los científicos creen que tanto la Tierra como la Luna fueron bombardeados por una gran cantidad de objetos en los orígenes del Sistema Solar. Las colisiones, sostienen, debían ser mucho más frecuentes que en la actualidad. Sin embargo, desconocen si esta 'lluvia' de objetos se componía sobre todo de asteroides, cometas o una combinación de ambos. Su estudio tiene una gran importancia para intentar averiguar cómo se originó la vida en la Tierra.
Según sugiere esta nueva investigación, firmada por investigadores estadounidenses del Instituto Planetario y Lunar de Houston, los asteroides eran probablemente los objetos que con más frecuencia impactaban sobre la Tierra y la Luna.
Roca recogida durante la misión 'Apollo 16'. | David A. Kring. Roca recogida durante la misión 'Apollo 16'. | David A. Kring.
La mayoría de los estudios sobre los impactos de objetos en cuerpos del Sistema Solar se han basado en datos indirectos recabados tras el hallazgo de elementos químicos en el manto y en la corteza que podrían haber tenido su origen en el choque de meteoritos y asteroides.
Los meteoritos que han impactado en la Tierra lo han hecho a velocidades grandes y, aunque los científicos no han podido localizar restos de estos objetos en las rocas terrestres que tienen miles de millones de años de antigüedad, tenían esperanzas de que estos restos se hubieran podido conservar en la superficie de la Luna.
Recreación del impacto de un meteorito en la Luna.| Dan Durda/FIAAA

3.800 millones de años

Al analizar varias muestras de rocas (brechas regolíticas) recogidas por astronautas en la Luna, los científicos encontraron minúsculos restos de meteoritos junto a otras partículas. Las brechas regolíticas proceden del regolito lunar (la capa de rocas sueltas y fragmentos minerales que no forman suelo).
Según calculan los investigadores, los minúsculos fragmentos detectados son muestras de los pequeños objetos celestes que cruzaron el Sistema Solar hace entre 3.400 y 3.800 millones de años. La autora principal del artículo, Katherine Joy, y sus colegas creen que se trata de restos de asteroides y no de cometas.
Según señalan, la textura y los minerales hallados en estos restos es parecida a los de los fragmentos procedentes de condritas carbonáceas (asteroides primitivos). También señalan que su composición es muy diferente a la de otras rocas recogidas en la Luna que tienen una mayor cantidad de hierro. Asimismo, las rocas analizadas en este estudio son más ricas en magnesio (Mg) y más pobres en níquel (Ni) que las rocas ígneas terrestres lo que, según sugieren, indicaría que estas muestras no han resultado contaminadas al ser manipuladas y trasladadas a la Tierra.

La ciencia en la misión 'Apollo 16'

La misión del 'Apollo 16', en abril de 1972, fue la penúltima del histórico programa de la NASA y una de las más fructíferas desde el punto de vista científico. Charlie Duke -el astronauta más joven que viajó a la Luna- y John Young pasaron más de 20 horas explorando la superficie lunar a bordo de un 'rover' con que batieron también un récord de velocidad al alcanzar los 18 kilómetros por hora. En total, recorrieron unos 27 kilómetros de la región denominada 'Descartes' durante los tres paseos lunares que hicieron en esta misión. El tercer miembro de la tripulación fue Thomas K. Mattingly.
Entre las numerosas muestras que los astronautas trajeron destaca la roca lunar más grande recogida (pesaba casi 12 kilogramos y fue apodada Big Muley, en homenaje al geólogo principal de la misión). Recogieron casi 100 kilos de rocas, que siguen siendo estudiadas por los científicos.

El despegue de la carrera espacial privada

La entrada de la iniciativa privada en la carrera espacial ya es un hecho. La primera cápsula fabricada por una empresa está a punto de despegar rumbo a la Estación Espacial Internacional (ISS). El lanzamiento, desde Cabo Cañaveral, en Florida (EEUU), está previsto para las 4.55 horas del sábado (las 10.55 en España).
Todo es fruto de la iniciativa de Elon Musk, un ingeniero sudafricano que se hizo de oro con la venta de PayPal y divide ahora su tiempo entre su compañía de coches eléctricos y su voluntad de convertirse en el nuevo rey de la carrera espacial. Su sueño es fundar una colonia en la superficie de Marte, pero eso queda todavía lejano.
De momento, su primer paso va a ser enviar una nave con media tonelada de agua y alimentos a la Estación Espacial Internacional. El lanzamiento se presenta como un hito por muchos motivos. Pero el más importante es que inaugura la nueva era de la carrera espacial. Una era que deberán liderar visionarios como Musk por el repliegue de los gobiernos y los recortes presupuestarios, que han convertido el espacio en un lujo que el contribuyente no se puede permitir.
La cápsula por ahora no tripulada que Musk se propone enviar al espacio responde al nombre de Dragon y su vuelo forma parte de un plan diseñado por la Casa Blanca para eximir a la NASA de sus misiones más rutinarias y centrar sus esfuerzos en otras empresas.
La compañía de Musk se llama SpaceX y en 2008 firmó un contrato por 12 vuelos. Sus responsables se comprometen a llevar víveres y experimentos a la estación y reciben a cambio unos 1.200 millones de euros. Una cifra que se multiplica por dos si todas las misiones se completan con éxito.
SpaceX tiene su sede en un hangar californiano y tiene en nómina a unas 1.700 personas. La mayoría son ingenieros veinteañeros que trabajan en un entorno sin despachos. En el vestíbulo se puede ver una fotografía de Marte y un retrato de Wernher von Braun: el científico alemán que creó el cohete V2 para los nazis y se redimió luego diseñando el cohete que llevó al hombre a la Luna. La compañía estudia abrir sedes nuevas en Texas y Florida para hacer frente al aluvión de encargos que tiene pendiente: unos 40 cohetes en cinco años para poner en órbita satélites de Tailandia, Israel, Argentina, Taiwán y Canadá.
La cápsula Dragon y el cohete impulsor, en Cabo Cañaveral. | Space X

Una misión de prueba

Ni Musk ni sus ingenieros dan por hecho el éxito del lanzamiento previsto para el sábado. Todos subrayan que se trata de una misión de prueba y que un fracaso no sería un problema grave. "Sería un error poner demasiadas esperanzas en este vuelo", decía recientemente Musk, "al fin y al cabo este año haremos otros dos vuelos muy similares".
Al principio SpaceX concibió el viaje como una mera maniobra de aproximación. Pero en otoño sus responsables solicitaron a la NASA un permiso para ensamblar el Dragon con el fuselaje de la estación espacial. Musk se propone acometer la maniobra en el tercer día de la misión con la ayuda de un brazo robótico de unos 20 metros. Pero sus ingenieros insisten en que sólo emprenderán la maniobra si todo transcurre según el guión. Tanto los jefes de la NASA como astronautas de la estación pueden cancelar el ensamblaje en cualquier momento, pero serán los ingenieros de SpaceX quienes llevarán el control de la misión.
El magnate Elon Musk, dueño de Space X. | Afp El magnate Elon Musk, dueño de Space X. | Afp
El Dragon se acercará primero a unos dos kilómetros de la estación para demostrar que funcionan sus sensores y su capacidad de abortar la operación. Sólo entonces tendrá permiso para iniciar el ensamblaje y dejar su carga en la estación espacial internacional. Una operación que desde el final de la era de los transbordadores desarrollan naves estatales fletadas por Rusia, Japón y la Unión Europea.
El lanzamiento se ha demorado en varias ocasiones por temor a que los circuitos de la nave interfieran con los sistemas electrónicos de la estación. "La misión está siendo más cara y más compleja de lo que pensaba Musk", decía recientemente el experto Dale Ketcham, "pero aun así SpaceX es más eficiente que la NASA". Una opinión que concuerda con las propias cifras de la agencia, cuyos informes reconocen que la empresa ha diseñado sus cohetes por un tercio de lo que habrían costado si se hubieran financiado con dinero público.
El Dragon entró en órbita en diciembre de 2010 y amerizó con éxito en el Pacífico según lo previsto. Un fracaso en la misión de esta semana sería una catástrofe para la empresa, pero será la maniobra de ensamblaje la que marque el éxito de la misión. "Si logran ensamblarlo", dice John Logsdon, miembro del Instituto de Política Espacial, "sería un gran avance para las empresas que quieren ir al espacio y un éxito para los responsables de la NASA que pusieron el programa en movimiento".

Isabel Coixet: 'Ahora tenemos 50 'Prestige' a la vez'

En otoño de 2002, las más de 70.000 toneladas de fuel vertidas por el 'Prestige' arrasaron la costa de Galicia. Y aquella marea negra despertó un movimiento de preocupación y solidaridad que impresionó a todo el mundo.
Unas 300.000 personas acudieron a las playas desde todos los puntos de España para limpiar con sus manos el fuel, ante la falta de reacción inicial de las autoridades. Las imágenes de los voluntarios, vestidos con monos blancos de papel, dieron la vuelta al mundo. Esos ciudadanos anónimos constituyeron la 'Marea blanca' que da título al documental que acaba de estrenar Isabel Coixet y que puede verse en la web.
[foto de la noticia]
Coixet ha recorrido Galicia entrevistando a pescadores, vecinos y voluntarios, incluidos algunos que, tras llegar allí para ayudar, acabaron quedándose a vivir. Entre ellos está por ejemplo la extremeña Soledad Méndez, que decidió quedarse para siempre en Galicia. Su hija, fruto de la relación con otro de los voluntarios, se llama Alegría Fisterra, en honor al lema que utilizaban para recuperar el ánimo después de las duras jornadas de limpieza. Isabel Coixet tamibén ha filmado a los pescadores de la Costa da Morte, como el gallego Nacho Castro, de la cofradía de Muxía, que conoció entonces a la voluntaria catalala Nuria Blanco y hoy están casados.
Son algunos de los protagonistas que aparecen retratados en 'Marea blanca', un documental de media hora de duración y tono periodístico en el que la directora de cine ha buscado que sean los testimonios personales los que aporten la información. La excelente fotografía y aportaciones certeras y como la hipnótica voz de Anton Reixa recitando su poema 'Mar de mans' como telón de fondo dan a la cinta una carta de belleza y emotividad de calidad cinematográfica.

Lecciones 10 años después

Para Coixet, 'Marea Blanca' es un homenaje y un viaje al lugar de los hechos a través de sus recuerdos, sensaciones y emociones. Los voluntarios dieron una lección de solidaridad y de ciudadanía ejemplar, afirma.
Ella ve un paralelismo entre ese espontáneo deseo de ayudar que se dio durante la crisis del Prestige y la movilización ciudadana del 15-M. «El problema ahora es que tenemos 50 Prestige a la vez, o 100. Nuestros Prestige son Bankia, los recortes sanitarios, la desmoralizacion general, los índices de paro que crecen, el no ver cuál es la salida, Urdangarin, las escopetas del Rey...», dice Coixet.
La directora de cine cree que ha cambiado el tipo de emergencia, pero no el espíritu de las personas: «Rodar un documental así es impagable. Te permite entrar en otras personas y en otros mundos; la gente se abre y te cuenta su vida y te das cuenta de que quiere hablar. Y lo que he visto es que todos los que acudieron allí volverían a hacerlo. Ese espíritu de ayudar y comprometerse sigue ahí».

Una tortuga gigante del tamaño de un coche

Vivió hace 60 millones de años en el territorio que hoy es Colombia y su imponente mandíbula sugiere que debió ser un temido depredador capaz de devorar a reptiles. El fósil de una gigantesca tortuga, bautizada como 'Carbonemys cofrinii' (tortuga de carbón), fue encontrado en 2005 por un equipo de científicos de la Universidad del estado de Carolina del Norte (EEUU). Sus características se describen esta semana en la revista 'Journal of Systematic Palaeontology'.
Su tamaño, comparan los autores, era similar al de un coche pequeño. De hecho, su espectacular caparazón, que fue encontrado en las inmediaciones, mide 1,72 metros. Prácticamente lo mismo que la altura de Edwin Cadena, el estudiante de paleontología que la ha descubierto.
Esta especie pertenecía a un grupo de tortugas ya extintas denominadas pelomedusoides, una denominación común que engloba, sin embargo, a una gran diversidad de especies, según se desprende de la colección de fósiles hallados.
Recreación de 'Carbonemys cofrinii' devorando un pequeño cocodrilo. |Liz Bradford.

Una de las mayores tortugas halladas

Su cráneo medía 24 centímetros (siguiendo con las comparaciones, los autores señalan que su cabeza debía tener el tamaño de un balón de fútbol). Se trata de la mayor tortuga hallada en esta zona y una de las más grandes encontradas hasta ahora.
Su nombre, 'Carbonemys cofrinii', significa tortuga de carbón debido a que el ejemplar fue encontrado en El Cerrejón, una mina a cielo abierto en el norte de Colombia en la que se extrae este mineral. El hallazgo se produjo en 2005.
En este mismo yacimiento se han encontrado con anterioridad tortugas de menor tamaño: "Tras pasar cuatro días trabajando para lograr desenterrar el caparazón me di cuenta de que este ejemplar era el más grande que ha sido hallado en este área, y nos ofrece la primera prueba de gigantismo en tortugas de agua dulce", explica Edwin Cadena en una nota de prensa difundida por la revista.

Convivió con otras especies gigantes

Y es que los paleontólogos creen que tortugas parientes de 'Carbonemys cofrinii', pero de menor tamaño, convivieron con los dinosaurios. Sin embargo, la versión gigante de esta especie surgió unos cinco millones de años después de la extinción de los dinosaurios, que desaparecieron hace 65,5 millones de años.
El ecosistema en el que habitó esta tortuga gigante estaba integrado por una gran variedad de reptiles gigantes. De hecho, los científicos creen que 'Carbonemys cofrinii' convivió, entre otros reptiles, con la espectacular 'Titanoboa cerrejonensis', la serpiente más grande encontrada hasta ahora y que también vivió en Sudamérica.

Los dinosaurios también sufrían artritis

La artritis, dolorosa enfermedad inflamatoria de las articulaciones, no es exclusiva de los seres humanos. Ya los gigantescos pliosaurios, que vivieron en el Cretácico, sufrían este mal, según ha podido detectar un equipo de investigadores de Bristol en una mandíbula fosilizada.
Judyth Sassoon con la mandíbula del pliosaruio. | Simon Powell Judyth Sassoon con la mandíbula del pliosaruio. | Simon Powell
El fósil se encontraba entre las colecciones del Museo de la Ciudad de Bristol, donde despertó el interés de la joven paleontóloga Judyth Sassoon. Los pliosaurios fueron grandes reptiles marinos que llegaban a medir ocho metros de largo, tenían la cabeza como un cocodrilo, el cuello corto, el cuerpo como una ballena y cuatro aletas que le ayudaban a propulsarse por el agua para capturar sus presas. Sus mandíbulas eran enormes, con dientes de 20 centímetros de largo con los que podían triturar a otros dinosaurios marinos.
Pero el ejemplar que Sassoon estudió tenía un grave problema: sufría una dolorosa artritis. La investigadora observó que la mandíbula tenía erosionada la parte izquierda de su mandíbula, lo que implica que el pliosaurio, que fue encontrado en Westbury (Wiltshire) vivió con la boca torcida muchos años: lo sabe porque en la quijada inferior hay marcas de que la quijada superior chocaba con ella cuando comía, lo que acabó por afectar al hueso.
Pese a sufrir este problema, el animal era capaz de sobrevivir. De hecho, en el estudio publicado en la revista 'Paleontology' se sugiere que se trataba de una vieja hembra, dado que los machos lucían una hermosa cresta de la que este esqueleto carece.
"Al igual que los humanos desarrollamos artritis en las caderas al envejecer, esta hembra la tuvo en la mandíbula, aunque sobrevivió. En algún momento, el hueso se debilitó y se rompió, por lo que ya no pudo alimentarse y finalmente murió", señala Sassoon.
Los pliosaurios eran grandes depredadores (en ocasiones emboscados) y también carroñeros, en la cumbre de la cadena alimenticia, por lo que no tenían quien les cazara. "El pliosaurio de Westbury es un ejemplo asombroso de cómo el estudio de la enfermedad en animales fósiles puede ayudarnos a recrear la vida de un animal extinto", ha declarado Mike Benton, colaborador en este trabajo.

La NASA calcula que hay 4.700 asteroides potencialmente peligrosos para la Tierra

La NASA calcula que hay unos 4.700 asteroides que son potencialmente peligrosos para la tierra, según los datos de la sonda WISE, que analiza el cosmos en luz infrarroja.
Según informa la agencia espacial estadounidense, las observaciones de WISE (Wide-field Infrared Survey Explorer), han permitido la mejor evaluación de la población de los asteroides potencialmente peligrosos de nuestro sistema solar.
Los asteroides potencialmente peligrosos (PHA, siglas en inglés) son un subconjunto del grupo más grande de los asteroides cercanos a la Tierra.
Estos asteroides tienen órbitas cercanas a la Tierra, de unos de ocho millones de kilómetros), y son lo suficientemente grandes como para resistir el paso de la atmósfera terrestre y causar daños si cayeran a la Tierra.
Los nuevos resultados fueron recogidos por el proyecto NEOWISE, que estudió la luz infrarroja una porción de 107 asteroides potencialmente peligrosos cercanos a la Tierra con la sonda WISE, para hacer predicciones sobre toda la población en su conjunto.
Según la NASA hay aproximadamente 4.700 de estos asteroides -con un margen de error de más o menos 1.500- que tienen diámetros mayores de 100 metros. Hasta el momento, se calcula que entre el 20 y el 30% de estos objetos han sido localizados.

Estimación más fiable

Recreación de asteroides potencialmente peligrosos. | NASALa NASA apunta a que esa población de asteroides coincide aproximadamente con estimaciones anteriores pero NEOWISE ha permitido una estimación más fiable del número de objetos totales y de sus tamaños.
"Hemos hecho un buen comienzo en la búsqueda de aquellos objetos que realmente representan un peligro de impacto con la Tierra", dijo Lindley Johnson, responsable del programa para el Programa de Observación de Objetos Cercanos a la Tierra de la NASA.
No obstante, "tenemos que encontrar muchos y se necesitará un esfuerzo concertado durante las próximas dos décadas para encontrar a todos los que podrían causar graves daños (a la Tierra) o ser destino de las misiones espaciales del futuro".
El nuevo análisis también sugiere que hay casi el doble de asteroides potencialmente peligrosos de los que se creía antes que residen en órbitas de "menor inclinación", que están más alineados con el plano de la órbita de la Tierra.
La sonda WISE inició oficialmente la labor de auscultar el cielo con luz infrarroja el 14 de enero de 2010, un mes después de ser lanzada al espacio desde la base Vandenberg de la Fuerza Aérea de EEUU en California.
Además de detectar asteroides en el sistema solar, la sonda tiene la misión de observar galaxias que se encuentran a miles de millones de años luz de la Tierra.

viernes, 11 de mayo de 2012

Descubren un mecanismo de daño cerebral asociado al consumo crónico de alcohol

Científicos del Laboratorio de Patología Celular del Centro de Investigación Príncipe Felipe, dirigidos por Consuelo Guerri, han demostrado por primera vez que la neuroinflamación producida por el consumo crónico de alcohol causa alteraciones en la mielina, una sustancia del sistema nervioso responsable de la transmisión de impulsos nerviosos a lo largo de las neuronas. La mielina forma la llamada ‌«vaina de mielina‌», que recubre los axones de las neuronas, y la pérdida o daño de esta sustancia causa alteraciones como el retraso de los impulsos nerviosos y otras alteraciones asociadas.


El equipo de investigadores ha demostrado por primera vez en un artículo de la revista Glia que el consumo crónico de alcohol disgrega la vaina de mielina que recubre los axones de las neuronas, y que la neuroinflamación o inflamación en el cerebro causada por el etanol participa en estas alteraciones de la mielina. Por su relevancia científica, la revista ha destacado una imagen del artículo en la portada de su último número.
Descubren un mecanismo de daño cerebral asociado al consumo crónico de alcohol
Los expertos pretendían dilucidar si el consumo crónico de alcohol estaba relacionado con las alteraciones de la mielina, y cuál era el mecanismo causante de estas alteraciones. Como apunta Guerri, investigadora que dirige el laboratorio, «por medio de técnicas de neuroimagen se había demostrado ya que existían alteraciones importantes de la mielina en alcohólicos, relacionadas con el consumo crónico de alcohol, y que afectaban a la parte conductual; pero faltaba saber qué mecanismo estaba detrás de estas alteraciones y si la neuroinflamación participaba en él».


Un paso más en el estudio de los efectos del alcohol

Para llevar a cabo el estudio, los investigadores utilizaron modelos animales a los que se suministró durante cinco meses un 10% de alcohol en agua, simulando los niveles comparables a un consumo crónico de alcohol. En los resultados de este proceso experimental, el equipo de científicos ha comprobado a través de técnicas de neuroimagen in vivo en estos modelos animales que el consumo crónico de alcohol causa una reducción importante de la mielina en cerebro. Además, mediante microscopia electrónica, los científicos han demostrado que el alcohol disgrega la vaina de mielina y puede contribuir a la neurodegeneración. Como explica Guerri, «hemos visto que se produce una reducción muy importante de las proteínas que componen la vaina de mielina, y que disminuye la expresión de genes de la misma, por lo que la vaina se rompe e incluso los axones se ven degenerados».


De esta forma, se demuestra que el daño producido en la mielina es uno más de los efectos del alcohol sobre el cerebro. La mielina es una sustancia fundamental para transmitir los impulsos nerviosos, y por tanto para la conducta de un individuo, por lo que muchas de las alteraciones cognitivas pueden tener como origen alteraciones de la mielina. Además, los investigadores necesitaban dar un paso más en el estudio para demostrar si la neuroinflamación o inflamación en el cerebro podría estar detrás como mecanismo causante de estas alteraciones.


Para ello, el equipo de científicos eliminó el gen de los receptores llamados «toll-like» o «TLRs», responsable de la defensa inmunitaria en cerebro y de la neuroinflamación causada por el consumo de alcohol. En estudios anteriores, este mismo equipo de científicos había demostrado que el consumo de alcohol activa a uno de estos receptores llamado «TLRs», dando lugar a la liberación de citoquinas y compuestos inflamatorios que causan inflamación en el cerebro o neuroinflamación y daño neural.


De esta forma, en los modelos animales cuyos receptores TLR-4 se habían eliminado, los científicos comprobaron que se habían reducido de forma muy notoria las alteraciones de mielina, aunque no se habían eliminado por completo. Como expone Guerri, «los resultados indican que la neuroinflamación participa en gran medida en las alteraciones de la mielina; aunque observamos que también existirían otros mecanismos que contribuyen en menor medida‌».

Una nueva oleada de llamaradas solares puede golpear la Tierra

Una serie de gigantescas manchas solares, las mayores aparecidas en años, han sido detectadas en el Sol durante el pasado fin de semana. Por lo menos cuatro de ellas tienen un diámetro mayor que el de nuestro planeta y el potencial para generar llamaradas de intensidad X, las mayores que es capaz de producir el Sol. Los expertos alertan de los posibles riesgos y recomiendan que se tomen precauciones.
Llamado AR1476, el oscuro grupo de manchas mide más de 100.000 km de extremo a extremo. Las enormes manchas aparecieron, debido a la rotación solar, en la cara visible del Sol durante el pasado fin de semana y en los próximos días esa misma rotación las colocará justo en la dirección de la Tierra.
La región más activa de AR1476 ya ha generado varias erupciones de clase M, las segundas más potentes. Según su intensidad (que depende del flujo de rayos X emitidos, medidos en watios por metro cuadrado) las llamaradas solares pueden ser de categoría A, B, C, M y X. Cada clase, subdividida a su vez en números del 1 al 9, es diez veces más potente que la anterior. En la imagen sobre estas líneas, tomada por el astrónomo Alan Friedman, las manchas son perfectamente visibles.
Expertos de la Administración Nacional Oceánica y Atmosférica (NOAA) de los Estados Unidos estiman que existe un 75% de probabilidades de que las manchas generen más llamaradas de la clase M durante las próximas 24 horas. Y un 10% de probabilidades de llamaradas de clase X.

Ardientes nubes de plasma

Las erupciones solares provocan la expulsión de una gran cantidad de materia solar al espacio. El fenómeno, conocido como Eyección de Masa Coronal (CME) es capaz de proyectar fuera del Sol una ingente cantidad de materia y radiación a una velocidad de miles de km. por hora. Cuando las llamaradas solares apuntan hacia la Tierra, esas ardientes nubes de plasma pueden llegar hasta nuestro planeta y causar daños en los satélites de comunicaciones y en los sistemas eléctricos.
El escudo magnético de la Tierra, la magnetosfera, es capaz de protegernos de una gran parte de las CME que llegan hasta aquí, desviándolas hacia los polos y provocando espectaculares auroras. Sin embargo, si una CME es lo suficientemente fuerte y su campo magnético está alineado con el terrestre, puede penetrar a través de nuestro escudo natural llegar a la superficie y causar graves daños.

¿Por qué los zurdos son minoría?

Tan solo el 10% de la población mundial es zurda. Durante siglos, usar la mano izquierda estuvo mal visto, hasta tal punto que  la palabra "siniestra" es usada como sinónimo de izquierda (y antónimo de "diestra"). Dos investigadores estadounidenses acaban de demostrar que el bajo porcentaje de zurdos es el resultado de un delicado equilibrio alcanzado entre cooperación y competición a lo largo de la evolución humana. Tras recopilar numerosos datos de diestros y zurdos, Daniel M. Abrams y sus colegas de la Escuela de Ingeniería y Ciencia Aplicada McCormick, de la Universidad Northwestern (EE UU), han creado un modelo matemático que muestra como cuanto más social es una especie mayor es la tendencia a la lateralidad, que en el caso del ser humano se traduce la predominancia del uso de la mano derecha.

“El factor más importante para una sociedad eficiente es la cooperación; en las sociedades humanas, eso ha hecho que el 90% de las personas sean diestras durante al menoslos últimos 5.000 años ”, explica Abrams, que ha dado a conocer los resultados de su estudio en la revista The Journal of the Royal Society Interface. La cooperación, añade el investigador, favorece que todos usemos la misma mano, por ejemplo para poner manejar las mismas herramientas. Sin embargo, en ciertos ámbitos deportivos competitivos (béisbol, boxeo, hockey, tenis de mesa…) los investigadores han comprobado el número de atletas zurdos ronda el 50 por ciento.

Jeroglíficos inéditos muestran que, para los mayas, el mundo no acababa en 2012

Un equipo de arqueólogos estadounidenses ha encontrado los calendarios astronómicos mayas más antiguos de los que se tiene constancia grabados en piedra en las paredes de un edificio en Xultún (Guatemala), según publica hoy la revista Science.

Los jeroglíficos datan del siglo IX, lo que implica que son varios siglos más antiguos que los Códices Mayas, registrados en libros de 1300 a 1521. Y representan cifras de cálculos ligados a las fases lunares, un calendario ceremonial de 260 días, un calendario solar de 365 días, y cálculos con los ciclos anuales de los planetas Marte (780 días), Venus (584 días) y Mercurio, según ha explicado el arqueólogo William Saturno, de la Universidad de Boston (EE UU), que dirigió la expedición y excavación. Según el investigador, “parece un episodio de televisión de la serie Big Bang Theory, un problema matemático geek que los mayas pintaron en la pared, que usaban como si fuera una pizarra”.
En los muros también aparecen hombres ataviados con uniformes negros y con una medalla colgada alrededor de sus cuellos. De hecho, el mural es la primera muestra de arte maya encontrada en las paredes de un edificio. La vegetación mantuvo cubiertos los yacimientos hasta 2010, cuando un estudiante discípulo de William Saturno la destapó. En aquel momento se organizó una exploración, que patrocinó la National Geographic Society. "Por primera vez hemos podido ver las anotaciones un escriba, cuyo trabajo era el de guardar los datos en la comunidad maya", explica Saturno.

Los grabados muestran que, contrariamente a las creencias populares, no hay ningún indicio de que el fin del mundo coincidirá con el fin del año 2012, añade el científico. "Los antiguos mayas predijeron que el mundo continuará y que en 7000 años las cosas serán exactamente cómo eran entonces", concluye.

Apagón atómico en Japón

Japón ha quedado sumido en el apagón atómico completo con la detención, por revisión, del último reactor nuclear activo en Japón, el número 3 de la planta de Tomari (Hokkaido, norte), tras la crisis en la central de Fukushima.
La operadora de la central de Tomari, Hokkaido Electric Power, ha comenzado el proceso para parar el último reactor activo de la planta que quedará completamente apagado a lo largo del día de hoy, con lo que Japón ya no contará con ninguna de las 54 unidades atómicas que tenía en funcionamiento antes del accidente.
Desde que el terremoto y tsunami del 11 de marzo de 2011 arrasara el noreste del país y provocara la peor crisis nuclear en la central de Fukushima Daiichi, Japón ha procedido a la parada paulatina, por revisión o seguridad, de todos sus reactores nucleares.
Tras el inicio de la crisis, Japón, que antes del accidente dependía en cerca de un 30% de la energía nuclear, impuso nuevas pruebas de resistencia a los reactores para determinar su seguridad en caso de que se produjera una catástrofe natural similar a la de marzo.
En este sentido, el principal objetivo del Gobierno es poder reiniciar los reactores nucleares que hayan superado los test, ante la preocupación de que se produzca una falta de suministro energético sobre todo en el caluroso verano nipón, cuando se espera que la demanda alcance su tope.
Para poder reiniciar los reactores, el Gobierno del primer ministro, Yoshihiko Noda, pretende contar con el apoyo de las regiones y ciudades que acogen las centrales y que por el momento se han mostrado reacias a la reactivación e incluso, como en el caso de Osaka, tercera ciudad del país, proclives a su desmantelamiento.
Los japoneses han salido a la calle hoy para pedir el fin de las centrales nucleares. | Efe Los japoneses han salido a la calle hoy para pedir el fin de las centrales nucleares. | Efe
Para poder cubrir la demanda sin energía nuclear en ciudades como Tokio, cuya zona metropolitana cuenta con más de 30 millones de habitantes, las operadoras eléctricas han potenciado el uso de las plantas térmicas, lo que ha supuesto un incremento del gasto en la importación de crudo y gas licuado.
El aumento de las importaciones, sobre todo en el sector de los hidrocarburos, ha afectado de manera directa a la balanza comercial del país, que en enero de 2012 registró su mayor déficit en los últimos 33 años.

Detectan alta radiación en varios colegios a 60 kilómetros de Fukushima

Un grupo ciudadano ha denunciado la presencia de altos niveles de radiación en algunos puntos de más de 20 escuelas de la ciudad de Koriyama, a 60 kilómetros de la accidentada central nuclear de Fukushima, según ha informado la agencia Kyodo.
El grupo ha hecho pública la existencia de los llamados 'hot spots' ('puntos calientes') tras obtener documentos de la junta educativa municipal en los que consta que, recientemente, se han detectado altas concentraciones de radiación en al menos 14 colegios de primaria, siete de secundaria y cinco guarderías de la ciudad.
En algunos puntos concretos de estos espacios la dosis anual de radiación acumulada podría alcanzar los 20 milisievert, muy por encima del límite anual de 1 milisievert recomendado por la Comisión Internacional de Protección Radiológica.
Todos los colegios de Koriyama enviaron el pasado abril documentos con resultados de mediciones a la junta educativa después de que ésta les ordenó calcular los niveles de radiación en el aire en torno a cunetas, setos y sumideros de sus instalaciones.
La propia junta levantó el mes pasado una restricción que impedía que los estudiantes jugaran en los patios escolares durante más de tres horas diarias a raíz del accidente de marzo de 2011 en la central nuclear de Fukushima Daiichi.
Aunque los niveles de radiación en patios y aulas de los colegios de Koriyama se miden con regularidad para certificar que son seguros para los menores, una portavoz del grupo ciudadano ha pedido que se restablezca la restricción dada la existencia de tantos 'hot spots'.
El accidente en la central de Fukushima, el peor desde el de Chernóbil en 1986, ha supuesto que las escuelas de la provincia donde se sitúa la planta hayan tenido que llevar a cabo planes especiales de limpieza para evitar que sus estudiantes se vean expuestos a altas concentraciones de radiación.
Esto ha supuesto que muchos centros hayan retirado de sus patios capas de tierra de varios centímetros de espesor, donde podía haberse depositado material contaminado, antes de recubrir de nuevo la superficie con arena limpia.
Más de un año después de la catástrofe en Fukushima, cerca de 80.000 personas que residían en un radio de 20 kilómetros alrededor de la planta nuclear siguen evacuadas a causa de la elevada radiactividad.