jueves, 23 de enero de 2014

Aceite de oliva, guardián de la circulación en las piernas



La dieta mediterránea se confirma como la reina de la prevención cardiovascular. Acompañada de oliva virgen extra o frutos secos, ha demostrado por primera vez ser capaz de reducir hasta en un 66% el riesgo de problemas circulatorios en las extremidades, lo que en la jerga médica se denomina arteriopatía periférica. Así se desprende de un macroestudio español, Predimed, que lleva diez años (desde 2003) analizando los efectos de este modelo de nutrición sobre las complicaciones del corazón.

Poco a poco, se van conociendo nuevos datos. A principios del año pasado, la revista The New England Journal of Medicine se hacía eco de los primeros resultados de esta investigación: la dieta mediterránea conseguía disminuir en un 30% las probabilidades de sufrir un infarto de miocardio, de accidente vascular cerebral o de muerte por causa cardiovascular. Tres meses después, Journal of Neurology, Neurosurgery and Psychiatry desvelaba que también mejoraba significativamente la capacidad cognitiva de las personas mayores.

Lejos de conformarse con los beneficios observados (combate el sobrepeso y la obesidad y contribuye a prevenir la depresión), los investigadores responsables de Predimed, del Centro de Investigación Biomédica en Red-Fisiopatología de la Obesidad y la Nutrición (CIBERobn), han estrenado 2014 con otra publicación en Annals Internal Medicine. "Vimos que la dieta mediterránea reducía a la mitad la incidencia de nuevos casos de diabetes en sujetos con alto riesgo cardiovascular", señala Miguel Ángel Martínez-González, investigador senior de este estudio (financiado por el Instituto de Salud Carlos III de Madrid) y profesor de Medicina Preventiva en la Universidad de Navarra.
Los resultados más espectaculares de Predimed

La última novedad la presenta Journal of the American Medical Association (JAMA). Los resultados actuales "son los más espectaculares de Predimed", reconoce este médico. Con la dieta mediterránea aderezada con aceite de oliva virgen extra, el riesgo de sufrir arteriopatía periférica cae en un 66% (en las personas con riesgo cardiovascular, que es la que Predimed estudia).
Se trata de una enfermedad que afecta al 5% de la población general a partir de los 50 años. La padecen sobre todo quienes han sido fumadores, los diabéticos y quienes tienen la presión arterial y el colesterol alto. "Las arterias acumulan placas de ateroesclerosis, se estrechan y se obstruyen. Ocurre generalmente en las arterias de las piernas", argumenta Martínez-González. Esta dificultad de la circulación, continúa, "produce dolores al caminar. Puede ocasionar úlceras o heridas que no cicatrizan, infecciones en los pies e incluso gangrena. En casos graves, puede conllevar la amputación del pie".

Tras analizar los datos de cuatro años de seguimiento de los participantes de Predimed, los investigadores observaron que, simplemente incluyendo la dieta mediterránea con aceite de oliva virgen extra o frutos secos, "el riesgo de sufrir problemas de circulación en las piernas prácticamente desaparecía". Los participantes (7.435) fueron divididos en tres grupos: dos recibían educación en dieta mediterránea, a unos se les regalaba aceite de oliva virgen (2.539)y a otros frutos secos (2.452). En el tercer equipo se encontraban aquellos a los que se les recomendaba que siguieran una dieta baja en grasas (2.444), es decir, limitando el uso de aceite.

Al comparar los tres patrones dietéticos, relata el artículo, "observamos que entre las personas asignadas a la dieta mediterránea y aceite de oliva se redujo en un 66% los casos de arteriopatía periférica y en un 50% entre quienes recibieron la misma dieta y frutos secos". A pesar del alto riesgo cardiovascular de la población estudiada, se dieron muy poco casos de la enfermedad, subraya el investigador senior. "Es el mayor efecto protector comprobado en nuestro ensayo y proporciona un respaldo sólido al efecto global beneficio de las dietas de tipo mediterráneo contra la arterioesclerosis".
En vista de estos resultados, ya sabe que para prevenir, lo mejor es consumir al menos cuatro cucharadas soperas de aceite de oliva virgen extra al día (tanto en crudo -ensaladas- como en sofrito), tres raciones de fruta y dos de verdura; reducir el consumo de carnes rojas, bebidas azucaradas, bollería y dulces; incrementar el de pescado, frutos secos, legumbres y sofritos".

Futuras líneas de investigación

De momento, las conclusiones extraídas de Predimed están relacionadas con enfermedades cardiacas, aunque aún queda por ver el efecto protector de la dieta mediterránea sobre la insuficiencia cardiaca. Pero la idea, asegura Martínez-González, es evaluar en el futuro la relación con la incidencia del cáncer.
Por otro lado, y dados los buenos resultados de Predimed, "estamos a punto de empezar otro ensayo nuevo en el que vamos a reclutar a unos 6.000 participantes en los que no sólo vamos a introducir la dieta mediterránea, sino también la pérdida de peso y el ejercicio físico para prevenir los problemas de corazón". Es un proyecto "mucho más complejo" en el que ya hay muchas esperanzas puestas. "Este viernes nos reuniremos en Barcelona con investigadores de la Universidad de Columbia, Harvard... para exponerles el plan y el estudio piloto que hemos iniciado en la Universidad de Navarra con 60 personas [...] El programa requiere más dietistas y personal de entrenamiento".

'Es un orgullo estar 22 años a la cabeza del mundo'

El doctor Rafael Matesanz es director de la Organización Nacional de Trasplantes (ONT) y la persona que ha situado a España en lo más alto del pódium mundial de donaciones. Con una filosofía basada en la adaptación a la realidad social de nuestro país y un sistema centrado en la cohesión de todas las Comunidades Autónomas, ha conseguido en 25 años triplicar el número de donantes. Invitamos al plató de EL MUNDO al doctor Matesanz para hablar en profundidad de uno de los mayores logros del Sistema Nacional de Salud.

Google investiga unas lentillas para diabéticos



Las famosas Google Glass eran sólo un primer paso. En los laboratorios de investigación y desarrollo de Google ensayan ya con lentes de contacto inteligentes que será posible llevar siempre puestas. Pero a diferencia de las gafas estas lentillas no están pensadas para mostrar información en el campo de visión del usuario. Servirán para medir el nivel de glucosa en las lágrimas, ayudando a personas diabéticas a llevar un control más preciso que el que se consigue con los actuales sistemas de análisis de sangre.

Las lentillas medirán el nivel de glucosa presente en las secreciones lacrimales. Lo harán, además, con una frecuencia muy alta, al menos una vez por segundo. Los datos obtenidos se almacenarán en un chip integrado en la propia lente y podrán transferirse a un teléfono móvil mediante radiofrecuencia. El mismo sistema servirá para recargar las lentillas, que consumen muy poca energía.

"Aunque algunas personas llevan un monitor de glucosa implantado, los diabéticos siguen teniendo que punzar su dedo y medir la glucosa presente en una gota de sangre varias veces al día. Es engorroso e incómodo y como resultado muchos diabéticos miran sus niveles de glucosa con menos frecuencia de la que deberían", asegura la compañía en su blog oficial, donde han dado a conocer la investigación.

El prototipo fabricado por Google usa una pequeña antena anular y dos procesadores -uno para medir el nivel de glucosa y otro para gestionar las comunicaciones-. Todos los componentes se sitúan entre dos capas del mismo material que usan las lentillas convencionales. Google estudia también añadir una pequeña luz LED que parpadearía en el campo de visión del usuario en caso de que los niveles de glucosa fueran demasiado bajos o altos, aunque asegura que la investigación está aún en una fase muy temprana y las características definitivas podrían variar a lo largo de los próximos meses.

Las lentillas han pasado ya por una serie de ensayos cínicos para refinar el prototipo. "Estamos en conversaciones con la Administración de Alimentación y Medicamentos (FDA) para transformar esta tecnología en un producto viable", aseguran los ingenieros Brian Otis y Babak Parviz, impulsores del proyecto dentro de Google X, la rama de proyectos especiales del gigante de la red, donde también se ensayan productos de robótica, transporte (el conocido vehículo autónomo) e informática "vestible". Google, en cualquier caso, no comercializará el proyecto por cuenta propia sino que licenciará la tecnología a terceras compañías.

La NASA y Google reclutan en España a los cerebros tecnológicos



Para Salim Ismail la principal diferencia entre España y Silicon Valley es que lo que aquí es un fracaso, en la cuna californiana de la tecnología lo llaman experiencia. Y su voz resulta más que autorizada. Este visionario ha sido vicepresidente de Yahoo, ha creado varias empresas -y cerrado algunas de ellas por falta de éxito- y ha recibido el mayor reconocimiento de la ciudad de Nueva York por la creación de un fondo que recogió cerca de 12 millones de dólares para reconstruir la Gran Manzana tras los atentados del 11-S.

Pero su mente nunca para. Es un emprendedor nato, lo lleva en su ADN. Hace cuatro años, se dio cuenta de que algunos de los grandes problemas de la Humanidad no estaban siendo atajados de la mejor forma por los gobiernos de todo el mundo y su olfato le dijo que había que poner a trabajar el músculo más poderoso de los mejores emprendedores del mundo para mejorar la situación. Así nació la Singularity University (cuya traducción al castellano sería Universidad de la Singularidad), una iniciativa nacida con el apoyo de la NASA y Google para usar la tecnología con el objetivo de solucionar los mayores problemas a los que se enfrenta la sociedad actual.

Cada verano meten a 80 cerebros jóvenes con pasión por emprender en un campus de NASA en Silicon Valley por el que circulan ponentes de la talla de Larry Page, fundador de Google, Vint Cerf, uno de los padres de internet, o Buzz Aldrin, miembro de la tripulación del Apollo 11 que pisó la Luna por primera vez.

«Empujamos a los chavales a que se atrevan a plantear ideas que puedan tener un impacto y mejorar la vida de mil millones de personas», asegura Ismail a EL MUNDO, durante su visita a España para impartir la conferencia España en 2015. Las posibilidades, con el apoyo de la Fundación Rafael del Pino y la empresa Cosentino. Además, Ismail aprovechó su visita a España para impulsar elconcurso de ideas a través del cual la Singularity University elige a dos candidatos españoles.

«Es un viaje al futuro, como si pudieras ver cómo será el mundo dentro de 20 años», explica Juan Martínez-Barea, alumno de la primera edición -plaza que consiguió en EEUU- e impulsor de la iniciativa para que la Singularity University reclute estudiantes también en España.
Un sistema de burbujas

«La Singularity University funciona como un sistema de burbujas. Estás en California, en Silicon Valley, en Mountain View -el mismo lugar donde Google tiene su sede- y en el centro de investigación Ames de la NASA. Y, de repente, estás allí rodeado de algunos de los mejores cerebros del mundo y cuando sales al exterior los militares de élite están corriendo por allí. No lo puedes creer y piensas: ¿esto es real? Sí, es real», cuenta Diego Soroa, un arquitecto de Bilbao de 38 años que fue elegido el año pasado.

«Si yo fuese un estudiante, esta sería la universidad en la que querría estudiar», aseguró Larry Page en una de las sesiones, según cuentan los exalumnos. «Principalmente hacemos dos cosas. Uno de nuestros programas busca la próxima generación de líderes, por esoreclutamos 80 estudiantes en todo el mundo, para saber quién impulsará esos países en los próximos 10 o 20 años. Y otro programa, que llamamos ejecutivo, está dedicado a mostrar a los líderes de hoy hacia dónde va el mundo de mañana», afirma Ismail.

«De los 80 estudiantes de la Singularity University yo calculo que un 15% son genios puros», dice Diego Soroa. El plan académico de esta universidad cambia casi cada hora. La idea es tomar el pulso a las tendencias más emergentes e identificar qué tecnologías cambiarán el mundo en los próximos años. «Quizá 20 años, como dice Juan Martínez-Barea, es demasiado, pero sí vamos dos o tres años por delante de la corriente principal. De esta forma, hace tres años ya estábamos avisando de que la impresión 3D sería un bombazo en poco tiempo», explica Ismail.

Pablo de Manuel Triantafilo es ingeniero industrial y abogado y fue el otro alumno seleccionado por la Singularity University el año pasado. «De mis cinco ídolos en inteligencia artificial, cuatro de ellos estaban allí a mi disposición para hablar, consultarles ideas o ayudarme a desarrollarlas, es algo increíble», asegura este joven de menos de 30 años, que ya ha creado cinco empresas tecnológicas que han ganado premios nacionales e internacionales.

El perfil de Pablo es justo lo que persigue Salim Ismail: «Buscamos emprendedores con ideas que puedan cambiar el modo de vida de la gente en menos de 10 años». Y la crisis económica no es un obstáculo para él. «Estamos en uno de los momentos más interesantes de la historia para empezar un negocio», asegura.

Ismail es un buen conocedor del panorama español. Precisamente, la conferencia que ha venido a impartir revelaba la hoja de ruta que debe seguir España para salir de la mala situación económica y superar con éxito los actuales problemas económicos. «El mayor problema que tiene España es la crisis de empleo», afirma. «España debe rápidamente hacer que emprender un negocio sea legalmente muy sencillo». Para el director de la Singularity University, el secreto del éxito de EEUU es que si un negocio falla sea relativamente sencillo cerrarlo. Sin embargo, en España las consecuencias «podrían afectarte durante tu vida entera y es posible que nunca tengas una segunda oportunidad». En EEUU, sólo el 1% de los emprendedores triunfan a la primera. «Así que si sólo tienes un disparo en toda tu vida, es muy difícil acertar», dice.

«Hay dos cosas a mejorar para solucionar el problema del empleo. Una es mejorar el marco legal para el emprendimiento y la segunda es que cambie la visión social del fracaso en un negocio». Pero según Ismail, hay un tercer elemento: se necesita pasión. «Y en España hay pasión a raudales. España tiene un potencial enorme», sentencia.

'Rosetta' envía su primera señal desde el espacio profundo



La señal llegó a las 19.18 horas: Rosetta por fin se había despertado. En el Centro Europeo de Operaciones Espaciales (ESOC) de Darmstadt, en Alemania, los responsables de la misión de la Agencia Espacial Europea (ESA) llevaban horas impacientes esperando la confirmación de que la sonda se había reactivado tras los 957 días en los que ha permanecido hibernando de forma planificada.

Los cuatro despertadores de cuarzo que lleva incorporados sonaron a las 11 horas de este lunes, pero la nave necesitaba varias horas para calentarse, orientarse en el espacio profundo y dirigir su antena hacia la Tierra.

En el centro ESOC de Alemania, la ESA congregó a los responsables científicos de la misión para que, durante la tensa espera, explicaran en qué consiste esta ambiciosa aventura espacial, a punto ya de centrarse en su principal objetivo: explorar el cometa 67P/Churyumov-Gerasimenko, bautizado así en honor a los astrónomos que lo descubrieron en 1969.

El evento fue retransmitido en directo a través de Internet. La primera ventana para recibir la señal de Rosetta comenzaba a las 18.30 horas, de modo que tras la rueda de prensa y las intervenciones de los científicos, la ESA optó por mantener la conexión en directo con la sala de control de ESOC.

Durante muchos minutos y con sonido ambiente, los científicos tuvieron puesta su mirada en el monitor que mostraba una señal verde, el mismo que indicaría que la nave se había reactivado.Waiting for signal from Rosetta... (esperando la señal de Rosetta), se leía en la pantalla. A las 19.18 horas, la preocupación de sus rostros se transformaba en gritos de alegría y abrazos: Signal from Rosetta received (señal de Rosetta recibida) ... Por fin.

La señal había llegado a la estación terrestre de la NASA Goldstone, en California. Poco después los responsables de la misión confirmaban que la sonda estaba operativa.

"Nuestro cazador de cometas está de vuelta", afirmaba Alvaro Giménez Cañete, director del programa científico y de exploración espacial de la ESA. "Con Rosetta, llevaremos la exploración de los cometas a un nuevo nivel", afirmó el científico antes de recordar la misión Giotto de la ESA, que en 1986 fotografió el núcleo del cometa Halley.
El núcleo de un cometa

Ahora que la nave parece que está activa, los dos próximos meses estarán dedicados a comprobar el estado en el que se encuentran sus instrumentos científicos y los del módulo de aterrizaje Philae, que en noviembre descenderá a la superficie helada del cometa para estudiar su núcleo. En la actualidad se encuentra a unos nueve millones de kilómetros de distancia del cometa. En mayo, cuando se encuentre a sólo dos millones de km. de distancia, lo fotografiará por primera vez. La aproximación al cometa está prevista para agosto.

Los científicos creen que los cometas conservan información sobre cómo era el Sistema Solar en sus orígenes, pues se piensa que son los restos que no llegaron a formar planetas. Por ello, se consideran los objetos celestes más antiguos del Sistema Solar. Estudiar su composición les ayudará por tanto a entender cómo se originaron los planetas y de dónde procede el agua de la Tierra.

"Los cometas guardan el material a partir del cual estamos hechos. Se trata de nuestra historia y eso lo más importante desde mi punto de vista", ha declarado esta mañana Holger Sierks, investigador principal de la misión, durante el acto informativo celebrado en ESOC y retransmitido a través de internet.

Los investigadores están impacientes por ver cómo la nave comienza esta fase clave de su misión, que concluirá en diciembre de 2015, y descubrir algunos de los secretos que encierran los cometas: "Hay cosas que esperamos, pero las más divertidas serán aquellas que no esperamos", afirma el investigador Joel Parker.

Salen a la luz imágenes inéditas de la explosión del transbordador Challenger



El nieto de un extrabajador de la NASA ha hecho públicas una veintena de fotografías del accidente del Challenger, ocurrido en 1986. Las imágenes, que se pueden ver en Reddit pics, muestran una secuencia desde que el cohete despega hasta que sus restos acaban cayendo de nuevo a la Tierra.

"Estaba mirando en las cajas de mis abuelos y he encontrado unas viejas fotografías del trágico despegue de 1986. Las he escaneado y he hecho un álbum", explica el dueño de las instantáneas en la presentación de esta recopilación.

El próximo 28 de enero se cumplirán 28 años del accidente del transbordador espacial Challenger, que explotó a los 73 segundos de despegar y en el que fallecieron los siete astronautas que viajaban en su interior, Dick Scobee, Michael J. Smith, Ronald McNair, Ellison Onizuka, Gregory Jarvis, Judith Resnik y Christa McAuliffe.
Investigación del accidente

A pesar del tiempo pasado, aún no se han determinado con exactitud las causas del accidente. En los informes de la investigación se habla de diversos problemas técnicos y se habla también del grado de responsabilidad que pudo tener una gran nevada que cayó la noche anterior sobre la nave.

Al parecer, unos minutos antes del lanzamiento del Challenger se detuvo la misión para comprobar si el hielo adherido a la plataforma de lanzamiento podría afectar a los mecanismos del Challenger, pero finalmente se dio la luz verde a la cuenta atrás.

Según los investigadores, los tripulantes descubrieron un problema en las gomas que sellaban las juntas de los propulsores. Una de esas grandes gomas, que normalmente se dilataban y contraían, no lo hizo ese día debido a las bajísimas temperaturas que se registraron durante la mañana del lanzamiento. Eso produjo un escape de gases calientes que quemaron rápidamente el depósito externo de combustible, así como una de las piezas que lo conectaban con el propulsor.

Como consecuencia de ello, el propulsor se soltó y se estrelló contra el depósito, liberando hidrógeno y oxígeno líquidos. Aunque dio la impresión de que los líquidos habían estallado en forma de enorme bola de fuego, en realidad fueron las enormes fuerzas aerodinámicas las que hicieron que el transbordador se desintegrase.

Cuando ocurre un suceso como éste, que la propia NASA define como "uno de los recuerdos más tristes" de su historia, siempre hay diversas hipótesis de lo sucedido. En este caso, hay teorías que apuntan a que los astronautas no fallecieron en el momento de la explosión, sino que la cabina de tripulación emergió intacta pero su impacto contra el océano Atlántico tras una caída de casi tres minutos fue fatal para ellos.
La corta vida del Challenger

El Challenger comenzó su vida activa en 1983 y se convirtió en la bestia de carga de la flota de transbordadores de la NASA, volando en más misiones por año que el Columbia. En los años 1983 y 1984, el Challenger voló en el 75 por ciento de las misiones del programa de transbordadores espaciales de la NASA. Según ha destacado la agencia espacial, incluso cuando los transbordadores Discovery y Atlantis se unieron a la flota, el Challenger siguió siendo utilizado tres veces al año entre 1983 y 1985.

Entre las nueve misiones que completó el Challenger antes de su explosión, hay varios logros en el vuelo espacial, como llevar a bordo la primera mujer estadounidense en el espacio, el primer afroamericano o el primer tripulante canadiense. Además, fue el primer transbordador en realizar un despegue y aterrizaje nocturnos.

Las altas temperaturas de 2013 confirman de nuevo la tendencia del calentamiento global



Los datos climáticos de 2013 en todo el planeta, el séptimo año más cálido desde que se tienen registros, confirman la tendencia de calentamiento global a largo plazo, según un estudio de la Agencia Espacial estadounidense (NASA).

El trabajo realizado en el Instituto Goddard de Estudios Espaciales de la NASA muestra que la temperatura media global del año pasado fue de 14,6 grados Celsius, 0,6 grados por encima de la media del siglo XX.

Además, desde hace 38 años, en ninguno la temperatura media se ha situado por debajo de ese promedio de 14,6 grados.

Excepto 1998, los diez años más cálidos de los 134 en que se dispone de registros de todo el planeta (que empezaron a realizarse en 1880) corresponden al siglo XXI, con 2010 y 2005 como los que tuvieron una temperatura media más elevada.

Los científicos, sin embargo, destacan que los patrones meteorológicos pueden causar fluctuaciones en la temperatura de año en año, pero que el incremento continuo de gases de efecto invernadero en la atmósfera terrestre están provocando un aumento global de las temperaturas a largo plazo.

Cada año no tiene que ser necesariamente más cálido que el anterior, aseguran los investigadores de la NASA, pero dados los niveles actuales de gases de efecto invernadero, sí esperan que cada década supere la temperatura media de la precedente.

"Aunque un año o una estación puede verse afectada por fenómenos meteorológicos aleatorios, este análisis muestra la necesidad de monitorización continua y a largo plazo", explicó el climatólogo del Instituto Goddard Gavin Schmidt.

Los gases de efecto invernadero, principalmente el dióxido de carbono, atrapan el calor en la atmósfera y regulan los cambios en el clima terrestre.

Debido a la acción humana, la concentración de estos gases (que se genera de forma natural, pero también al quemar combustibles fósiles), ha aumentado en las últimas décadas y se encuentra en el nivel más alto de los últimos 800.000 años, según la NASA.

La concentración de dióxido de carbono en la atmósfera era de 285 partes por millón en 1880, cuando empezaron los registros del Instituto Goddard, y el año pasado superaron las 400 partes por millón

Una batería de azúcar para recargar teléfonos móviles y tabletas



Con la proliferación del uso de teléfonos móviles inteligentes, tabletas y portátiles en todo el mundo, aumenta también de manera imparable la cantidad de baterías que terminan en los contenedores cada año. Una amenaza para el medio ambiente y la salud humana, pues sólo una pequeña parte de sus componentes tóxicos se recicla de manera adecuada. Por ello, los científicos están intentando desarrollar baterías fabricadas a partir de materiales biodegradables que ofrezcan las mismas prestaciones que las que usamos en la actualidad e incluso las mejoren.

Un equipo de investigadores presenta esta semana en la revistaNature Communications una de estas baterías: está fabricada a partir de azúcares y, según sostienen los científicos que la han desarrollado, es más duradera y barata que las baterías convencionales. "El azúcar es perfecta para almacenar energía en la naturaleza. Era lógico que intentáramos aprovechar esta potencia natural y respetuosa con el medio ambiente para fabricar una batería", señala Percival Zhang, profesor en la Universidad Virginia Tech e investigador de la start-upCell-Free Bioinnovations, y autor principal de este trabajo

No es la primera vez que se desarrolla una batería de azúcar, pero Zhang asegura que la suya es capaz de suministrar mucha más energía. También ofrece mejores prestaciones que las baterías metálicas que se comercializan en la actualidad: "Debido a su alta densidad energética, dura dos veces más que las mejores baterías de ión-litio y cuatro veces más que las baterías alcalinas. En el futuro, podrían durar diez veces más que las mejores baterías de ión-litio", asegura a EL MUNDO a través de un correo electrónico.

La batería de azúcar combina un combustible, la maltodextrina(una especie de polvo blanco soluble en agua obtenido por hidrólisis enzimática parcial del almidón de maíz) con aire para generar electricidad y agua.

"La maltodrextina es hidrólisis parcial de almidón de maíz. Si la hidrólisis fuera completa, tendríamos glucosa", detalla. En la industria este producto se utiliza por ejemplo, en la fabricación de embutidos, aromas, alimentos y bebidas en polvo instantáneos.
Biodegradable y recargable

Zhang asegura que la batería es 100% biodegradable ["todos los catalizadores son enzimas"] y recargable: "Cuando el zúcar se va acabando añadimos más (maltodrextina). Es como rellenar un cartucho de impresión con tinta", compara el científico.

De momento, explica, el prototipo que han presentado es válido para mostrar el potencial de esta batería: "Para su uso comercial necesitamos todavía más tiempo porque tenemos que seguir trabajando en ella", señala.

"Los principios científicos están muy claros. El principal reto es extender la vida de las enzimas varios años y hacer que sean tan estables como otras enzimas que usamos en nuestra vida diaria, como las proteasas utilizadas en detergentes o la glucosa deshidrogenasa que se usa para las tiras reactivas que analizan sangre", explica.

No obstante, el proyecto ya cuenta con financiación para mejorar y desarrollar comercialmente estas baterías, por lo que calcula que en unos tres años podrían estar ya implantadas en algunos teléfonos móviles, tabletas, videojuegos y otros dispositivos electrónicos portátiles que utilizamos en este mundo hambriento de energía. "Cell Free Bioinnovations acaba de recibir un premio de 750.000 dólares (unos 550.000 euros) de la Science Foundation Small Business Innovation research", afirma.

El investigador también cree que su precio será más bajo que las baterías con componentes metálicos: "Finalmente llegarán a ser muy baratas porque están fabricadas a partir de enzimas, de proteínas, y no contienen metales. Si somos capaces de producir enzimas a precios muy bajos, costarán mucho menos. Fabricar proteínas es mucho más barato que los metales", concluye.

La UE se fija el objetivo de reducir las emisiones de CO2 en un 40% para 2030


La Comisión Europea ha fijado los objetivos climáticos y energéticos de la UE para 2030 con una propuesta que busca poner de acuerdo a los Estados miembros, quienes en última instancia deberán dar el visto bueno definitivo. La meta para los próximos 16 años es que se consiga una reducción de emisiones del 40% respecto a los niveles que existían en 1990, mientras que se establece un objetivo de producción energética a través de fuentes renovables del 27% para el conjunto de la UE, aunque sin establecer cuotas obligatorias por países.

El Ejecutivo comunitario ha tenido que rebajar sus pretensiones iniciales y buscar una medida de compromiso que obtenga el consenso de los Estados miembros, con políticas energéticas muy diferentes. El presidente de la Comisión, Jose Manuel Durao Barroso, ha defendido este nuevo modelo de mayor flexibilidad porque, pese a que el creciente uso de energías renovables es clave para el futuro de la UE, se requiere de una importante integración del mercado energético y altos niveles de inversión por parte de los estados miembros.

Además, Bruselas ha renunciado a presentar una directiva que regule la extracción de gas mediante fracturación hidráulica (conocida como 'fracking') y se limita sólo a hacer unas recomendaciones genéricas, como la de tener en cuenta el impacto medioambiental y hacer consultas públicas antes de iniciar un proyecto con esta tecnología, que genera un gran rechazo entre los grupos ecologistas.

La inversión necesaria para alcanzar estos objetivos en 2030 se estima en 38.000 millones de euros al año para el conjunto de la UE, de los cuales más de la mitad se concentran en el sector residencial y de oficinas, para asegurar una mayor eficiencia en el consumo de la energía.

Detectan vapor de agua en el planeta enano Ceres



Ceres, el planeta enano más pequeño del Sistema Solar, contiene vapor de agua. Así lo ha demostrado un equipo de investigadores gracias a las observaciones de la sonda Herschel de la Agencia Espacial Europea (ESA) en un estudio recién publicado por la revistaNature.

Ceres es el objeto más grande del cinturón de asteroides o principal, una región comprendida entre las órbitas de Marte y Júpiter que alberga cientos de cuerpos celestes. Pero a diferencia de la mayoría de los asteroides, Ceres tiene una forma prácticamente esférica y por tanto pertenece a la categoría de planeta enano, la misma en la que se encuentra Plutón desde 2006.

El hallazgo de agua en Ceres es importante, según los autores de la investigación, porque refuerza la teoría de que parte del agua de los océanos en la Tierra llegó a nuestro planeta a bordo de asteroides.

Cuando el Sistema Solar se formó hace 4.600 millones de años, sus regiones centrales eran demasiado calientes como para que se condensara agua en sus planetas interiores: Mercurio, Venus, la Tierra y Marte. Por ello, se cree que el agua llegó a estos planetascomo consecuencia del bombardeo de cometas y asteroides que impactaron sobre sus superficies.

Ceres fue descubierto en 1801 por Giuseppe Piazzi e inicialmente fue clasificado como un cometa, después como un planeta y un asteroide, hasta que finalmente se le catalogó como planeta enano en 2006.

Es "más o menos redondo", explica Michael Kueppers, autor principal del artículo e investigador de la ESA en su sede española de Villanueva de la Cañada (Madrid). Además, supone casi un tercio de la masa total del cinturón asteroides, carece de atmósfera y su temperatura máxima alcanza los 90 grados bajo cero.

"Hemos constatado la existencia de hielo en la superficie de Ceres, que sublima y se convierte en vapor", ha afirmado Kueppers. Según este investigador, se trata de la primera vez que se detecta agua en este planeta enano y en un objeto del cinturón de asteroides.

La detección ha sido gracias al observatorio Herschel, que captó vapor de agua en este planeta en octubre de 2012 y en marzo de 2013. Kueppers ha señalado que según estas observaciones, hay más agua en determinadas zonas de Ceres.

El misterioso 'dónut' de Marte



Su tamaño y forma son similares a un dónut, y tiene bordes de color blanco resplandeciente con un centro de color rojo rubí. Así es la misteriosa roca que, según el científico jefe de las misiones robóticas de la NASA en Marte, Steve Squyres, ha encontrado el rover Opportunity en un lugar donde "no había nada doce días antes".

Las imágenes captadas por el robot en una zona de Marte denominada 'Murray Ridge' han generado un gran revuelo en el equipo que lleva la misión, que ya está barajando posibles explicaciones para la repentina aparición de esta roca.

El hallazgo se ha presentado en un acto en el Instituto de Tecnología de California (Caltech) en el que se celebraban los 10 años de servicio de Opportunity en Marte. Durante la reunión, se mostraron las fotografías enviadas por el rover con 12 días de diferencia, en la que se puede ver prácticamente el mismo paisaje con la diferencia de la presencia de una roca, bautizada como 'Pinnacle Island'.

Opportunity se encontraba parado en dicha zona debido al mal tiempo en Marte. Ahora, los expertos lo han mantenido allí hasta que puedan resolver el porqué de este sorprendente hallazgo.

Hasta el momento, se han barajado dos posibles explicaciones: o bien la roca fue lanzada a ese lugar después de un impacto de un meteorito o, la que consideran más probable, llegó allí tras desprenderse por el paso del propio Opportunity.

La NASA ha reconocido que el rover está teniendo problemas para moverse en estos días y que sus ruedas podrían haber provocado el desprendimiento de algunos escombros en la roca en la que se ha asentado.

En cuanto al tipo de roca, una inspección inicial indica que es muy rica en azufre y potasio. Además, parece estar en posición boca abajo, es decir, que la parte visible no se habría visto afectada por la atmósfera marciana, tal vez durante millones de años. La NASA continuará ahora con las investigaciones sobre estos restos.

Hace ya una década que el robot Opportunity aterrizó en Marte. Junto a su gemelo, Spirit, que aterrizó tres semanas antes, forma parte del Programa de Exploración de Marte de la NASA para poder encontrar signos de agua en el borde de un cráter.

La 'telaraña' cósmica



El desarrollo de telescopios cada vez más potentes y dotados de una gran sensibilidad viene permitiendo captar espectaculares imágenes del Universo que nos rodea y de recopilar información de sus galaxias más lejanas. Ahora, con la ayuda del telescopio Keck I situado en lo alto del volcán Mauna Kea en Hawai, se han podido captar las imágenes de una nebulosa azulada, la cual podría ser parte de la malla de filamentos que conectan unas galaxias con otras. Aunque su existencia está predicha teóricamente, esta malla no había sido observada hasta la fecha.

La nebulosa rodea al cuásar UM287, una galaxia remota cuya luminosidad es inmensa. Su composición podría servir para verificar la teorías sobre el modelo cosmológico estándar de formación de estructuras en el universo.

«La evolución de nuestro universo desde el Big Bang hasta nuestros días puede calcularse utilizando grandes ordenadores, teniendo en cuenta toda la información observacional disponible. De esta manera se predice que, a muy gran escala, las galaxias deben estar situadas en una especie de telaraña cósmica constituida por una malla de filamentos que se interconectan de manera aparentemente caótica», explica sobre la teoría el director de Rafael Bachiller director del Observatorio Astronómico Nacional.

El grupo internacional de astrónomos, dirigidos por S.Cantalupo y Xavier Prochaska de la Universidad de California en Santa Cruz (EEUU), han publicado su estudio en la revista «Nature» donde detallan que la nebulosa cuenta con dos millones de años luz de tamaño.

El autor principal, Cantalupo, muestra su sorpresa ante este nuevo descubrimiento afirmando que «se trata de un objeto muy excepcional: es enorme, por lo menos dos veces mayor que cualquier nebulosa detectada antes, y se extiende mucho más allá del entorno galáctico del cuásar», señala.

Prochaska, profesor de Astronomía y Astrofísica en la Universidad de California Santa Cruz, añade que «este cuásar ilumina gas difuso en escalas mucho más allá de cualquiera de los que hemos visto antes, lo que nos da la primera imagen de gas extendido entre las galaxias. Proporciona una visión excelente de la estructura general de nuestro universo».
Su principal componente es el hidrógeno

Gracias a la luz que emite el cuásar, cuya radiación procede principalmente de los efectos ocasionados por el agujero negro supermasivo que habita en su interior, los científicos han observado que la nebulosa de su entorno está compuesta de un gas difuso: hidrógeno, el principal componente que da lugar al nacimiento de las estrellas.

De hecho, en las observaciones de la nebulosa, se puede ver la luz de color violeta y azulado procedente de este gas, una vez tenida en cuenta la expansión del universo. En realidad el hidrógeno emite una radiación Lyman Alfa (ultravioleta invisible) pero, al `estirarse? las ondas por la expansión del universo, cambia al rango visible como aparece en las fotografías.

Los astrónomos, además de utilizar el telescopio Keck I se sirvieron de un instrumento especial, el espectrómetro llamado `The Low Resolution Imaging Spectrograph?. Mejor conocido por sus siglas en inglés, el LRIS permite tomar espectros e imágenes de los objetos más distantes conocidos en el Universo.

Tras la obtención de la imágenes, los autores apuntan a que la cantidad de gas contenido en la nebulosa es diez veces mayor de lo que aparece en las simulaciones del ordenador. «Creemos que puede haber más contenido en pequeños núcleos densos dentro de la red cósmica de lo que se ve en nuestros modelos», teoriza Cantalupo. Sin embargo, Rafael Bachiller apunta que deducir a partir de estas observaciones la estructura de la malla cósmica es «muy aventurado» ya que «podría tratarse de una nube intergaláctica discreta que se encuentra en las proximidades del cuásar, y no necesariamente un trozo de filamento de la malla».

Este trabajo, concluye Bachiller «ilustra la potencia con la que cuentan los mayores telescopios del mundo, como los Keck en Hawái o el Gran Telescopio de Canarias que pueden revelarnos aún muchos detalles sobre la naturaleza y evolución del universo».

Europa abre la mano con el fracking



El mercurio roza los 10 grados bajo cero. Pero son temperaturas aún benignas para esta zona y época del año. Gapowo, situado en la región de Pomerania, al norte de Polonia, es una localidad agrícola. Por ese motivo sorprende aún más divisar desde el propio pueblo, a apenas 500 metros, la torre de perforación del pozo de exploración de gas mediante fracking que está construyendo allí la empresa canadiense BNK.

No se trata de una explotación en la que ya se esté produciendo gas para el consumo, sino de una más de las 50 instalaciones de investigación que evaluarán en Polonia el potencial del llamado gas no convencional, el que hay que extraer fracturando el subsuelo mediante una mezcla de agua, arena y productos químicos inyectada a una enorme presión. Y ya en esta fase de investigación se realizan varias etapas de fracking, de unas cuatro horas cada una. A excepción de las gélidas temperaturas y quizá de la nieve, ese mismo paisaje podría comenzar a verse en España a principios del año 2015.

En Burgos, País Vasco y Cantabria -aunque esta última región aprobó por unanimidad una ley que veta el fracking en su territorio- hay seis permisos concedidos para investigar las reservas de gas no convencional -también llamado shale gas- que están ya en las últimas fases de preparación de la información ambiental. Tras su presentación, quedarían pendientes sólo de los periodos de información pública y de análisis por parte de los técnicos de la administración para poder comenzar a perforar en busca de estratos ricos en gas en el subsuelo, a más de 3.000 metros por debajo de la superficie.

Además, la Comisión Europea adoptó ayer en el marco de laspolíticas energéticas y climáticas una Recomendación -un documento que no obliga a las medidas que contempla- para «garantizar unaprotección adecuada del medio ambiente y el clima en lo que respecta a la técnica de fracturación hidráulica de alto volumen (también conocida como fracking)», según aseguró la Comisión en un comunicado.
La UE pide garantías ambientales y seguridad

El Ejecutivo comunitario deja así en manos de los Estados miembros la decisión de apostar o no por esta técnica e invita a evaluar los riesgos ambientales, utilizar las mejores técnicas disponibles paragarantizar la integridad del pozo y evitar posibles accidentes o verificar la calidad del agua, el aire y el suelo antes de comenzar la perforación. A pesar del visto bueno de Bruselas a la técnica, la Comisión pretende recabar información de cada uno de los proyectos que se lleven a cabo y examinará de nuevo el estado de la cuestión dentro de 18 meses.

Mientras, en países como Polonia, donde la técnica lleva algunos años de ventaja, los últimos cambios legislativos en el país han simplificado la burocracia para los pozos de exploración mediante fractura hidráulica o fracking y han eliminado la obligación de presentar Declaración de Impacto Ambiental (DIA) si el pozo no perforará a más de 5.000 metros de profundidad. «Hasta ahora, la máxima profundidad sin DIA era 1.000 metros, lo que suponía que todos los pozos exploratorios tenían que hacerla. Ahora será lo contrario: para la mayoría de ellos no será necesario hacerlo. La Declaración de Impacto Ambiental será obligatoria en áreas sensibles, por ejemplo, aquellas que estén a menos de 500 metros de viviendas», explica Magorzata Maria Klawiter-Piwowarska, delegada del Gobierno regional de Pomerania para el shale gas.

«La mayoría de los pozos se perforan hasta una profundidad de entre 3.000 y 4.000 metros, y pocas excepciones llegan a algo más de 4.000 en Europa», asegura Troy Wagner, director general de BNK Polonia. «Pero las Declaraciones de Impacto Ambiental sí serán obligatorias en Polonia en áreas incluidas en la Red Natura 2000 y en otras zonas sensibles», explica.

Mientras hace hincapié en la escasa oposición social que hay en la actualidad a la técnica en esta zona del norte de Polonia, Wagner cuenta que el fracking lleva utilizándose en pozos de explotación de gas convencional desde hace décadas. De hecho, el responsable de las instalaciones de extracción de gas y petróleo de la empresa nacional polaca PGNiG en Debki, a orillas del mar Báltico, asegura que allí se utilizó la fractura hidráulica hace ya dos años sin ningún tipo de incidencia ni oposición social.

El sondeo comenzó en Gapowo el pasado 3 de enero y está ya a más de 3.300 metros de profundidad. Pero la perforación no va tan rápido como esperaba el director de perforación de BNK, Tom Junker. «Ahora estamos sacando las tuberías para comprobar si hay algún problema con la broca, debe estar gastada y no perforamos al ritmo que deberíamos», explica Junker desde la plataforma de perforación, «pero el ruido del pozo es el mismo ahora que si estuviéramos taladrando», asegura. La única queja que han recibido desde que comenzaron los trabajos ha sido por la luz que deben dejar encendida durante la noche, ya que los trabajos se llevaban a cabo 24 horas al día.

No obstante ese pacífico escenario no es generalizado en todo el país, y desde luego no lo es en toda Europa. «El documento de la UE es una mala noticia», dice Pablo Cotarelo, de Ecologistas en Acción. «Es una victoria de la industria, en contra de la población que se ha mostrado contraria. Refleja una falta de representatividad democrática».

En Reino Unido, donde se realizaron dos perforaciones como la de Gapowo, la opinión pública obligó a paralizar la actividad después de que una de ellas perforase sobre una falla y provocase pequeños seísmos de 2,3 en la escala Richter. «Es el mismo temblor que provoca el paso de un camión», se defiende Troy Wagner.

domingo, 12 de enero de 2014

EL ABORTO

El bisfenol A aumenta el riesgo de cáncer de próstata en ratones



La exposición del feto al bisfenol, un plastificante que se encuentra en productos como botellas de agua o el revestimiento de las latas de conserva, puede aumentar el riesgo de cáncer de próstata más adelante en la vida, según concluye un estudio de la Universidad de Illinois en Chicago (UIC), Estados Unidos, que se publica en la revista Endocrinology.

El bisfenol A (BPA, por sus siglas en inglés) es un compuesto tóxico ampliamente utilizado en la fabricación de algunos tipos de plástico y muy presente en diferentes productos pese a las evidencias sobre sus riesgos para la salud, como recuerda Gail Prins, director del Laboratorio de Andrología de la UIC y autor principal del artículo. Estudios previos han demostrado que incluso las personas que han evitado todo contacto con plásticos u otros objetos que contienen bisfenol en el último mes tienen rastros de este compuesto en la orina.

La exposición del feto a BPA en el útero es especialmente preocupante ya que el producto químico, que imita la acción de los estrógenos en el organismo humano, ha sido relacionado con varios tipos de cáncer, incluyendo el cáncer de próstata, en modelos de roedores. Los nuevos hallazgos muestran que el tejido prostático humano es también susceptible. "Nuestra investigación proporciona la primera evidencia directa de que la exposición al bisfenol durante el desarrollo, en los niveles que vemos en nuestra vida diaria, aumenta el riesgo de cáncer de próstata en el tejido prostático humano -apunta Prins-. Los hallazgos de sus efectos adversos en el tejido humano son muy importantes y deben animar a las autoridades, como la agencia estadounidense del medicamento [FDA] a reevaluar sus políticas".

Prins investigó el efecto de BPA en células humanas mediante la implantación de células madre prostáticas humanas tomadas de varones jóvenes fallecidos en ratones. Las células madre de la próstata son muy longevas, surgen durante el desarrollo fetal temprano y producen y mantienen los tejidos de la próstata de un hombre durante toda su vida.

Para imitar la exposición a BPA durante el desarrollo embrionario, durante dos semanas tras la implantación, se administró BPA a los ratones en cantidades acordes con las observados en las mujeres estadounidenses embarazadas. "La cantidad de BPA que dimos a los ratones era equivalente a los niveles medios ingeridos por una persona occidental -explica Prins-. No les dimos dosis exorbitantes".

Después de dejar madurar el tejido durante un mes, los roedores recibieron estrógeno para imitar el aumento de los niveles de estrógeno natural que se observa en hombres de edad avanzada y que está relacionada con la aparición de tumores de próstata a partir de cierta edad.

Entre dos y cuatro meses después, se recogió tejido y se observó que un tercio de las muestras de tejido tomadas de ratones alimentadoscon BPA tenía lesiones precancerosas o cáncer de próstata en comparación con sólo el 12% en el grupo control de los ratones alimentados con aceite.

Si las células madre de próstata eran expuestas al bisfenol antes y después de la implantación, el 45% presentaba lesiones precancerosas o cáncer. "Creemos que el BPA reprograma las células madre para que sean más sensibles a los estrógenos durante toda la vida, lo que lleva a un aumento de la susceptibilidad de por vida a enfermedades como el cáncer", alerta Prins.

Sanidad regula la promoción de donación de órganos y células



Desde este jueves, las entidades que pretendan desarrollar cualquier actividad de promoción y publicidad en apoyo de la donación de células y tejidos humanos deben, previamente, solicitar autorizacióna la Organización Nacional de Trasplantes (ONT), según una orden del Ministerio de Sanidad que prohíbe expresamente aquellas campañas que busquen el beneficio de un paciente concreto, así como la captación de donantes por parte de empresas privadas.

"La filosofía general de la norma es que para hacer cualquier actividad de promoción de la donación de células o tejidos, de cualquier tipo,no se podrá hacer de cara a un enfermo concreto, no se podrá pedir compensación económica y no se podrá ofrecer publicidad falsa o engañosa", ha explicado el director de la ONT, Rafael Matesanz.

"Todas estas disposiciones ya estaban reguladas, pero en esta orden quedan totalmente claras, con toda la información blanco sobre negro", señala Matesanz a EL MUNDO.

Según explica, la iniciativa de conjugar en una norma la regulación existente surgió hace dos años, tras la introducción en España de DKMS, una empresa alemana que buscaba donantes de médula para su banco privado.

La nueva regulación, que complementa a la propia de cada comunidad autónoma, pretende evitar que promoción de la donación entre en colisión con los principios de salud pública, por lo que establece que las campañas de captación de donantes deberán ajustarse a los principios de voluntariedad, altruismo y desinterés, "debiendo advertir que ni el donante, ni ninguna otra persona física o jurídica, puede solicitar, ni percibir, contraprestación económica o remuneración alguna vinculada al objeto de este apartado".

Asimismo, "la promoción y publicidad de la donación u obtención de tejidos se realizará en todo caso de forma general, sin buscar beneficio para personas concretas, debiendo evitar los llamamientos colectivos para la donación en favor de un paciente concreto".

El BOE indica que "en ningún caso", la autorización a la que se refiere esta orden podrá amparar actividades de extracción, procesamiento, almacenamiento, distribución o implante de células y tejidos humanos.

Matesanz ha subrayado a este medio que toda persona o entidad que quiera hacer una promoción de la donación que exceda el ámbito de una comunidad autónoma deberá ajustarse a las disposiciones recogidas en esta nueva orden y pedir una autorización expresa (en el caso de que el ámbito sea regional, deberán seguirse los procedimientos de cada comunidad).

Según ha aclarado, campañas recientes como la de #Médulaparamateo no tendrían ningún problema en recibir la autorización siempre que cumplan con lo estipulado, es decir, no hagan un llamamiento para una persona en concreto, no realicen peticiones económicas y aporten una información veraz. "Si el mensaje es positivo y cumple lo establecido en las leyes, siempre será bienvenido", subraya el director de la ONT.
Procedimiento de autorización

Cuando estas campañas superen el ámbito de una comunidad autónoma los interesados deberán presentar una solicitud de autorización que será elevada a la ONT.

Así, la resolución deberá dictarse y notificarse al interesado en elplazo máximo de tres meses a contar desde la fecha de presentación de la solicitud.

Además se contará con un informe de la Comisión de Trasplantes del Consejo Interterritorial del Sistema Nacional de Salud, cuando se rocen competencias de las comunidades autónomas. "Siempre va a ser una decisión consensuada con la CCAA y arbitrada por la ONT", advierte.

Así, con el fin de asegurar la unidad de criterio en la adopción de decisiones, las comunidades autónomas enviarán a la Secretaría de la Comisión copia de las solicitudes presentadas en sus respectivos registros, relativas a las actividades de promoción y publicidad objeto de la presente orden, a efectos de que, por el citado órgano colegiado, se emita informe previo a la adopción de la resolución de la correspondiente comunidad autónoma.

La normativa publicada en el BOE afecta también a la promoción de la donación de gametos (óvulos y espermatozoides), que "no son competencia" de la ONT pero era necesaria su regulación. Así, se deberá acreditar lo dispuesto por la Ley sobre técnicas de reproducción humana asistida, con respecto a la prohibición de la selección del donante por parte de los receptores de gametos, a la compensación por la donación y a la preservación del anonimato de los donantes.

Esto significa que, explica Matesanz, "se solicitará un informe a la Comisión Nacional de Reproducción Asistida que será la que se pronunciará sobre si procede o no".

Otro "caballo de batalla", señala el director de la ONT, que se verá subsanado con ésta orden serán aquellas iniciativas de promoción y publicidad de los bancos privados de cordón umbilical. "No es un fenómeno en modo alguno español, más bien internacional, pero cuando se empezaron a publicitar los bancos las posibilidades terapéuticas de estas técnicas se exageraron mucho", ha afirmado Matesanz, explicando que lo que se pretende evitar son falsas expectativas ante los beneficios de estas técnicas.

Cuando la 'quimio' nubla la mente



Si le preguntan por los efectos secundarios de la quimioterapia, seguro que el primero que se le viene a la cabeza es la caída del cabello. Pero las secuelas de los fármacos oncológicos no se limitan a eso, y quizás los menos conocidos de todos ellos tienen que ver con las alteraciones cognitivas que sufren los pacientes, y que pueden aparecer incluso años después del tratamiento.

Despistes, pérdidas de memoria y de atención, dificultades en el lenguaje... las secuelas cognitivas de la quimioterapia no son unas desconocidas en las consultas de Oncología, pero sólo recientemente se han podido demostrar objetivamente mediante estudios de imagen cerebral y diversos análisis y test psicológicos. Hasta ahora, como admiten algunos oncólogos, esta neblina cerebral se atribuía a la propia confusión del paciente por el diagnóstico, a su edad, a la cirugía o incluso a las secuelas de la menopausia precoz inducida por algunos medicamentos.

"Durante el inicio del tratamiento, estos despistes se atribuyen sobre todo a la situación emocional que provoca el diagnóstico", explica a ELMUNDO.es la doctora Ana Blasco, especialista del comité de cuidados continuos de la Sociedad Española de Oncología Médica (SEOM), "pero a medida que hemos empezado a ver alteraciones persistentes en pacientes ya curados y largos supervivientes hemos empezado a ver que hay algo más".

Esos problemas mentales derivados de la quimioterapia suelen ser, continúa la doctora Blasco, muy sutiles al principio, pero más llamativos conforme pasa el tiempo. Como ella, muchos especialistas coinciden en que los oncólogos no le han dado hasta ahora demasiada importancia en la consulta; "aunque es algo que deberíamos tener más en cuenta y que deberíamos preguntar rutinariamente, igual que preguntamos por las náuseas", admite esta especialista del Hospital General Universitario de Valencia.

Una idea en la que coincide Patricia Ganz, directora de Investigación en el Jonsson Comprehensive Cancer Center de la Universidad de California, en un reciente artículo publicado en la revista Journal of the National Cancer Institute: "A menudo, estas quejas del paciente se atribuyen a su ansiedad o a los síntomas depresivos que acarrea el diagnóstico de cáncer; lo que limitaba la confianza en que estos problemas cognitivos fueran una verdadera secuela de la quimioterapia".

Ganz ha dirigido una investigación con 189 mujeres con cáncer de mama, que fueron sometidas a exhaustivos test neuropsicológicos a lo largo de todo su tratamiento oncológico. En comparación con un grupo de mujeres sanas de su misma edad, las afectadas por la enfermedad tenían un 23% más de problemas de memoria y un 19% más de quejas sobre dificultades en sus funciones ejecutivas (por ejemplo, a la hora de hacer tareas cotidianas de la vida diaria).

En su estudio, las mujeres con más dificultades cognitivas fueron aquellas tratadas conjuntamente con quimio y radioterapia, aunque estudios anteriores han observado que los problemas de memoria o atención pueden aparecer en pacientes tratados únicamente con radioterapia; lo que refuerza esa sensación de los oncólogos de que no puede echarse toda la culpa a la quimio.

No ha sido hasta muy recientemente cuando los test basados en las propias respuestas de los pacientes se han visto reforzados con el uso de pruebas de imagen que han demostrado que, efectivamente,la quimioterapia provoca cambios físicos en algunas estructuras cerebrales (como una reducción en la densidad de la materia blanca observada en mujeres supervivientes a un cáncer de mama).

La doctora Blasco admite que no se conoce el mecanismo exacto por el que la quimioterapia provoca esta especie de neblina mental (al fin y al cabo la mayoría de estos fármacos no atraviesa la barrera que protege el cerebro). "Probablemente existe una causa inflamatoria, una alteración de las citoquinas que afecta a la sustancia blanca", admite la especialista de SEOM, "pero hoy por hoy no conocemos la fisiopatología exacta de este fenómeno".

Como admiten los especialistas, el problema del llamado chemo brain (un juego de palabras en inglés que hace referencia al efecto de la quimioterapia en el cerebro) es que varía mucho de unos pacientes a otros. En función del tipo de cáncer y los medicamentos empleados, las secuelas mentales pueden aparecer inmediatamente después de iniciar la terapia, demorarse años, no aparecer nunca, afectar a la memoria, la atención, ser sutiles, más agudos...

Además, como recuerda Ellen Walker, profesora de Farmacología en la Universidad de Temple (EEUU), en un artículo reciente en la revistaThe New Scientist , existen numerosos factores alrededor de un paciente oncológico que pueden confundir sobre el verdadero origen de esos despistes (que afectan, según las estadísticas, a un rango que puede oscilar entre el 15% y el 75% de los pacientes con cáncer).

De momento, como admite la especialista española, lo único que se puede hacer frente a este problema es tratar de detectarlo cuando antes, comentarlo con el oncólogo en cuanto empiecen a notarse las primeras lagunas o dificultades de concentración y poner a trabajar el cerebro con algún tipo de ejercicios mentales; "una especie de fisioterapia del cerebro".

domingo, 5 de enero de 2014

Europa endurece las medidas contra la contaminación, pero no tanto como recomienda la OMS



La Comisión Europea (CE) presentó hoy la revisión de la actual legislación de protección del aire, que incluye nuevas medidas y eleva las exigencias a los Estados miembros para frenar de aquí a 2030 la contaminación del aire, que cada año causa la muerte a 400.000 personas en la Unión Europea (UE).

"A pesar de los progresos aún estamos lejos de nuestro objetivo a largo plazo (...), que es alcanzar niveles de calidad del aire que no tengan un efecto negativo en la salud y el medio ambiente", dijo el comisario de Medio Ambiente, Janez Potocnik, durante la presentación de las medidas en Bruselas.

Recordó que la contaminación del aire provoca 400.000 muertes al año en Europa, diez veces más que los accidentes de tráfico, perjudica al medio ambiente y, además, genera una factura a los estados de 23.000 millones de euros al año solo en gastos directos.

Para atajar estos problemas la CE inició en 2011 una revisión de la legislación vigente que ha culminado con estas medidas, dirigidas aconseguir que los Estados cumplan los objetivos fijados para 2020, entre ellos el control de las emisiones de los vehículos diesel.

También incluye una revisión de la directiva de límites nacionales que eleva las exigencias de cara a 2030 y una nueva directiva para reducir las emisiones de las instalaciones de combustión de tamaño medio (como los generadores de grandes edificios).

La prioridad del Ejecutivo comunitario de cara a 2020 es acabar con el incumplimiento generalizado de la legislación, que a día de hoy se infringe en 17 de los 28 Estados miembros: España, Bélgica, Bulgaria, República Checa, Alemana, Grecia, Francia, Italia, Letonia, Hungría, Austria, Polonia, Portugal, Rumanía, Eslovenia, Eslovaquia y Suecia.

En el caso de España, la CE abrió un expediente sancionador por no cumplir con la normativa, algo que debía haber hecho en 2010, y le ha negado una moratoria hasta 2015 para adaptarse a las normas por considerar que las medidas propuestas por el Ejecutivo no garantizaban que lo lograse.

No obstante, el proceso está aún en su fase inicial, por lo que una eventual sanción no llegaría hasta dentro de cuatro años, según fuentes comunitarias.

"Lo que proponemos son límites de emisiones nacionales mas estrictos, porque en el pasado han demostrado ser la herramienta más efectiva", explicó Potocnick, quien señaló que los criterios para medir la calidad del aire no se han modificado.

La CE ha establecido que a partir de 2020 la presencia de sustancias nocivas en el aire deberá reducirse de media un 31,4 % en la UE, en tanto que a partir de 2030 el descenso deberá ser del 51,8 % y afectará también al gas metano.

Para España, los objetivos de reducción son del 33,8 % y 56,3 % de media, respectivamente. A día de hoy, el país sobrepasa las tasas permitidas de varios de estos compuestos (que de media es de 25 microgramos por metro cúbico), especialmente en las áreas metropolitanas de Madrid y Barcelona, pero también en ciertas zonas de Asturias, Canarias y Andalucía.

Por otro lado, "los Estados miembros tendrán que asegurarse de que los sectores de industria, transporte y energía reducen sus emisiones", explicó el responsable de Medio Ambiente.

En este sentido, ha elaborado un programa de "Aire Puro" con medidas para que de aquí a 2020 los países resuelvan el problema de las emisiones de los coches diesel, fomenten el transporte sostenible y mejoren sus sistemas de control de la calidad del aire, también a nivel regional y local.

Por último, el paquete incluye una nueva directiva que fija límites para las emisiones de las plantas de combustión de mediano tamaño, como los generadores de grandes edificios o las industrias pequeñas, que hasta ahora no estaban reguladas.

Preguntado por el coste de estas medidas para ciertos sectores, como el agrícola, Potocnik explicó que los estudios realizados muestran que "el modo más eficiente de mejorar la calidad del aire es abordar sectores específicos".

"Todos los sectores tendrán que participar (en la reducción de emisiones) en una proporción justa", dijo el comisario, quien destacó los esfuerzos hechos por los sectores de transportes o naval.

Además la CE ha propuesto al Consejo que ratifique el enmendado protocolo de Gotemburgo, que regula las emisiones de ozono troposférico.

El Ejecutivo comunitario prevé que con estas medidas se eviten 58.000 muertes prematuras, se salven cerca de 200.000 kilómetros cuadrados de bosques y se ahorren entre 40.000 y 140.000 millones de euros en costes directos e indirectos.

El paquete debe ahora consensuarse con el Parlamento Europeo y el Consejo Europeo, por lo que la aprobación definitiva podría demorarse entre uno y tres años.

"Aún tardaremos al menos 30 años en pisar Marte"

Su aspecto de abuela afable (bajita, de movimientos lentos y sonrisa acogedora) quizá pueda despistar sobre la vida de Gerda Horneck (Alemania, 1939). Esta microbióloga vivió en primera línea la edad dorada de las aventuras espaciales durante la Guerra Fría. Participó en varias misiones del Apolo y fue una de las 'madres' de la astrobiología cuando nadie conocía esa palabra. A sus 74 años sigue en activo. Trabaja en el Instituto de Medicina Aerosespacial del Centro Aeroespacial Alemán (DLR) donde comparte su conocimiento y se emociona con los nuevos retos de la Ciencia Espacial. Es experta en la búsqueda de condiciones de vida en el universo, uno de los principales objetivos de la Astronomía actual. Estos días estará en Madrid donde participará en el III Ciclo de Conferencias de Astrofísica y Cosmología que se celebra en la Fundación BBVA.

La previsión del tiempo solar



Michael Fish, el más popular 'hombre del tiempo' en la historia de la BBC, tiene una mancha imborrable en su currículo. Las previsiones de la agencia meteorológica de Reino Unido (MET, en sus siglas en inglés) fallaron en octubre de 1987 y la tarde del 15 de esa ya mítica jornada el genial experto dijo a su audiencia: "no se preocupen, no viene un huracán en nuestra dirección". Esa misma noche azotó una tormenta con vientos huracanados que provocó una veintena de muertes y destrozos en todo el país. Aún se recuerda como 'la gran tormenta', la más intensa y destructiva en 300 años. El colosal error sigue siendo una auténtica pesadilla para Fish.

La MET opta desde entonces por la prudencia en sus partes meteorológicos. Ahora se embarca en una aventura galáctica para predecir el tiempo en el espacio con periódica regularidad. El gobierno ha destinado a la agencia una inyección de 4.6 millones de libras (unos 5,5 millones de euros), en un periodo de tres años, para la puesta en marcha de un sistema de predicciones de tormentas y otros fenómenos solares. Los pronósticos se realizarán diariamente y beneficiarán a las compañías eléctricas y los usuarios de tecnologías punta.

"Las erupciones solares, las tormentas espaciales y el viento solar pueden afectar a los satélites, GPS, redes energéticas y radio comunicaciones. Las previsiones del tiempo espacial ayudarán al gobierno y a los sectores comercial e industrial a tomar medidas para asegurar la continuidad en el suministro de servicios", señala la MET en un comunicado difundido ayer. Los partes espaciales se emitirán diariamente a partir de la primavera de 2014.

Las tormentas solares se producen por la emisión de partículas altamente energéticas desde la corona o aureola solar. Estas partículas viajan a millones de kilómetros por hora en distintas direcciones. Cuando el recorrido apunta hacia la Tierra, el impacto puede demorarse entre 17 horas y tres días, dando margen a su detección a tiempo para evitar graves interrupciones o destrozos en las redes energéticas y de comunicación.

Funcionamiento a partir de 2014

El proyecto se desarrolla en asociación con el Servicio Nacional del Tiempo de la NOAA, siglas de la agencia estadounidense oceánica y atmosférica. También colaboran en la puesta en marcha del sistema de mediciones espaciales la Universidad de Bath y empresas privadas británicas. Dependiente del Ministerio de Negocios e Innovación pero con autonomía comercial, la MET ofrecerá su nuevo servicio tanto al gobierno como al sector privado. "El tiempo espacial se identifica entre los riesgos más importantes que pueden dañar nuestra infraestructura nacional. Hay dos riesgos cruciales: la red de transformadores y los sistemas de satélite", explica Chris Willets, secretario de Estado para Universidades y Ciencia.

La creciente dependencia en las tecnologías por satélite ha acelerado el estudio y conquista de los fenómenos solares. Una macro tormenta espacial es un fenómeno raro pero altamente destructivo que, de acuerdo con los expertos, solo se produce cada cien o doscientos años. La más sonada aconteció en 1859, cuando cayó el sistema de telegrafía en todo el mundo.

"El tiempo espacial es una ciencia relativamente inmadura pero su comprensión está creciendo rápidamente", señala Mark Gibbs, responsable en el área dentro de la MET. De acuerdo con el experto, la inversión gubernamental permitirá completar la capacidad previsora que británicos y estadounidenses vienen desarrollando en los últimos dos años de forma que en 2014 podrán comenzar a distribuir partes regulares y alertas a los sectores clave.

Inmersión en una luna de Marte



Se llaman Fobos y Deimos y su origen intriga a los científicos. Se trata de las dos pequeñas lunas del planeta Marte. Para estudiarlas, los científicos han diseñado complejas misiones espaciales, como lafallida Fobos-Grunt, con la que Rusia intentó en 2011 enviar una sonda al sátelite Fobos, recoger muestras de su superficie y traerlas a la Tierra.

Los objetivos de la nave espacial Mars Express, que estos días cumple una década de estancia en la órbita de Marte, no eran tan ambiciosos. La sonda de la Agencia Espacial Europea (ESA) ha celebrado este aniversario realizando el mayor acercamiento a la superficie de la luna Fobos. La pasada madrugada se situó a sólo 45 kilómetros de su superficie.

Según ha informado la ESA, las maniobras se realizan a tanta velocidad que no estaba previsto que la sonda captara fotografías. El principal objetivo de este acercamiento era tomar datos sobre su campo gravitatorio que permitan a los científicos conocer mejor cómo es su estructura interna y medir los efectos del viento solar en esta luna.

En su blog sobre la misión Mars Express, el ingeniero James Godfrey informó de que en principio las maniobras de aproximación, cuyo seguimiento se está haciendo en colaboración con instrumentos de la NASA, marchaban según lo previsto. Los resultados científicos de las mediciones que realice, no obstante, tardarán en llegar varias semanas.
Diez años en Marte

Fobos es un pequeño cuerpo celeste que tiene unas medidas de 27x22x18 kilómetros, casi el doble que que su 'hermana' Deimos (que tiene un tamaño aproximado de 15x12x10 kilómetros) . Ambas fueron descubiertas a finales del siglo XIX por el astrónomo estadounidense Asaph Hall.

La temperatura global aumentará unos 4°C para el año 2100



Las temperaturas medias globales aumentarán por lo menos 4° C para el año 2100 y, potencialmente, más de 8° C para 2200 si las emisiones de dióxido de carbono no se reducen, según una nueva investigación publicada en la revista Nature. Los científicos hallaron que el climático global es más sensible al dióxido de carbono de lo que se señala en la mayoría de las estimaciones previas.

Esta nueva investigación también parece resolver uno de los grandes temas desconocidos de la sensibilidad climática, el papel de la formación de nubes y si esto va a tener un efecto positivo o negativo sobre el calentamiento global. La clave para esta estimación se puede encontrar en las observaciones en el mundo real de todo el papel del vapor de agua en la formación de nubes.

"Anteriormente, las estimaciones de la sensibilidad de la temperatura global a una duplicación del dióxido de carbono oscilaron entre 1,5° C y 5° C. Esta nueva investigación habla de que las temperaturas medias globales aumentarán entre un 3° C a 5° C, con una duplicación del dióxido de carbono", dijo el autor principal, Steven Sherwood, del Centro de Excelencia para el Clima de la Universidad de Nueva Gales del Sur.

Las observaciones muestran que cuando el vapor de agua es absorbido por la atmósfera a través de la evaporación, las corrientes ascendentes pueden elevarse a 15 kilometros para formar nubes que producen lluvias intensas o se elevan a pocos kilómetros antes de regresar a la superficie sin formar nubes de lluvia.
El desconocido papel de las nubes

Cuando las corrientes ascendentes se levantan a pocos kilómetros se reduce la cubierta total de nubes, ya que tiran más vapor lejos de las regiones más altas de formación de nubes. Sin embargo el vapor de agua no se aleja de las regiones de formación de nubes cuando sólo hay 15 kilometros de profundidad en las corrientes ascendentes.

Los investigadores encontraron que los modelos climáticos que muestran una baja respuesta de la temperatura global al dióxido de carbono no incluyen suficientemente este proceso de vapor de agua de nivel inferior. En su lugar, simulan casi todas las corrientes ascendentes en una elevación de 15 km y la formación de nubes.

Cuando sólo están presentes las corrientes ascendentes más profundas en los modelos climáticos, se forman más nubes y hay un aumento del reflejo de la luz solar. En consecuencia, el clima global en estos modelos se vuelve menos sensible en su respuesta al dióxido de carbono atmosférico. Sin embargo, las observaciones del mundo real muestran que este comportamiento es erróneo.

Cuando los procesos en los modelos climáticos se corrigen para que coincida con las observaciones en el mundo real, los modelos producen ciclos que tienen vapor de agua a una gama más amplia de alturas en la atmósfera, causando menos nubes que se forman conforme el clima se calienta. Esto aumenta la cantidad de luz solar y calor que entra en la atmósfera y, como resultado, eleva la sensibilidad de nuestro clima al dióxido de carbono o cualquier otra perturbación.

El resultado es que cuando los procesos de vapor de agua se representan correctamente, la sensibilidad del clima a una duplicación del dióxido de carbono, que se producirá en los próximos 50 años, significa que podemos esperar un aumento de temperatura de por lo menos 4° C para el año 2100 .

"El teléfono móvil va a desaparecer, estará integrado en nuestra ropa"



Cuando tenía seis años se encerraba durante horas en su cuarto "para inventar" máquinas como la del movimiento perpetuo. No sorprende, pues, que Tomás Palacios Gutiérrez (Jaén, 1978) decidiera convertirse en ingeniero de Telecomunicaciones. Tras estudiar y realizar sus primeras investigaciones en la Universidad Politécnica de Madrid (UPM), en 2002 se atrevió a cruzar el charco y viajar a EEUU. Allí se doctoró en Electrónica y Nanotecnología en la Universidad de California, en Santa Barbara, donde pudo dedicarse de lleno a lo que sigue siendo su obsesión: intentar que la electrónica funcione a más velocidad y sea más eficiente.

En 2006, con sólo 28 años, entró a formar parte del claustro de profesores del prestigioso Instituto de Tecnología de Massachusetts (MIT), donde creó el Centro para dispositivos con grafeno y sistemas bidimensionales (MIT Center for Graphene Devices and 2D Systems), que integra a una veintena de grupos investigadores. En su laboratorio del MIT idea y ensaya junto a su equipo los dispositivos electrónicos que utilizaremos en los próximos años. Un futuro que él ve bastante cercano y que imagina con electrónica por todas partes. "Ubicua" la llama.

Asentado en EEUU (se ha casado con una profesora de la Universidad de Harvard y tiene un niño de dos años y medio), Palacios ha visitado Madrid para recoger el Premio Jóvenes Investigadores Agustín de Betancourt 2013 concedido por la Real Academia de Ingeniería (RAI).

Hallan un enorme acuífero de agua líquida bajo el hielo de Groenlandia



Enterrada debajo de la nieve compactada y el hielo de Groenlandia se encuentra un gran depósito de agua líquida que ha sido descubierto por los investigadores con datos de la Operación IceBridge de la NASA.

Un equipo de glaciólogos encontró casualmente el acuífero durante una perforación en el sureste de Groenlandia en 2011 para estudiar la acumulación de nieve. Dos de sus núcleos de hielo estaban goteando agua cuando los científicos los perforaron a la superficie, a pesar de las temperaturas del aire eran inferiores a -20 grados centígrados.

Los investigadores después utilizaron los datos de radar Operación IceBridge de la NASA para confinar los límites de la reserva de agua, que se extiende más de 69.930 kilómetros cuadrados, un área algo inferior a Castilla La Mancha. El agua en el acuífero tiene el potencial de elevar el nivel global del mar en 0,4 centímetros.

El sudeste de Groenlandia es una región de alta acumulación de nieve. Los investigadores ahora creen que la gruesa capa de nieve aísla el acuífero de las temperaturas superficiales frías de invierno, lo que le permite permanecer líquido durante todo el año . El acuífero es alimentado por agua de deshielo que se filtra desde la superficie durante el verano.