martes, 20 de mayo de 2014

Una prueba no invasiva para uno de los peores efectos adversos del VIH



Sentir hormigueo o escozor en los dedos de los pies o de las manos es un síntoma tan difuso que pocas veces se puede asociar a un problema concreto a la primera pero, si este evoluciona a dolor y se extiende a todas las extremidades, puede ser el aviso de un síndrome que, sin ser grave, sí perjudica gravemente la calidad de vida de los infectados por el virus de inmunodeficiencia humana (VIH). Se trata de la neuropatía periférica inducida por el VIH causada precisamente por un deterioro de los nervios periféricos del cuerpo, los encargados de transportar las señales entre el sistema nervioso central y los músculos, la piel y los órganos internos.

Hasta ahora, para diagnosticar esta dolencia, que puede afectar hasta a un 30% de seropositivos -el porcentaje es más elevado en los de mayor edad- se utilizaba un procedimiento invasivo y doloroso para el paciente, la biopsia de piel que, tras la extracción de una muestra de tejido dérmico, sirve a los médicos para observar si existe daño en las puntas de las fibras nerviosas.

Oro para controlar la coagulación de la sangre



En la actualidad, la coagulación de la sangre se puede controlar con medicamentos como la warfarina, heparina o salicilatos (Aspirina). Sin embargo, tienen el inconveniente que intervienen en todo el cuerpo. "¿Y porqué tenemos que afectar a todo el cuerpo, si la operación sólo se hace en un sitio concreto?", se pregunta la autora de la publicación, Helena De Puig. La respuesta reside en esta nueva técnica que permite actuar de manera localizada, "algo que hasta ahora había sido imposible", señala la científica. Por ejemplo, en caso de una cirugía en el brazo, las nanopartículas pueden aplicarse directamente en esta zona y sin la necesidad de afectar a todo el cuerpo.

Otro de los inconvenientes de la medicación actual que se emplea -para coagular o anticoagular- es la espera de los efectos y cómo contrarrestarlos. "Es como tener una bombilla encendida, y si quieres apagarla, tienes que esperar a que se consuma toda o, si no, puedes darle con un martillo", describe la investigadora. Ahora, en cambio, esta nueva técnica permite activar y desactivar la coagulación como si le diéramos a un interruptor.

Nanoestrellas con dos caras



En la mitología romana Jano era el dios de las puertas, de los comienzos y las transiciones entre el pasado y el futuro. De hecho el primer mes del año, enero (del latín, ianuarus), lleva su nombre. Esta deidad se caracterizaba por su perfil de dos caras, un hecho que ha inspirado a los científicos a la hora de bautizar a sus diseños químicos con dos partes bien diferenciadas.

Ahora un equipo de investigadores de CIC biomaGUNE, en San Sebastián, junto a colegas de la universidad belga de Amberes, han creado unas partículas de Jano de tamaño nanométrico. Están constituidas por óxido de silicio en una cara y puntas de oro en la otra.

"Estas nanoestrellas poseen propiedades ópticas y electrónicas que vienen determinadas en gran medida por sus pequeñas dimensiones y su morfología", explica a SINC Luis Liz-Marzán, autor principal de este trabajo recogido en la revista Chemical Communications.

CIENCIA Construirá un nuevo centro que costará 250 millones de euros El MIT apuesta por la nanoinvestigación



El MIT (Instituto Tecnológico de Massachusetts) ampliará el campus con la construcción de un edificio -bajo el nombre de MIT.nano- dedicado exclusivamente a proyectos de nano investigación. La instalación empezará a construirse el año que viene pero no estará funcionando a pleno rendimiento hasta el 2018. Según relata la web del The Boston Globe, la inversión asciende a 350 millones de dólares -algo superior a 250 millones de euros- y tendrá la extensión de dos campos de futbol.

El edificio tendrá un lugar de honor en el campus dado que estará al lado del emblemático Dome. Con esta construcción, el MIT duplicará las instalaciones dedicadas a la nanoinvestigación que, actualmente, están repartidas entre varios laboratorios. Se espera que unos 200.000 investigadores puedan desarrollar sus experimentos a nano escala, o lo que es lo mismo, a una escala similar a la 1/100.000 parte del grosor de un pelo.

Así se desvanece el Ártico



El Noorderlicht (Aurora Boreal, en holandés) es un elegante velero de dos mástiles que navega en verano por la impresionante costa del archipiélago de Svalbard, en el Ártico noruego. Para el invierno, sus propietarios le encontraron un uso encantador. En febrero lo llevan hasta un fiordo cercano a Longyearbyen, el principal núcleo habitado de Svalbard, y dejan que lo atrape el hielo. Se convierte así en un diminuto hotel congelado en medio de la nada, al que se llega tras una excursión en trineo de perros o moto de nieve. Pero este invierno en los fiordos del oeste de Svalbard hay agua dónde debería haber hielo y el Noorderlicht ha tenido que quedarse amarrado en el muelle de Longyearbyen.

Es solo una pequeña anécdota de un pequeño rincón del Ártico, aunque ilustrativa de cómo está transformando el cambio climático esta región del planeta. Aquí, el aumento de las temperaturas ha sido espectacular: desde 1951, la región se ha calentado casi el doble de la media global. La reducción del efecto albedo está retroalimentando el calentamiento, pues al derretirse el hielo queda expuesta a los rayos del sol la superficie oscura del agua, que absorbe mucho más calor.

Más del 70% de los envases se reciclaron en España en 2013



Los españoles reciclaron en 2013 un total de 1,2 millones de toneladas de envases domésticos de latas, bricks, plástico, papel y cartón, lo que representa un 71,9 por ciento de los 1,7 millones de toneladas de envases que cada año se ponen en el mercado 12.000 empresas, según datos de Ecoembes, que destaca que la cifra es un 2 por ciento superior a la de 2012.

El presidente de Ecoembes, Ignacio González, ha destacado que esta cifra sitúa a España en la "champions leage" del reciclaje en Europa, entre los 10 primeros países, ya que se supera el objetivo marcado por la normativa comunitaria en esta materia. "Me llena de orgullo porque cada punto porcentual de aumento es más difícil de lograr", ha manifestado González que ha recordado que, de acuerdo con la filosofía de Ecoembes, "no hay mejor reciclaje que el envase que no se pone en el mercado".

Por tipo de materiales en 2013, se ha reciclado el 56,6 por ciento de los envases de plástico frente al 22,5 al que obliga la Directiva de Residuos; el 81,9 por ciento de los envases de papel y cartón, frente al 60 por ciento objetivo y el 84,5 por ciento de los de metal, frente al 50 por ciento que fija la norma.

Por su parte, el director general de Ecoembes, Óscar Martín, ha precisado que los 1,7 millones de toneladas de envases de los contenedores amarillo y azul representan un 8 por ciento del total de residuos municipales y que, junto al 7 por ciento que gestiona Ecovidrio, supone que el 15% de los residuos municipales dependen de la gestión de los propios productores que desde 1998 han destinado un total de 4.400 millones de euros para este fin y que han ahorrado más de 444.000 toneladas de materias primas.

La Casa Blanca afirma que el cambio climático tiene ya claros efectos en EEUU







Los efectos del cambio climático, lejos de ser una amenaza distante, se notan ya en cada rincón de Estados Unidos, condenado a un "futuro recalentado" por temperaturas que seguirán subiendo en las próximas décadas, según un informe científico divulgado hoy por la Casa Blanca.

Un aumento de las temperaturas de casi 1,1ºC en el último siglo ha provocado que las olas de calor sean cada vez más comunes, que los incendios sean más graves, que aumenten las lluvias torrenciales y que el agua escasee en las regiones más secas del país, según el documento de la Presidencia de EEUU.

"El cambio climático, que una vez se co


nsideró un problema para un futuro distante, se ha instalado firmemente en el presente", dice el informe, elaborado durante cuatro años por científicos de todo el país, supervisado por el Gobierno del presidente Barack Obama y titulado Evaluación Nacional del Clima.

La OMS alerta del aumento de la contaminación ambiental en las ciudades

La Organización Mundial de la Salud (OMS) ha alertado de un aumento de la contaminación ambiental en la mayoría de las ciudades del mundo ya que casi el 90 por ciento de las urbes que miden su polución superan los niveles de calidad que establece este organismo de Naciones Unidas, con el consiguiente riesgo de que sus habitantes sufran más problemas respiratorios y otras patologías.
Este organismo ha actualizado su base de datos sobre calidad del aire urbano, en la que participan un total de 1.600 ciudades de 91 países --500 más que en el anterior recuento, realizado en 2011--, y ha demostrado que actualmente sólo el 12% de las personas que viven en estas ciudades respiran aire limpio y alrededor de la mitad está expuesta a niveles de contaminación 2,5 veces mayores a los que establece la OMS.

Ballenas azules aplastadas por bloques de hielo



A los pueblos de Trout River y Rocky Harbour (literalmente Río de la Trucha y Puerto Rocoso) en la isla de Terranova, en Canadá, les ha caído el Gordo de la Madre Naturaleza, bajo la forma de dos ballenas azules muertas. Solo la de Trout River mide 23 metros y 31 centímetros de longitud -un ejemplar «bastante grande», incluso para los parámetros de esa especie en el Atlántico Norte, según explica el biólogo Trevor Branch, de la Universidad del Estado de Washington, a EL MUNDO-, lo que implica entre 100 y 130 toneladas de carne, el equivalente de 20 o 30 elefantes africanos, pudriéndose al sol.

Todo ello por no hablar de la posibilidad de que los cadáveres, inflados por los gases que se producen en el proceso de descomposición, exploten y rieguen de carne putrefacta y vísceras a los 688 habitantes de Trout River y a los 979 de Rocky Harbour.

Solo esta semana las autoridades han enviado equipos para remolcar a los cetáceos y llevar sus esqueletos al Real Museo de la provincia de Ontario. Limpiar la carne y dejar solo los huesos lleva una semana de trabajo a un equipo integrado por seis personas.

Las dos ballenas murieron aplastadas por bloques de hielo que las corrientes marinas introdujeron en la desembocadura del río San Lorenzo, donde cada primavera y verano se concentran entre 25 y 110 animales de esta especie. El fenómeno no es inusual, pero sí el número de muertes: este año han sido nueve las ballenas o rorcuales azules que han muerto por esa causa.

Es una pequeña catástrofe ecológica causada por la propia naturaleza, porque esos animales formaban parte de una población de apenas 250 ballenas. Entre Islandia y Azores hay alrededor de 1.000 rorcuales azules. Eso es todo lo que queda del mayor animal que jamás ha existido en los más de 50 millones de kilómetros cuadrados (unas 100 veces la Península Ibérica) que forman el Atlántico Norte.

El deshielo ' irreversible' de la Antártida

L

a contracción de los glaciares en la Antártida occidental ha cruzado un umbral y es ahora "irreversible" e "imparable", según afirmaron el lunes 12 de mayo científicos que han estudiado los datos recogidos durante cuatro décadas por la NASA.

"Este estudio muestra que hemos cruzado un umbral crítico", afirmó Tom Wagner, científico del programa de criósfera en la agencia espacial estadounidense, y añadió que "no se sustenta en simulacros de computadora o modelos numéricos".

"Esto se apoya en la interpretación empírica de más de cuarenta años de observaciones desde satélites de la NASA", agregó.

Eric Rignot, profesor de Ciencias del Sistema de la Tierra de la Universidad de California y glaciólogo de la NASA, sostuvo que "la observación deja en evidencia un gran sector de retirada irreversible de los glaciares".

"Hemos pasado ya el punto sin retorno y esto tendrá consecuencias mayores para los niveles de los mares en todo el mundo", dijo Rignot, quien agregó que este proceso "podría triplicar su contribución al nivel de los océanos".

Más de un millón de bosnios, afectados por las inundaciones

Las inundaciones más devastadoras del último siglo que ha dejado los Balcanes anegados y ha afectado a un millón de ciudadanos bosnios. Así lo ha expresado el ministro de Exteriores, Zlatko Lagumdzija, durante una rueda de prensa en la que ha facilitado cifras de la catástrofe. Por ejemplo, Lagumdzija ha asegurado a Reuters que más de 100.000 casas han quedado destrozados y que alrededor de un millón de personas no tiene acceso a agua potable. "Las consecuencias de la inundación son aterradoras", ha resumido el titular de Exteriores.

La mancha menguante de Júpiter



La característica Gran Mancha Roja de Júpiter, una gigantesca tormenta más grande que la Tierra, está encogiendo a un ritmo cada vez más acelerado. En los años 30, los astrónomos detectaron por primera vez que su tamaño se estaba reduciendo, e incluso alterando su forma de un óvalo a un círculo. Pero ahora, nuevas imágenes captadas por el telescopio espacial Hubble muestran que las dimensiones de la mancha son más pequeñas que nunca.

La Gran Mancha Roja es una tormenta circular anticiclónica en cuyo interior soplan vientos a velocidades inmensas que alcanzan cientos de kilómetros por hora.

Las primeras observaciones astronómicas de este fenómeno se registraron a finales del siglo XIX, y en aquella época se calculó que su tamaño abarcaba 41.000 kilómetros desde sus dos extremos (suficiente para albergar cómodamente a tres planetas como el nuestro).

Entre 1979 y 1980, la sonda Voyager de la NASA comprobó que la mancha había menguado a casi la mitad de este tamaño, abarcando 23.335 kilómetros. Pero ahora, el Hubble ha comprobado que el 'ojo' de Júpiter ha encogido todavía más.

"Las observaciones del Hubble confirman que la mancha se encuentra ahora justo por debajo de 16.500 kilómetros de un extremo a otro, el diámetro más pequeño registrado hasta ahora", asegura Amy Simon, del Centro de Vuelos Espaciales Goddard de la NASA, en un comunicado difundido por la agencia espacial estadounidense.

Algunas observaciones realizadas por astrónomos aficionados desde el año 2012 ya habían detectado que la reducción del tamaño de la mancha se había acelerado. De hecho, los expertos calculan que su 'cintura' está menguando a un ritmo de 1.000 kilómetros cada año. Las causas de esta reducción de su tamaño por el momento se desconocen.

"En nuestras nuevas observaciones, es evidente que unos pequeños remolinos están penetrando en la tormenta", explica Simon. "Nuestra hipótesis es que quizás esto explique la reducción acelerada de la mancha, al alterar sus dinámicas internas".

La 'venganza de la grasa' triunfa en el 'Club de la Comedia' de la Ciencia






Si siempre es difícil hacer que el público se ría con un monólogo, todavía lo es más si se trata de un monólogo científico. Si, además, este monólogo trata sobre un problema médico tan grave como la obesidad y la diabetes, entonces parece una misión casi imposible. Pero Ricardo Moure, biólogo de la Universidad de Barcelona, consiguió que más de 400 personas que acudieron la noche del miércoles a la sala Galileo Galilei (Madrid) riesen a carcajadas sin parar, desde el momento que pisó el escenario.

El rigor científico, así como el ingenio y la pasión de Moure a la hora de presentar su monólogo, fueron las claves que le permitieron ganar la segunda edición del concurso nacional de monólogos científicos "Famelab", organizado por la Fundación Española para la Ciencia y la Tecnología (FECYT), con la colaboración de Obra Social 'la Caixa'.

El joven biólogo empezó su 'show' en este insólito 'Club de la Comedia' científica contando cuántos "gordos" había en la sala, antes de pasar a explicar por qué los adipocitos- células que forman el tejido graso del cuerpo- sufren a medida que aumenta la masa corporal. Y finalizó explicando cómo puede producirse la diabetes bajo el grito de "¡la venganza de los adipocitos!".
A veces, la Naturaleza resulta confusa o demasiado compleja como para que podamos captarla ateniéndonos únicamente al conocimiento científico.
La Ciencia nos enseña que los procesos a nuestro alrededor siguen comportamientos regulares, nos empuja a pensar que, tarde o temprano, el ser humano será un perfecto historiador de sucesos pasados y podrá adivinar los futuros. Nos invita a admirar la Naturaleza como sustrato abstracto de materia y energía en el que todo ocurre bajo mecanismos bien engranados. En esta concepción se admite el azar como una ausencia de conocimientos o la idea de Dios como una explicación temporal a los eventos que observamos absortos en el devenir de nuestra existencia, tremendamente corta si la comparamos con la edad del Universo o la de la Tierra. Este modo de entender la Ciencia también niega la libertad humana, puesto que nos supone sujetos al mismo determinismo de las leyes de la Física que gobiernan el comportamiento de cualquier otro objeto del Universo. Por último, nos infunde la idea de que los cambios son meras apariencias, evocando al sabio Parménides, allá por el siglo VI a. C., pues todo es un continuo de estados causal y suavemente relacionados, sin posibilidad de que alguno se rebele con respecto a los que le preceden.
Así es como tendemos a ver el mundo macroscópico que nos rodea: es un mundo casi Mecanicista, siguiendo la doctrina que surgió en el siglo XVII como extrapolación del conocimiento del momento. Pero los avances de la Física de principios del siglo XX nos hicieron de espejo ante estos prejuicios y dieron al azar un papel protagonista. Surgió la Teoría Cuántica, con la que empezamos a explicar los sucesos que ocurren a nivel molecular y atómico, aunque a expensas, por momentos, de desterrar nuestra intuición. Esta teoría ajusta el azar en las ecuaciones que gobiernan los fenómenos naturales sin identificarlo como desconocimiento sino como realidad. Quizás nunca nos acostumbremos a ello. Surgió también la Teoría del Caos en la que el azar aparece como un acto de rendición a la imposibilidad de conocer todos los factores que necesitamos para predecir o retrodecir sucesos.

'Game over' al cáncer


es un juego online que permite a los usuarios 'de a pie' -no hace falta estar titulado por el MIT en nanoingeniería- manipular nanopartículas para avanzar en el tratamiento del cáncer. La plataforma combina una función lúdica -el juego-, pedagógica -tutorías intercaladas a lo largo de la partida- y científica dado que las estrategias de los jugadores con mejor puntuación serán consideradas por el equipo de Nanodoc para implementarlas in vitro.

Si uno se anima, jugar es fácil. Dar con el resultado, un pelín más complicado. El juego recrea un escenario en el que hay que administrar nanopartículas a un paciente con el objetivo de matar a las células cancerígenas, pero sin dañar a las buenas. Así, uno tiene que saber manejar dosis, tamaño o el cargamento de las nanopartículas hasta dar con su diseño perfecto. El logro es convertirse en un Nanodoc, en lo personal, y contribuir a la ciencia, en lo colectivo. He aquí la presentación del juego.

Esta iniciativa de crowdsourcing -estrategia participativa que consiste en externalizar tareas a una comunidad- es fruto de la investigación en nanomedicina que se lleva a cabo en uno de los laboratorios del Instituto Koch de investigación del cáncer del MIT. Una de las colaboradoras del proyecto es la doctora en Ingeniería y especialista en robótica, Sabine Hauert, que compagina sus actividades entre el MIT y la universidad de Bristol.

Me reúno con ella en el MIT y me comenta las bondades de la plataforma en la que hasta ahora han participado 3.500 usuarios que han dejado más de 80.000 simulaciones en la base de datos. La primera pregunta es obvia... "¿Pero sin tener ni idea de qué es una nanopartícula, como puedo yo ayudar en la investigación del cáncer?", le pregunto.

"A medida que el juego avanza, hay cada vez más parámetros y combinaciones que configurar. En el laboratorio, optimizar todos esos parámetros nos lleva mucho tiempo y recursos hasta dar con los algoritmos adecuados para reproducir cada escenario. Y no siempre funciona. Lo sé por mi experiencia a lo largo de mi tesis. En cambio, Nanodoc nos permite que la gente practique y dé con soluciones que ni nosotros hemos previsto. El objetivo es llevar esto a la experimentación in vitro o in vivo", contesta la científica.

Así, entramos en la complejidad de las nanopartículas. ¿Qué las hace tan especiales?. Hauert destaca las ventajas de sus medidas. "Miden entre 1 y mil nanómetros, algo más pequeño que el diámetro de un pelo. Cuando las inyectamos en la sangre, se quedan en la circulación. No como los medicamentos habituales que, al ser incluso más pequeños, se infiltran en todo el cuerpo y desencadenan efectos secundarios en todas partes. Es el caso de la quimioterapia, por ejemplo".

Un biosensor de grafeno para detectar bacterias



Investigadores del CSIC y la Universidad Rovira i Virgili han participado en el diseño de un biosensor para la detección rápida y selectiva de bacterias vivas, como Staphylococcus aureus. La base de este desarrollo es el óxido de grafeno, un derivado químico que sirve como capa transductora, para convertir el evento de detección en una señal eléctrica, y un aptámero, una molécula de ácido nucleico de cadena sencilla que actúa como capa de detección.

"El óxido de grafeno, por su superficie, sus propiedades conductoras y capacitativas, es idóneo para el desarrollo de sensores electroquímicos. También es fácilmente procesable en forma de películas finas para anclar los aptámeros. El hecho de tener un sistema bidimensional fino representa una gran ventaja para la interacción y el funcionamiento del aptámero frente a otras sistemas como los nanotubos de carbono", explica el investigador del CSIC en el Instituto de Carboquímica Wolfgang K. Maser.

Con la funcionalización del sistema transductor con aptámeros tipo ADN, que actúan como capa para detectar los microorganismos, los investigadores han dado el último paso en la construcción del biosensor completo antes del estudio de su funcionalidad operativa. Según sus creadores, con un límite de detección de una unidad de formación de colonias, supera los métodos actuales en simplicidad y rendimiento.

"Este biosensor supera sistemas existentes en simplicidad y rendimiento y, por lo tanto, representa un progreso decisivo hacia sistemas de detección de microogranismos rápida y de tolerancia cero", destaca Jordi Riu, investigador de la Universidad Rovira i Virgili.

Nanofármacos inyectables contra el dolor crónico

Un total de veinte proyectos de científicos españoles han recibido este año las prestigiosas becas del Consejo Europeo de Investigación (ERC, por sus siglas en inglés). Uno de ellos, es Nanohedonism, un desarrollo planteado por Manuel Arruebo, investigador del departamento de Ingeniería Química de la Universidad de Zaragoza. Su objetivo es crear una nueva tecnología de nanopartículas con fármacos encapsulados en su interior, que se podrán inyectar y activar con un puntero láser cuando se quiera aliviar un dolor crónico.
Según explica Arruebo a Sinc, el proyecto, que se inició en marzo, cuenta con una financiación de 1,5 millones del ERC y tendrá cinco años de duración. Nanohedonism es la continuación de un estudio previo que él y su equipo realizaron en colaboración con el Massachusetts Institute of Technology (MIT) y que fue publicado en la revista PNAS.
Este proyecto consistió en el desarrollo de un sistema con nanopartículas de oro capaz de liberar fármacos contra la diabetes, también activado con luz. El dispositivo se probó con éxito en ratas diabéticas.

¿Una nueva guerra fría en el espacio?



Las tensiones entre Rusia y EEUU por la crisis de Ucrania han alcanzado niveles literalmente estratosféricos. En respuesta a las sanciones que el Gobierno estadounidense ha impuesto a empresas rusas por el papel de Moscú en el conflicto ucraniano, el Kremlin acaba de anunciar que no respaldará la prolongación de la vida de la Estación Espacial Internacional (ISS) más allá de la fecha inicialmente prevista de 2020, pese a que EEUU quiere extenderla al menos hasta 2024.

En lo que parece un retroceso a los viejos tiempos de la Guerra Fría, Rusia amenaza así a EEUU con dejarle sin capacidad para lanzar astronautas al espacio, ya que en estos momentos la NASA no tiene un vehículo propio para misiones tripuladas. Desde la jubilación de los transbordadores espaciales en julio de 2011, los estadounidenses dependen de las naves rusas Soyuz para trasladar a sus astronautas a la Estación Espacial.

'Hay mil millones de planetas en los que ha podido surgir la vida'

Martin Rees (York, Reino Unido, 1942) tiene la mirada viva de quien va un paso por delante. Lo suficiente como para ser consciente de lo que nunca alcanzará a comprender. Pide humildad ante cada reto intelectual inalcanzable. «Igual que un mono no puede entender la mecánica cuántica, puede que haya cosas que nosotros no podemos entender», dice con modestia sincera. Es Astrónomo Real de Reino Unido desde hace 20 años, profesor emérito de Cosmología y Astrofísica de la Universidad de Cambridge, escritor de éxito y tantas cosas más. Fue compañero de tesis doctoral de Stephen Hawking y suyo fue el trabajo que permitió desechar la teoría del Universo Estacionario que competía con la del Big Bang, lo que permitió concentrar los esfuerzos en una única dirección que cada vez se muestra más acertada. Acaba de visitar Madrid para impartir la conferencia de clausura del ciclo La ciencia del cosmos en la Fundación BBVA. Y no se corta cuando pone un pie fuera de la Astronomía para tomarle el pulso al efecto de la actividad humana sobre la Tierra.

Hallan en Argentina el 'dinosaurio más grande jamás descubierto'

Un equipo de científicos liderado por investigadores del Museo Paleontológico Egidio Feruglio (MEF) ha hallado en Argentina restos de una nueva especie de dinosaurio de hace 95 millones de años, posiblemente el más grande descubierto hasta el momento. Este excepcional descubrimiento no sólo destaca por las dimensiones y cantidad de fósiles, sino también por su inusual estado de preservación, aseguran desde el museo.
"Siete colosales dinosaurios herbívoros -quizás las mayores criaturas que anduvieron sobre la Tierra-", han sido encontrados en en la Provincia del Chubut, cerca de La Flecha.
Estos animales vivieron a finales de la era Mesozoica y desarrollaron formas verdaderamente gigantes. Se trata de dinosaurios saurópodos, caracterizados por su andar cuadrúpedo, con cuello y cola muy largos y un cráneo pequeño. Según los investigadores, los restos pertenecen a un grupo particular de dinosaurio saurópodo, denominado titanosaurios, que incluye animales extremadamente grandes como el Puertasaurus, hallado en Santa Cruz, y el Argentinosaurus de Neuquén.

Así se descubrió el esqueleto humano más antiguo de América



Naia era una mujer que vivía en las costas del Caribe mexicano y cuyos antepasados venían de Siberia. Un día cuando tenía 15 o 16 años fue a buscar agua dulce a una cueva por la que también se metían grandes animales para beber, cuando se cayó a un hoyo, se rompió la pelvis y murió.

Desde entonces han pasado casi 13.000 años, y unos 10.000 desde que todas esas cuevas quedaron inundadas después la última glaciación. Pero cuando el venezolano Alberto Nava miró las cuencas negras de la calavera de esta joven del Pleistoceno tardío a través de sus gafas de buzo, todavía no podía ni sospechar que tenía en sus manos los restos humanos más antiguos de América, el eslabón entre los hombres que llegaron al continente después de cruzar caminando el estrecho de Bering, y los pueblos indígenas americanos actuales, según confirmaron los investigadores esta semana. No obstante, algo intuía el buzo. "El regulador se nos salía de la boca", recuerda.

Era mayo de 2007, cuando los miembros del Proyecto de Espeleología de Tulum (Quintana Roo, México) que llevaban seis meses trabajando en la península de Yucatán entraron en el cenote (ojo de agua generalmente profundo) de La Virgen, unos cien kilómetros al sur de Cancún y a solo ocho de la costa. El objetivo era explorarlo y hacer un mapa.

"Era un día normal. Bajamos por las aguas cristalinas del cenote, llegamos a un túnel, lo recorrimos por más de un kilómetro para mapearlo y de repente encontramos ese pozo gigantesco", explica Nava en declaraciones a EL MUNDO. "El suelo desapareció bajo nosotros y no podíamos ver nada, el hoyo absorbía nuestras luces, por eso lo llamamos Hoyo Negro, era increíble, tan grande, circular... vimos otros dos túneles pero decidimos regresar porque no teníamos equipo para seguir adelante".

Una isla japonesa aumenta cinco veces su tamaño tras una erupción volcánica





La remota isla japonesa de Nishinoshima ha multiplicado por cinco su tamaño debido a la lava solidificada producto de la erupción de un volcán que lleva seis meses escupiendo magma, según ha informado la cadena publica NHK.

La cadena ha mostrado imágenes de la pequeña isla, situada en el océano Pacífico a unos 1.000 kilómetros al sur de Tokio en donde se aprecian cómo antes de la erupción la isla medía 290 metros de diámetro (de una costa a otra). Estas instantáneas fueron tomadas desde un helicóptero en las que se aprecia el humo procedente de dos cráteres. De hecho, uno de ellos todavía continúa expulsando lava y cenizas cada pocos segundos.


Imágenes momentos después de la erupción del volcán. Guardia costera japonesa

La erupción, la primera de un volcán en Japón en cuatro décadas, tuvo lugar el pasado 20 de noviembre y al poco formó al sureste de Nishinoshima una nueva masa de tierra que había sido bautizada provisionalmente como Niijima o Shinto (dos maneras de decir "Isla nueva" en japonés).

Sin embargo, la nueva ínsula no recibió finalmente ningún nombre después de que la Guardia Costera nipona confirmara el pasado diciembre que se había expandido hasta el punto de unirse a Nishinoshima que, de este modo, ha ido creciendo hasta alcanzar desde entonces aproximadamente 1,4 kilómetros de costa a costa en su punto máximo.

El equipo de la NHK que ha tomado las imágenes estuvo acompañado por el profesor en geología del Instituto Tecnológico de Tokio, Kenji Nogami, quien destacó que la lava está fluyendo también desde otros puntos diferentes al cráter.

Nogami también afirmó que es muy inusual que un volcán del archipiélago japonés siga expulsando magma seis meses después de la primera erupción.

Además, explicó que, con base en el aspecto que presenta el volcán, la lava aún seguirá fluyendo durante un tiempo y que la isla seguirá expandiéndose

Auroras sobre Saturno






Las imágenes tomadas por el telescopio espacial Hubble han vuelto a sorprender una vez más a los astrónomos. En esta ocasión, el mítico observatorio ha captado los destellos de una aurora sobre el Polo Norte de Saturno.

La serie completa se tomó justo en el momento en el que el telescopio espacial tenía una buena perspectiva desde la Tierra -desde abril hasta mayo de 2013-, pues se encuentra orbitando nuestro planeta a más de 500 kilómetros sobre el nivel del mar.

Gracias a estas insólitas imágenes, los expertos consideran que se obtendrán nuevos detalles sobre el movimiento que realiza una aurora desde el momento en el que aparece hasta que se desvanece por completo en el firmamento.

Además, con ayuda de las capturas a escala ultravioleta del planeta los investigadores han observado cómo el campo magnético de Saturno es perturbado por pequeñas partículas provenientes del Sol y que forman las auroras.

"Parece que cuando las partículas procedentes del Sol golpean Saturno, la capa magnética se derrumba y más tarde se reconfigura, un evento que se refleja en la dinámica de sus auroras", explica la ESA en un comunicado.

Un chip inalámbrico para prevenir y tratar enfermedades desde dentro del cuerpo






El uso de dispositivos electrónicos colocados dentro del cuerpo humano con fines médicos se perfila como una terapia prometedora. Desde hace años, laboratorios de todo el mundo trabajan en el desarrollo de estos implantes, que ya están siendo utilizados con resultados esperanzadores, por ejemplo, en pacientes con enfermedades neurodegenerativas.

Pero como ocurre con muchos de los dispositivos electrónicos que usamos en nuestra vida diaria, uno de los obstáculos de estos implantes es el suministro de energía. Normalmente llevan baterías que deben sustituirse cada cierto tiempo mediante una nueva intervención, una desventaja para la que un equipo de ingenieros de la Universidad de Stanford (EEUU) propone una alternativa en la revista Proceedings of the National Academy of Sciences (PNAS).

El equipo liderado por John Ho ha desarrollado un dispositivo electrónico muy pequeño, con un tamaño equivalente al de un grano de arroz, que es alimentado mediante un sistema inalámbrico basado en ondas electromagnéticas que cuenta con otro elemento externo. Este segundo dispositivo, parecido a una tarjeta de crédito, se coloca sobre la piel del paciente en la misma zona en la que se encuentra el implante interno para recargarlo.

Según explica a EL MUNDO John Ho, autor principal del trabajo, llevan trabajando en este proyecto seis años. De momento, tienen un prototipo que sólo ha sido probado en animales (en concreto, en un cerdo y en un conejo, al que se le implantó un minúsculo marcapasos). Ya n preparando los ensayos con humanos y en breve solicitarán los permisos para llevarlos a cabo. "Esperamos iniciar el proceso para realizar los ensayos clínicos el próximo año y comenzarlos en dos o tres años. Tardaremos entre cinco y 10 años en determinar qué metodo usamos para comercial los dispositivos médicos", explica Ho a través de un correo electrónico

Un enjambre de estrellas hiperveloz





Los cúmulos globulares contienen cientos de miles de estrellas viejas empaquetadas en una esfera de unas decenas de años luz de diámetro. Se trata de las primeras agrupaciones de estrellas que se formaron al unísono en una galaxia, estos cúmulos pueden ser considerados como reliquias procedentes del pasado lejano de la galaxia en cuestión. Debido a las interacciones gravitatorias, las estrellas se mueven de manera caótica en tales cúmulos, como abejas en un enjambre. Pero el cúmulo también posee un movimiento global, se mueve como un todo, orbitando en el halo difuso de su galaxia en torno al centro, completando una órbita en un tiempo típico de un millón de años.
Elíptica, gigante y activa

A una distancia de 53 millones de años luz, la elíptica gigante Messier 87 (M87) es una galaxia con núcleo activo de las más cercanas a la Vía Láctea. Con un tamaño que supera los 240.000 años luz, es la mayor galaxia y la más luminosa del cúmulo de Virgo. M87 tiene una nutrida población de cúmulos globulares. Según estimaciones recientes su número puede superar los 10.000, un número enorme si se compara con el de 150 que se conocen en la Vía Láctea, donde se estima que apenas quedan unas decenas para completar el censo

domingo, 20 de abril de 2014

El Ébola no es invencible. Lo sabe bien Rose, que a sus 18 años ha conseguido ganar la batalla al virus hemorrágico que mantiene en vilo a Guinea. La paciente es la primera enferma que logra abandonar completamente curada uno de los centros de tratamiento que Médicos Sin Fronteras ha instalado en el país.

Su historia es un ejemplo de que, pese a que no hay tratamiento específico para el virus, "las probabilidades de que los pacientes sobrevivan se incrementan si reciben la atención adecuada, incluida una correcta hidratación y tratamiento para las infecciones secundarias", explican desde la ONG.

Tras pasar 10 días en una sala de aislamiento, viendo al personal sanitario parapetado en sus armaduras amarillas y temiendo que la muerte podía estar cerca, Rose ha podido volver a su casa, "muy feliz de haber recobrado la salud".

Antes de abandonar la sala médica del Hospital de Guéckédou, tuvo que darse una ducha de cloro y recibir ropa y zapatos nuevos, dos requisitos básicos para eliminar cualquier rastro del virus. Acto seguido, los equipos de MSF quemaron todo lo que llevaba mientras estuvo ingresada.

Toda la comunidad esperaba ansiosa el regreso de Rose, que llegó acompañada de dos promotoras de salud de MSF que explicaron a sus vecinos y a su familia que ya no es contagiosa y que pueden abrazarla y besarla sin peligro.

"Estamos felices por tenerla de vuelta. Ahora rezamos por otros miembros de la familia que todavía están enfermos", señaló el padre de Rose a la ONG.

Según los datos de la ONG, unos días más tarde de la curación de la joven, también su hermana y su sobrina de 12 años lograron vencer al virus. En total, hasta el momento unos ocho pacientes han logrado salir de las salas de aislamiento después de curarse.

Desde Médicos sin Fronteras explican que, además de la atención sanitaria, también es fundamental la labor de "sensibilización, información y comunicación" que llevan a cabo los promotores de salud. "Para evitar que todos aquellos que han pasado por una situación tan complicada sufran el estigma y el aislamiento por parte de sus familiares y amigos, hay que poner mucho cuidado en explicar de manera comprensible, sencilla y clara que una vez que un paciente se cura, ya no puede infectar a nadie", recuerdan.

El brote de Ébola comenzó a principios de año en Guinea que con 168 casos se enfrenta a una epidemia de esta enfermedad que se caracteriza por fiebre hemorrágica. En este país se han producido 108 muertes, aunque de momento sólo se han confirmado que 71 casos se deben al virus del Ébola, según el último informe divulgado este lunes por la Organización Mundial de la Salud (OMS).

El virus del Ébola también se ha propagado por la vecina Liberia, donde se confirmaron seis casos en 26 pacientes sospechosos de sufrir fiebre hemorrágica por este virus, incluyendo 13 muertes.

A su vez, Sierra Leona, con dos muertes por casos sospechosos de esta infección, y Malí, con seis casos sospechosos (ninguno mortal) -y con resultados negativos en las primeras pruebas realizadas-, son los otros dos países africanos donde se están evaluando pacientes con síntomas similares al Ébola.

Por todas estas incidencias, Gambia ha decidido suspender los vuelos desde Guinea, Liberia y Sierra Leona para evitar la propagación de la enfermedad, según informa AFP.

A la hora de clasificar la hepatitis C según el daño que ha hecho al hígado existen distintos grados pero, cuando se acaban los números, viene la palabra (o el estado) más temida: la cirrosis hepática. Cuando se padece esta condición, que sufrirá aproximadamente entre un 15% y un 20% de los infectados por el virus que genera esta infección, el riego de cáncer de hígado se multiplica, así como las posibilidades de sufrir un fallo hepático. Por ello, tradicionalmente, los tratamientos para la hepatitis C no han funcionado bien en este grupo de pacientes. Hasta ahora.

Un estudio publicado en The New England Journal of Medicine coincidiendo con su presentación en el Congreso Europeo del Hígado podría cambiar la práctica clínica para este tipo de pacientes, protagonistas exclusivos del mismo. El trabajo, que ha contado con participación española, demuestra que la combinación de dos antivirales a punto de ser aprobados por la agencia reguladora de los medicamentos en Estados Unidos, la FDA, y pertenecientes a los nuevos fármacos que están revolucionando el tratamiento de la hepatitis C junto con ribavirina -un medicamento antiguo que ya se utiliza en la terapia frente a la infección- cura el 95% de los casos de hepatitis C en cirróticos.

Se trata del primer estudio que evalúa una de estas terapias solo en estos pacientes avanzados, según señala a EL MUNDO Xavier Forns, especialista del Hospital Clínic y del Instituto de Investigaciones Biomédicas August Pi i Sunyer (IDIBAPS), uno de los autores del estudio, cuyo centro ha aportado una docena de pacientes al mismo.

La combinación utilizada en esta ocasión - el inhibidor de la proteasa ABT-450, el inhibidor de la NS5A AB-267 y el inhibidor de la polimerasa no nucleósida AB-267- supone a los pacientes tomar cuatro comprimidos repartidos en dos veces al día, algo muy alejado al tratamiento estándar hoy para los pacientes cirróticos, que incluye inyecciones semanales de interferón pegilado, además de la ribavirina y otros dos antivirales aprobados en los últimos años, pero con resultados discretos y "mala tolerancia", según subraya Forns.

Este especialista subraya una ventaja inherente a la utilización de estos nuevos fármacos en pacientes cirróticos y es la posibilidad de revertir el daño al hígado. "No es que el hígado se vaya a quedar perfecto, pero estamos viendo cómo se revierte la propia cirrosis una vez que no hay inflamación", comenta el experto del Hospital Clínic.

Forns se muestra convencido que estos fármacos en desarrollo, como otros similares, llegarán muy pronto a la práctica clínica. "A pesar de que son caros, estoy seguro de que los laboratorios llegarán a acuerdos con la Administración, siempre que ésta sea consciente del beneficio a medio plazo y no solo a corto plazo", concluye.

En el estudio TURQUOISE-II -así se llama el trabajo publicado en NEJM- se aplicó el tratamiento a 380 pacientes infectados con el genotipo 1 del VHC (el más frecuente en España). De ellos, 208 recibieron el tratamiento tres meses y, el resto, el doble de tiempo y las tasas de curación superaron en los dos casos el 90%.

Probablemente no pensemos mucho en él ni lo tengamos en cuenta a la hora de hablar de trasplantes, pero el esófago es una parte del aparato digestivo imprescindible para que la bebida o la comida lleguen a nuestro cuerpo. Sin embargo, tumores, enfermedades congénitas o accidentes pueden hacer que este tubo se deteriore comprometiendo en ocasiones la vida. Ahora, un equipo de investigadores de diferentes lugares del mundo ha dado el primer paso para acercar un tratamiento que no existe en la actualidad: el trasplante. De momento, lo han logrado realizar en ratas pero su objetivo último es el conseguirlo en personas, algo para lo que todavía deberán pasar años.

Al frente de este trabajo se encuentran dos de los protagonistas de los últimos años de la fabricación de órganos en el laboratorio: el italiano Paolo Macchiarini desde el Instituto Karolinska en Estocolmo (Suecia) y la estadounidense Doris Taylor, desde el Instituto del Corazón en Texas (EEUU). Los dos han explorado el método del lavado de órganos para eliminar las células del donante y evitar así una respuesta inmunológica del paciente receptor al recibir el implante. Macchiarini fue pionero al conseguir en junio de 2008 el primer trasplante de tráquea mientras que Taylor logró unos meses antes generar un corazón artificial completo, que no llegó a trasplantar, a partir de un método al que bautizó como descelularización, el mismo que empleó el cirujano italiano y el que ahora utilizan para el implante de esófago.

Para llevar a cabo este paso, los investigadores utilizaron esófagos de ratas que extirparon y los sometieron a un lavado con una serie de moléculas (agua, ácidos y enzimas) que eliminan las células y el ADN de este órgano. De esta manera, logran quedarse con el andamiaje del tubo, sólo formado por fibras de colágeno, que posteriormente sembraron con unos 90 millones de células madre de la médula ósea de varios donantes. Tras tres semanas, implantaron una pequeña parte, un trozo de 15 milímetros, en los animales receptores. "La parte trasplantada supone entre el 25% y el 30% del esófago de estos roedores. No es la totalidad pero hemos comprobado que han comido y que no han perdido peso. Y también algo muy importante, que no ha habido rechazo", afirma a EL MUNDO Paolo Macchiarini, quien señala que sólo mantuvieron con vida a los animales durante 14 días (equivalente a un año de vida humana) por requisitos del protocolo ético.

Aunque este cirujano reconoce que se trata de un primer paso, «es científicamente interesante porque si, con otros estudios, vemos que este nuevo órgano funciona igual de bien que la tráquea, podríamos plantearnos fabricar también un diafragma». Pero antes, necesitarán probar algunas cosas como la durabilidad del implante, algo que ya están estudiando, o su funcionalidad en animales más grandes como el cerdo. La finalidad última: llevar a cabo trasplantes en humanos. "Si todo va bien, y si la colaboración internacional sigue, puede que en los próximos cuatro años haya avances en este sentido", adelanta este investigador.

Los resultados obtenidos por este equipo son parte "de un camino con muchas posibilidades que está investigando esta técnica en varios órganos, claro que la tráquea y el esófago son mucho más sencillos si se compara con otros como el corazón o el hígado. Las patologías del esófago son complicadas y cuando hay lesiones se merma mucho la calidad de vida. Este trabajo está más próximo a la aplicación clínica que aquellos que fabrican estructuras mediante impresoras 3D", argumenta José Becerra, del laboratorio de Bioingeniería y Regeneración Tisular (LABRET-UMA) de la Universidad de Málaga.

Resonancia de tres esófagos, el de la izquierda está descelularizado. P. M. .
En cuanto a las limitaciones de este trabajo (el haber implantado sólo un trozo del esófago, haberlo hecho en animales que distan mucho fisiológicamente del humano y mantenerlos vivos sólo 14 días), Elisabeth Engel, del grupo de Biomateriales para Terapias Regenerativas del Instituto de Bioingeniería de Cataluña (Ibec), manifiesta que «los resultados no se pueden extrapolar al humano. Pero es un paso necesario. Siempre se necesitan ensayos preclínicos en animales y se empieza por la rata o el ratón porque son más manejables y baratos, pero estos modelos están lejos del humano».

Para Xabier López Aranguren, investigador del Laboratorio de Terapia Celular y Regenerativa del Centro de Investigación Médica Aplicada (CIMA) de la Universidad de Navarra, "la principal limitación del estudio es el corto periodo de tiempo por el que han trasplantado el esófago, ya que para su utilización en clínica habría que demostrar que a largo plazo es estable y que  la función del órgano es mejor que las terapias disponibles hoy en día".

Daniel Navajas, catedrático de Fisiología en la Universidad de Barcelona y también investigador del Ibec, afirma que "el logro conseguido por Macchiarini es un avance importante y sustancial. Es una variación de la Medicina Regenerativa que emplea matrices sintéticas y aquí son originales. Con ellas intentan dar una alternativa para resolver la falta de órganos para trasplantes o evitar el rechazo que generan los implantes". Pero, también advierte de que no se conocen detalles importantes, "como cuáles son las señales o los mecanismos que están detrás de la diferenciación celular. No se sabe si la aparición de células especializadas se debe principalmente a las células de la médula ósea o a ciertas señales que hacen un efecto".

Precisamente por ese desconocimiento, Engel insiste en que no hay que correr. "Eso tal vez es de lo que se le acusa a Macchiarini, de haber ido demasiado rápido en los implantes de la tráquea en pacientes cuando se sabe muy poco del comportamiento de estos andamiajes en humanos".

El mismo consejo da Antonio Campos, que dirige el grupo de Ingeniería Tisular de la Universidad de Granada, quien considera que "habría que seguir ensayando antes de dar el paso a humanos. No obstante, considera éste como un paso prometedor en la ingeniería de tejidos".

Es viernes por la noche y los bares del popular barrio berlinés de Kreutzberg echan humo, pero de forma literal. Un nube con aroma a cigarrillo de cajetilla, tabaco de liar y a veces cannabis es la tarjeta de bienvenida a cualquier local nocturno de la ciudad. A pesar que desde 2007, como en la mayoría de ciudades europeas, la ley prohíbe el consumo de tabaco, tanto en lugares públicos como en locales, Berlín no cumple con la legislación. La metrópoli germana se ha convertido en un paraíso para los fumadores de tabaco y de otras sustancias. "La gente se va a Ámsterdam a fumar porros en los coffe-shops como si fuera la leche y aquí (Berlín) la peña fuma y se lía canutos cuando quiere y donde quiere, tanto en bares como discotecas y nadie te dice nada", asegura Javier Palicio, un cámara asturiano que vive en la capital alemana desde 2009. Su testimonio es muy fácil de verificar. Basta con darse una vuelta por los diferentes sitios de ocio de la ciudad para comprobar que el humo forma una seña de identidad.

Llama la atención la impunidad con la que los usuarios violan la ley ante la mirada impasible de los camareros o de los dueños de los bares. Ni siquiera se pueden leer en los recintos las típicas advertencias que se ven en otras ciudades germanas, donde se recuerda a los clientes que está terminantemente prohibido fumar. "Si no se pudiese, Berlín no sería tan especial. Estamos hablando de una ciudad distinta a todas en Europa, que es especial por una permisividad que no se puede ver en otros lugares. Hay una libertad total para crear, vestir, consumir... Aquí no está bien visto prohibir cosas", justifica Oliver W., gerente de un local en Neuköln, uno de los barrios de moda de la capital. La clave para que los establecimientos pongan resistencia a la prohibición reside en los vacíos legales que alberga la ley. Acogiéndose a excepciones que contemplan el texto legal, basadas en el tamaño de los bares y si estos contemplan espacios diferenciados para no fumadores, muchos propietarios de bares y discotecas esquivan las multas.

Johannes Spataz, miembro de la asociacón contra el tabaco Forum Sin Humo, asegura que los bares ni siquiera respetan las salvedades legales. Culpa de ello a la ley a la que califica "de gran fracaso". Revela que en 2009 "se añadieron tantas excepciones que la han hecho "incontrolable y problemática". Considera "inaceptable que los no fumadores que quieran salir a bailar no tengan ninguna posibilidad de respirar humo limpio". Además, denuncia que los controles de las autoridades son muy superficiales y nunca hasta más tarde de las 12 de la noche. El año pasado, varios estudiantes de la Universidad Técnica de Berlín hicieron un estudio para comprobar hasta qué punto no se cumple la ley del tabaco en los lugares de ocio de la capital germana. El resultado fue revelador: de los 100 clubes nocturnos que investigaron, en horarios comprendidos entre las 23 y las 4 de la mañana, solo 16 cumplían la legislación, mientras que en el resto se fumaba impunemente, sin la existencia siquiera de áreas específicas para fumadores.

A las críticas por el no cumplimiento de la ley en Berlín se han sumado voces de la política, como la del socialdemocrata Lothar Bindin, impulsor de la ley aprobada entre 2007 y 2008 para la protección de los fumanores pasivos. El miembro del departamento financiero del SPD pone como ejemplos a seguir Baviera, Sarre y Renania del Norte-Westfalia. En Múnich, durante la popular fiesta del Oktoberfest, se logró extender la prohibición hasta en las carpas donde se sirve cerveza.

La comunidad médica alemana también reprueba el no cumplimiento de la ley en Berlín. Wulf Pankow, médico jefe de la clínica especializa en enfermedades pulmonares del barrio de Neukölln, advierte de los riesgos de la permisividad: "Cuando uno baila en una discoteca con humo, lo hace de forma especialmente rápida e intensa y es muy perjudicial para el fumador pasivo". Recuerda que la tasa de infarto es más baja "en los países con medidas más estrictas contra los fumadores". De hecho, según un estudio presentado hace un año por la aseguradora médica Dak, la sanidad pública alemana ha ahorrado cerca de 150 millones de euros gracias a la prohibición de fumar en lugares públicos. Mientras tanto, los bares de Berlín siguen llenos de clientes que sostienen sus vasos de cerveza mientras expulsan bocanadas de humo por la boca.

Ser padre por primera vez puede generar situaciones estresantes y en algunos casos puede favorecer la aparición de trastornos depresivos durante los primeros años, según un estudio de la Universidad de Northwestern Feinberg en Chicago, Estados Unidos, que propone ofrecer programas de ayuda para evitar estas situaciones.

"Sabemos mucho sobre las madres y la depresión materna y el efecto que tiene sobre los niños, pero ahora estamos empezando a conocer la depresión paterna", según ha reconocido Craig Garfield, autor principal de este trabajo que publica la revista Pediatrics.

Este experto cree que la depresión paterna puede afectar a alrededor del 5% al 10% de los padres, y el problema es que también puede perjudicar al desarrollo de su hijo durante los primeros años de vida, que son los más críticos. Por ello, añade, es necesario identificar estos casos y ofrecerles ayuda.

En su estudio analizaron datos de 10.623 hombres que participaron en un estudio de salud a largo plazo cuando aún eran adolescentes, y que incluía un seguimiento de unos 20 años. De todos ellos, un total de 3.425 participantes habían sido padres al final del período de estudio y, de esos, un total de 2.739 de ellos vivían con sus hijos.

Para medir su salud mental, los participantes fueron cumplimentando diversos cuestionarios a lo largo del estudio, y las respuestas se utilizaron para tratar de identificar síntomas relacionados con un cuadro depresivo.

Cuando los investigadores compararon las puntuaciones de depresión de los hombres, vieron que los padres primerizos que vivían con sus hijos tenían las puntuaciones más bajas, mientras que los que no vivían con ellos, eran los que mostraban parámetros más cercanos a una depresión. En una posición intermedia quedaban los participantes que no habían sido padres.

Sin embargo, durante los primeros cinco años de vida de sus hijos los padres que vivían con ellos y, por tanto, se responsabilizaban de su cuidado, experimentaron un aumento del 68% de media en sus puntuaciones de depresión.

"Esto fue significativo en el estudio y es importante cuando se piensa en el desarrollo del niño y de la familia y la importancia que los padres juegan en ella", dijo Garfield, que reconoce que el papel de los padres está cambiando y ahora casi se ha duplicado el tiempo que pasan con sus hijos.

Estos resultados, apunta este experto, deben servir para que los profesionales sanitarios sepan dónde deben enfocar su actividad a la hora de combatir posibles problemas de desarrollo de los niños, ya que "si logramos que padres y madres lleven bien este nuevo rol, hay más probabilidades de que el menor también prospere".

La vacuna contra el sarampión ha logrado reducir en un 71% las muertes por esta enfermedad en todo el mundo entre el año 2000 y 2007. Sin embargo, todavía se estima que cada año los fallecimientos por esta infección ascienden a 122.000, según datos de 2012. Fallos en la cobertura de la inmunización pueden estar detrás de estas muertes y también el hecho de que esta infección se propaga fácilmente. Por este motivo, desarrollar otras estrategias terapéuticas está en la mente de muchos investigadores.

La iniciativa más reciente es la de diferentes grupos de investigadores de la Universidad de Atlanta (EEUU), del Instituto Federal de Biomedicamentos y Vacunas de Largen (Alemania) y de la Facultad de Medicina de Singapur cuyos resultados publica esta semana la revista Science Translational Medicine. Se trata de un fármaco oral de la familia de los inhibidores alostáticos de la polimerasa, denominado con las siglas ERDRP-0519, y que se ha probado para un virus canino que es muy similar al del sarampión y tan letal como éste en hurones, animales donde probaron el medicamento.

De esta manera, los hurones que fueron infectados por este virus recibieron dos dosis del antivirual al día durante dos semanas junto con medicamentos para paliar los síntomas de la infección. Los investigadores compararon su evolución con la de un grupo control de hurones a los que sólo se les administró la terapia para paliar los síntomas.

Tras ese periodo, todos los animales tratados con el antiviral presentaron una reducción del 98% de su carga viral, quedaron libres de la enfermedad y desarrollaron una robusta inmunidad contra el virus.

Por otro lado, los investigadores explican que el fármaco, de comprobar su utilidad en humanos, podría utilizarse de manera profiláctica en todas aquellas personas, amigos o familiares, que hayan estado en contacto con la persona infectada. "La fuerte respuesta inmunológica en los animales tratados es particularmente estimulante, porque sugiere que el medicamento puede no sólo salvar la vida de las personas enfermas sino también contribuir a estrechar las grietas de la inmunidad frente al sarampión en una población", asegura Richar Plemper, del Instituto Emory para el Desarrollo de Fármacos y uno de los autores del estudio.

A pesar de los resultados positivos de este trabajo, los investigadores advierten de que ésta no es una terapia que sustituya a la vacuna sino otra ayuda dirigida al esfuerzo de eliminar esta enfermedad.

En lugar de dos, como es habitual, las personas con síndrome de Down tienen tres copias de su cromosoma 21. Numerosos equipos llevan tiempo intentando averiguar los mecanismos por los que esta copia de más desencadena los síntomas asociados a la trisomía, aunque la labor es complicada porque hay muchas dificultades para aislar los cambios en la expresión génica relacionados con el problema y distinguirlos de las variaciones naturales entre los individuos.

Un equipo con participación española ha conseguido dar un paso importante en esta línea desvelando parte del 'camino' genético que sigue el Síndrome de Down. Sus conclusiones se publican en el último número de la revista Nature y muestran que, lejos de lo que pudiera parecer, las alteraciones de la trisomía no se limitan al cromosoma 21, sino que alteran la expresión genética en todo el resto del genoma.

"A partir de ahora podemos ver a la trisomía 21 como un trastorno genético general", explica a EL MUNDO Stylianos Antonarakis, principal firmante del trabajo y miembro de la Universidad de Ginebra.

Para llevar a cabo la investigación, su equipo contó con una oportunidad única: la posibilidad de estudiar el caso de un par de gemelos en las que sólo una de ellos tenía Síndrome de Down. Su genoma era, por tanto, idéntico excepto en el caso del cromosoma 21, lo que permitió a los investigadores aislar la expresión genética relacionada directamente con el trastorno y no con las diferencias de expresión individuales. "Es un caso muy raro", reconoce Antonarakis, quien sugiere que probablemente "el cigoto comenzó a desarrollarse con una trisomía en el cromosoma 21", pero luego, en una de las divisiones celulares, uno de los pequeños perdió la copia cromosómica adicional.

Mediante técnicas de secuenciación de alto rendimiento, los investigadores pudieron identificar las alteraciones propias de la trisomía y comprobaron "con sorpresa", según Antonarakis, que la alteración en un cromosoma tan pequeño como el 21 tenía una gran influencia en el resto del genoma.

"La simple adición de un cromosoma extra", señala el especialista, provoca alteraciones que están organizadas en dominios presentes en todos los cromosomas y que están relacionados con la producción de ARN [el mensajero encargado de transmitir la información del ADN].

Esto provoca alteraciones en el proceso de descodificación de la información y, por tanto, modifica las funciones celulares normales.

Además de en las gemelas estudiadas, los investigadores corroboraron su hipótesis en modelos animales, así como en un experimento con reprogramación celular.

En la investigación fue clave el papel del Centro de Regulación Genómica de Barcelona, que realizó un análisis bioinformático de los datos de secuenciación de ARN para determinar los niveles de expresión de los diferentes genes.

El estudio, aseguran, abre nuevas vías para entender el síndrome de Down y para encontrar posibles dianas que reviertan esta desregulación de la expresión génica.

Por otro lado, el trabajo también plantea nuevas hipótesis para saber más sobre las anormalidades cromosómicas. "Esta influencia global podría responder a un patrón general y ser aplicable a otras trisomías o alteraciones cromosómicas como las que se producen en el cáncer", concluye Antonarakis.

La mayoría de las infecciones alimentarias se producen porque una bacteria consigue llegar del plato al organismo. La más famosa de ellas es 'Salmonella', pero otras muchas son igual de inoportunas y peligrosas: Campylobacter, Listeria, Escherichia coli...

Estos patógenos son viejos conocidos para las autoridades sanitarias, que, al menos en el primer mundo, han conseguido frenar su expansión mediante medidas de seguridad y control en la cadena alimentaria.

Pese a todo, de vez en cuando, siguen dándose brotes e infecciones localizadas a causa de estos patógenos. Según el último informe oficial, en 2012 se produjeron 214.000 infecciones alimentarias en toda Europa. De ellas, 'Campylobacter' fue la principal responsable.

Para intentar controlar aún más la acción de estos patógenos, las autoridades sanitarias estadounidenses han dado un paso más y han destinado 30 millones de dólares (casi 22 millones de euros) a la investigación básica contra la acción bacteriana.

En concreto, según han avanzado los Centros de Control y Prevención de Enfermedades del país norteamericano, esta financiación se destinará a secuenciar el genoma de las principales bacterias implicadas en las infecciones alimentarias.

El objetivo, aseguran los responsables del organismo, es frenar de una forma más rápida los brotes de infección e intentar prevenir nuevos casos conociendo mejor cómo es su diseminación.

"En realidad este es un nuevo método de combatir infecciones", ha señalado Tom Frieden, director de los Centros para el Control y la Prevención de Enfermedades (CDC en sus siglas en inglés).

La secuenciación del genoma de un patógeno, ha añadido, puede ser muy útil para la salud pública, aunque hasta la fecha no se ha utilizado de forma amplia, sino en contadas ocasiones. La técnica sí se emplea de manera habitual en la detección de nuevas y potencialmente peligrosas cepas de la gripe aviar, y su uso se extenderá gracias al abaratamiento y la disponibilidad de la tecnología de secuenciación genómica.

Como primer paso, los investigadores han comenzado a analizar el ADN de todas las infecciones provocadas por Listeria registradas en Estados Unidos durante este año, así como el procedente de muestras localizadas en alimentos contaminados o fábicas.

Esta bacteria ocupa el tercer puesto en número de infecciones alimentarias en EEUU y es especialmente peligrosa para las mujeres embarazadas. Si la infección se produce en las primeras semanas de la gestación puede provocar un aborto espontáneo. Si ocurre con el embarazo más avanzado, puede conducir a la muerte fetal, ya que las bacterias pueden atravesar la placenta e infectar al feto. Las verduras, la carne o la leche sin pasteurizar son algunos de los alimentos a través de los que la Listeria puede llegar al organismo.

Si el proyecto piloto funciona, la iniciativa puede sentar las bases de una nueva forma de abordar la seguridad alimentaria, han señalado los CDC.

Las cifras asustan. Aproximadamente 21 millones de estadounidenses de 20 o más años están diagnosticados de diabetes y más de 40 millones están en una situación previa a sufrir esta enfermedad, lo que supone que se ha duplicado el número de personas en este país con cifras de azúcar por encima de lo saludable. Una situación parecida se vive en España y en el resto del planeta.

La prevalencia de diabetes en el mundo supone que 360 millones de personas sufren esta enfermedad, según datos de 2011, y de ellas más del 95% tenía diabetes tipo 2, la vinculada al estilo de vida y los hábitos nutricionales. Se prevé que esta cifra alcanzará los 552 millones en el año 2030 y que la mitad de las personas desdeconocerá su diagnóstico. Por si esto no fuera poco, se calcula que otros 300 millones de personas tiene características que indican riesgo de sufrir este problema en el futuro, según informa la Sociedad Europea de Cardiología en unas guías sobre diabetes, prediabetes y enfermedad cardiovascular.

Otro estudio, realizado por investigadores de la Escuela Bloomberg de Salud Pública en la Universidad Johns Hopkins (Baltimore, EEUU), analiza cómo ha sido el aumento de este trastorno metabólico en las últimas décadas en este país y por lo que señalan en su estudio, publicado en la revista Annals of Internal Medicine, la diabetes aumentó de un 6% a un 10% en las pasadas dos décadas y la prediabetes -situación en las que los niveles de azúcar en sangre son elevados aunque no lo suficiente como para establecer un diagnóstico- pasó de un 12% a un 30%. "Hay una creciente necesidad de reconocer este grave problema, especialmente porque la mayoría de los casos de diabetes pueden prevenirse con la pérdida de peso y otros cambios en el estilo de vida", afirma la principal autora de esta investigación, Elizabeth Selvin, profesor de esta universidad.

Esta investigadora, junto con su equipo, analizó datos de más de 43.000 participantes recogidos a lo largo de 20 años a través de la Encuesta Nacional de Salud y Nutrición. Un novedoso aspecto de este estudio fue el confirmar la existencia de casos de diabetes sin diagnosticar, porque se llevaron a cabo test donde se midieron los niveles de glucosa en sangre. De esta manera, se estima que el 11% de las personas con este problema en EEUU está sin diagnosticar, aunque el dato positivo es que esa cifra ha bajado en los últimos años, lo que indica que se está realizando una mayor evaluación médica.

En nuestro país, según el Atlas de la Diabetes elaborado por la Federación Internacional de este trastorno (IDF), entre 2011 y 2013 ha aumentado el número de casos en un 33,41% y la previsión para 2035 coincide en que la cifra de diabéticos, como en el conjunto del planeta, se duplicará de 2,8 a 5,1 millones de afectados.

"La prevalencia real de la diabetes tipo 2 en España ya es del 13,8%, como recoge el Estudio di@bet.es que se realizó en 2011 en 5.800 mayores de 18 años de todo el territorio nacional. La tasa del Atlas se sitúa en 10,83% porque es una estimación", ha explicado a la agencia SINC Franz Martín Bermudo, vicepresidente de SED y catedrático de Nutrición y Bromatología de la Universidad Pablo de Olavide de Sevilla.

Por otro lado, el número de españoles que no sabe que sufre este problema sigue siendo muy elevado: 1.387.000 afectados, el 36,59% del total, lo que incide tanto en las complicaciones como en los fallecimientos y en el gasto sanitario. Porque según diferentes estimaciones, el coste que cada diabético genera al sistema sanitario es de 2.449 euros al año. Si hablamos en términos mundiales, esa cifra llega a los 571.000 millones de dólares, lo que supera con creces la previsión que hizo la IDF para 2030 y que lo situaba en 490.000.

La obesidad y los malos hábitos están detrás de este aumento de casos. En el mundo, 1.000 millones de adultos tienen sobrepeso, y más de 300 millones son obesos, según datos de la Organización Mundial de la Salud (OMS). Cada año mueren, como mínimo, 2,6 millones de personas a causa del exceso de peso pues se estima que el 44% de los casos mundiales de diabetes y el 23% de cardiopatía isquémica son atribuibles al sobrepeso y la obesidad, que también se vinculan a algunos tipos de cáncer.

Los expertos aconsejan reducir la ingesta total de grasas y sustituir las saturadas por insaturadas, presentes en el aceite de oliva o frutos secos, aumentar el consumo de frutas, hortalizas, legumbres, cereales integrales y frutos secos y reducir la ingesta de azúcar y sal.

Es de sobra sabido que los medios de comunicación impactan directamente sobre cómo perciben muchas personas su propia imagen. La televisión, las revistas, la moda, los iconos de la música y un largo etcétera de altavoces transmiten unos estereotipos físicos -sobre todo de las mujeres- a los que es difícil sustraerse. Pero, ¿qué pasa con las redes sociales?, ¿tienen la misma capacidad de influencia?

Una investigación coordinada entre científicos británicos y estadounidenses ha tratado de averiguarlo y sus resultados muestran que su impacto puede ser incluso mayor que el de los medios tradicionales.

Estos científicos estudiaron el caso de 881 jóvenes universitarias en un análisis que, entre otros factores, tuvo en cuenta sus hábitos de vida, su alimentación, el ejercicio que realizaban, cuál era su uso de la red social Facebook y cuál era su percepción de su propia imagen.

Al cruzar los datos comprobaron que emplear mucho tiempo en Facebook se asociaba con "más sentimientos negativos" sobre su propia imagen y "más comparaciones con los cuerpos de amigos". Asimismo, también observaron que, en el caso de las mujeres que estaban tratando de perder peso, el tiempo en la red social se correlacionaba con prestar más atención a la apariencia física.

"Esta atención a los atributos físicos puede ser incluso más peligrosa en las redes sociales que en los medios tradicionales ya que los participantes en estas redes son gente que conocemos. Estas comparaciones son mucho más relevantes y más impactantes. Y pueden ser tan poco realistas como las imágenes que vemos en los medios tradicionales", ha señalado en un comunicado Patya Eckler, investigadora de la Universidad de Strathclyde (Reino Unido) y una de las principales firmantes del estudio que se ha presentado en el 64 Congreso de la Asociación Internacional de Comunicación (celebrado en Seattle, EEUU).

La investigación no encontró ninguna relación directa entre pasar mucho tiempo en Facebook y un mayor riesgo de desarrollar trastornos de la alimentación, pero los investigadores advierten que esta asociación puede darse en dos pasos.

"Aunque el tiempo empleado en Facebook no tiene una relación con estos trastornos, sí fue capaz de predecir una peor imagen corporal entre los participantes", ha señalado Eckler, quien ha añadido que "como todos los expertos en este campo saben, una mala imagen corporal puede conducir gradualmente al desarrollo de una relación poco sana con la comida".

Con estos datos en la mano, ha subrayado, "los profesionales de salud pública que trabajan en el área de los trastornos de la alimentación y su prevención ahora tienen una evidencia clara de cómo las redes sociales se correlacionan con la imagen corporal que tienen las mujeres universitarias".

No es la primera vez que una investigación asocia el uso continuado de las redes sociales con algún problema de tipo psicológico. Recientemente, un trabajo publicado en Plos One señalaba que podía establecerse un vínculo entre el uso de la red y un estado de malestar.

Se acaba de publicar el último informe del grupo III de trabajo del IPCC, sobre instrumentos de mitigación del cambio climático.  En él se propone ampliar la generación de energía mediante sistemas solares actuales. Tenemos que dejar, ya, de emitir CO2 a la atmósfera. Y esto es bueno para cada uno de nosotros.

La energía que estamos utilizando masivamente hoy día es, evidentemente, solar. Pero solar fósil. Carbón, petróleo y gas derivan de  biomasa del Carbonífero, un periodo de la historia de la Tierra de hace unos 330 millones de años. Una parte muy pequeña de la energía solar capturada entonces se concentró en el subsuelo de ciertos lugares de planeta, y ahora la estamos disipando. Piensen que estamos consumiendo esa energía en no más de 200 años, cuando estuvo capturándose de la que llega constantemente del sol durante unos 20 millones de años: 20 millones/ 200 = 100000 veces más.

La energía que llega del sol a la superficie de la Tierra en un día es -por lo menos- 2 veces la que utilizamos los seres humanos en 365 días, en un año.  Fíjense que digo -por lo menos-, sin entrar a que pueda ser bastante más. Pero voy a utilizar esta cifra: 400 billones (millones de millones) de kwh. Empleo kilovatios hora porque es la unidad por la que nos cobran la energía que utilizamos en forma de electricidad, y así cualquiera puede comparar: Una estufa de 1 kw, trabajando 1 hora seguida, consume 1 kwh, que nos cobran, impuestos incluidos,  a 0.17 euros.

Esta energía esta dispersa, y hay que capturarla y almacenarla para que nos sea útil. Los seres humanos, como todos los animales, así lo hemos hecho desde que aparecimos por el planeta, recogiéndola de plantas y animales y almacenándola sobre todo en forma de grasa en nuestros cuerpos. Con la revolución agrícola empezamos a capturar esa energía de manera sistemática, con los cereales esencialmente, plantando sus semillas y recogiendo sus frutos, y almacenándolos en silos en las nuevas ciudades construidas para ello. Desde hace unos 6000 años, por lo menos, y hasta hace unos 200 años (a partir de 1800 EC) toda la riqueza, todo el dinero de la Tierra era la energía solar capturada básicamente mediante los cereales en los campos del planeta y de la cual, el pequeño exceso sobre las necesidades alimenticias, se almacenaba y se asimilaba al dinero que servía para medir la energía disponible. Si un esclavo valía tantos dracmas, no era  mas que porque podía desarrollar la energía necesaria para realizar su trabajo.

La parte de energía del sol que capturan las plantas es muy, muy pequeña. El trigo, por ejemplo, no captura más del 1% durante unos 90 días, digamos un 0.25%  de la energía del sol durante un año. Y aún así nos hizo ricos, a los seres humanos, o a algunos seres humanos, hablando con propiedad.

Hoy tenemos herramientas que capturan un 30% de la energía solar diaria, 365 días al año: Se llaman celdas fotovoltaicas: 120 veces más de lo que captura el mejor cereal, 10 veces más de lo que captura la caña de azúcar,  que es otro muy buen recolector de energía solar. Tras las celdas fotovoltaicas tenemos la energía solar térmica que actúa con un rendimiento de alrededor de un 12%, pero que permite almacenar esa energía capturada sin problema, al menos durante las 12 horas de la noche, en forma de sales fundidas de nitrógeno que se guardan en el subsuelo.

Los molinos de viento, tan característicos de El Quijote, que se habían importado de Holanda unas décadas antes de que Cervantes lo escribiese, han capturado energía solar desde hace al menos 500 años. Hoy se llaman aerogeneradores, pero no dejan de ser molinos de viento.  Su rendimiento solar es muy difícil de estimar, pues aprovechan la energía térmica del océano, calentado por el sol, y cuya alta temperatura relativa genera los vientos que los mueven.  Su rendimiento energético (la energía que producen dividida por la energía del sol que utilizan) debe de ser al menos tan bajo o menor que el de las plantas, pero aprovechan el hecho de que esa energía solar calienta áreas enormes de los océanos, y luego esa energía cedida al viento se concentra en puntos microscópicos (respecto a los océanos) de la misma manera que el clavo entra en la madera porque la fuerza del martillo se concentra en su punta afilada.

Puesto que hoy día la riqueza del dinero es la representante de la riqueza real de los combustibles ( y si alguien lo duda, piense en Arabia, Rusia, Kazajastán, etc. ) como antiguamente ese dinero representaba la posesión de fincas cerealeras de alta productividad, podemos pensar que tenemos en nuestras manos las herramientas necesarias para aumentar radicalmente la riqueza de los seres humanos en el planeta. En una nueva disciplina de ''Plutonomía'' que se dedicase a analizar como aumentar la riqueza en vez de distribuir la escasez, según la definición tradicional de la Economía,  la inmensa cantidad de energía que podemos capturar y almacenar debería llevarnos hacia situaciones de riqueza real para los siete u ocho mil millones de personas sobre la Tierra.

Hemos montado una cultura que se ha extendido a todos los rincones del planeta basada en disponer (quienes disponen) de energía mediante la quema de los combustibles fósiles. Esta quema tiene varios inconvenientes: Es finita en el tiempo, es contaminante con productos que se depositan en los pulmones, emite CO2 mediante la regla de 3 kilos de CO2 por kilo de gasolina o gasóleo quemado.  Hace 100 años era de alto rendimiento medido por el índice ERoEI: Energía Recuperada dividida por la Energía Invertida para su recuperación, pero hoy el petróleo sacado a 5000 metros de profundidad, o de las arenas asfálticas  de Canadá o de Venezuela, o de la rotura de las pizarras subterráneas (fracking) tiene un índice de 3 frente a índices de 50 o 90 hace esos 100 años.  

La energía eléctrica consumida en España el año 2013 ha salido, en su mitad, del viento. Si lo hacemos bien podemos conseguir que toda la energía eléctrica  que utilicemos en España salga del viento y del resto de los sistemas solares.

Se suele decir que uno de los problemas de la energía solar es que no se puede almacenar. Esto es radicalmente falso. En la ciudad de Phoenix, en Arizona, ya, hoy, medio millón de personas se calientan e iluminan por la noche, cuando no hay sol, con la energía capturada del sol durante el día.  Esa energía capturada se invierte en calentar sales de nitrógeno y estas sales, a muy alta temperatura, se almacenan en el subsuelo. Luego de noche se las deja enfriar calentando agua que se emplea como calefacción o que mueve turbinas eléctricas. Una empresa  sevillana es pionera mundial en esta tecnología.

La energía fotovoltaica, que se ha prohibido en España recientemente, de hecho, aunque no de derecho, mediante multas impagables para quien la utilice en su casa, es una solución razonable no para las calefacciones o aires acondicionados de las viviendas, sino para la iluminación y los pequeños aparatos electrodomésticos que solo funcionan un par de horas al día. Paneles fotovoltaicos de un kilowatio deberían ser obligatorios para cada vivienda española. Su coste se amortiza en dos años, de manera que los bancos, mediante un programa de instalación gratis a cambio del ahorro en el recibo de la luz durante unos años mas de esos dos, podrían llenar los hogares españoles de paneles y baterías que disminuirían radicalmente la factura eléctrica de las familias y ahorrarían millones de toneladas de CO2 emitidas a la atmósfera. Exactamente de la misma manera, mediante un programa de prestamos a cambio del ahorro de la factura de la luz los bancos podían poner paneles de agua caliente solar en todas las viviendas españolas, con el mismo ahorro que las celdas fotovoltaicas.

Existen también toda clase de tecnologías biológicas que producen energía adicional a la alimentaria. Las microalgas son un ejemplo. Hablaré de ellas otro día.

Nos queda para ahorrar en emisiones de CO2  el consumo de combustibles en los coches y camiones. Aquí de nuevo se puede hacer muchísimo. Las ciudades pueden proporcionar triciclos eléctricos (digo triciclos, pues pueden llevar carga y no vuelcan, pesando aproximadamente lo mismo que las bicicletas de mas difícil manejo) para el desplazamiento de todos sus ciudadanos. El coste de la inversión de nuevo puede ser proporcionado por los bancos, que lo recuperan en muy pocos años mediante el ahorro en combustible que esos triciclos suponen.

Esto de los bancos financiando un cambio de uso energético es, como la calefacción en Phoenix, algo que se lleva haciendo en España por uno de sus bancos desde hace años: No es nuevo, y es rentable. Si un banco lo puede hacer, ¿por qué no todos ellos?

Para los viajes largos, sabiendo que al final del viaje las ciudades van a tener a disposición de viajero estos triciclos (que pueden incluso ser cubiertos si en la ciudad llueve mucho) pueden usarse de forma masiva los trenes (no los aviones) que funcionan con electricidad que debe ser de origen solar.

En cuanto al transporte de mercancías, un sistema de contenedores ciegos, de altas velocidades, que circulen por tuberías enterradas o superficiales entre ciudades distantes, impulsados por electricidad, eliminaría la emisión del transporte por carretera de aquellas, lento, caro y enormemente contaminante.

Resumiendo: Según todos los estudios, necesitamos eliminar la combustión de carbono (carbón, gas natural y petróleo) como herramienta energética. Y hacerlo es posible, económicamente (hay bancos que ya lo están haciendo y ganan dinero al hacerlo)  y técnicamente, y la tecnología para ello no es del futuro: Está toda en los anaqueles de los comercios de hoy. Y las ventajas para los ciudadanos, inmensas: Aumento en la salud al eliminar la contaminación, reducción de sus facturas energéticas, amento de la calidad de vida al eliminar, por ejemplo, los viajes de 600 kilómetros al volante del coche, y los atascos diarios en las ciudades.

Evidentemente la forma de vida será otra. Pero, ¿es la actual tan maravillosa como para no tratar de evolucionar a otra mejor?  ¿O debemos seguir siempre en lo mismo sin cambiar nunca? Según esta filosofía tremendamente conservadora, lavaríamos en el río, tendríamos el excusado al fondo del patio, nos ducharíamos una vez al mes, y el viaje mas largo que nos plantearíamos en toda nuestra vida no sería de más de 20 kilómetros. Esta era la vida española en 1900, para el 99% de su población.

Los españoles de entonces aceptaron las nuevas tecnologías: Montaron trenes, se subieron a los aviones, pusieron electricidad en sus casas, y todo lo demás que tenemos.  Aquello era caro. Los sesudos analistas decían: ''No se puede hacer: Cuesta mucho. La luz eléctrica no es competitiva con los candiles de aceite''.

Hoy hay sesudos analistas, gente que sabe una barbaridad que nos dice que hoy no podemos substituir el petróleo por energía solar actual, no fósil. ''No se puede hacer. La energía solar no es competitiva con la del petróleo''.  La historia se repite.

Y como se repite, si entonces fuimos capaces de cambiar a un mundo mucho mejor, hoy podemos hacer exactamente lo mismo. A pesar de los sesudos analistas. Y de las prohibiciones a la energía del futuro que es de ahora.

Necesitamos frenar el cambio climático, podemos hacerlo y es bueno para cada uno de nosotros.

Las emisiones de CO2, disparadas a pesar de las medidas de reduccion

Las emisiones globales de gases de efecto invernadero han aumentado hasta niveles sin precedentes a pesar de los esfuerzos mundiales para reducirlas. La tercera -y última- parte del informe de referencia sobre cambio climático emitido cada siete años por Naciones Unidas revela que la emisión debida a la actividad humana de estos gases causantes del calentamiento del planeta ha crecido más rápido entre los años 2000 y 2010 que en cualquiera de las tres décadas anteriores.

Sin embargo, según el informe sobre las posibles vías para mitigar los efectos del calentamiento realizado por el tercer grupo de trabajo del Panel Intergubernamental para el Cambio Climático de Naciones Unidas (IPCC, por sus siglas en inglés) y recién presentado en Berlín, es posible limitar este incremento de las emisiones usando una amplia variedad de cambios de comportamiento y medidas tecnológicas para limitar el incremento de temperatura global a dos grados como máximo en 2100 con respecto a los niveles preindustriales.

"Este informe llega en un momento sumamente oportuno, porque la mayoría de los países están buscando respuestas sobre los mejores métodos para limitar las emisiones de carbono", ha arrancado la sesión el presidente del IPCC, Rajendra Pachauri. "Pero la mitigación no se alcanzará si los países toman medidas de forma individual, se precisan acuerdos internacionales".

En ese sentido, Youba Sokona, uno de los tres codirectores del grupo de trabajo que ha producido el informe, ha destacado la importancia de este documento. "Este informe es el que m?s relevancia tiene desde el punto de vista político", ha dicho Sokona en la presentación de Berlín. "Los políticos tienen que tomar decisiones, ellos son los pilotos, los capitanes del barco. Los científicos sólo somos los cartógrafos que hacen los mapas que puedan guiar a esos patrones, este informe tiene que hablar de las oportunidades, pero también de los riesgos y los costes par que los políticos puedan navegar con seguridad por las aguas peligrosas", ha metaforizado Sokona.

En la última década, las emisiones han aumentado 10 gigatoneladas de CO2 equivalente, más que en cualquier década anterior desde la era preindustrial, según el informe. Y el aumento proviene principalmente del sector energético (47%), la Industria (30%) y el transporte (11%). Según Pachauri, estos son los sectores en los que se deben centrar los esfuerzos de mitigación si de verdad se quiere limitar el aumento de temperatura a 2 grados centígrados para el año 2100, como se acordó en la Cumbre del Clima de Cancún.

El informe, llamado Cambio Climático 2014: Mitigación del Cambio Climático, analizado 1.200 escenarios posibles para el futuro y sus conclusiones varían en función de las decisiones políticas internacionales en lso próximos años. Según el documento, si se quirere limitar el aumento de temperatura global a 2 grados centígrados para final de siglo, habría que reducir las emisiones globales de gases de efecto invernadero entre un 40% y un 70% para 2100 con respecto a las emisiones del año 2010.

"No sólo hemos visto que las emisiones han aumentado cada año hasta 2010 y que lo siguen haciendo, sino que también ha aumentado la tasa de aumento", ha explicado Ottmar Edenhofer, codirector del informe del tercer grupo de trabajo del IPCC, durante la presentación en Berlín. "Sabemos que el consumo de carbón para la producción de energía ha aumentado en los últimos años. Lo que deja claro este informe es que necesitamos tecnologías bajas en carbono como las renovables, el almacenamiento (secuestro) de carbono, la energía nuclear en algunos lugares o la eficiencia energética", ha asegurado Edenhofer. "Sin medidas de mitigación extraordinarias, si seguimos haciendo lo mismo que hasta ahora la temperatura aumentará entre 3,7 y 4,8 grados centígrados este siglo".

Los expertos no han pasado de puntillas sobre el coste económico que tendría una política de mitigación global como la que en su opinión es necesaria para limitar el aumento de temperatura. Según los investigadores del IPCC, no sólo es necesario invertir en fuentes de energía de baja o nula emisión de CO2, sino que es preciso extraer carbono de la atmósfera. Dejar la concentración de CO2 en la atmósfera en 450 partes por millón (ppm) para final de siglo -en la actualidad roza las 400 y su ritmo de aumento actual es de unas 10 ppm cada año-, lo que se consideraría el nivel de seguridad, implicaría una reducción de la tasa de aumento del consumo global de un 0,06% cada año. "La mitigación requiere cambios en la economía. Implicaría una reducción del crecimiento económico, pero no el sacrificio del crecimiento económico", según Edenhofer.

El presidente del IPCC señaló la urgencia que requiere la mitigación para que los costes y los efectos no se disparen. "El tren de alta velocidad de la mitigación está a punto de partir y todos los países, toda la sociedad debería subirse a ese tren", ha dicho Pachauri.

Las reacciones de los grupos ecologistas y de justicia social no se han hecho esperar señalando la necesidad internacional de adoptar una postura clara y decidida cuanto antes. "El IPCC no deja dudas no sólo de que es posible actuar contra el cambio climático, sino también de que es beneficioso y asequible. Si actuamos ahora, los costes serán sólo una pequeña fracción de las economías mundiales. Aquellos que dicen que es demasiado difícil y demasiado caro están equivocados. Pero es muy urgente actuar ahora, en caso contrario los costes y los impactos aumentarán", explica Samantha Smith, líder de la iniciativa Clima y Energía Globales de WWF Internacional.

"La ciencia ha hablado: la acción climática no es una carga, sino una oportunidad. Según aumentan las energías renovables y se hacen mejores y más baratas, la era de los contaminantes y dañinos petróleo, carbón y gas está terminando", asegura Li Shuo, responsable de Clima y Energía de Greenpeace en China. "La única respuesta racional a este informe es comenzar la fase final de los combustibles fósiles inmediatamente. Es simple, cuanto más esperemos, más nos costará el cambio climático", sentencia Li Shuo.

'El mapa del cerebro nos hara inmortales'

Michio Kaku dice que quería ser físico para investigar el origen del universo desde que hacía experimentos de niño en el garaje de su casa en California. También jugaba a intentar leer la mente de los demás. No logró practicar la telepatía, pero en su nuevo libro, El futuro de nuestra mente (Debate), el profesor, teórico y divulgador cuenta la historia de los colegas que lo están consiguiendo.

¿Por qué este libro ahora?
Hemos aprendido más sobre el cerebro en los últimos 10 años que en toda la historia de la humanidad. Ahora existe la telepatía, podemos mover objetos con la mente, registrar y descargar recuerdos simples, o fotografiar sueños. Gracias a la Física, podemos ver cómo se mueve la sangre dentro del cerebro, básicamente oxígeno, y ver la actividad neuronal, los pensamientos. También podemos conectar el cerebro a un ordenador y después a Internet. En último término, Internet se convertirá en una red del cerebro (brain-net). Podremos compartir pensamientos y emociones en la red. A los jóvenes les encantará. No sólo podrán poner en Facebook lo que están haciendo, sino el recuerdo del baile de fin de curso o de la primera cita. Vamos a tener dos discos en el futuro, el del genoma, con todos los genes de nuestro cuerpo, y el del conectoma, el mapa de las conexiones neuronales con las memorias, las sensaciones y la personalidad. Todo estará en dos discos. Obama y la UE invierten en esto porque a corto plazo podremos entender las enfermedades mentales. A largo plazo, podremos vivir para siempre. Incluso después de morir, nuestro genoma y nuestro mapa mental sobrevivirán. Podremos resucitar sensaciones y recuerdos. En cierto sentido, nos convertiremos en inmortales.
¿Cuándo será accesible para cualquiera la conexión cerebro-ordenador?
El Pentágono está invirtiendo decenas de millones de dólares en prótesis de piernas, brazos y esqueletos robóticos porque hay miles de heridos de guerra de Irak y Afganistán. En el Mundial de Fútbol de Brasil una persona que está parcialmente paralizada va a lanzar el saque de honor gracias a un exoesqueleto. Ya podemos conectar la mente de una persona que tiene una lesión de la médula a un ordenador para que haga lo mismo que cualquiera. Mi colega Stephen Hawking está completamente paralizado, sólo parpadea. Pero el cristal derecho de sus gafas tiene una antena con un chip conectado con un portátil y eso le permite comunicarse mentalmente. En la próxima década, la gente con parálisis podrá moverse y comunicarse. Los primeros en estar conectados serán las víctimas de lesiones deportivas, infartos o accidentes de coche. Más adelante, podremos crear personas con superpoderes. Ya hemos descargado recuerdos en animales. El año pasado, se hizo en Carolina del Norte: coges un ratón, conectas su hipocampo a dos electrones y grabas los mensajes que se desplazan por el hipocampo cuando aprende una tarea. Después la olvida. Pero si insertas ese recuerdo en el animal, el ratón hace bien la tarea al primer intento.
¿Qué está más cerca?
El objetivo a corto plazo es construir un marcapasos del cerebro para los pacientes de Alzheimer, para los millones que no saben dónde viven o quiénes son. En el futuro, tendrás un botón, apretarás y recordarás quién eres, dónde vives y dónde tienes que ir. En esta década haremos estudios con animales, grabando y descargando recuerdos, y en la próxima lo haremos con humanos. En la década de 2030, podremos descargar labores complejas, por ejemplo para trabajadores que tengan que aprender nuevas habilidades porque sus puestos se hayan quedado obsoletos o para los jóvenes que se saltaron un curso en la Universidad.
¿Qué le ha sorprendido más?
El que ya podamos fotografiar un pensamiento. En Berkeley, ponen a los pacientes en un escáner cerebral y convierten la mente en 30.000 puntos. Esos puntos representan los flujos cerebrales. Un ordenador los analiza y crea una fotografía de los pensamientos. Las fotos son borrosas porque estamos en la fase inicial.
¿Quiénes somos si nuestra conciencia se puede descargar?
Como diría el ex presidente Bill Clinton, depende de cómo definas quién eres tú. Cuando mueres, puede que haya un alma. O puede que no quede nada, pero si tengo el genoma y la información de tu cerebro, puedo recrearte. La cuestión es, ¿eres tú? Si hay un mapa de tus conexiones cerebrales, una parte de ti sobrevive. Igual que con una grabación. Esa parte de ti sobrevive. Esto puede resucitar tu personalidad y tus deseos porque está conectada al genoma y eso es lo que eres. ¿Quiénes somos? El punto de vista extremo es que somos información.
¿Un robot con una mente descargada es humano?
Si habla como un humano y tiene una personalidad como un humano, tal vez podemos llamarlo así. En el futuro, podremos tener una biblioteca de almas igual que hoy puedes leer biografías o películas de la gente que ha muerto. Podrás conversar con ellos. Si fueras un político, ¿no querrías hablar con Winston Churchill? Tus nietos podrán tener acceso a la biblioteca donde podrán tener una conversación contigo, aunque no sea perfecta.
¿Cuáles son los límites éticos más urgentes?
El medicamento para olvidar experiencias traumáticas, que ha sido rechazado por la comisión de bioética del presidente, ya está generando debate. Habrá mucho debate también con el marcapasos del cerebro. ¿Qué pasa si se descargan recuerdos equivocados? ¿Y si la memoria de un crimen que no cometiste se descarga en tu mente? Tienes el recuerdo de que mataste a alguien, pero no lo hiciste. Debemos tener leyes para regular recuerdos falsos o que se descarguen sin permiso.