domingo, 20 de abril de 2014

El Ébola no es invencible. Lo sabe bien Rose, que a sus 18 años ha conseguido ganar la batalla al virus hemorrágico que mantiene en vilo a Guinea. La paciente es la primera enferma que logra abandonar completamente curada uno de los centros de tratamiento que Médicos Sin Fronteras ha instalado en el país.

Su historia es un ejemplo de que, pese a que no hay tratamiento específico para el virus, "las probabilidades de que los pacientes sobrevivan se incrementan si reciben la atención adecuada, incluida una correcta hidratación y tratamiento para las infecciones secundarias", explican desde la ONG.

Tras pasar 10 días en una sala de aislamiento, viendo al personal sanitario parapetado en sus armaduras amarillas y temiendo que la muerte podía estar cerca, Rose ha podido volver a su casa, "muy feliz de haber recobrado la salud".

Antes de abandonar la sala médica del Hospital de Guéckédou, tuvo que darse una ducha de cloro y recibir ropa y zapatos nuevos, dos requisitos básicos para eliminar cualquier rastro del virus. Acto seguido, los equipos de MSF quemaron todo lo que llevaba mientras estuvo ingresada.

Toda la comunidad esperaba ansiosa el regreso de Rose, que llegó acompañada de dos promotoras de salud de MSF que explicaron a sus vecinos y a su familia que ya no es contagiosa y que pueden abrazarla y besarla sin peligro.

"Estamos felices por tenerla de vuelta. Ahora rezamos por otros miembros de la familia que todavía están enfermos", señaló el padre de Rose a la ONG.

Según los datos de la ONG, unos días más tarde de la curación de la joven, también su hermana y su sobrina de 12 años lograron vencer al virus. En total, hasta el momento unos ocho pacientes han logrado salir de las salas de aislamiento después de curarse.

Desde Médicos sin Fronteras explican que, además de la atención sanitaria, también es fundamental la labor de "sensibilización, información y comunicación" que llevan a cabo los promotores de salud. "Para evitar que todos aquellos que han pasado por una situación tan complicada sufran el estigma y el aislamiento por parte de sus familiares y amigos, hay que poner mucho cuidado en explicar de manera comprensible, sencilla y clara que una vez que un paciente se cura, ya no puede infectar a nadie", recuerdan.

El brote de Ébola comenzó a principios de año en Guinea que con 168 casos se enfrenta a una epidemia de esta enfermedad que se caracteriza por fiebre hemorrágica. En este país se han producido 108 muertes, aunque de momento sólo se han confirmado que 71 casos se deben al virus del Ébola, según el último informe divulgado este lunes por la Organización Mundial de la Salud (OMS).

El virus del Ébola también se ha propagado por la vecina Liberia, donde se confirmaron seis casos en 26 pacientes sospechosos de sufrir fiebre hemorrágica por este virus, incluyendo 13 muertes.

A su vez, Sierra Leona, con dos muertes por casos sospechosos de esta infección, y Malí, con seis casos sospechosos (ninguno mortal) -y con resultados negativos en las primeras pruebas realizadas-, son los otros dos países africanos donde se están evaluando pacientes con síntomas similares al Ébola.

Por todas estas incidencias, Gambia ha decidido suspender los vuelos desde Guinea, Liberia y Sierra Leona para evitar la propagación de la enfermedad, según informa AFP.

A la hora de clasificar la hepatitis C según el daño que ha hecho al hígado existen distintos grados pero, cuando se acaban los números, viene la palabra (o el estado) más temida: la cirrosis hepática. Cuando se padece esta condición, que sufrirá aproximadamente entre un 15% y un 20% de los infectados por el virus que genera esta infección, el riego de cáncer de hígado se multiplica, así como las posibilidades de sufrir un fallo hepático. Por ello, tradicionalmente, los tratamientos para la hepatitis C no han funcionado bien en este grupo de pacientes. Hasta ahora.

Un estudio publicado en The New England Journal of Medicine coincidiendo con su presentación en el Congreso Europeo del Hígado podría cambiar la práctica clínica para este tipo de pacientes, protagonistas exclusivos del mismo. El trabajo, que ha contado con participación española, demuestra que la combinación de dos antivirales a punto de ser aprobados por la agencia reguladora de los medicamentos en Estados Unidos, la FDA, y pertenecientes a los nuevos fármacos que están revolucionando el tratamiento de la hepatitis C junto con ribavirina -un medicamento antiguo que ya se utiliza en la terapia frente a la infección- cura el 95% de los casos de hepatitis C en cirróticos.

Se trata del primer estudio que evalúa una de estas terapias solo en estos pacientes avanzados, según señala a EL MUNDO Xavier Forns, especialista del Hospital Clínic y del Instituto de Investigaciones Biomédicas August Pi i Sunyer (IDIBAPS), uno de los autores del estudio, cuyo centro ha aportado una docena de pacientes al mismo.

La combinación utilizada en esta ocasión - el inhibidor de la proteasa ABT-450, el inhibidor de la NS5A AB-267 y el inhibidor de la polimerasa no nucleósida AB-267- supone a los pacientes tomar cuatro comprimidos repartidos en dos veces al día, algo muy alejado al tratamiento estándar hoy para los pacientes cirróticos, que incluye inyecciones semanales de interferón pegilado, además de la ribavirina y otros dos antivirales aprobados en los últimos años, pero con resultados discretos y "mala tolerancia", según subraya Forns.

Este especialista subraya una ventaja inherente a la utilización de estos nuevos fármacos en pacientes cirróticos y es la posibilidad de revertir el daño al hígado. "No es que el hígado se vaya a quedar perfecto, pero estamos viendo cómo se revierte la propia cirrosis una vez que no hay inflamación", comenta el experto del Hospital Clínic.

Forns se muestra convencido que estos fármacos en desarrollo, como otros similares, llegarán muy pronto a la práctica clínica. "A pesar de que son caros, estoy seguro de que los laboratorios llegarán a acuerdos con la Administración, siempre que ésta sea consciente del beneficio a medio plazo y no solo a corto plazo", concluye.

En el estudio TURQUOISE-II -así se llama el trabajo publicado en NEJM- se aplicó el tratamiento a 380 pacientes infectados con el genotipo 1 del VHC (el más frecuente en España). De ellos, 208 recibieron el tratamiento tres meses y, el resto, el doble de tiempo y las tasas de curación superaron en los dos casos el 90%.

Probablemente no pensemos mucho en él ni lo tengamos en cuenta a la hora de hablar de trasplantes, pero el esófago es una parte del aparato digestivo imprescindible para que la bebida o la comida lleguen a nuestro cuerpo. Sin embargo, tumores, enfermedades congénitas o accidentes pueden hacer que este tubo se deteriore comprometiendo en ocasiones la vida. Ahora, un equipo de investigadores de diferentes lugares del mundo ha dado el primer paso para acercar un tratamiento que no existe en la actualidad: el trasplante. De momento, lo han logrado realizar en ratas pero su objetivo último es el conseguirlo en personas, algo para lo que todavía deberán pasar años.

Al frente de este trabajo se encuentran dos de los protagonistas de los últimos años de la fabricación de órganos en el laboratorio: el italiano Paolo Macchiarini desde el Instituto Karolinska en Estocolmo (Suecia) y la estadounidense Doris Taylor, desde el Instituto del Corazón en Texas (EEUU). Los dos han explorado el método del lavado de órganos para eliminar las células del donante y evitar así una respuesta inmunológica del paciente receptor al recibir el implante. Macchiarini fue pionero al conseguir en junio de 2008 el primer trasplante de tráquea mientras que Taylor logró unos meses antes generar un corazón artificial completo, que no llegó a trasplantar, a partir de un método al que bautizó como descelularización, el mismo que empleó el cirujano italiano y el que ahora utilizan para el implante de esófago.

Para llevar a cabo este paso, los investigadores utilizaron esófagos de ratas que extirparon y los sometieron a un lavado con una serie de moléculas (agua, ácidos y enzimas) que eliminan las células y el ADN de este órgano. De esta manera, logran quedarse con el andamiaje del tubo, sólo formado por fibras de colágeno, que posteriormente sembraron con unos 90 millones de células madre de la médula ósea de varios donantes. Tras tres semanas, implantaron una pequeña parte, un trozo de 15 milímetros, en los animales receptores. "La parte trasplantada supone entre el 25% y el 30% del esófago de estos roedores. No es la totalidad pero hemos comprobado que han comido y que no han perdido peso. Y también algo muy importante, que no ha habido rechazo", afirma a EL MUNDO Paolo Macchiarini, quien señala que sólo mantuvieron con vida a los animales durante 14 días (equivalente a un año de vida humana) por requisitos del protocolo ético.

Aunque este cirujano reconoce que se trata de un primer paso, «es científicamente interesante porque si, con otros estudios, vemos que este nuevo órgano funciona igual de bien que la tráquea, podríamos plantearnos fabricar también un diafragma». Pero antes, necesitarán probar algunas cosas como la durabilidad del implante, algo que ya están estudiando, o su funcionalidad en animales más grandes como el cerdo. La finalidad última: llevar a cabo trasplantes en humanos. "Si todo va bien, y si la colaboración internacional sigue, puede que en los próximos cuatro años haya avances en este sentido", adelanta este investigador.

Los resultados obtenidos por este equipo son parte "de un camino con muchas posibilidades que está investigando esta técnica en varios órganos, claro que la tráquea y el esófago son mucho más sencillos si se compara con otros como el corazón o el hígado. Las patologías del esófago son complicadas y cuando hay lesiones se merma mucho la calidad de vida. Este trabajo está más próximo a la aplicación clínica que aquellos que fabrican estructuras mediante impresoras 3D", argumenta José Becerra, del laboratorio de Bioingeniería y Regeneración Tisular (LABRET-UMA) de la Universidad de Málaga.

Resonancia de tres esófagos, el de la izquierda está descelularizado. P. M. .
En cuanto a las limitaciones de este trabajo (el haber implantado sólo un trozo del esófago, haberlo hecho en animales que distan mucho fisiológicamente del humano y mantenerlos vivos sólo 14 días), Elisabeth Engel, del grupo de Biomateriales para Terapias Regenerativas del Instituto de Bioingeniería de Cataluña (Ibec), manifiesta que «los resultados no se pueden extrapolar al humano. Pero es un paso necesario. Siempre se necesitan ensayos preclínicos en animales y se empieza por la rata o el ratón porque son más manejables y baratos, pero estos modelos están lejos del humano».

Para Xabier López Aranguren, investigador del Laboratorio de Terapia Celular y Regenerativa del Centro de Investigación Médica Aplicada (CIMA) de la Universidad de Navarra, "la principal limitación del estudio es el corto periodo de tiempo por el que han trasplantado el esófago, ya que para su utilización en clínica habría que demostrar que a largo plazo es estable y que  la función del órgano es mejor que las terapias disponibles hoy en día".

Daniel Navajas, catedrático de Fisiología en la Universidad de Barcelona y también investigador del Ibec, afirma que "el logro conseguido por Macchiarini es un avance importante y sustancial. Es una variación de la Medicina Regenerativa que emplea matrices sintéticas y aquí son originales. Con ellas intentan dar una alternativa para resolver la falta de órganos para trasplantes o evitar el rechazo que generan los implantes". Pero, también advierte de que no se conocen detalles importantes, "como cuáles son las señales o los mecanismos que están detrás de la diferenciación celular. No se sabe si la aparición de células especializadas se debe principalmente a las células de la médula ósea o a ciertas señales que hacen un efecto".

Precisamente por ese desconocimiento, Engel insiste en que no hay que correr. "Eso tal vez es de lo que se le acusa a Macchiarini, de haber ido demasiado rápido en los implantes de la tráquea en pacientes cuando se sabe muy poco del comportamiento de estos andamiajes en humanos".

El mismo consejo da Antonio Campos, que dirige el grupo de Ingeniería Tisular de la Universidad de Granada, quien considera que "habría que seguir ensayando antes de dar el paso a humanos. No obstante, considera éste como un paso prometedor en la ingeniería de tejidos".

Es viernes por la noche y los bares del popular barrio berlinés de Kreutzberg echan humo, pero de forma literal. Un nube con aroma a cigarrillo de cajetilla, tabaco de liar y a veces cannabis es la tarjeta de bienvenida a cualquier local nocturno de la ciudad. A pesar que desde 2007, como en la mayoría de ciudades europeas, la ley prohíbe el consumo de tabaco, tanto en lugares públicos como en locales, Berlín no cumple con la legislación. La metrópoli germana se ha convertido en un paraíso para los fumadores de tabaco y de otras sustancias. "La gente se va a Ámsterdam a fumar porros en los coffe-shops como si fuera la leche y aquí (Berlín) la peña fuma y se lía canutos cuando quiere y donde quiere, tanto en bares como discotecas y nadie te dice nada", asegura Javier Palicio, un cámara asturiano que vive en la capital alemana desde 2009. Su testimonio es muy fácil de verificar. Basta con darse una vuelta por los diferentes sitios de ocio de la ciudad para comprobar que el humo forma una seña de identidad.

Llama la atención la impunidad con la que los usuarios violan la ley ante la mirada impasible de los camareros o de los dueños de los bares. Ni siquiera se pueden leer en los recintos las típicas advertencias que se ven en otras ciudades germanas, donde se recuerda a los clientes que está terminantemente prohibido fumar. "Si no se pudiese, Berlín no sería tan especial. Estamos hablando de una ciudad distinta a todas en Europa, que es especial por una permisividad que no se puede ver en otros lugares. Hay una libertad total para crear, vestir, consumir... Aquí no está bien visto prohibir cosas", justifica Oliver W., gerente de un local en Neuköln, uno de los barrios de moda de la capital. La clave para que los establecimientos pongan resistencia a la prohibición reside en los vacíos legales que alberga la ley. Acogiéndose a excepciones que contemplan el texto legal, basadas en el tamaño de los bares y si estos contemplan espacios diferenciados para no fumadores, muchos propietarios de bares y discotecas esquivan las multas.

Johannes Spataz, miembro de la asociacón contra el tabaco Forum Sin Humo, asegura que los bares ni siquiera respetan las salvedades legales. Culpa de ello a la ley a la que califica "de gran fracaso". Revela que en 2009 "se añadieron tantas excepciones que la han hecho "incontrolable y problemática". Considera "inaceptable que los no fumadores que quieran salir a bailar no tengan ninguna posibilidad de respirar humo limpio". Además, denuncia que los controles de las autoridades son muy superficiales y nunca hasta más tarde de las 12 de la noche. El año pasado, varios estudiantes de la Universidad Técnica de Berlín hicieron un estudio para comprobar hasta qué punto no se cumple la ley del tabaco en los lugares de ocio de la capital germana. El resultado fue revelador: de los 100 clubes nocturnos que investigaron, en horarios comprendidos entre las 23 y las 4 de la mañana, solo 16 cumplían la legislación, mientras que en el resto se fumaba impunemente, sin la existencia siquiera de áreas específicas para fumadores.

A las críticas por el no cumplimiento de la ley en Berlín se han sumado voces de la política, como la del socialdemocrata Lothar Bindin, impulsor de la ley aprobada entre 2007 y 2008 para la protección de los fumanores pasivos. El miembro del departamento financiero del SPD pone como ejemplos a seguir Baviera, Sarre y Renania del Norte-Westfalia. En Múnich, durante la popular fiesta del Oktoberfest, se logró extender la prohibición hasta en las carpas donde se sirve cerveza.

La comunidad médica alemana también reprueba el no cumplimiento de la ley en Berlín. Wulf Pankow, médico jefe de la clínica especializa en enfermedades pulmonares del barrio de Neukölln, advierte de los riesgos de la permisividad: "Cuando uno baila en una discoteca con humo, lo hace de forma especialmente rápida e intensa y es muy perjudicial para el fumador pasivo". Recuerda que la tasa de infarto es más baja "en los países con medidas más estrictas contra los fumadores". De hecho, según un estudio presentado hace un año por la aseguradora médica Dak, la sanidad pública alemana ha ahorrado cerca de 150 millones de euros gracias a la prohibición de fumar en lugares públicos. Mientras tanto, los bares de Berlín siguen llenos de clientes que sostienen sus vasos de cerveza mientras expulsan bocanadas de humo por la boca.

Ser padre por primera vez puede generar situaciones estresantes y en algunos casos puede favorecer la aparición de trastornos depresivos durante los primeros años, según un estudio de la Universidad de Northwestern Feinberg en Chicago, Estados Unidos, que propone ofrecer programas de ayuda para evitar estas situaciones.

"Sabemos mucho sobre las madres y la depresión materna y el efecto que tiene sobre los niños, pero ahora estamos empezando a conocer la depresión paterna", según ha reconocido Craig Garfield, autor principal de este trabajo que publica la revista Pediatrics.

Este experto cree que la depresión paterna puede afectar a alrededor del 5% al 10% de los padres, y el problema es que también puede perjudicar al desarrollo de su hijo durante los primeros años de vida, que son los más críticos. Por ello, añade, es necesario identificar estos casos y ofrecerles ayuda.

En su estudio analizaron datos de 10.623 hombres que participaron en un estudio de salud a largo plazo cuando aún eran adolescentes, y que incluía un seguimiento de unos 20 años. De todos ellos, un total de 3.425 participantes habían sido padres al final del período de estudio y, de esos, un total de 2.739 de ellos vivían con sus hijos.

Para medir su salud mental, los participantes fueron cumplimentando diversos cuestionarios a lo largo del estudio, y las respuestas se utilizaron para tratar de identificar síntomas relacionados con un cuadro depresivo.

Cuando los investigadores compararon las puntuaciones de depresión de los hombres, vieron que los padres primerizos que vivían con sus hijos tenían las puntuaciones más bajas, mientras que los que no vivían con ellos, eran los que mostraban parámetros más cercanos a una depresión. En una posición intermedia quedaban los participantes que no habían sido padres.

Sin embargo, durante los primeros cinco años de vida de sus hijos los padres que vivían con ellos y, por tanto, se responsabilizaban de su cuidado, experimentaron un aumento del 68% de media en sus puntuaciones de depresión.

"Esto fue significativo en el estudio y es importante cuando se piensa en el desarrollo del niño y de la familia y la importancia que los padres juegan en ella", dijo Garfield, que reconoce que el papel de los padres está cambiando y ahora casi se ha duplicado el tiempo que pasan con sus hijos.

Estos resultados, apunta este experto, deben servir para que los profesionales sanitarios sepan dónde deben enfocar su actividad a la hora de combatir posibles problemas de desarrollo de los niños, ya que "si logramos que padres y madres lleven bien este nuevo rol, hay más probabilidades de que el menor también prospere".

La vacuna contra el sarampión ha logrado reducir en un 71% las muertes por esta enfermedad en todo el mundo entre el año 2000 y 2007. Sin embargo, todavía se estima que cada año los fallecimientos por esta infección ascienden a 122.000, según datos de 2012. Fallos en la cobertura de la inmunización pueden estar detrás de estas muertes y también el hecho de que esta infección se propaga fácilmente. Por este motivo, desarrollar otras estrategias terapéuticas está en la mente de muchos investigadores.

La iniciativa más reciente es la de diferentes grupos de investigadores de la Universidad de Atlanta (EEUU), del Instituto Federal de Biomedicamentos y Vacunas de Largen (Alemania) y de la Facultad de Medicina de Singapur cuyos resultados publica esta semana la revista Science Translational Medicine. Se trata de un fármaco oral de la familia de los inhibidores alostáticos de la polimerasa, denominado con las siglas ERDRP-0519, y que se ha probado para un virus canino que es muy similar al del sarampión y tan letal como éste en hurones, animales donde probaron el medicamento.

De esta manera, los hurones que fueron infectados por este virus recibieron dos dosis del antivirual al día durante dos semanas junto con medicamentos para paliar los síntomas de la infección. Los investigadores compararon su evolución con la de un grupo control de hurones a los que sólo se les administró la terapia para paliar los síntomas.

Tras ese periodo, todos los animales tratados con el antiviral presentaron una reducción del 98% de su carga viral, quedaron libres de la enfermedad y desarrollaron una robusta inmunidad contra el virus.

Por otro lado, los investigadores explican que el fármaco, de comprobar su utilidad en humanos, podría utilizarse de manera profiláctica en todas aquellas personas, amigos o familiares, que hayan estado en contacto con la persona infectada. "La fuerte respuesta inmunológica en los animales tratados es particularmente estimulante, porque sugiere que el medicamento puede no sólo salvar la vida de las personas enfermas sino también contribuir a estrechar las grietas de la inmunidad frente al sarampión en una población", asegura Richar Plemper, del Instituto Emory para el Desarrollo de Fármacos y uno de los autores del estudio.

A pesar de los resultados positivos de este trabajo, los investigadores advierten de que ésta no es una terapia que sustituya a la vacuna sino otra ayuda dirigida al esfuerzo de eliminar esta enfermedad.

En lugar de dos, como es habitual, las personas con síndrome de Down tienen tres copias de su cromosoma 21. Numerosos equipos llevan tiempo intentando averiguar los mecanismos por los que esta copia de más desencadena los síntomas asociados a la trisomía, aunque la labor es complicada porque hay muchas dificultades para aislar los cambios en la expresión génica relacionados con el problema y distinguirlos de las variaciones naturales entre los individuos.

Un equipo con participación española ha conseguido dar un paso importante en esta línea desvelando parte del 'camino' genético que sigue el Síndrome de Down. Sus conclusiones se publican en el último número de la revista Nature y muestran que, lejos de lo que pudiera parecer, las alteraciones de la trisomía no se limitan al cromosoma 21, sino que alteran la expresión genética en todo el resto del genoma.

"A partir de ahora podemos ver a la trisomía 21 como un trastorno genético general", explica a EL MUNDO Stylianos Antonarakis, principal firmante del trabajo y miembro de la Universidad de Ginebra.

Para llevar a cabo la investigación, su equipo contó con una oportunidad única: la posibilidad de estudiar el caso de un par de gemelos en las que sólo una de ellos tenía Síndrome de Down. Su genoma era, por tanto, idéntico excepto en el caso del cromosoma 21, lo que permitió a los investigadores aislar la expresión genética relacionada directamente con el trastorno y no con las diferencias de expresión individuales. "Es un caso muy raro", reconoce Antonarakis, quien sugiere que probablemente "el cigoto comenzó a desarrollarse con una trisomía en el cromosoma 21", pero luego, en una de las divisiones celulares, uno de los pequeños perdió la copia cromosómica adicional.

Mediante técnicas de secuenciación de alto rendimiento, los investigadores pudieron identificar las alteraciones propias de la trisomía y comprobaron "con sorpresa", según Antonarakis, que la alteración en un cromosoma tan pequeño como el 21 tenía una gran influencia en el resto del genoma.

"La simple adición de un cromosoma extra", señala el especialista, provoca alteraciones que están organizadas en dominios presentes en todos los cromosomas y que están relacionados con la producción de ARN [el mensajero encargado de transmitir la información del ADN].

Esto provoca alteraciones en el proceso de descodificación de la información y, por tanto, modifica las funciones celulares normales.

Además de en las gemelas estudiadas, los investigadores corroboraron su hipótesis en modelos animales, así como en un experimento con reprogramación celular.

En la investigación fue clave el papel del Centro de Regulación Genómica de Barcelona, que realizó un análisis bioinformático de los datos de secuenciación de ARN para determinar los niveles de expresión de los diferentes genes.

El estudio, aseguran, abre nuevas vías para entender el síndrome de Down y para encontrar posibles dianas que reviertan esta desregulación de la expresión génica.

Por otro lado, el trabajo también plantea nuevas hipótesis para saber más sobre las anormalidades cromosómicas. "Esta influencia global podría responder a un patrón general y ser aplicable a otras trisomías o alteraciones cromosómicas como las que se producen en el cáncer", concluye Antonarakis.

La mayoría de las infecciones alimentarias se producen porque una bacteria consigue llegar del plato al organismo. La más famosa de ellas es 'Salmonella', pero otras muchas son igual de inoportunas y peligrosas: Campylobacter, Listeria, Escherichia coli...

Estos patógenos son viejos conocidos para las autoridades sanitarias, que, al menos en el primer mundo, han conseguido frenar su expansión mediante medidas de seguridad y control en la cadena alimentaria.

Pese a todo, de vez en cuando, siguen dándose brotes e infecciones localizadas a causa de estos patógenos. Según el último informe oficial, en 2012 se produjeron 214.000 infecciones alimentarias en toda Europa. De ellas, 'Campylobacter' fue la principal responsable.

Para intentar controlar aún más la acción de estos patógenos, las autoridades sanitarias estadounidenses han dado un paso más y han destinado 30 millones de dólares (casi 22 millones de euros) a la investigación básica contra la acción bacteriana.

En concreto, según han avanzado los Centros de Control y Prevención de Enfermedades del país norteamericano, esta financiación se destinará a secuenciar el genoma de las principales bacterias implicadas en las infecciones alimentarias.

El objetivo, aseguran los responsables del organismo, es frenar de una forma más rápida los brotes de infección e intentar prevenir nuevos casos conociendo mejor cómo es su diseminación.

"En realidad este es un nuevo método de combatir infecciones", ha señalado Tom Frieden, director de los Centros para el Control y la Prevención de Enfermedades (CDC en sus siglas en inglés).

La secuenciación del genoma de un patógeno, ha añadido, puede ser muy útil para la salud pública, aunque hasta la fecha no se ha utilizado de forma amplia, sino en contadas ocasiones. La técnica sí se emplea de manera habitual en la detección de nuevas y potencialmente peligrosas cepas de la gripe aviar, y su uso se extenderá gracias al abaratamiento y la disponibilidad de la tecnología de secuenciación genómica.

Como primer paso, los investigadores han comenzado a analizar el ADN de todas las infecciones provocadas por Listeria registradas en Estados Unidos durante este año, así como el procedente de muestras localizadas en alimentos contaminados o fábicas.

Esta bacteria ocupa el tercer puesto en número de infecciones alimentarias en EEUU y es especialmente peligrosa para las mujeres embarazadas. Si la infección se produce en las primeras semanas de la gestación puede provocar un aborto espontáneo. Si ocurre con el embarazo más avanzado, puede conducir a la muerte fetal, ya que las bacterias pueden atravesar la placenta e infectar al feto. Las verduras, la carne o la leche sin pasteurizar son algunos de los alimentos a través de los que la Listeria puede llegar al organismo.

Si el proyecto piloto funciona, la iniciativa puede sentar las bases de una nueva forma de abordar la seguridad alimentaria, han señalado los CDC.

Las cifras asustan. Aproximadamente 21 millones de estadounidenses de 20 o más años están diagnosticados de diabetes y más de 40 millones están en una situación previa a sufrir esta enfermedad, lo que supone que se ha duplicado el número de personas en este país con cifras de azúcar por encima de lo saludable. Una situación parecida se vive en España y en el resto del planeta.

La prevalencia de diabetes en el mundo supone que 360 millones de personas sufren esta enfermedad, según datos de 2011, y de ellas más del 95% tenía diabetes tipo 2, la vinculada al estilo de vida y los hábitos nutricionales. Se prevé que esta cifra alcanzará los 552 millones en el año 2030 y que la mitad de las personas desdeconocerá su diagnóstico. Por si esto no fuera poco, se calcula que otros 300 millones de personas tiene características que indican riesgo de sufrir este problema en el futuro, según informa la Sociedad Europea de Cardiología en unas guías sobre diabetes, prediabetes y enfermedad cardiovascular.

Otro estudio, realizado por investigadores de la Escuela Bloomberg de Salud Pública en la Universidad Johns Hopkins (Baltimore, EEUU), analiza cómo ha sido el aumento de este trastorno metabólico en las últimas décadas en este país y por lo que señalan en su estudio, publicado en la revista Annals of Internal Medicine, la diabetes aumentó de un 6% a un 10% en las pasadas dos décadas y la prediabetes -situación en las que los niveles de azúcar en sangre son elevados aunque no lo suficiente como para establecer un diagnóstico- pasó de un 12% a un 30%. "Hay una creciente necesidad de reconocer este grave problema, especialmente porque la mayoría de los casos de diabetes pueden prevenirse con la pérdida de peso y otros cambios en el estilo de vida", afirma la principal autora de esta investigación, Elizabeth Selvin, profesor de esta universidad.

Esta investigadora, junto con su equipo, analizó datos de más de 43.000 participantes recogidos a lo largo de 20 años a través de la Encuesta Nacional de Salud y Nutrición. Un novedoso aspecto de este estudio fue el confirmar la existencia de casos de diabetes sin diagnosticar, porque se llevaron a cabo test donde se midieron los niveles de glucosa en sangre. De esta manera, se estima que el 11% de las personas con este problema en EEUU está sin diagnosticar, aunque el dato positivo es que esa cifra ha bajado en los últimos años, lo que indica que se está realizando una mayor evaluación médica.

En nuestro país, según el Atlas de la Diabetes elaborado por la Federación Internacional de este trastorno (IDF), entre 2011 y 2013 ha aumentado el número de casos en un 33,41% y la previsión para 2035 coincide en que la cifra de diabéticos, como en el conjunto del planeta, se duplicará de 2,8 a 5,1 millones de afectados.

"La prevalencia real de la diabetes tipo 2 en España ya es del 13,8%, como recoge el Estudio di@bet.es que se realizó en 2011 en 5.800 mayores de 18 años de todo el territorio nacional. La tasa del Atlas se sitúa en 10,83% porque es una estimación", ha explicado a la agencia SINC Franz Martín Bermudo, vicepresidente de SED y catedrático de Nutrición y Bromatología de la Universidad Pablo de Olavide de Sevilla.

Por otro lado, el número de españoles que no sabe que sufre este problema sigue siendo muy elevado: 1.387.000 afectados, el 36,59% del total, lo que incide tanto en las complicaciones como en los fallecimientos y en el gasto sanitario. Porque según diferentes estimaciones, el coste que cada diabético genera al sistema sanitario es de 2.449 euros al año. Si hablamos en términos mundiales, esa cifra llega a los 571.000 millones de dólares, lo que supera con creces la previsión que hizo la IDF para 2030 y que lo situaba en 490.000.

La obesidad y los malos hábitos están detrás de este aumento de casos. En el mundo, 1.000 millones de adultos tienen sobrepeso, y más de 300 millones son obesos, según datos de la Organización Mundial de la Salud (OMS). Cada año mueren, como mínimo, 2,6 millones de personas a causa del exceso de peso pues se estima que el 44% de los casos mundiales de diabetes y el 23% de cardiopatía isquémica son atribuibles al sobrepeso y la obesidad, que también se vinculan a algunos tipos de cáncer.

Los expertos aconsejan reducir la ingesta total de grasas y sustituir las saturadas por insaturadas, presentes en el aceite de oliva o frutos secos, aumentar el consumo de frutas, hortalizas, legumbres, cereales integrales y frutos secos y reducir la ingesta de azúcar y sal.

Es de sobra sabido que los medios de comunicación impactan directamente sobre cómo perciben muchas personas su propia imagen. La televisión, las revistas, la moda, los iconos de la música y un largo etcétera de altavoces transmiten unos estereotipos físicos -sobre todo de las mujeres- a los que es difícil sustraerse. Pero, ¿qué pasa con las redes sociales?, ¿tienen la misma capacidad de influencia?

Una investigación coordinada entre científicos británicos y estadounidenses ha tratado de averiguarlo y sus resultados muestran que su impacto puede ser incluso mayor que el de los medios tradicionales.

Estos científicos estudiaron el caso de 881 jóvenes universitarias en un análisis que, entre otros factores, tuvo en cuenta sus hábitos de vida, su alimentación, el ejercicio que realizaban, cuál era su uso de la red social Facebook y cuál era su percepción de su propia imagen.

Al cruzar los datos comprobaron que emplear mucho tiempo en Facebook se asociaba con "más sentimientos negativos" sobre su propia imagen y "más comparaciones con los cuerpos de amigos". Asimismo, también observaron que, en el caso de las mujeres que estaban tratando de perder peso, el tiempo en la red social se correlacionaba con prestar más atención a la apariencia física.

"Esta atención a los atributos físicos puede ser incluso más peligrosa en las redes sociales que en los medios tradicionales ya que los participantes en estas redes son gente que conocemos. Estas comparaciones son mucho más relevantes y más impactantes. Y pueden ser tan poco realistas como las imágenes que vemos en los medios tradicionales", ha señalado en un comunicado Patya Eckler, investigadora de la Universidad de Strathclyde (Reino Unido) y una de las principales firmantes del estudio que se ha presentado en el 64 Congreso de la Asociación Internacional de Comunicación (celebrado en Seattle, EEUU).

La investigación no encontró ninguna relación directa entre pasar mucho tiempo en Facebook y un mayor riesgo de desarrollar trastornos de la alimentación, pero los investigadores advierten que esta asociación puede darse en dos pasos.

"Aunque el tiempo empleado en Facebook no tiene una relación con estos trastornos, sí fue capaz de predecir una peor imagen corporal entre los participantes", ha señalado Eckler, quien ha añadido que "como todos los expertos en este campo saben, una mala imagen corporal puede conducir gradualmente al desarrollo de una relación poco sana con la comida".

Con estos datos en la mano, ha subrayado, "los profesionales de salud pública que trabajan en el área de los trastornos de la alimentación y su prevención ahora tienen una evidencia clara de cómo las redes sociales se correlacionan con la imagen corporal que tienen las mujeres universitarias".

No es la primera vez que una investigación asocia el uso continuado de las redes sociales con algún problema de tipo psicológico. Recientemente, un trabajo publicado en Plos One señalaba que podía establecerse un vínculo entre el uso de la red y un estado de malestar.

Se acaba de publicar el último informe del grupo III de trabajo del IPCC, sobre instrumentos de mitigación del cambio climático.  En él se propone ampliar la generación de energía mediante sistemas solares actuales. Tenemos que dejar, ya, de emitir CO2 a la atmósfera. Y esto es bueno para cada uno de nosotros.

La energía que estamos utilizando masivamente hoy día es, evidentemente, solar. Pero solar fósil. Carbón, petróleo y gas derivan de  biomasa del Carbonífero, un periodo de la historia de la Tierra de hace unos 330 millones de años. Una parte muy pequeña de la energía solar capturada entonces se concentró en el subsuelo de ciertos lugares de planeta, y ahora la estamos disipando. Piensen que estamos consumiendo esa energía en no más de 200 años, cuando estuvo capturándose de la que llega constantemente del sol durante unos 20 millones de años: 20 millones/ 200 = 100000 veces más.

La energía que llega del sol a la superficie de la Tierra en un día es -por lo menos- 2 veces la que utilizamos los seres humanos en 365 días, en un año.  Fíjense que digo -por lo menos-, sin entrar a que pueda ser bastante más. Pero voy a utilizar esta cifra: 400 billones (millones de millones) de kwh. Empleo kilovatios hora porque es la unidad por la que nos cobran la energía que utilizamos en forma de electricidad, y así cualquiera puede comparar: Una estufa de 1 kw, trabajando 1 hora seguida, consume 1 kwh, que nos cobran, impuestos incluidos,  a 0.17 euros.

Esta energía esta dispersa, y hay que capturarla y almacenarla para que nos sea útil. Los seres humanos, como todos los animales, así lo hemos hecho desde que aparecimos por el planeta, recogiéndola de plantas y animales y almacenándola sobre todo en forma de grasa en nuestros cuerpos. Con la revolución agrícola empezamos a capturar esa energía de manera sistemática, con los cereales esencialmente, plantando sus semillas y recogiendo sus frutos, y almacenándolos en silos en las nuevas ciudades construidas para ello. Desde hace unos 6000 años, por lo menos, y hasta hace unos 200 años (a partir de 1800 EC) toda la riqueza, todo el dinero de la Tierra era la energía solar capturada básicamente mediante los cereales en los campos del planeta y de la cual, el pequeño exceso sobre las necesidades alimenticias, se almacenaba y se asimilaba al dinero que servía para medir la energía disponible. Si un esclavo valía tantos dracmas, no era  mas que porque podía desarrollar la energía necesaria para realizar su trabajo.

La parte de energía del sol que capturan las plantas es muy, muy pequeña. El trigo, por ejemplo, no captura más del 1% durante unos 90 días, digamos un 0.25%  de la energía del sol durante un año. Y aún así nos hizo ricos, a los seres humanos, o a algunos seres humanos, hablando con propiedad.

Hoy tenemos herramientas que capturan un 30% de la energía solar diaria, 365 días al año: Se llaman celdas fotovoltaicas: 120 veces más de lo que captura el mejor cereal, 10 veces más de lo que captura la caña de azúcar,  que es otro muy buen recolector de energía solar. Tras las celdas fotovoltaicas tenemos la energía solar térmica que actúa con un rendimiento de alrededor de un 12%, pero que permite almacenar esa energía capturada sin problema, al menos durante las 12 horas de la noche, en forma de sales fundidas de nitrógeno que se guardan en el subsuelo.

Los molinos de viento, tan característicos de El Quijote, que se habían importado de Holanda unas décadas antes de que Cervantes lo escribiese, han capturado energía solar desde hace al menos 500 años. Hoy se llaman aerogeneradores, pero no dejan de ser molinos de viento.  Su rendimiento solar es muy difícil de estimar, pues aprovechan la energía térmica del océano, calentado por el sol, y cuya alta temperatura relativa genera los vientos que los mueven.  Su rendimiento energético (la energía que producen dividida por la energía del sol que utilizan) debe de ser al menos tan bajo o menor que el de las plantas, pero aprovechan el hecho de que esa energía solar calienta áreas enormes de los océanos, y luego esa energía cedida al viento se concentra en puntos microscópicos (respecto a los océanos) de la misma manera que el clavo entra en la madera porque la fuerza del martillo se concentra en su punta afilada.

Puesto que hoy día la riqueza del dinero es la representante de la riqueza real de los combustibles ( y si alguien lo duda, piense en Arabia, Rusia, Kazajastán, etc. ) como antiguamente ese dinero representaba la posesión de fincas cerealeras de alta productividad, podemos pensar que tenemos en nuestras manos las herramientas necesarias para aumentar radicalmente la riqueza de los seres humanos en el planeta. En una nueva disciplina de ''Plutonomía'' que se dedicase a analizar como aumentar la riqueza en vez de distribuir la escasez, según la definición tradicional de la Economía,  la inmensa cantidad de energía que podemos capturar y almacenar debería llevarnos hacia situaciones de riqueza real para los siete u ocho mil millones de personas sobre la Tierra.

Hemos montado una cultura que se ha extendido a todos los rincones del planeta basada en disponer (quienes disponen) de energía mediante la quema de los combustibles fósiles. Esta quema tiene varios inconvenientes: Es finita en el tiempo, es contaminante con productos que se depositan en los pulmones, emite CO2 mediante la regla de 3 kilos de CO2 por kilo de gasolina o gasóleo quemado.  Hace 100 años era de alto rendimiento medido por el índice ERoEI: Energía Recuperada dividida por la Energía Invertida para su recuperación, pero hoy el petróleo sacado a 5000 metros de profundidad, o de las arenas asfálticas  de Canadá o de Venezuela, o de la rotura de las pizarras subterráneas (fracking) tiene un índice de 3 frente a índices de 50 o 90 hace esos 100 años.  

La energía eléctrica consumida en España el año 2013 ha salido, en su mitad, del viento. Si lo hacemos bien podemos conseguir que toda la energía eléctrica  que utilicemos en España salga del viento y del resto de los sistemas solares.

Se suele decir que uno de los problemas de la energía solar es que no se puede almacenar. Esto es radicalmente falso. En la ciudad de Phoenix, en Arizona, ya, hoy, medio millón de personas se calientan e iluminan por la noche, cuando no hay sol, con la energía capturada del sol durante el día.  Esa energía capturada se invierte en calentar sales de nitrógeno y estas sales, a muy alta temperatura, se almacenan en el subsuelo. Luego de noche se las deja enfriar calentando agua que se emplea como calefacción o que mueve turbinas eléctricas. Una empresa  sevillana es pionera mundial en esta tecnología.

La energía fotovoltaica, que se ha prohibido en España recientemente, de hecho, aunque no de derecho, mediante multas impagables para quien la utilice en su casa, es una solución razonable no para las calefacciones o aires acondicionados de las viviendas, sino para la iluminación y los pequeños aparatos electrodomésticos que solo funcionan un par de horas al día. Paneles fotovoltaicos de un kilowatio deberían ser obligatorios para cada vivienda española. Su coste se amortiza en dos años, de manera que los bancos, mediante un programa de instalación gratis a cambio del ahorro en el recibo de la luz durante unos años mas de esos dos, podrían llenar los hogares españoles de paneles y baterías que disminuirían radicalmente la factura eléctrica de las familias y ahorrarían millones de toneladas de CO2 emitidas a la atmósfera. Exactamente de la misma manera, mediante un programa de prestamos a cambio del ahorro de la factura de la luz los bancos podían poner paneles de agua caliente solar en todas las viviendas españolas, con el mismo ahorro que las celdas fotovoltaicas.

Existen también toda clase de tecnologías biológicas que producen energía adicional a la alimentaria. Las microalgas son un ejemplo. Hablaré de ellas otro día.

Nos queda para ahorrar en emisiones de CO2  el consumo de combustibles en los coches y camiones. Aquí de nuevo se puede hacer muchísimo. Las ciudades pueden proporcionar triciclos eléctricos (digo triciclos, pues pueden llevar carga y no vuelcan, pesando aproximadamente lo mismo que las bicicletas de mas difícil manejo) para el desplazamiento de todos sus ciudadanos. El coste de la inversión de nuevo puede ser proporcionado por los bancos, que lo recuperan en muy pocos años mediante el ahorro en combustible que esos triciclos suponen.

Esto de los bancos financiando un cambio de uso energético es, como la calefacción en Phoenix, algo que se lleva haciendo en España por uno de sus bancos desde hace años: No es nuevo, y es rentable. Si un banco lo puede hacer, ¿por qué no todos ellos?

Para los viajes largos, sabiendo que al final del viaje las ciudades van a tener a disposición de viajero estos triciclos (que pueden incluso ser cubiertos si en la ciudad llueve mucho) pueden usarse de forma masiva los trenes (no los aviones) que funcionan con electricidad que debe ser de origen solar.

En cuanto al transporte de mercancías, un sistema de contenedores ciegos, de altas velocidades, que circulen por tuberías enterradas o superficiales entre ciudades distantes, impulsados por electricidad, eliminaría la emisión del transporte por carretera de aquellas, lento, caro y enormemente contaminante.

Resumiendo: Según todos los estudios, necesitamos eliminar la combustión de carbono (carbón, gas natural y petróleo) como herramienta energética. Y hacerlo es posible, económicamente (hay bancos que ya lo están haciendo y ganan dinero al hacerlo)  y técnicamente, y la tecnología para ello no es del futuro: Está toda en los anaqueles de los comercios de hoy. Y las ventajas para los ciudadanos, inmensas: Aumento en la salud al eliminar la contaminación, reducción de sus facturas energéticas, amento de la calidad de vida al eliminar, por ejemplo, los viajes de 600 kilómetros al volante del coche, y los atascos diarios en las ciudades.

Evidentemente la forma de vida será otra. Pero, ¿es la actual tan maravillosa como para no tratar de evolucionar a otra mejor?  ¿O debemos seguir siempre en lo mismo sin cambiar nunca? Según esta filosofía tremendamente conservadora, lavaríamos en el río, tendríamos el excusado al fondo del patio, nos ducharíamos una vez al mes, y el viaje mas largo que nos plantearíamos en toda nuestra vida no sería de más de 20 kilómetros. Esta era la vida española en 1900, para el 99% de su población.

Los españoles de entonces aceptaron las nuevas tecnologías: Montaron trenes, se subieron a los aviones, pusieron electricidad en sus casas, y todo lo demás que tenemos.  Aquello era caro. Los sesudos analistas decían: ''No se puede hacer: Cuesta mucho. La luz eléctrica no es competitiva con los candiles de aceite''.

Hoy hay sesudos analistas, gente que sabe una barbaridad que nos dice que hoy no podemos substituir el petróleo por energía solar actual, no fósil. ''No se puede hacer. La energía solar no es competitiva con la del petróleo''.  La historia se repite.

Y como se repite, si entonces fuimos capaces de cambiar a un mundo mucho mejor, hoy podemos hacer exactamente lo mismo. A pesar de los sesudos analistas. Y de las prohibiciones a la energía del futuro que es de ahora.

Necesitamos frenar el cambio climático, podemos hacerlo y es bueno para cada uno de nosotros.

Las emisiones de CO2, disparadas a pesar de las medidas de reduccion

Las emisiones globales de gases de efecto invernadero han aumentado hasta niveles sin precedentes a pesar de los esfuerzos mundiales para reducirlas. La tercera -y última- parte del informe de referencia sobre cambio climático emitido cada siete años por Naciones Unidas revela que la emisión debida a la actividad humana de estos gases causantes del calentamiento del planeta ha crecido más rápido entre los años 2000 y 2010 que en cualquiera de las tres décadas anteriores.

Sin embargo, según el informe sobre las posibles vías para mitigar los efectos del calentamiento realizado por el tercer grupo de trabajo del Panel Intergubernamental para el Cambio Climático de Naciones Unidas (IPCC, por sus siglas en inglés) y recién presentado en Berlín, es posible limitar este incremento de las emisiones usando una amplia variedad de cambios de comportamiento y medidas tecnológicas para limitar el incremento de temperatura global a dos grados como máximo en 2100 con respecto a los niveles preindustriales.

"Este informe llega en un momento sumamente oportuno, porque la mayoría de los países están buscando respuestas sobre los mejores métodos para limitar las emisiones de carbono", ha arrancado la sesión el presidente del IPCC, Rajendra Pachauri. "Pero la mitigación no se alcanzará si los países toman medidas de forma individual, se precisan acuerdos internacionales".

En ese sentido, Youba Sokona, uno de los tres codirectores del grupo de trabajo que ha producido el informe, ha destacado la importancia de este documento. "Este informe es el que m?s relevancia tiene desde el punto de vista político", ha dicho Sokona en la presentación de Berlín. "Los políticos tienen que tomar decisiones, ellos son los pilotos, los capitanes del barco. Los científicos sólo somos los cartógrafos que hacen los mapas que puedan guiar a esos patrones, este informe tiene que hablar de las oportunidades, pero también de los riesgos y los costes par que los políticos puedan navegar con seguridad por las aguas peligrosas", ha metaforizado Sokona.

En la última década, las emisiones han aumentado 10 gigatoneladas de CO2 equivalente, más que en cualquier década anterior desde la era preindustrial, según el informe. Y el aumento proviene principalmente del sector energético (47%), la Industria (30%) y el transporte (11%). Según Pachauri, estos son los sectores en los que se deben centrar los esfuerzos de mitigación si de verdad se quiere limitar el aumento de temperatura a 2 grados centígrados para el año 2100, como se acordó en la Cumbre del Clima de Cancún.

El informe, llamado Cambio Climático 2014: Mitigación del Cambio Climático, analizado 1.200 escenarios posibles para el futuro y sus conclusiones varían en función de las decisiones políticas internacionales en lso próximos años. Según el documento, si se quirere limitar el aumento de temperatura global a 2 grados centígrados para final de siglo, habría que reducir las emisiones globales de gases de efecto invernadero entre un 40% y un 70% para 2100 con respecto a las emisiones del año 2010.

"No sólo hemos visto que las emisiones han aumentado cada año hasta 2010 y que lo siguen haciendo, sino que también ha aumentado la tasa de aumento", ha explicado Ottmar Edenhofer, codirector del informe del tercer grupo de trabajo del IPCC, durante la presentación en Berlín. "Sabemos que el consumo de carbón para la producción de energía ha aumentado en los últimos años. Lo que deja claro este informe es que necesitamos tecnologías bajas en carbono como las renovables, el almacenamiento (secuestro) de carbono, la energía nuclear en algunos lugares o la eficiencia energética", ha asegurado Edenhofer. "Sin medidas de mitigación extraordinarias, si seguimos haciendo lo mismo que hasta ahora la temperatura aumentará entre 3,7 y 4,8 grados centígrados este siglo".

Los expertos no han pasado de puntillas sobre el coste económico que tendría una política de mitigación global como la que en su opinión es necesaria para limitar el aumento de temperatura. Según los investigadores del IPCC, no sólo es necesario invertir en fuentes de energía de baja o nula emisión de CO2, sino que es preciso extraer carbono de la atmósfera. Dejar la concentración de CO2 en la atmósfera en 450 partes por millón (ppm) para final de siglo -en la actualidad roza las 400 y su ritmo de aumento actual es de unas 10 ppm cada año-, lo que se consideraría el nivel de seguridad, implicaría una reducción de la tasa de aumento del consumo global de un 0,06% cada año. "La mitigación requiere cambios en la economía. Implicaría una reducción del crecimiento económico, pero no el sacrificio del crecimiento económico", según Edenhofer.

El presidente del IPCC señaló la urgencia que requiere la mitigación para que los costes y los efectos no se disparen. "El tren de alta velocidad de la mitigación está a punto de partir y todos los países, toda la sociedad debería subirse a ese tren", ha dicho Pachauri.

Las reacciones de los grupos ecologistas y de justicia social no se han hecho esperar señalando la necesidad internacional de adoptar una postura clara y decidida cuanto antes. "El IPCC no deja dudas no sólo de que es posible actuar contra el cambio climático, sino también de que es beneficioso y asequible. Si actuamos ahora, los costes serán sólo una pequeña fracción de las economías mundiales. Aquellos que dicen que es demasiado difícil y demasiado caro están equivocados. Pero es muy urgente actuar ahora, en caso contrario los costes y los impactos aumentarán", explica Samantha Smith, líder de la iniciativa Clima y Energía Globales de WWF Internacional.

"La ciencia ha hablado: la acción climática no es una carga, sino una oportunidad. Según aumentan las energías renovables y se hacen mejores y más baratas, la era de los contaminantes y dañinos petróleo, carbón y gas está terminando", asegura Li Shuo, responsable de Clima y Energía de Greenpeace en China. "La única respuesta racional a este informe es comenzar la fase final de los combustibles fósiles inmediatamente. Es simple, cuanto más esperemos, más nos costará el cambio climático", sentencia Li Shuo.

'El mapa del cerebro nos hara inmortales'

Michio Kaku dice que quería ser físico para investigar el origen del universo desde que hacía experimentos de niño en el garaje de su casa en California. También jugaba a intentar leer la mente de los demás. No logró practicar la telepatía, pero en su nuevo libro, El futuro de nuestra mente (Debate), el profesor, teórico y divulgador cuenta la historia de los colegas que lo están consiguiendo.

¿Por qué este libro ahora?
Hemos aprendido más sobre el cerebro en los últimos 10 años que en toda la historia de la humanidad. Ahora existe la telepatía, podemos mover objetos con la mente, registrar y descargar recuerdos simples, o fotografiar sueños. Gracias a la Física, podemos ver cómo se mueve la sangre dentro del cerebro, básicamente oxígeno, y ver la actividad neuronal, los pensamientos. También podemos conectar el cerebro a un ordenador y después a Internet. En último término, Internet se convertirá en una red del cerebro (brain-net). Podremos compartir pensamientos y emociones en la red. A los jóvenes les encantará. No sólo podrán poner en Facebook lo que están haciendo, sino el recuerdo del baile de fin de curso o de la primera cita. Vamos a tener dos discos en el futuro, el del genoma, con todos los genes de nuestro cuerpo, y el del conectoma, el mapa de las conexiones neuronales con las memorias, las sensaciones y la personalidad. Todo estará en dos discos. Obama y la UE invierten en esto porque a corto plazo podremos entender las enfermedades mentales. A largo plazo, podremos vivir para siempre. Incluso después de morir, nuestro genoma y nuestro mapa mental sobrevivirán. Podremos resucitar sensaciones y recuerdos. En cierto sentido, nos convertiremos en inmortales.
¿Cuándo será accesible para cualquiera la conexión cerebro-ordenador?
El Pentágono está invirtiendo decenas de millones de dólares en prótesis de piernas, brazos y esqueletos robóticos porque hay miles de heridos de guerra de Irak y Afganistán. En el Mundial de Fútbol de Brasil una persona que está parcialmente paralizada va a lanzar el saque de honor gracias a un exoesqueleto. Ya podemos conectar la mente de una persona que tiene una lesión de la médula a un ordenador para que haga lo mismo que cualquiera. Mi colega Stephen Hawking está completamente paralizado, sólo parpadea. Pero el cristal derecho de sus gafas tiene una antena con un chip conectado con un portátil y eso le permite comunicarse mentalmente. En la próxima década, la gente con parálisis podrá moverse y comunicarse. Los primeros en estar conectados serán las víctimas de lesiones deportivas, infartos o accidentes de coche. Más adelante, podremos crear personas con superpoderes. Ya hemos descargado recuerdos en animales. El año pasado, se hizo en Carolina del Norte: coges un ratón, conectas su hipocampo a dos electrones y grabas los mensajes que se desplazan por el hipocampo cuando aprende una tarea. Después la olvida. Pero si insertas ese recuerdo en el animal, el ratón hace bien la tarea al primer intento.
¿Qué está más cerca?
El objetivo a corto plazo es construir un marcapasos del cerebro para los pacientes de Alzheimer, para los millones que no saben dónde viven o quiénes son. En el futuro, tendrás un botón, apretarás y recordarás quién eres, dónde vives y dónde tienes que ir. En esta década haremos estudios con animales, grabando y descargando recuerdos, y en la próxima lo haremos con humanos. En la década de 2030, podremos descargar labores complejas, por ejemplo para trabajadores que tengan que aprender nuevas habilidades porque sus puestos se hayan quedado obsoletos o para los jóvenes que se saltaron un curso en la Universidad.
¿Qué le ha sorprendido más?
El que ya podamos fotografiar un pensamiento. En Berkeley, ponen a los pacientes en un escáner cerebral y convierten la mente en 30.000 puntos. Esos puntos representan los flujos cerebrales. Un ordenador los analiza y crea una fotografía de los pensamientos. Las fotos son borrosas porque estamos en la fase inicial.
¿Quiénes somos si nuestra conciencia se puede descargar?
Como diría el ex presidente Bill Clinton, depende de cómo definas quién eres tú. Cuando mueres, puede que haya un alma. O puede que no quede nada, pero si tengo el genoma y la información de tu cerebro, puedo recrearte. La cuestión es, ¿eres tú? Si hay un mapa de tus conexiones cerebrales, una parte de ti sobrevive. Igual que con una grabación. Esa parte de ti sobrevive. Esto puede resucitar tu personalidad y tus deseos porque está conectada al genoma y eso es lo que eres. ¿Quiénes somos? El punto de vista extremo es que somos información.
¿Un robot con una mente descargada es humano?
Si habla como un humano y tiene una personalidad como un humano, tal vez podemos llamarlo así. En el futuro, podremos tener una biblioteca de almas igual que hoy puedes leer biografías o películas de la gente que ha muerto. Podrás conversar con ellos. Si fueras un político, ¿no querrías hablar con Winston Churchill? Tus nietos podrán tener acceso a la biblioteca donde podrán tener una conversación contigo, aunque no sea perfecta.
¿Cuáles son los límites éticos más urgentes?
El medicamento para olvidar experiencias traumáticas, que ha sido rechazado por la comisión de bioética del presidente, ya está generando debate. Habrá mucho debate también con el marcapasos del cerebro. ¿Qué pasa si se descargan recuerdos equivocados? ¿Y si la memoria de un crimen que no cometiste se descarga en tu mente? Tienes el recuerdo de que mataste a alguien, pero no lo hiciste. Debemos tener leyes para regular recuerdos falsos o que se descarguen sin permiso.

La vida vuelve al volcan submarino de El Hierro

Las erupciones volcánicas que tuvieron lugar al sur de La Restringa, en la Isla de El Hierro, desde octubre de 2011 hasta marzo de 2012 acabaron con gran cantidad de la flora y la fauna del Mar de las Calmas, una de las reservas marinas de la zona.

La cantidad de materiales que procedían del manto, el calor y el CO2 fueron los responsables de esta pérdida. Hasta ahora, los investigadores tenían datos físicos, químicos y biológicos sobre el terreno que apuntaban a que éste se había recolonizado rápidamente. Y gracias a unas nuevas grabaciones en alta resolución, han podido confirmar que la vida ha vuelto al volcán submarino.

La herramienta utilizada para esta expedición se llama Liropus 2000. Se trata de un vehículo submarino no tripulado que puede llegar hasta los 2.000 metros de profundidad. Pero no ha sido necesario bajar tantos metros ya que desde los 80 metros bajo el nivel del mar (justo en la cima del volcán) hasta los 350m (la base del volcán), esta máquina ha captado impresionantes imágenes del ecosistema marino donde han llegado a surgir nuevas generaciones de peces y crustáceos e incluso fondo cubiertos de diversos colores, que van desde los anaranjados hasta los negros, producidos por la salida y deposición de los compuestos que escupió el cráter.

Uno de los coordinadores del proyecto, Eugenio Fraile, del Centro Oceanográfico de Canarias, cuenta a EL MUNDO que no esperaba encontrar tanta biodiversidad teniendo el cuenta el poco tiempo que ha transcurrido. .

"Nuestros análisis de la columna de agua nos confirmaban la completa recuperación del primer eslabón trófico de la cadena alimentaria, el fitoplancton y zooplancton, así como algunos organismos ligados al fondo, como pequeños crustáceos, pero no esperábamos ver organismos superiores como peces, decápodos y cefalópodos habitando ya en las oquedades formadas por la nueva lava del volcán submarino de la isla de El Hierro y además, en gran abundancia".

Además, la velocidad a la que la vida está volviendo a darse bajo las aguas es muy elevada, "más incluso que en condiciones normales", cuenta el investigador.

Fertilizante

"Esto es debido, principalmente, al propio volcán submarino de la isla de El Hierro, el cual, en un primer estadio aniquiló la flora y la fauna del ecosistema, pero en un segundo estadio, y cuando se restablecieron las fuertes anomalías físico-químicas de la zona, fertilizó la zona con una gran cantidad de nutrientes y hierro bio-asimilabre, indispensables para la regeneración del sistema", argumenta.

Estas investigaciones se encuentran bajo el proyecto VULCANO (Volcanic eruption at El Hierro Island. Sensitivity and Recovery of the Marine Ecosystem) cuya misión se basa en estudiar las condiciones físicas, geológicas, químicas y biológicas de la isla. De él también forma parte el investigador Fraile, cuyas próximas líneas de estudio se centran en analizar la fase de "desgasificación" (el volcán submarino expulsa CO2 al océano tras la erupción), y en cómo esto afecta de manera directa al ecosistema marino de la isla de El Hierro.

'El ascenso de la energia solar es imparable'

En la azotea de Eduardo Lorenzo, allá por la ronda de Segovia (Madrid), los toldos dejaron paso hace doce años a los módulos de silicio monocristalino. Estamos a la sombra de una de las primeras instalaciones fotovoltaicas domésticas en los tejados de Madrid (2,7 kw), en compañía de uno de los pioneros de la energía solar en nuestras tierras. Sobre la mesa reposa su último libro, "Ingeniería fotovoltaica", que pone fin a su trilogía solar y arranca con una sabrosa oda a la tortilla de patatas.

Lorenzo con una cocina solar.
Ingeniero, catedrático de la Universidad Politécnica, al frente durante 30 años del grupo de Investigación de Sistemas Fotovoltaicos, Eduardo Lorenzo es ante todo un gallego universal, de cuya sabiduría dan cuenta ya en Brasil y en otros territorios de ultramar. Aunque arrancamos precisamente hablando de lo que ocurre en España, que ha pasado del todo a la nada en apenas seis años. Y de lo que ocurrirá a partir de ahora, tras el reciente informe del IPCC que urge al mundo a la transición hacia las renovables, con la energía solar tirando del carro.

¿Cómo se explica lo que ha pasado con la energía fotovoltaica en nuestro país? ¿Cómo se puede pasar de ser líderes mundiales por potencia instalada en el 2008 a descolgarnos de todos los rankings mundiales?
Yo no creo mucho en las ideas maniqueas de los buenos y los malos. Esencialmente, creo que en España hemos tenido y seguimos teniendo un grave problema a la hora de percibir la realidad. Lo hubo en el 2008, porque no era normal que un solo país se llevara más del 40% de la potencia instalada. Y lo hay ahora, porque tampoco es normal que se produzca un parón total... Lo cierto es que en España hemos tenido un comportamiento neurótico hacia las renovables .
¿Y puestos a buscar responsables?
Yo diría que el Gobierno que había entonces se comportó de una manera frívola y dio un impulso a la energía solar pensando tal vez que iba a ser poco relevante, sin un plan real de crecimiento y sin calibrar los efectos. Y de ahí hemos pasado a la "anomalía solar" en la que ahora estamos, culminada por el peaje al autoconsumo, que a mí me parece que es inconstitucional. Lo que ha hecho este otro Gobierno es como ponerle puertas al campo.
¿Y cuánto durará la "anomalía solar"? Al ritmo actual, hasta el Reino Unido puede superarnos por potencia acumulada en el 2015...
A nivel mundial, el ascenso de la energía solar es imparable. Se trata, de hecho, de la energía que más rápidamente ha crecido en la historia... Ahora bien, yo no creo en los milagros, ni siquiera en el milagro solar. Si miramos un poco la historia, nos daremos cuenta de que los humanos hemos ido incorporando nuevas fuentes de energía porque las que teníamos ya no llegan. En el caso de las renovables, se empezó por la hidráulica porque el agua empuja mucho. De ahí se pasó a la eólica, que empuja menos. Y el siguiente paso es la solar, a la que estamos llegando por pura necesidad. En España, la hidráulica tocó techo hace tiempo y la eólica en tierra se ha estabilizado ya. Todavía nos quedaría la eólica en las costas, pero está claro que el relevo natural es la solar. Sol, en España, tenemos para aburrir. Y al sol llegaremos de una manera u otra. La vida es evolutiva y ahora le toca a la solar por simple evolución.
¿Y cómo solucionamos los dos grandes problemas: el déficit tarifario y la sobrepotencia?
La sobrepotencia no debería ser un problema tan grande. Muchos mayores problemas han tenido en Brasil, donde no les llegaba con la hidráulica y empezaron a tener apagones... La sobrepotencia te da un margen de maniobra, y sobre ese margen empiezas a planificar escenarios. Sobre el déficit tarifario se ha hablado mucho, y se ha atacado yo creo que injustamente a la solar, de la misma forma que se le acusaba de enchufar a la red de noche. Yo creo que todo eso forma parte de una campaña de desprestigio. Para solucionar el problema del déficit tarifario hace falta al fin y al cabo voluntad política: me parece a mí que el agujero que tenían los bancos era varias veces mayor...
Usted hace una llamada al realismo ¿qué futuro le espera realmente a la energía solar en España tras el "apagón" de estos últimos años?
Yo creo que lo más sensato sería poner fin a la pelea de carneros que tenemos en estos momentos. Tenemos que dejarnos de cornadas y sentarnos a buscar puntos de encuentro. Yo sigo creyendo que el autoconsumo (no es una palabra que me guste mucho) es una vía natural de crecimiento. En un país como España, donde está disminuyendo el régimen de lluvia, hay que explorar ya el potencial de la solar vinculada al agua. Las comunidades de regantes se gastan todos los años una millonada en electricidad; va siendo hora de que explotemos la posibilidad de la fotovoltaica en bombeos de agua, desaladoras.
¿Y cómo recuperar ese "tejido solar" que hemos perdido en los últimos años, con el cierre de incontables empresas y la salida al extranjero de nuestros ingenieros y "epecistas"?
En España hubo también muchas empresas que se lanzaron en su día a lo inmediato, cuando no estaba claro que el mercado era estable. Pretender como se ha hecho en este país que mucha gente viviera de la fotovoltaica sin dar un valor añadido era poco realista. Yo recuerdo las críticas que había inicialmente a los fabricantes chinos de módulos, y sin embargo vemos cómo se han impuesto ¿Por qué? Porque China se dio cuenta desde el principio de la magnitud que iba a tener la energía solar, y ahí tenemos a Yingli, con 18.000 empleados y con las dimensiones de una factoría de automóviles... El definitivo impulso a la solar no vendrá de Europa, sino de los países en crecimiento... Las empresas que han añadido valor en España lo siguen haciendo ahora en el extranjero. Tenemos muy buena reputación en todo lo que es la electrónica de potencia aplicada a la fotovoltaica y a la fabricación de inversores. Y tenemos también una gran experiencia en ejecuciones de manera rápida y controles de calidad, por eso nuestros ingenieros y montadores están muy bien considerados. Yo mismo he recorrido las plantas con nuestro equipo de investigación y he podido comprobarlo.
¿Vislumbra pues desde su azotea una salida al callejón solar?
Lo que más temo son estos cambios regulatorios y estos decretos de "medidas urgentes" que al final no son más que parches. La cuestión de fondo es que estamos no sólo ante un cambio tecnológico, sino a un cambio de control, y no es lo mismo lidiar con 50.000 propietarios (entre los que me cuento) que con cinco grandes compañías...Honestamente, yo creo que la situación difícil se va a prolongar aún durante un tiempo. Y me duele decirlo, pero van a haber muchos muertos por el camino. Pero no se puede parar el ascenso de la energía solar, de eso no me cabe duda.

Celulas solares mas potentes gracias a la nanotecnologia

El coste de los productos tecnológicamente avanzados disminuye drásticamente con el número de unidades producidas, lo que dificulta que las nuevas tecnologías desbanquen a las viejas. Los paneles solares que ahora mismo acaparan el mercado están basados en cristales de silicio, el mismo material semiconductor que se usa en la industria microelectrónica (hoy sería más apropiado llamarla nanoelectrónica). En un futuro próximo el silicio continuará dominando el mercado fotovoltaico por la inercia del capital ya invertido. Pero desde hace décadas existe una tecnología mucho más eficiente y con el potencial de ser mucho más rentable. Esta es la tecnología fotovoltaica de concentración, que usando óptica de bajo coste concentra la luz sobre pequeñas células solares fabricadas con materiales exóticos. Estas células son capaces de producir mil veces más potencia por unidad de área que una célula convencional, compensando el mayor coste de fabricación. El diseño y los materiales usados en estas células son esencialmente los mismos que en los LEDs (light emitting diodes).

Los LEDs han existido desde hace más de 50 años, y durante décadas ni se planteaba la posibilidad de usar estos de forma masiva en sustitución de las bombillas convencionales. Eran demasiado caros, y la luz que producían no era adecuada, ni suficientemente intensa. Hoy las bombillas LED consumen diez veces menos energía que las incandescentes y su precio ha disminuido hasta hacerlas ventajosas frente a las viejas tecnologías. Un aumento de eficiencia de un 1% en las bombillas que utilizamos, supone, a escala global, un ahorro energético equivalente a la producción de una central nuclear.

Un LED y una célula solar de concentración son casi el mismo dispositivo. Si uno pone un LED al sol, este produce electricidad, y si uno aplica corriente eléctrica a una célula solar de concentración, esta emite luz como un LED. Por lo tanto es de esperar que las mejoras en los procesos de producción de los LEDs repercutan de forma indirecta en un aumento de la competitividad de las células de concentración, dando a estas por fin una oportunidad de competir con las células de silicio. Pero hay otro factor que acabará inclinando la balanza a favor de las células solares de concentración: la nanotecnología.

Las células de concentración, con su enorme ventaja en términos de potencia producida por unidad de área, son las que más se van a beneficiar de los avances que se están produciendo en el campo de la nanotecnología, ya que el coste de fabricar nanoestructuras depende del área a cubrir.

En el Instituto de Microelectrónica de Madrid (CSIC), en colaboración con Instituto de Energía Solar (UPM), trabajamos en estudiar y optimizar cada uno de los aspectos de estos dispositivos con especial énfasis en las oportunidades que ofrecen las nuevas técnicas de nanofabricación y los recientes avances en la comprensión de la interacción de la luz y los electrones con estructuras de tamaño nanométrico. Nanoestructurando la cara frontal de las células solares estamos minimizando las perdidas por reflexión de luz, y estamos aprendiendo como hacer que los contactos metálicos se vuelvan casi totalmente transparentes a la luz solar.

Fabricando nanoestructuras semiconductoras tales como puntos e hilos cuánticos, sintonizamos el espectro de absorción de las células para adecuarlo al espectro solar. Son pequeños pasos continuando un camino empezado por otros, de los que intentamos copiar no solo las buenas ideas, sino también el optimismo y la paciencia.

Una supernova arrolladora

La comparación de imágenes en diferentes longitudes de onda revela que el remanente de una explosión de supernova conocido como G392 ha arrasado su entorno en la Vía Láctea. Durante su expansión, esta inmensa capa gaseosa ya ha barrido una masa equivalente a la de 45 soles.

Remanentes de supernovas

La zona de G352 en el óptico DSS
Cuando una estrella masiva (con una masa mayor que unas ocho veces la del Sol) llega al final de su vida, agotando el combustible nuclear de su interior, produce una colosal explosión que se conoce con el nombre de supernova. En la explosión se eyectan al espacio las capas exteriores de la estrella y se forma una brillante nebulosa expansiva.

En nuestra galaxia, la Vía Láctea, estallan típicamente dos supernovas por siglo, por lo que tales nebulosas, los remanentes de supernova, son relativamente abundantes: se conocen unos 280 de ellos. Estos remanentes emiten en un amplio rango del espectro electromagnético: desde ondas de radio de energía baja hasta los rayos X y gamma de altísima energía.

La nebulosa conocida como G352.7-0.1 (G352 para abreviar), que se encuentra en la constelación de Escorpio a unos 24.000 años luz de distancia, fue identificada como remanente de supernova en los años 1970. Tiene un tamaño de uno 54 x 40 años luz, lo que hace posible el estudio de su estructura con buen detalle.

Multi longitud de onda

Un equipo de astrónomos estadounidenses liderado por Thomas Pannuti (Univ. Estatal de Morehead, Kentucky) ha llevado a cabo un estudio exhaustivo de este remanente comparando imágenes (tanto nuevas como de archivo) obtenidas en los dominios radio, infrarrojo, óptico y X. La imagen que encabeza este artículo es una combinación de todas estas observaciones.

El remanente G352 en ondas de radio. NRAO/JVLA
En blanco y negro se representa la luz óptica, en la que tan solo se ven estrellas de campo y nada de la nebulosa. La capa en expansión de la nebulosa es, en cambio, muy brillante en las ondas de radio captadas por el radiotelescopio Jansky VLA en Nuevo México (cuya emisión está representada en color rosa) y también está detectada en el infrarrojo medio gracias a las observaciones realizadas a 24 micras de longitud de onda por el telescopio espacial Spitzer (representadas en color naranja).

El remanente G352 en el infrarrojo NASA/JPL/Spitzer
Las observaciones de rayos X del remanente (representados en color azul) se realizaron con dos telescopios espaciales: el XMM-Newton de ESA y el Chandra de NASA. Vemos como, en rayos X, aparece sobre todo el interior del remanente. Para un resto de supernova como G352, que es observado hoy en un momento en el que han transcurrido 2.200 años tras la explosión, resulta sorprendente observar tanta emisión X desde la región interior, emisión que se origina en el material directamente eyectado por la estrella. Este material tiene una masa que es 2,6 veces la masa del Sol y se encuentra a una temperatura de unos 30 millones de grados.

Explosión arrasadora

Combinando la información proporcionada por las observaciones en radio y en rayos X es posible determinar las características de la capa expansiva. Resulta que esta descomunal burbuja gaseosa se expande a una velocidad de unos 30 millones de kilómetros por hora. Es pues altamente supersónica y va arrollando todo el material interestelar que encuentra a su paso, comprimiéndolo y calentándolo. Se estima que esta onda expansiva ya ha barrido una masa de gas interestelar que supera a 45 veces la masa del Sol calentándolo a unos 2 millones de grados.

El remanente G352 en rayos X NASA/CXC/Morehead Univ.
El equipo de Pannuti también buscó a fondo el residuo estelar que debió quedar tras la explosión en la zona central del remanente. Podría tratarse de una estrella de neutrones visible como una fuente puntual de rayos X. Sin embargo, aunque los astrónomos detectaron seis fuentes puntuales de este estilo, ninguna de ellas tiene las características que se esperan para el residuo de la estrella que produjo la explosión y que queda por tanto sin identificar. Quizás la supernova la produjo un estrella muy masiva que está acabando sus días en la forma de un agujero negro, prácticamente indetectable para los astrónomos.

La gran cantidad de masa arrastrada por este remanente de supernova parece indicar que la explosión se produjo en el seno, o en las cercanías, de una nube interestelar densa. En su propagación y hasta su dilución, que tendrá lugar a lo largo de unos millones de años, la capa expansiva va enriqueciendo esta nube con los elementos pesados que se produjeron en el interior de aquella estrella que explotó. Algunas zonas de esta nube, al ser comprimidas por la onda de choque, pueden dar lugar al nacimiento de nuevas estrellas que, al contener un incremento en elementos pesados, pueden ir acompañadas por planetas rocosos. Cada explosión de supernova tiene por tanto el potencial de crear nuevos planetas y nuevas estrellas. Las más masivas de estas estrellas nuevas también acabarán sus vidas en explosiones de supernovas alimentando así el gran ciclo cósmico de la evolución estelar.

También interesante

El calificativo 'nova' viene utilizándose desde la antigüedad para designar la aparición inesperada de estrellas 'nuevas' que se hacían visibles cuando su brillo aumentaba enormemente tras una explosión. El término 'supernova' empezó a utilizarse para designar las explosiones excepcionalmente brillantes.
El remanente de supernova más famoso, la Nebulosa del Cangrejo, corresponde a una explosión de supernova que fue observada en el año 1054 por astrónomos chinos.
El artículo de Pannuti y colaboradores, titulado 'XMM-Newton and Chandra Observations of the Ejecta-Dominated Mixed-Morphology Galactic Supernova Remnant G352.7-0.1' ha sido publicado en un número reciente de la revista The Astrophysical Journal. El manuscrito puede ser consultado aquí
Rafael Bachiller es director del Observatorio Astronómico Nacional (Instituto Geográfico Nacional) y académico de la Real Academia de Doctores de España.

El satelite europeo 'Sentinel' envia sus primeras imagenes

La Agencia Espacial Europea (ESA) difundió este miércoles las primeras imágenes proporcionadas por el satélite Sentinel-1, el primero de la flota de "centinelas" del sistema Copérnico para vigilar el medioambiente y observar los cambios en la superficie terrestre.

Se trata de una primera muestra con fotografías radar de Bélgica, Namibia y la Antártida que suponen un "adelanto de lo que está por llegar" a través de ese complejo satélite, puesto en órbita el pasado 3 de abril desde el Centro Espacial Europeo de Kurú, en la Guayana francesa.

"Ofrecen una tentadora ojeada al tipo de imágenes operacionales que esta nueva misión aportará al ambicioso programa europeo Copérnico de vigilancia medioambiental", indicó la ESA en un comunicado.

Una de esas imágenes muestra un área de Namibia inundada por el río Zambezi, un tipo de vigilancia que se convertirá en rutinaria una vez que el Sentinel-1 esté completamente operativo.

La proteina que hace fertil al semen encuentra a su diosa

En la ciencia básica también puede haber poesía. Si no, no se explicaría que un equipo de investigadores del Wellcome Trust Sanger Institute (Reino Unido) haya bautizado como Juno, en honor a la diosa romana de la fertilidad y el matrimonio, a un receptor presente en la membrana de los ovocitos de ratas hembras y que, según todos los indicios, también está en su equivalente humano.

No se trata de un receptor cualquiera. Este receptor de folato, cuyo nombre científico es Folr4, es el compañero perfecto de una proteína del semen esencial para la fertilidad, a la que sus descubridores dotaron también de un romántico nombre, Izumo 1 (un santuario japonés donde se contrae matrimonio). Y Juno, o el complemento perfecto de esta proteína de la fertilidad, llevaba nueve años eludiendo la mirilla del microscopio científico. Casi una década en la que investigadores de todo el mundo buscaban la clave de que esa proteína del semen tuviera tanto que decir en la reproducción.

Así, no es extraño que Paul Wassarman, profesor del Departamento de Biología del Desarrollo y Regenerativa del Mount Sinai Hospital (Nueva York), haya titulado 'La proteína del esperma encuentra su pareja' al editorial que acompaña la publicación del estudio donde se describe a Juno, aparecido en la última edición de la revista Nature.

Juno es una proteína, pero es la única a la que se adhiere Izuro1. El papel esencial de Izuro1 en la fertilización (el proceso por el que un espermatozoide y un ovocito se combinan para formar un cigoto que se convertirá en un ser vivo) se conocía desde 2005. Se sabía que aquellos ratones a los que les faltaba la proteína, a pesar de presentar un esperma de aspecto normal, eran incapaces de concebir. Se conocía también que Izumo1 era parte de una familia múltiple de proteínas cuyos miembros forman largos complejos dentro del esperma que podrían ser esenciales para la fusión entre ovocito y espermatozoide. Pero faltaba esa clave, ese receptor que era difícil de encontrar por estar situadas ambas proteínas en la membrana celular y por "las dificultades inherentes de trabajar con solo un pequeño número de ovocitos de mamífero", según escribe Wassarman.

Para hallarlo, los investigadores dirigidos por Gavin Wright utilizaron un complejo método desarrollado anteriormente en su laboratorio para detectar interacciones débiles entre proteínas adheridas a la membrana celular. Así, no solo descubrieron a Juno, sino que vieron que este receptor estaba presente en los ovocitos de ratones, comadrejas, cerdos y humanos.

Por esta razón, Wright afirma a EL MUNDO: "Consideramos que hay muchas posibilidades de que Juno funcione de la misma forma en humanos. En nuestro estudio demostramos (usando proteínas artificiales) que las Juno e Izumo1 pueden interactuar, por lo que es lógico que esto también suceda in vivo". Para demostrarlo del todo, no obstante, habría que secuenciar el gen que codifica a Juno en las mujeres infértiles para ver si es defectuoso, añade el investigador británico.

A pesar de enmarcarse en la ciencia básica, el hallazgo de Wright y sus colaboradores podría tener en el futuro importantes implicaciones clínicas. Así, señala el investigador, se ahorraría en tratamientos de infertilidad que en la actualidad no hay garantía de que funcionen. "Los ovocitos que no tienen a Juno en la superficie no pueden ser fertilizados por fecundación in vitro (FIV), pero sí utilizando ICSI [una forma más avanzada de FIV en la que se selecciona solo un espermatozoide]; con un simple test genético, se podría ahorrar a las mujeres gastos y dificultades a la hora de concebir", apunta.

Pero ayudar a la fertilidad no sería el único uso de este nuevo descubrimiento, que podría jugar un papel esencial en la anticoncepción. "Izumol1 ya ha demostrado ser un candidato ideal para el desarrollo de una vacuna anticonceptiva, por lo que es probable que la interacción de ambas proteínas provean a la ciencia de dianas adicionales para evitar la concepción", explica el autor del editorial.

Wright, sin embargo, se muestra algo más cauto y apunta más al uso de este hipotético método anticonceptivo como forma de regular la reproducción animal. "Nuestro descubrimiento podría ser especialmente útil para controlar poblaciones animales como perros y gatos o fauna salvaje, de forma más ética que los métodos quirúrgicos invasivos que se utilizan en la actualidad", comenta el científico.

Su equipo, según adelanta a este diario, desearía "ver estos resultados en aplicaciones del mundo real", pero también trabaja en la búsqueda de "otras interacciones entre esperma y ovocitos. "De ninguna manera creemos que tenemos todas las claves de este fascinante proceso", concluye.

Los paguicidas toxicos amenazab al polen de las abejas

El número de abejas se está reduciendo notablemente debido al uso masivo de sustancias tóxicas, a la acción de determinados parásitos y a diferentes factores climáticos. Un nuevo análisis realizado a escala europea publicado por la organización conservacionista Greenpeace señala que dos terceras partes del polen -el 67%- recolectado por las abejas está contaminado por insecticidas (clorpirifos, tiacloprid), acaricidas, fungicidas (buscalida) y herbicidas comercializados por las compañías Bayern, Syngenta y Basf.

El informe, La pesada carga de las abejas, detalla que en las 132 muestras de polen recolectado por abejas melíferas (107 recogidas a partir de trampas de piquera y 25 del polen que se encuentra en los panales) se detectaron 53 sustancias químicas distintas. Además, cuenta que la interacción de estos productos químicos entre sí afecta gravemente a la supervivencia de este insecto polinizador.

«Sin duda el informe de Greenpeace demuestra que las evidencias están ahí y señala que no es solo un factor el que está afectando a las abejas, sino que varios factores provocan el declive de las abejas. Entre estos factores destaca el uso de los plaguicidas, algo que se puede regular desde la Comisión Europea», explica a EL MUNDO Juan Ferreirim, responsable de la campaña de agricultura de Greenpeace.

Sustancias que permanecen en el medio ambiente

Las investigaciones llevadas a cabo en España -sobre campos de cultivo de Castilla y León, Castilla La Mancha, Andalucía, Aragón y la Comunidad Valencia- sitúan al país como uno de los lugares más contaminados a partir de las muestras que los investigadores recogieron durante los meses de julio y agosto de 2013. Y, aunque «no todas las muestras contenían sustancias tóxicas », una de las que recogieron en un campo de cultivo de Córdoba contenía DDE. Esta sustancia resulta de la degradación del DDT, cuyo uso como pesticida en el sector agrícola se prohibió en 1977. «Lo que constata [esta muestra] es que el uso de este plaguicida se mantiene en el ambiente », señala. «Es una de las causas que queda de este modelo de agricultura intensivo », apunta Ferreirim.

Además, las muestras apuntan a que España encabeza la lista de los países europeos en utilizar imidacroplid, uno de los tres plaguicidas tóxicos (clotianidina, tiametoxam e imidacloprid) que pertenecen a la familia de los neocotinoides. Sobre este tipo de plaguicidas ya existe una legislación de la Comisión Europea que entró en vigor en julio de 2013. Desde entonces, la norma prohíbe utilizar durante dos años estos componentes tóxicos por los riesgos de salud que afectan a las abejas. Entre los efectos adversos está la desorientación del insecto que le impide volver a la colmena, malformaciones e incluso la muerte. Pero estas medidas no son suficientes para la organización conservacionista «estas prohibiciones son parciales», dice Ferreirim. «Existen excepciones a su uso: en invierno, en los invernaderos (donde el papel de los polinizadores es necesario para cultivos de tomates y fresas). Además, se llegan a utilizar en cultivos antes y después de las floraciones».

Por su parte, la compañía Bayern CropScience ha emitido un comunicado señalando que los datos científicos muestran que sus productos «no tienen un impacto negativo en el desarrollo de las colonias de abejas».

Una de las propuestas de Greenpeace es la prohibición completa del uso de estos pesticidas tóxicos sobre los cultivos y que sea, además, de manera definitiva porque «a corto plazo podemos actuar directamente sobre los plaguicidas que están afectando a los polinizadores », apostilla Ferrerim. Otra es promover una agricultura ecológica donde se respeten los ciclos naturales y no se utilicen transgénicos.

Un mundo sin abejas

Un mundo sin abejas acabaría con «nuestra seguridad alimentaria», explica el responsable la campaña de agricultura de Greenpeace. La mayor parte de los cultivos de Europa depende de los insectos polinizadores. Un mundo sin abejas provocaría el declive de la biodiversidad porque la mayor parte de las especies con flores (90%) dependen de la polinización. «Podríamos encontrar alguna alternativa como la polinización manual para determinados alimentos, pero no para todos los cultivos», argumenta el ecologista. «Nadie iría al campo a polinizar tomillo o romero», concluye.

Las señales quimicas que nos hacen humanos

Las nuevas técnicas de secuenciación de ADN antiguo están aportando algunos datos clave para comenzar a entender cómo evolucionaron las especies humanas hasta llegar a dar forma a la única especie viva en la actualidad: el ser humano moderno, 'Homo sapiens'. En los últimos años hallazgos como el genoma completo y con gran detalle del neandertal o la secuencia de otra de las especies hermanas, el denisovano, han dado luz a una época crucial para la evolución humana.

Pero los genes, el ADN, no lo es todo. La información contenida en nuestras células, en las de cualquier especie, requiere de una compleja maquinaria química que controla el funcionamiento de los genes y asd qué gen funciona y cuál no en cada momento. Es lo que se conoce como epigenética. De alguna forma se podría hacer la analogía con una obra literaria: las letras serían el código genético y los signos de puntuación serían la epligenética que permite que el texto sea legible y tenga sentido. Entre las señales que permiten a la epigenética desempeñar esta función se encuentran algunas modificaciones químicas, como la metilación del ADN, que controla cuándo y cómo son activados y desactivados los genes que controlan el desarrollo de nuestro organismo. Y esas son precisamente las alteraciones que han estudiado en el trabajo.

Un algoritmo matemático

Los investigadores llevan tiempo preguntándose si ahora que tenemos la genética, ¿podemos tener también la epigenética? "La respuesta hasta ahora era no", responde Mario Fernández Fraga, director del Laboratorio de Epigenética del Cáncer de la Universidad de Oviedo e investigador del CSIC. Pero eso ha cambiado. Una investigación liderada por investigadores de la Universidad Hebrea de Jerusalem y del Instituto Max Planck y en la que ha participado el equipo de Fernández Fraga acaba de reconstruir el epigenoma tanto del neandertal como del denisovano.

Los autores del trabajo, recién publicado en la revista 'Science', han diseñado un algoritmo matemático que permite reconstruir cómo se ha deteriorado el epigenoma de ambas especies con el tiempo, lo que ha permitido a los científicos 'dar marcha atrás' con las muestras de las que disponen en la actualidad hasta saber cómo sería ese epigenoma hace 70.000 años.

"La mejor prueba de que el nuevo método funciona es que las conclusiones son muy coherentes con lo que vemos cuando comparamos las especies antiguas con los humanos modernos", explica Fernández Fraga. "A pesar de que hay parte que es muy similar, es cierto que hay diferencias y están en los genes que regulan la formació de los huesos", asegura.

Según la discusión del trabajo científico, esto es consistente con una evolución diferenciada de las estructuras óseas de especies como el neadertal y el humano moderno. Otras afectan a genes relacionados con el sistema cardiovascular o el sistema nervioso, los cuales se han asociado con enfermedades como el Alzheimer o la esquizofrenia. Aunque se desconocen los factores que han dado lugar a esas diferencias, dado que los patrones epigenéticos están influidos tanto por las propias características genéticas como por las condiciones ambientales. "Pero no podemos saber si se deben a una condición inherente del ser humano moderno o se han desencadenado debido al modo de vida que llevamos", asegura Fernández Fraga. "Además, hay que tener en cuenta que ellos vivían muchos menos años que nosotros".