martes, 15 de octubre de 2013

Teoría de Oparín


Fue una de las teorías que se propusieron a mediados del siglo XX para intentar responder a la pregunta: ¿cómo surgió la vida?, después de haber sido rechazada la teoría de la generación espontánea.

Gracias a sus estudios de astronomía, Oparin sabía que en la atmósfera del Sol, de Júpiter y de otros cuerpos celestes, existen gases como el metano, el hidrógeno y el amoníaco. Estos gases son sustratos que ofrecen carbono, hidrógeno y nitrógeno, los cuales, además del oxígeno presente en baja concentración en la atmósfera primitiva y más abundantemente en el agua, fueron los materiales de base para la evolución de la vida.

Para explicar cómo podría haber agua en el ambiente ardiente de la Tierra primitiva, Oparin usó sus conocimientos de geología. Los 30 km de espesor medio de la corteza terrestre constituidos de roca magmática evidencian, sin duda, la intensa actividad volcánica que había en la Tierra. Se sabe que actualmente es expulsado cerca de un 10% de vapor de agua junto con el magma, y probablemente también ocurría de esta forma antiguamente. La persistencia de la actividad volcánica durante millones de años habría provocado la saturación en humedad de la atmósfera. En ese caso el agua ya no se mantendría como vapor.

Oparin imaginó que la alta temperatura del planeta, la actuación de los rayos ultravioleta y las descargas eléctricas en la atmósfera (relámpagos) podrían haber provocado reacciones químicas entre los elementos anteriormente citados. Esas reacciones darían origen a aminoácidos, los principales constituyentes de las proteínas, y otras moléculas orgánicas.

Las temperaturas de la Tierra, primitivamente muy elevadas, bajaron hasta permitir la condensación del vapor de agua. En este proceso también fueron arrastradas muchos tipos de moléculas, como varios ácidos orgánicos e inorgánicos. Sin embargo, las temperaturas existentes en esta época eran todavía lo suficientemente elevadas como para que el agua líquida continuase evaporándose y licuándose continuamente.

Oparin concluyó que los aminoácidos que eran depositados por las lluvias no regresaban a la atmósfera con el vapor de agua, sino que permanecían sobre las rocas calientes. Supuso también que las moléculas de aminoácidos, con el estímulo del calor, se podrían combinar mediante enlaces peptídicos. Así surgirían moléculas mayores de sustancias albuminoides. Serían entonces las primeras proteínas en existir.

La insistencia de las lluvias durante millones de años acabó llevando a la creación de los primeros océanos de la Tierra. Y hacia ellos fueron arrastradas, con las lluvias, las proteínas y aminoácidos que permanecían sobre las rocas. Durante un tiempo incalculable, las proteínas se acumularían en océanos primordiales de aguas templadas del planeta. Las moléculas se combinaban y se rompían y nuevamente volvía a combinarse en una nueva disposición. De esa manera, las proteínas se multiplicaban cuantitativa y cualitativamente.

Disueltas en agua, las proteínas formaron coloides. La interacción de los coloides llevó a la aparición de los coacervados. Un coacervado es un agregado de moléculas mantenidas unidas por fuerzas electrostáticas. Esas moléculas son sintetizadas abióticamente. Oparin llamó coacervados a los protobiontes. Un protobionte es un glóbulo estable que es propenso a la autosíntesis si se agita una suspensión de proteínas, polisacáridos y ácidos nucleicos. Muchas macromoléculas quedaron incluidas en coacervados.

Es posible que en esa época ya existieran proteínas complejas con capacidad catalizadora, como enzimas o fermentos, que facilitan ciertas reacciones químicas, y eso aceleraba bastante el proceso de síntesis de nuevas sustancias.

Cuando ya había moléculas de nucleoproteínas, cuya actividad en la manifestación de caracteres hereditarios es bastante conocida, los coacervados pasaron a envolverlas. Aparecían microscópicas gotas de coacervados envolviendo nucleoproteínas. En aquel momento faltaba sólo que las moléculas de proteínas y de lípidos se organizasen en la periferia de cada gotícula, formando una membrana lipoproteica. Estaban formadas entonces las formas de vida más rudimentarias. Así Oparin abrió un camino donde químicos orgánicos podrían formar sistemas microscópicos y localizados (posiblemente precursores de las células) a partir de los cuales esas primitivas formas de vida podrían desarrollarse.

Y en esta línea ordenada de procesos biológicos, van avanzando con cada vez más importancia: la competencia y la velocidad de crecimiento, sobre los que actuaría la selección natural, determinando formas de organización material que es característica de la vida actual.

Teoría celular


La teoría celular es una parte fundamental y relevante de la Biología que explica la constitución de los seres vivos sobre la base de células, y el papel que éstas tienen en la constitución de la vida y en la descripción de las principales características de los seres vivos.

Varios científicos postularon numerosos principios para darle una estructura adecuada:
Robert Hooke, observó una muestra de corcho bajo el microscopio, Hooke no vio células tal y como las conocemos actualmente, él observó que el corcho estaba formado por una serie de celdillas de color transparente, ordenadas de manera semejante a las celdas de una colmena; para referirse a cada una de estas celdas, él utiliza la palabra célula.
Anton Van Leeuwenhoek, usando microscopios simples, realizó observaciones sentando las bases de la morfología microscópica. Fue el primero en realizar importantes descubrimientos con microscopios fabricados por sí mismo. Desde 1674 hasta su muerte realizó numerosos descubrimientos. Introdujo mejoras en la fabricación de microscopios y fue el precursor de la biología experimental, la biología celular y la microbiología.(Descubrio los microbios en el agua)
A finales del siglo XVIII, Xavier Bichat, da la primera definición de tejido (un conjunto de células con forma y función semejantes). Más adelante, en 1819, Meyer le dará el nombre de Histología a un libro de Bichat titulado “Anatomía general aplicada a la Fisiología y a la Medicina”.
Dos científicos alemanes, Theodor Schwann, histólogo y fisiólogo, y Jakob Schleiden, botánico, se percataron de cierta comunidad fundamental en la estructura microscópica de animales y plantas, en particular la presencia de centros o núcleos, que el botánico británico Robert Brown había descrito recientemente (1831). Publicaron juntos la obra Investigaciones microscópicas sobre la concordancia de la estructura y el crecimiento de las plantas y los animales (1839) . Asentaron el primer y segundo principio de la teoría celular histórica: "Todo en los seres vivos está formado por células o productos secretados por las células" y "La célula es la unidad básica de organización de la vida".
Otro alemán, el médico Rudolf Virchow, interesado en la especificidad celular de la patología (sólo algunas clases de células parecen implicadas en cada enfermedad) explicó lo que debemos considerar el tercer principio: '"Toda célula se ha originado a partir de otra célula, por división de ésta".
Ahora estamos en condiciones de añadir que la división es por bipartición, porque a pesar de ciertas apariencias, la división es siempre, en el fondo, binaria. El principio lo popularizó Virchow en la forma de un aforismo creado por François Vincent Raspail, «omnis cellula e cellula». Virchow terminó con las especulaciones que hacían descender la célula de un hipotético blastema. Su postulado, que implica la continuidad de las estirpes celulares, está en el origen de la observación por August Weismann de la existencia de una línea germinal, a través de la cual se establece en animales (incluido el hombre) la continuidad entre padres e hijos y, por lo tanto, del concepto moderno de herencia biológica.
La teoría celular fue debatida a lo largo del siglo XIX, pero fue Pasteur el que, con sus experimentos sobre la multiplicación de los microorganismos unicelulares, dio lugar a su aceptación rotunda y definitiva.
Santiago Ramón y Cajal logró unificar todos los tejidos del cuerpo en la teoría celular, al demostrar que el tejido nervioso está formado por células. Su teoría, denominada “neuronismo” o “doctrina de la neurona”, explicaba el sistema nervioso como un conglomerado de unidades independientes. Pudo demostrarlo gracias a las técnicas de tinción de su contemporáneo Camillo Golgi, quien perfeccionó la observación de células mediante el empleo de nitrato de plata, logrando identificar una de las células nerviosas. Cajal y Golgi recibieron por ello el premio Nobel en 1906.
Concepto moderno
El concepto moderno de la Teoría Celular se puede resumir en los siguientes principios:
Todos los seres vivos están formados por células o por sus productos de secreción. La célula es la unidad estructural de la materia viva, y dentro de los diferentes niveles de complejidad biológica, una célula puede ser suficiente para constituir un organismo.
Las funciones vitales de los organismos ocurren dentro de las células, o en su entorno inmediato, controladas por sustancias que ellas secretan. Cada célula es un sistema abierto, que intercambia materia y energía con su medio. En una célula caben todas las funciones vitales, de manera que basta una célula para tener un ser vivo (que será un ser vivo unicelular). Así pues, la célula es la unidad fisiológica de la vida.
Todas las células proceden de células preexistentes, por división de éstas (Omnis cellula ex cellula). Es la unidad de origen de todos los seres vivos.
Cada célula contiene toda la información hereditaria necesaria para el control de su propio ciclo y del desarrollo y el funcionamiento de un organismo de su especie, así como para la transmisión de esa información a la siguiente generación celular. Así que la célula también es la unidad genética.

Teoría de la generación expontanea


Generación espontánea

La abiogénesis se sustentaba en procesos como la putrefacción. Es así que de un trozo de carne podían generarse larvas de mosca.La generación espontánea antiguamente era una creencia profundamente arraigada descrita por Aristóteles. La observación superficial indicaba que surgían gusanos del fango, moscas de la carne podrida, organismos de los lugares húmedos, etc. Así, la idea de que la vida se estaba originando continuamente a partir de esos restos de materia inorgánica se estableció como lugar común en la ciencia. Hoy en día la comunidad científica considera que esta teoría está plenamente refutada.
El experimento de Redi
Francesco Redi, médico e investigador, realizó un experimento en 1668 en el que colocó cuatro vasos en los que puso respectivamente un pedazo de serpiente, pescado, anguilas y un trozo de carne de buey. Preparó luego otros cuatro vasos con los mismos materiales y los dejó abiertos, mientras que los primeros permanecían cerrados herméticamente. Al poco tiempo algunas moscas fueron atraídas por los alimentos dejados en los vasos abiertos y entraron a comer y a poner huevos; transcurrido un lapso de tiempo, en esta serie de vasos comenzaron a aparecer algunas larvas. Esto no se verificó, en cambio, en los vasos cerrados, ni siquiera después de varios meses. Por tal motivo, Redi llegó a la conclusión que las larvas (gusanos) se originaban de las moscas y no por generación espontánea de la carne en descomposición.

Algunos objetaron que en los vasos cerrados había faltado la circulación del aire (el principio activo o principio vital) y eso había impedido la generación espontánea. Redi realizó un segundo experimento: esta vez los vasos del experimento no fueron cerrados herméticamente, sino sólo recubiertos con gasa. El aire, por lo tanto, podía circular. El resultado fue idéntico al del anterior experimento, por cuanto la gasa, evidentemente, impedía el acceso de insectos a los vasos y la consiguiente deposición de los huevos, y en consecuencia no se daba el nacimiento de las larvas.

Con estas simples experiencias, Redi demostró que las larvas de la carne putrefacta se desarrollaban de huevos de moscas y no por una transformación de la carne, como afirmaban los partidarios de la abiogénesis. Los resultados de Redi fortalecieron la biogénesis, teoría que sostiene que el origen de un ser vivo solamente se produce a partir de otro ser vivo.
El experimento de Lazzaro Spallanzani
Spallanzani demostró que no existe la generación espontánea de la vida, abriendo camino a Pasteur. En 1769, tras rechazar la teoría de la generación espontánea, Spallanzani diseñó experimentos para refutar los realizados por el sacerdote católico inglés John Turberville Needham, que había calentado y seguidamente sellado caldo de carne en diversos recipientes; dado que se habían encontrado microorganismos en el caldo tras abrir los recipientes, Needham creía que esto demostraba que la vida surge de la materia no viviente. No obstante, prolongando el periodo de calentamiento y sellando con más cuidado los recipientes, Spallanzani pudo demostrar que dichos caldos no generaban microorganismos mientras los recipientes estuvieran sellados y esterilizados.
El experimento de Pasteur
En la segunda mitad del siglo XIX, Louis Pasteur realizó una serie de experimentos que probaron definitivamente que también los microbios se originaban a partir de otros microorganismos. Pasteur estudió de forma independiente el mismo fenómeno que Redi. Utilizó dos frascos de cuello de cisne (similares a un Balón de destilación con boca larga y encorvada). Estos matraces tienen los cuellos muy alargados que se van haciendo cada vez más finos, terminando en una apertura pequeña, y tienen forma de "S". En cada uno de ellos metió cantidades iguales de caldo de carne (o caldo nutritivo) y los hizo hervir para poder eliminar los posibles microorganismos presentes en el caldo. La forma de "S" era para que el aire pudiera entrar y que los microorganismosse quedasen en la parte más baja del tubo.

Pasado un tiempo observó que ninguno de los caldos presentaba señal alguna de la presencia de algún microorganismo y cortó el tubo de uno de los matraces. El matraz abierto tardó poco en descomponerse, mientras que el cerrado permaneció en su estado inicial. Pasteur demostró así que los microorganismos tampoco provenían de la generación espontánea. Gracias a Pasteur, la idea de la generación espontánea fue desterrada del pensamiento científico y a partir de entonces se aceptó de forma general el principio que decía que todo ser vivo procede de otro ser vivo. Aún se conservan en museo algunos de estos matraces que utilizó Pasteur para su experimento, y siguen permaneciendo estériles.

sábado, 12 de octubre de 2013

El asteroide con agua, un nuevo indicio de vida en planetas fuera del Sistema Solar

La posibilidad de que la vida exista en otros planetas, e incluso sea un fenómeno muy común en el Universo, es una hipótesis que va ganando cada día más peso. Un equipo de astrofísicos del Instituto de Astronomía de Cambridge ha descubierto fragmentos de un asteroide con enormes cantidades de agua en la órbita de una enana blanca (el cuerpo celeste en el que se convierte una estrella a punto de morir). Se trata de la primera vez que se halla agua, el ingrediente fundamental para la vida, en un cuerpo rocoso fuera de nuestro Sistema Solar.
Los resultados, obtenidos con el telescopio espacial Hubble y el Keck de Hawai, son sorprendentes: el asteroide posee una composición de masa de agua del 26%, frente a la exigüa cifra terrestre de 0.023%. Las cantidades de oxígeno también son más que notables, de 26% a 28%, que podría provenir del agua.
Todos los planetas rocosos se forman por la acumulación de asteroides, creciendo hasta su tamaño completo, por lo que los asteroides se consideran los "ladrillos" con los que se forman los planetas. "El hallazgo de agua en un asteroide de gran tamaño significa que los bloques de construcción de planetas habitables existían, y tal vez todavía existen, en el sistema de la estrella GD 61, y es probable que también en torno a un gran número de estrellas madre similares", explica el autor principal Jay Farihi.
La importancia de este descubrimiento, publicado en la revista 'Science', radica en que se dispone de una evidencia real y no fruto de predicciones a partir de datos. El hallazgo de agua en una superficie rocosa -a diferencia de la encontrada en planetas gaseosos, como Júpiter- aporta más pruebas sobre dos teorías que cada vez están cobrando más fuerza en el mundo de la Astronomía. La primera es la que defiende que la vida en la Tierra tuvo un origen extraterrestre, es decir, que todos los elementos necesarios para la habitabilidad llegaron a bordo de los asteroides que aterrizaban en su superficie."Estos componentes ricos en agua y los planetas terrestres que construyen pueden, de hecho, ser comunes, pues un sistema no puede crear objetos tan grandes como los asteroides y evitar la construcción de planetas. GD 61 tenía los ingredientes para ofrecer un montón de agua a sus superficies", subrayó dijo Farihi. "Nuestros resultados demuestran que definitivamente había posibilidad de que existieran planetas habitables en este sistema", agregó.
La segunda es la posibilidad de que haya vida en otros planetas. "El hecho de encontrar agua en un objeto rocoso como éste, un gran asteroide o quizás un exoplaneta enano, unido a los resultados del estudio del material orgánico extraterrestre, nos sugiere que la vida puede ser un fenómeno generalizado en el universo", explica Rafael Bachiller, director del Observatorio Astronómico Nacional.
"Confirma la idea de que el agua es ubicua en sistemas planetarios y en todo tipo de cuerpos, gaseosos o rocosos", añade. Un afirmación que comparte Farihi: "Nuestros resultados demuestran que existía la posibilidad de habitabilidad en estos exoplanetas".

Ciencia y ficción en la odisea espacial de 'Gravity'

Buzz Aldrin, el segundo hombre que pisó la Luna después de Neil Armstrong, se ha quedado "muy, muy impresionado". Chris Hadfield, el comandante de la Estación Espacial famoso por sus vídeos en internet sobre la vida en gravedad cero (sobre todo su inolvidable versión del'Space Oddity' de David Bowie) ha dicho que es "espectacularmente buena". James Cameron, el director de 'Aliens', 'Titanic' y 'Avatar', se ha quedado "anonadado", considera que es "un retrato absolutamente perfecto de una mujer que lucha por su vida en gravedad cero", e incluso se ha atrevido a concederle el título de "mejor película del espacio jamás rodada".
Por su parte, el autor de estas líneas -un humilde periodista científico que no cumplió su sueño de convertirse en astronauta, pero al menos logró levitar en un vuelo que simula la gravedad cero- no tiene palabras para describir las sensaciones de éxtasis (¡y vértigo!) que sintió durante este alucinante viaje virtual a la órbita terrestre.
Hablamos, obviamente, de 'Gravity', la película de Alfonso Cuarón que es ya uno de los acontecimientos cinematográficos del año, y ha logrado conquistar un nuevo hito tecnológico en la generación de imágenes por ordenador. A Aldrin (que de esto obviamente sabe algo), su recreación de "la realidad de la gravedad cero" y la precisión con la que muestra las imponentes vistas de la Tierra de las que disfrutan los astronautas le han dejado "extraordinariamente impresionado". Por lo tanto, para los que jamás tendremos la oportunidad de ver nuestro hogar planetario desde ahí fuera, esta película (en la gran pantalla y con gafas 3D) es de momento lo que más puede aproximarnos a la experiencia.
De hecho, 'Gravity' quizás no debería definirse como una película de 'ciencia ficción', sino más bien como un 'thriller de catástrofes' bastante realista sobre un accidente desatado por una lluvia de chatarra cósmica que podría afectar a los habitantes actuales de la Estación Espacial Internacional, aunque evidentemente los guionistas se toman algunas licencias y exageran algunos aspectos de la historia para lograr un mayor impacto dramático. Veamos, entonces, cuánto hay de ciencia y cuánto de ficción en 'Gravity'.

Realidades científicas

1. Vehículos y misiones reales. La película recrea hasta el último detalle un transbordador de la NASA (aunque su nombre, 'Explorer', es el de un modelo que nunca llegó a volar), el telescopio Hubble y la Estación Espacial Internacional (ISS), tal y como son (o más bien eran, en el caso de los 'space shuttle', que se jubilaron en 2011). Además, es un hecho real que en cinco ocasiones los astronautas de la agencia espacial estadounidense realizaron misiones con transbordadores para llevar a cabo reparaciones y tareas de mantenimiento en el telescopio Hubble, como las que realizan los personajes interpretados por Sandra Bullock y George Clooney en la primera escena de la película.
La nave rusa 'Soyuz' también se recrea de manera muy fiel a la realidad, y tanto la Estación Espacial china 'Tiangong' como su nave 'Shenzhou' (en la que se monta Bullock al final de la película) existen. La principal licencia que se permiten los guionistas es que ahora mismo la estación china sólo tiene un par de módulos en órbita y aún le quedan muchos años de ensamblaje, mientras que en la película aparece totalmente construida. Por ello, obviamente no podría haber coincidido en el tiempo con los retirados transbordadores de la NASA, como ocurre en el filme.
2. El riesgo de la basura cósmica. El accidente que desencadena el drama en 'Gravity' se produce cuando la destrucción de un satélite por un misil ruso provoca una avalancha letal de chatarra que se estrella contra el transbordador y el Hubble, donde los astronautas se encuentran realizando reparaciones. Aunque las dimensiones de la catástrofe son exageradas, el riesgo de colisión con fragmentos de basura cósmica es un peligro real que preocupa cada vez más a todas las agencias espaciales. De hecho, en varias ocasiones, se han realizado maniobras para variar la altura de la Estación Espacial y evitar así un posible choque con pedazos de chatarra. Como ha señalado el propio Aldrin, la película "nos recuerda que hay peligros reales en el espacio, especialmente en las actividades que se realizan fuera de las naves".
3. Los peligros de pasear en el vacío cósmico. En la película, la lluvia de chatarra cósmica obliga al personaje de Bullock a desenganchar el cable que le conecta al transbordador y la astronauta se queda flotando en el vacío, alejándose cada vez más de la nave (hasta que le salva el apuesto Clooney, equipado con una mochila propulsora que existe en la realidad). Un experto tan solvente como Jeffrey Kluger -autor del libro en el que se basó la película 'Apolo 13'- considera que 'Gravity' representa perfectamente la 'aterradora realidad' a la que se enfrentaría un astronauta desenganchado de su nave o de la Estación Espacial:seguiría flotando, con su cuerpo rotando indefinidamente, salvo que colisionara con otro cuerpo.

Ficciones irreales

1. Una salvación imposible. A pesar de que los transbordadores, el Hubble y la ISS y la Estación Espacial china existen (o han existido), tal y como se muestran en 'Gravity', la película coloca a todos estos objetos en la misma órbita y a la misma altura, porque así le conviene al guión. Gracias a esta licencia (que no tiene nada que ver con la realidad), el personaje de Bullock logra salvarse al viajar desde el Hubble hasta la ISS (con ayuda de Clooney y su mochila propulsora), y de allí hasta la estación china a bordo de una nave rusa Soyuz. Sin embargo, si tenemos en cuenta las diferencias reales de órbita y de altura entre todos estos artefactos, la astronauta de la película jamás podría salvarse. Como muy bien ha explicado el astrofísico Daniel Marín, a pesar de la exactitud con la que 'Gravity' muestra todos los detalles de los vehículos y el paisaje terrestre desde el espacio, la odisea que permite a Bullock volver a nuestro planeta sana y salva es una "falta de respeto a las normas más elementales de la mecánica orbital".
2. Chatarra excesiva en sentido contrario. Aunque el riesgo de colisión con chatarra espacial es un peligro real, el astronauta de la NASA Leroy Chiao, que fue comandante de la Estación Espacial, ha señalado que la catastrófica reacción en cadena que muestra la película no tiene credibilidad alguna. Su crítica se basa en que existen dos precedentes de satélites viejos destruidos por misiles (uno chino en 2007, y otro estadounidense en 2008), y en ningún caso se produjo una lluvia descontrolada de chatarra. Además, el astrofísico Neil De Grasse Tysonseñaló en un tuit tras ver la película que casi todos los satélites orbitan de oeste a este, pero en Gravity la chatarra orbita en sentido contrario.
3. El pelo de Sandra no flota. Casi todos los astronautas y expertos que han visto la película han aplaudido las impresionantes imágenes en las que se ve a Sandra Bullock flotando en el interior de la Estación Espacial, que recrean la vida en gravedad cero de manera increíblemente realista. Sin embargo, el citado astrofísico De Grasse Tyson ha detectado un fallo clamoroso: ¡el pelo de Sandra no flota! Cualquiera que haya visto vídeos de mujeres astronautas en la ISS puede comprobar que en el espacio,peinarse y lavarse el pelo es una pequeña odisea que no se ve reflejada para nada en la película de Cuarón. Además, Jeffrey Kluger también señala que cuando Bullock se quita su traje de astronauta al entrar en la ISS, debería llevar los pañales reglamentarios que llevan los astronautas para hacer sus necesidades durante sus paseos espaciales. Sin embargo, en esta escena es evidente que el glamour se impuso al realismo espacial, y Sandra luce unas seductoras braguitas totalmente inverosímiles.
En todo caso, a pesar de sus fallos y algunas concesiones al sentimentalismo hollywoodiense, no puedo estar más de acuerdo con la conclusión final del gran Buzz Aldrin: hoy, la conquista del espacio ha perdido mucho fuelle si lo comparamos con la edad dorada del programa Apolo, y la hipnótica belleza visual de 'Gravity' puede contribuir a resucitar el interés de los terrícolas por el cosmos.
"Corremos el riesgo", dice el compañero de Armstrong, "de perder todos los avances que logramos en el espacio hace 40 o 50 años. Por eso esta película no podía haber llegado en un mejor momento para estimular al público". Ojalá la odisea espacial de Alfonso Cuarón, como la de Stanley Kubrick en su día, nos hagan volver a soñar con derribar fronteras para ir siempre más lejos, como el simio de '2001' que convierte un hueso en la primera herramienta del hombre.

'¿Que me han dado el Nobel?'

Mientras, el martes al mediodia, la Real Academia Sueca de las Ciencias descolgaba todos los telefonos habidos y por haber tratando de localizarlo para comunicarle que le habia concedido el Nobel de Fisica de este año, Peter Higgs, de 84 años, almorzaba tranquilamente en un restaurante del barrio de Leith, en Edimburgo. Aunque no se habia ido de vacaciones, como algunos creían al principio, nadie era capaz de dar con él. En Estocolmo, viendo que no había manera, se saltaron el protocolo habitual y anunciaron el premio sin que uno de los galardonados (lo comparte con el belga Francoise Englert) tuviera constancia de ello.
Pasaría todavía un rato hasta que Higgs por fin supiera que, medio siglo después de proponer la existencia del bosón que lleva su nombre, una teoría confirmado por el CERN de Ginebra en 2012, el sabio británico alcanzaba el reconocimiento mundial que merecía.
"Una antigua vecina me vio por la calle, se bajo del coche y me dio la enhorabuena. Entonces, yo le pregunté que por que. '¡Por el Nobel! Me ha llamado mi hija desde Londres para contármelo!'", relataba el físico británico esta mañana, en el transcurso de la rueda de prensa que ha concedido para mostrar públicamente sus impresiones. "Luego, cuando ya llegué a casa, vi todos los mensajes y me di cuenta de que era verdad', añadía Higgs, un hombre poco mediático y en cierta medida incómodo por el revuelo mediático generado en torno a su discreta figura.
Discreto, en camisa, como si tampoco fuera para tanto, ha dejado alguna que otra anécdota curiosa en la amena charla que ha tenido con los periodistas. Él, como otros tantos genios del pasado, tampoco destacó especialmente en el colegio. "Me atraían más las matemáticas y la química, pero llegó un momento en que la Física se me cruzó y me atrapó", relataba, sereno y afable, natural y humilde, el hombre que en 1964 fue capaz de formular una teoría que no se pudo demostrar hasta el año pasado.

Ensayos a medias y ratones sin atender: el impacto en la ciencia del 'shutdown'

Cientos de organismos permanecen cerrados desde el primer día de octubre a la espera de que demócratas y republicanos lleguen a un acuerdo para reabrir el Gobierno federal. Pero pocos han sufrido tanto los efectos del cierre de la administración como los Institutos Nacionales de Salud (NIH): una red cuya sede central está a las afueras de Washington y cuyo organigrama agrupa a 27 centros públicos de investigación.
El cierre de la administración obligó a los responsables de la institución a enviar a casa a tres cuartas partes de sus 18.646 empleados. Sólo quienes se encargan de tareas esenciales siguen trabajando durante el paréntesis. Pero los límites no siempre son evidentes. Cada instituto sigue unas reglas distintas y algunos departamentos ignoran las directrices oficiales. Pero a los responsables de la mayoría de los laboratorios se les exige que justifiquen los servicios mínimos de sus empleados y no se les permite trabajar.
Los investigadores más jóvenes aprovechan su posición de subalternos para ignorar las órdenes y mantener a flote sus experimentos. Pero muchos temen que les delate un accidente en el laboratorio. "Podemos aguantar dos semanas más pero luego tendremos serios problemas", decía esta semana a la revista 'Nature' el responsable de uno de los laboratorios del Instituto Nacional de Alergias y Enfermedades Infecciosas (NIAID).
El NIAID es uno de los 27 centros que forman la red de los Institutos Nacionales de Salud. Un organismo en cuyas instalaciones trabajan miles de científicos y cuyos responsables financian proyectos externos por valor de unos 29.151 millones de dólares: unos 21.410 millones de euros al cambio actual.
Los 27 centros de los NIH sufragan el 28% de la investigación biomédica en EEUU. Una cifra que ofrece una idea aproximada del impacto que supone su cierre en muchos puntos del país. Sus laboratorios han aplazado cientos de ensayos clínicos relacionados con el cáncer, el sida o el Alzheimer y sus responsables han dejado sin tramitar miles de solicitudes de científicos que acuden al organismo en busca de financiación.

Experimentos suspendidos

A una de investigadora del Instituto Nacional del Cáncer se le denegó la entrada y sólo pudo acceder al edificio después de que su jefe pidiera permiso para entrar una hora al día para asesorar a los técnicos que cuidan de sus ratones.
A los roedores se les han inyectado células cancerígenas y han empezado a desarrollar tumores que hacen necesario sacrificarlos. La dispensa permite a la investigadora extraer de sus cadáveres tejidos que le ayudarán a retomar el experimento cuando demócratas y republicanos reabran el Gobierno federal.
Ningún trabajo es tan ingrato como el de los técnicos que cuidan de los animales que se usan en los experimentos. Todos siguen trabajando para velar por la vida de unos 3.900 primates y unos 300.000 ratones cuyo destino depende de la reapertura del Gobierno. Pero el organismo no puede explicar qué están haciendo. Entre otras cosas porque sus responsables de comunicación están entre los afectados por el cierre de la administración.
La esperanza de vida de un ratón sano oscila entre dos o tres años. Pero los que se utilizan en experimentos médicos no suelen aguantar más de 12 meses. La mayoría de ellos viven en jaulas esterilizada y se les alimenta a través de un tubo especial que los expertos rellenan cada dos semanas. "Nosotros somos como las limpiadoras de los hoteles", explica a ELMUNDO.es el veterinario Robert Adams, que supervisa el bienestar de los roedores de la Universidad Johns Hopkins, que recibe más dinero de los NIH que cualquier otro centro del país.
Adams está seguro de que sus colegas federales hacen lo posible por mantener sanos a los animales de los Institutos Nacionales de Salud. Pero alerta sobre las consecuencias del cierre del Gobierno y subraya que sus efectos plantean problemas muy difíciles de resolver. "Las ratonas suelen parir unas 10 crías cada tres semanas y la población no deja de aumentar", explica a este diario. "Algunos ratones desarrollan enfermedades graves y hay que sacrificarlos en sus jaulas con anhídrido carbónico. Llega un momento en que no queda otra opción".
Muchos son ratones cuyo genoma se ha modificado para someterlos a enfermedades humanas. Un detalle que los convierte en especímenes muy costosos y difíciles de sustituir. Un único animal puede llegar a costar miles de dólares y algunos son ejemplares únicos imposibles de reemplazar.

Trabajos ralentizados

Mantener una colonia de ratones transgénicos requiere chequear el ADN de cada ratón. No hacerlo puede poner en peligro experimentos muy costosos. "Si supiera que mi laboratorio va a estar cerrado durante dos semanas tomaría medidas para reducir el número de ratones", decía esta semana Roger Reeves, que ejerce como profesor en la Universidad Johns Hopkins e investiga los orígenes de síndrome de Down.
Su colega Adams tiene claros los pasos que seguiría si le tocara supervisar los ratones de los Institutos Nacionales de Salud: "Lo primero que haría sería separar los machos de las hembras pero no es fácil tener tantas jaulas disponibles. Luego habría que controlar la población según van avanzando los días del cierre del Gobierno. No es la tarea más bonita del mundo pero alguien tiene que hacerla".
Adams explica que su universidad ya ha empezado a sentir los efectos del cierre de la administración pública: "Hemos dejado de traer ratones del Instituto del Cáncer y eso empieza a ralentizar el trabajo de los científicos. Otro problema es que los responsables de los centros no revisan nuestras propuestas y eso retrasa la entrega de unos fondos de los que muchas personas dependen para llegar a fin de mes".

La OMS pide la eliminación del mercurio en todos los instrumentos médicos

Este viernes se firma la iniciativa 'Salud libre de mercurio en 2020' bajo el marco del convenio de Minamata. Dicho acuerdo pide la eliminación definitiva de termómetros y tensiómetros que contengan mercurio. Es decir, se pondrá fin a la producción, importanción y exportación no sólo de instrumentos médicos que incluyan este elemento químico, también de otros productos que lo contienen (como pilas e interruptores) de aquí a 2020.
"Con la firma de la Convención de Minamata conseguiremos proteger al mundo para siempre de las devastadoras consecuencias que el mercurio tiene en la salud", afirma la Directora General, Margaret Chan. Se trata de "uno de los 10 elementos químicos de mayor preocupación para la salud pública. Se dispersa y permanece en los organismos durante años, causando graves enfermedades y discapacidad intelectual a la población expuesta", continúa. Puede causar daño cerebral, especialmente entre los jóvenes; desórdenes en el sistema nervioso, inmunitario y reproductor, daños renales y digestivos.
Hace muchos años que los expertos lo advertían, al igual que anunciaban el incremento de las emisiones de este metal. Después de varias negociaciones, al al final, a principios de este año, 140 países llegaron a un acuerdo vinculante para la reducción de sus emisiones que finalmente se suscribe este viernes.
Para conseguirlo, "el Convenio establece un plan de acción para que los países firmantes eliminen las formas más perjudiciales del uso del mercurio, reduzcan las emisiones de este metal procedentes de la industria, promuevan alternativas sin mercurio asequibles y seguras, protejan a los niños y a las mujeres en edad fértil (el mercurio plantea una amenaza especial para el desarrollo del niño en el útero) de la exposición a este elemento químico y tomen medidas para mejorar la salud y el bienestar de los trabajadores que estén en contacto con el mercurio".
Aunque, de momento, la Convención de Minamata permite que se sigan utilizando aparatos médicos de medición con mercurio hasta 2030 sólo en circunstancias especiales, la Organización Mundial de la Salud (OMS) y la coalición internacional Salud sin Daño insisten en que, dadas las tremendas consecuencias que la exposición al mercurio tiene en la salud, debería mantenerse 2020 como fecha límite.
"La OMS trabajará con los gobiernos para garantizar que cumplan sus obligaciones en virtud del convenio, especialmente en las áreas de salud", señala la doctora María Neira, directora de la OMS para Salud Pública y Medio Ambiente. "Esto requiere la eliminación de termómetros y tensiómetros de mercurio", aunque la OMS y sus asociados del sector de la salud se comprometen, además, a intentar eliminar el mercurio de los antisépticos tópicos y de los cosméticos para aclarar la piel. También quieren desarrollar medidas para "eliminar el uso del mercurio en empastes y otros productos dentales" y fomentar el intercambio de información sobre la investigación en salud pública.

domingo, 6 de octubre de 2013

El diésel afecta a la capacidad de las abejas para detectar el olor de las flores

La exposición a los contaminantes comunes que se encuentran en el aire por el escape de diésel puede afectar a la capacidad de las abejas para reconocer los olores florales, según concluye una nueva investigación de la Universidad de Southampton, en Reino Unido, publicada en 'Scientific Reports'. Estos polinizadores utilizan el olor de las flores para localizar, identificar y reconocer las flores de las que se alimentan.
El equipo de científicos, dirigido por el doctor Tracey Newman y el profesor Guy Poppy, encontró que los gases de diésel cambian el perfil del olor de la flora. Estos expertos dicen que estos cambios pueden afectar a la eficiencia del forraje de las abejas y, en última instancia,podría afectar a la polinización y, por lo tanto, a la seguridad alimentaria global.

Experimentos

El estudio mezcló ocho sustancias químicas presentes en el olor de las flores de colza con aire limpio y con aire que contiene gases de escape de diésel. Seis de los ocho productos químicos se redujeron (en volumen) cuando se mezclan con la contaminación de diésel y dos de ellos desaparecieron por completo al minuto, es decir, el perfil de la mezcla química cambió por completo. El olor que se mezcló con el aire limpio no se vio afectado.
Por otra parte, cuando los investigadores utilizaron el mismo proceso con los gases de NOx (óxido nítrico y dióxido de nitrógeno), que se encuentra en los escapes de diésel, vieron el mismo resultado, lo que sugiere que los NOx eran un facilitador clave en cómo y por qué se alteró el perfil del olor. A continuación, se mostró que la mezcla química cambió para las abejas, que no pudieron reconocer los olores.

Efectos perjudiciales

El doctor Newman, neurocientífico del centro universitario inglés, subraya: "Las abejas tienen un sentido del olfato sensible y una capacidad excepcional para aprender y memorizar nuevos olores. Los gases NOx representan algunos de los más reactivos producidos a partir de la combustión de diésel y otros combustibles fósiles, pero los límites de emisiones de dióxido de nitrógeno se exceden regularmente, especialmente en áreas urbanas".
Según este experto, los resultados de su estudio sugieren que la que la contaminación por escape de diésel altera los componentes de una mezcla de aroma floral sintética, lo que afecta al reconocimiento del olor por parte de la abeja melífera. "Esto podría tener graves efectos perjudiciales sobre el número de las colonias de abejas y la actividad de la polinización", alertó.

Las empresas aeroespaciales ya notan los efectos de los recortes del Gobierno

El sector aeroespacial ya está notando los efectos de la reducción del presupuesto que el Gobierno español destina a la Agencia Espacial Europea (ESA) y que fue decidido durante la última reunión interministerial de noviembre, celebrada en Nápoles. La decisión de participar en sólo cinco de los 24 programas opcionales de la ESA se está traduciendo ya en la dificultad de las empresas españoles para conseguir contratos en la industria europea.
Así lo han advertido este lunes representantes y empresarios del sector durante la presentación del informe anual de 2012 de la Comisión Proespacio de la Asociación Española de Empresas tecnológicas de Defensa, Aeronáutica y Espacio (TEDAE).
El informe anual, que recoge la actividad de las principales empresas españolas aeroespaciales durante 2012, muestra que durante ese año el sector creció un 2% y facturó 736 millones de euros. Un crecimiento que se ha visto "ralentizado" en comparación con los años anteriores, según destacó Antón Cuadrado, delegado de la comisión ProEspacio de TEDAE y director general de EADS CASA Espacio. Estas cifras, recalcó, aún no muestran los efectos del recorte presupuestario de 2013.
"El impacto en la actividad industrial para el periodo 2013-2015 será progresivo y a día de hoy ya estamos sintiendo las dificultades", aseguró Cuadrado en relación a la reducción de la aportación española a los programas opcionales de la ESA.
En 2012 el sector espacial alcanzó una cifra récord de empleo, con 3.337 personas en plantilla, de los que el 70% son titulados superiores. Si se tiene en cuenta el total de puestos de trabajo, la cifra asciende a 5.000 empleados, según Cuadrado.

Programas de la Agencia Espacial Europea

El anuncio de los resultados de la industria aeroespacial se ha producido durante la misma jornada en la que se han presentado los Presupuestos Generales del Estado. Tras afirmar que "el sector del espacio es estratégico" y "que sus cifras son pequeñas pero simbolizan mucho", Luis Valero, secretario general de Industria y de la Pequeña y Mediana Empresa, se mostró satisfecho por la inversión del Gobierno prevista para 2014 y el periodo 2013-2022.
"Aquí estamos intentando hacer nuestros propios deberes, aunquepasamos aún por momentos difíciles. Lo que sí podemos decir es que por fin hemos conseguido racionalizar o regularizar los presupuestos del sector aeroespacial", afirmó. El Consejo de Ministros aprobará que las suscripciones, es decir, los compromisos de participación que España tiene para el futuro, queden recogidas en la contabilidad del estado como una obligación de pago, y que serán de aproximadamente 1.175 millones de euros para el periodo 2013-2022.
Hasta ahora era un compromiso que estaba en la ESA, pero no estaba recogido en los Presupuestos Generales del Estado. El dinero que España se comprometa a aportar en la próxima reunión interministerial de la ESA (que se celebrará en otoño de 2014) se añadirá a esos 1.175 millones de euros.
Por lo que respecta a los presupuestos de 2014 afirmó: "Para demostrar que estamos apostando por el sector, de una cifra mínima y pequeña que era 102 o 103 millones en 2013, hemos pasado a 153 millones para 2014 para regularizar la situación de deudas que teníamos pendientes. En la ministerial de la ESA de 2014 esperamos presentar unos proyectos que minimicen el bache que hemos tenido en los años pasados".
En relación a la deuda que España ha acumulado con la ESA por no haber podido hacer frente en los últimos años a los compromisos de pago adquiridos, a cierre del ejercicio 2013, ascenderá a 149 millones de euros, "que se irán diluyendo en los próximos años", precisó Valero, que aseguró que España así lo ha acordado con la Agencia Espacial Europea. Por ello, añadió nuestro país "no va a perder su derecho a voto, eso no va a ocurrir".
"España ha demostrado que puede hacer proyectos nacionales completos, como los satélites Paz e Ingenio, en un tema tan importante como la observación de la Tierra", dijo Luis Valero, que felicitó a los representantes del sector por sus buenos resultados.
Por su parte, Elisa Robles, directora general del CDTI, aseguró que "el Gobierno está haciendo un gran esfuerzo para superar el momento actual" y reclamó a la Unión Europa unas reglas del juego que permitan a las empresas españolas competir en igualdad de condiciones.

Una inversión insuficiente

Las palabras optimistas de Luis Valero contrastaron con las de algunos empresarios del sector. Un portavoz de EADS CASA declaró que con la inversión anunciada, el Gobierno "salva la cara" y reiteró que el sector considera que es necesaria una inversión anual en los programas de la ESA de al menos entre 150 y 200 millones de euros para mantener los niveles de competitividad (en 2013 se invirtieron 83 millones). Además, destacó que España ha pasado del puesto 5º al 12º en la ESA.
La dificultad de acceder a contratos ha hecho que algunas empresas empiecen a deslocalizar el negocio, como ya advirtieron a finales de año. Así, Miguel Belló, director general de Deimos, señaló que su empresa ha abierto recientemente sedes en Inglaterra y Rumanía para conseguir más contratos. "Desde España ya no podemos aspirar a contratos en programas de observación terrestre o de 'space debris' (basura espacial), por ejemplo", señaló.
Según destacó, la memoria de 2012 todavía no recoge los efectos de los recortes en el sector. "Tenemos algunas esperanzas, pero no demasiadas, de que España aumente el presupuesto destinado a la ESA en la interministerial de 2014".
Durante su intervención, Julián García Vargas, presidente de la asociación TEDAE, subrayó que el espacio "es un sector cualitativamente muy importante en el que todos los países quieren estar" porque "ahí está el futuro".
Tras señalar que las empresas saben bien que no pueden depender sólo del presupuesto de nuestro país y por ello buscan proyectos fuera de España, "como es su obligación", pidió a Luis Valero que "esta sensibilidad creciente del Gobierno hacia el sector se vaya transformando en una mejora cuantitativa en las aportaciones, sobre todo a los proyectos públicos europeos. Si no se produce, en tres o cuatro años dará lugar a que estemos descolgados de los proyectos europeos", alertó.
"Como sabemos de las limitaciones presupuestarias no podemos decir que queremos grandes mejoras, pero sí mejoras que puedan ser consideradas sustanciales", reclamó.
Por su parte, Paul Weissenberg, director adjunto de Empresa e Industria de la Comisión Europea, afirmó que sus informes dicen que "las empresas españolas están llevando a cabo un gran trabajo". No obstante, aclaró que ni España, ni Alemania ni Francia, ni siquiera las tres juntas, son capaces de competir en un mercado global porque son demasiado pequeñas: "Cuanto más estes dentro de Europa, más competitivo vas a ser", resumió Weissenberg, que aseguró que Europa "es un trampolín" para las empresas.
"Debemos decidir hacia dónde queremos ir y dónde queremos estar en 20 años. El espacio necesita una estrategia, no [un plan] de supervivencia de un año para otro. Sin estrategia estás perdido", advirtió.

Los 'septiembres' de este siglo son más cálidos que los del anterior, según la AEMET

La Agencia Estatal de Meteorología (AEMET), ha constatado que los 'septiembres' de este siglo son algo más calurosos que los del pasado, según ha explicado a Europa Press su portavoz, Fermín Elizaga.
Concretamente, los registros del mes pasado muestran que fue cálido a muy cálido en la mayor parte de España, con una temperatura media de 21,5 grados centígrados, 1,2 grados centígrados por encima del valor normal de la serie de referencia que comprende mediciones desde 1971 al 2000.
Mientras, los septiembres de 2010 y 2012, pese a no ser tan cálidos como este, si registraron 0,6 grados centígrados por encima de los valores normal. Por el contrario, el septiembre de 2011 fue el más cálido desde 1988, registrándose 1,8 grados centígrados superior a la media.
Por todo ello, Elizaga considera "confirmada" una tendencia "global" hacia temperaturas más calurosas en estos trece años respecto a mediciones anteriores. Pese a ello, ha adelantado que se espera un otoño "normal" ya que "no hay indicios que indiquen lo contrario".

Orense, con 37 grados centígrados

Según la AEMET, las anomalías térmicas positivas han alcanzado valores superiores a dos grados centígrados en gran parte de Galicia, y en algunas áreas de Madrid y del extremo noroeste de Castilla y León, mientras que en el resto del territorio peninsular han oscilado en general entre uno y dos grados centígrados. Por otro lado, tanto en Baleares como en Canarias septiembre ha sido un mes de temperaturas que han oscilado en torno a las normales.
Las temperaturas de la primera quincena del mes fueron normales en conjunto, mientras que por el contrario la segunda mitad de septiembre resultó mucho más cálida de lo normal, con temperaturas de hasta dos y tres grados centígrados superiores a los valores medios de este período.
Así, las máximas más elevadas de septiembre se registraron en general entre los días 1 y 4 y en la tercera decena del mes, entre el 23 y el 26, alcanzándose valores superiores a 35 grados centígrados en amplias zonas de Extremadura y Andalucía, así como en algunos puntos de Murcia, interior de Galicia y País Vasco, destacando los 37,1 grados registrados el día 21 en la estación Sevilla-aeropuerto, los 36,8 grados registrados el día 2 en Orense o los 36,2 grados registrados del día 23 en Badajoz-aeropuerto.
En relación a las mínimas, las más bajas se registraron en general a finales de la primera decena y en los primeros días de la segunda, si bien en Andalucía, sureste peninsular, Baleares y Canarias los valores más bajos se observaron en la tercera decena del mes.
Los valores más extremos se registraron en la madrugada del día 12, destacando Molina de Aragón, en Guadalajara, con 2,6 grados registrados y, entre capitales de provincia, fueron reseñables los 4,1 grados registrados Soria, los 4,8 grados registrados de Burgos o los 5,1 grados registrados Ávila.

Un diez por ciento menos de lluvia

Por otra parte, en relación a las lluvias, septiembre ha sido ligeramente más seco de lo normal, con una media de 39 litros por metro cuadrado, lo que supone un 10 por ciento menos que el valor medio.
Respecto a la distribución geográfica de las precipitaciones, ha sido bastante irregular aunque la mayoría se produjeron durante el temporal que se inició el día 27 y que afectó especialmente al tercio oeste peninsular.
Así, septiembre resultó de húmedo a muy húmedo en el sur de Galicia, Castilla y León, Castilla-La Mancha, La Rioja, norte de Extremadura, la mayor parte de Andalucía y parte del archipiélago canario, mientras que fue muy seco en el este peninsular, con precipitaciones por debajo del 25 por ciento del valor medio en Valencia y sur de Cataluña.
Por el contrario, resultó normal o algo más seco de lo normal en las regiones de la vertiente cantábrica y en la zona centro, así como en Baleares y en el resto de las Islas Canarias, donde las precipitaciones oscilaron en torno a los valores medios de septiembre.
En relación al reparto temporal de las lluvias durante el mes pasado, en la primera decena afectaron a la mitad norte peninsular, Baleares y sureste, recogiéndose cantidades que superaron localmente los 100 litros por metro cuadrado en algunas áreas de Cataluña y del nordeste de Navarra.
Mientras que los siguientes diez días fueron secos en general, registrándose precipitaciones significativas únicamente en la franja cantábrica, así como en Cataluña, centro peninsular y algunas áreas del tercio sur, Islas Canarias o Baleares, donde se registraron 40 litros por metro cuadrado en la isla de Ibiza.
Por su parte, durante los cuatro últimos días de la tercera decena, las precipitaciones se extendieron por la mayor parte de España descargando de manera intensa y persistente cantidades superiores a los 100 litros por metro cuadrado en áreas de Galicia, oeste de Castilla y león, norte de Extremadura y oeste y centro de Castilla-La Mancha.
Finalmente, la AEMET ha señalado que el episodio de precipitaciones intensas más significativo de septiembre fue el que afecto a las regiones del tercio oeste peninsular entre los días 27 y 30, que dio lugar a cantidades acumuladas superiores a 150 litros por metro cuadrado en algunos puntos.

La ESA ensaya su futuro robot 'marciano' en el desierto chileno de Atacama

La Agencia Espacial Europea (ESA) indicó hoy que la semana próxima llevará a cabo pruebas de sus tecnologías de robot para la exploración de Marte en el desierto de Atacama en Chile, uno de los escenarios de la Tierra más parecido al Planeta Rojo.
La prueba, que se prolongará durante cinco días, se dirigirá desde el centro de aplicaciones de satélites de Harwell, en el Reino Unido, y pretende acumular experiencia con vistas a la misión ExoMars prevista para 2018, señaló la ESA en una nota.
Se ha elegido el desierto de Atacama por ser una de las regiones más secas de nuestro planeta, por su falta de vegetación y porque su suelo rocoso, entre pardo y rojizo, es lo más similar a Marte.
El prototipo del vehículo ExoMars de seis ruedas será probado junto con prototipos de tres de sus instrumentos científicos, una cámara panorámica de tres dimensiones, un radar de detección geológica del subsuelo y un dispositivo de captación de imágenes para tomar muestras del subsuelo con una capacidad de detalle de una milésima parte de un milímetro.
Junto a esos tres instrumentos, un taladro de mano ayudará a tomar muestras para ser examinadas.
La perforación tiene particular relevancia para intentar acceder a huellas biológicas moleculares depositadas a más de un metro de profundidad, donde han estado protegidas de los daños de la radiación cósmica.
El lugar preciso del experimento se decidirá el próximo domingo, sobre la base de los reconocimientos llevados a cabo por una parte del equipo.

La partícula de Dios

La oficina de prensa del CERN- Organización Europea para la Investigación Nuclear, ha anunciado la confirmación experimental sobre la existencia del 'bosón de Higgs' más conocida por el público como "la partícula de Dios". El bosón de Higgs era la última pieza que faltaba localizar para completar el cuadro de partículas elementales incluidas en el modelo estándar de la física de partículas, el modelo que relaciona las interacciones fundamentales entre las partículas elementales que componen toda la materia. Por lo tanto, confirmar o descartar su existencia ha sido una de las tareas fundamentales llevadas a cabo en el famoso "colisionador de Hadrones (LHC)" un anillo acelerador situado a 100 m de profundidad en la frontera entre Francia y Suiza, en las cercanías del aeropuerto de Ginebra.
La noticia fue publicada con gran prudencia por el organismo científico destacando que en dos de sus proyectos científicos se ha localizado una nueva partícula compatible con el "bosón de Higgs", pero remarcando que hacen falta más investigaciones para determinarlo unívocamente. Por lo tanto señalan una neta distinción entre el significado científico de "existencia" y "demostración". Su importancia radica en que más que alcanzar una meta final, comprobar la existencia del bosón de Higgs, se trata del inicio de una nueva etapa que promete muchos desarrollos posteriores.
Sabemos que toda la materia en el universo está formada por átomos, que a su vez, tienen un núcleo masivo con carga eléctrica positiva, rodeado de una nube de electrones en movimiento. El átomo forma una estructura que se mantiene unida por fuerza electromagnética, una de las fuerzas fundamentales de la naturaleza. Esta fuerza electromagnética tiene, teóricmente, alcance infinito y es transportada por las partículas llamadas fotones. Sabemos que por este medio nos llega la luz de las estrellas o la electricidad a nuestros hogares y que esta fuerza es la responsable de todas las estructuras moleculares que forman los cuerpos macroscópicos.
Si sólo existiera esta fuerza, el núcleo de un átomo sería inestable, debería estallar por la proximidad entre los protones. Pero en el núcleo actúan otras fuerzas de corto alcance que son capaces de neutralizar la repulsión electromagnética y se conocen como "Nuclear fuerte", que depende de una propiedad llamada "carga de color" (que no tiene nada que ver con el uso normal de la palabra "color") y "Nuclear débil", la que gobierna los procesos de generación de energía en las estrellas.
Los protones y neutrones del núcleo están compuestos por partículas más diminutas llamadas "quarks", unidas por otras partículas llamadas "gluones", responsables de transportar la Fuerza Nuclear Fuerte. Las partículas que transportan la Fuerza Nuclear Débil son las partículas llamadas bosones W y Z, que a diferencia de los fotones tienen masa. Para imaginar dos partículas que interactúan se puede considerar a dos personas que se pasan un balón pesado, que sería la partícula de fuerza. Si el balón es más pesado, el rango de interacción es más corto.
El descubrimiento de las partículas W y Z, mereció un premio Nobel para el CERN en los años 80, pero el mecanismo que da lugar a su masa no había sido identificado anteriormente. Aquí entra el mecanismo de Higgs. Es el modelo más sencillo para dar cuenta de la diferencia de masa entre los fotones (que también son bosones) y los bosones W y Z. Los físicos consideran al bosón de Higgs como la clave para entender la estructura fundamental de la materia debido a que atribuye la masa a todas las demás, y a esta propiedad debió su nombre de "partícula de Dios".
Es difícil discutir sobre el modelo estándar sin las precisiones matemáticas que se requieren y poco podemos abundar sobre este tema en un espacio tan reducido. Tampoco ayuda que la mecánica cuántica no tenga nada que ver con el "sentido común" o la "intuición".
Sin embargo, se ha desatado un gran interés público por esta noticia, a pesar de la evidente complejidad del tema y de su escasa relación con la vida cotidiana, interés que probablemente esté ligado al nombre de "partícula de Dios". La relación que tiene la teoría respecto del Big-Bang y de la evolución de la materia en el Universo, nos hacen sospechar a todos, aún sin comprender los detalles, que esas conclusiones tienen que ver con nuestro propio origen.