En unas luminosas oficinas de la Universidad de Oxford, más de 300 académicos llevan ocho años buscando respuestas a las «grandes preguntas» de nuestra civilización. Estamos en el Instituto para el Futuro de la Humanidad (FHI), recorrido por una pizarra blanca en la que los algoritmos y las ecuaciones se suceden en una especie de grafiti inquietante e indescifrable.
A falta de una bola de cristal, Nick Bostrom se sienta en una de esas pelotas de pilates que hacen las veces de sillas ante la gran mesa de reuniones. El filósofo y matemático sueco de 40 años, considerado como uno de los 100 mejores cerebros del planeta por la revista Foreign Policy, lleva las riendas del FHI e intenta despejar desde aquí la niebla de lo que nos espera en las próximas décadas, que no es poco.
«El hombre es la mayor promesa y la mayor amenaza para el hombre», nos advierte ya de entrada. «Estamos en medio del mayor proceso transformativo de la Humanidad, el que tal vez nos abra las puertas del post-humanismo. Pero las mismas tecnologías que nos van a posibilitar ese salto entrañan también grandes riesgos. En cierto modo, somos como bebés jugando con explosivos».
Uno de los campos predilectos de Bostrom es el estudio de las catástrofes existenciales y los riesgos de la especie humana. «Durante más de 100.000 años hemos sido capaces de sobrevivir a asteroides, terremotos, tifones, volcanes y todo tipo de catástrofes naturales. Aunque las condiciones de vida en la Tierra serán más severas, es posible que podamos aguantar otros 100.000 año capeando el temporal. Pero nadie ni nada nos ha preparado para enfrentarnos al producto de la actividad humana en el siglo XXI».
Tres tecnologías, tres, ofrecen según Bostrom la gran promesa o la gran amenaza, según se mire: la nanotecnología molecular, la biología sintética y la superinteligencia. Lo ideal, según él, es que la superinteligencia artificial (la creación de un intelecto que se comporta de manera superior a los cerebros humanos) avanzara más rápido que las otras dos tecnologías y nos permitiera un relativo control.
Pero la carrera hacia la superinteligencia sigue abierta (a eso le dedica precisamente su próximo libro) y los riesgos son también patentes, con la posibilidad de una sociedad distópica al estilo 1984. «¿Cuánto estamos de lejos de las primeras máquinas supertinteligentes?», le preguntamos a Bostrom, pero él insiste en lo que suyo no es mirar a un bola de cristal: «Aún no lo sabemos. Hay mucha incertidumbre sobre la escala del tiempo. En vez de elegir un año arbitrariamente, nosotros funcionamos con probabilidades, y la probabilidad es bien alta en este siglo».
Bostrom es uno de los mayores adalides del transhumanismo (cómo aplicar la tecnología para mejorar las capacidades físicas y mentales de nuestra especie), pero sin embargo se desmarca de Ray Kurzweil, el profeta de la singularidad. «Yo no creo que vaya a haber un momento mágico o místico de la fusión hombre-máquina en el 2044 o en cualquier otro año simbólico. Creo que todo va a ser más gradual, y hasta cierto punto es deseable que así sea, para que pueda haber un debate en la sociedad y se puedan evaluar las dimensiones éticas».
El filósofo sueco piensa, por ejemplo, que la reproducción clónica en los humanos será inevitable, una vez se haya perfeccionado con los animales. «Con estas y otras técnicas ocurrirá como lo que pasó en su día con la fecundación in vitro. La mayoría de la gente se oponía al procedimiento, ante el temor de que los bebés probeta fueran deshumanizados. Con el nacimiento de Louise Brown, la mayoría de la gente pasó a aceptarlo como algo normal».
Bostrom es también un claro defensor de la mejora humana: «La tecnología puede ser muy útil para superar nuestras actuales limitaciones biológicas. Podremos frenar o ralentizar el proceso de envejecimiento. Podremos extender nuestras vidas más allá de los 100 años. Podremos expandir el potencial de nuestras mentes».
El director del FHI está a favor de la «selección genética» y opina que en unos años será relativamente normal que los padres puedan prevenir la trasmisión de enfermedades genéticas a sus hijos.
¿Le preguntamos a Bostrom si no estaremos abriendo las puertas a un futuro al estilo Un mundo feliz, dividido entre humanos y superhumanos, mejorados genéticamente o reforzados en vida. Un mundo, en fin, cada vez más segregado entre los que tienen y los que no tienen. «El riesgo de una mayor división es obvio», admite. «Y en este sentido creo que los Gobiernos deberían jugar un papel fundamental para garantizar el acceso de toda la sociedad a tecnologías beneficiosas».
No hay comentarios:
Publicar un comentario