googlef87c5bb6a5dde55a.html content='pX8WnVSvXsrSCE6ThXyzIIPFKBjDfIQaaLIdDsNIBzY=' ADNpressOnline: 2015-03-15

lunes, 16 de marzo de 2015

"Sobre el Fin del Mundo"


Es mucho lo hablado sobre el fin del mundo que ha sido siempre patrimonio de la religión y ha estado ocasionalmente en las películas catástrofes de Hollywood, sin embargo la ciencia va acumulando datos reales, y empieza a tomarse en serio los riesgos que un fenómeno natural o provocado por los humanos pueda acabar con la civilización.
Un reciente informe detalla los 13 grandes riesgos que podrían provocar el Apocalipsis anunciado en los textos sagrados, así como en las salas de cine. "La mayoría de los guiones de Hollywood exigen heroicos esfuerzos para salvarnos y los grupos religiosos milenaristas le buscan un significado trascendente a éstos desastres", dice el investigador del Instituto para el Futuro de la Humanidad de la Universidad de Oxford (IFH) y coautor del informe, Stuart Armstrong.
Sin embargo, para la ciencia, "éstos riesgos son principalmente cuestiones que pueden reducirse a conceptos como la eficiencia energética, y la mayoría no tienen ningún significado o racionalidad detrás".
El IFH y la Fundación Retos Globales de Suecia, han recopilado todo lo que la ciencia conoce sobre éstos posibles cataclismos de tan poco encanto. Una treintena de expertos repasaron centenares de libros y artículos científicos hasta obtener un listado con los eventos que podrían acabar con la civilización humana, incluso con la propia existencia de los humanos.
El informe de 13 riesgos para la civilización humana hace una estimación de la probabilidad que alguno suceda en los próximos 100 años.
  Riesgos actuales 1. Cambio climático extremo 2. Guerra nuclear 3. Catástrofes ecológicas 4. Pandemias mundiales 5. Colapso del sistema mundial
  Riesgos exógenos 6. Impactos de grandes asteroides 7. Supervolcanes
  Riesgos emergentes 8. Biología sintética 9.Nanotecnología 10. Inteligencia artificial 11. Riesgos inciertos 12. Mala gobernabilidad mundial en el futuro 13. Riesgo de las políticas mundiales

El cambio climático o la guerra nuclear ronda desde hace tiempo entre nosotros como así otros, como la tecnologías emergentes que podría tener un lado oscuro, la inteligencia artificial o la biología sintética. Y algunos siempre han estado ahí en el pasado que provocaron grandes extinciones sobre la Tierra, como el impacto de un gran asteroide o la erupción de un supervolcán.

Respecto al medio Ambiente por CO2, la máquina de vapor de James Watt echó a rodar en la atmósfera unas 300 partes por millón de dióxido de carbono, el principal gas que está calentando el planeta. En el verano de 2013 se superó la cifra de 400 partes, algo así no había pasado en los últimos 800.000 años.
Los distintos escenarios estudiados por los expertos climáticos sostienen una subida de las temperaturas de no más de 2ºC para final de siglo y permitiría a los humanos vivir casi como si nada hubiera cambiado. Pero recuerda éste informe que hay escenarios más extremos, donde la temperatura media global podría subir hasta 6º C y ésta temperatura sí provocaría una reacción en cadena: donde los países tropicales serían los más afectados por la sequía y la hambruna que generaría un caos social con emigraciones masivas a regiones más templadas, en las que también su industria agroalimentaria colapsaría por super población, donde algunos opinan que ocurra "Es improbable pero no imposible", dicen los autores del informe.
Lo que llama la atención en la lista es que la mayoría de los enemigos de la civilización humana han nacido dentro de ella, pero solo en dos eventos, el impacto de un gran asteroide o la erupción de un supervolcán, los humanos tienen poco que ver inclusive en el caso de una pandemia global, hay un factor humano llamado globalización.
En el pasado las epidemias como la peste negra o la gripe española no fueron apocalípticas porqué el mundo no estaba tan conectado como hoy. "En la actualidad, los riesgos tecnológicos, especialmente la biología sintética, la inteligencia artificial y la nanotecnología parecen suponer una mayor amenaza que los riesgos naturales, con la posible excepción de las pandemias", dice Armstrong, "La guerra nuclear también es una gran amenaza y es un riesgo antropogénico aunque no sea estrictamente de origen tecnológico", añade éste experto en inteligencia artificial y riesgos globales.
La encabeza primero el cambio climático que los investigadores añaden el adjetivo de extremo como el prototipo de polución de riesgo antropogénico o endógeno, debido al progreso humano desde la Revolución Industrial y las revoluciones científicas asociadas a ella como la creación de riqueza, elevación general del nivel de vida, y las mejoras de las condiciones sanitarias...ampliaron a los 12 jinetes del Apocalipsis en 1 más sumando los riesgos políticos de las grandes potencias enmarcada en la ambición del superpoder que dejaría paso a la desidia y vanidad humana.

"La probabilidad de que algún asteroide impacte sobre la Tierra es una certeza, y la probabilidad es peligrosa, pero mucho más baja" y porque aquí no hay azar, hay certidumbre.
¿Qué acabó con los dinosaurios si no un gran meteorito? La colisión de un gran asteroide de cinco kilómetros o más de diámetro que sucede cada 20 millones de años, (millón arriba o abajo), con ésas dimensiones el impacto podría liberar la energía de 100.000 bombas atómicas.

Pero lo peor vendría después. A diferencia de las historietas contadas en películas como "Deep Impact" de 1998, el problema no es el impacto sino sus consecuencias posteriores ya que ingentes cantidades de polvo se elevarían hasta las capas altas de la atmósfera, impidiendo el paso de los rayos del Sol. Sería un invierno de decenios que afectaría a toda la biosfera y a la sobrevivencia humana por aire enrarecido.
En 2013, la NASA estimó que las probabilidades de que el Asteroide 2013 TV135, de unos 400 metros de envergadura, choque contra la Tierra en 2032 es de una entre 63.000 posibilidades.
En el caso del invierno nuclear o el volcánico, las formaciones siberianas de basalto del norte de Siberia son el fruto de una de las mayores erupciones volcánicas de la historia geológica del planeta sucedida hace unos 250 millones de años, ya que miles de kilómetros cúbicos de material fue proyectado a la atmósfera, generando un larguísimo invierno volcánico que provocó la extinción masiva que marca la transición entre el periodo Pérmico y el Triásico. Según los registros geológicos, una erupción con capacidad apocalíptica se produce en un rango temporal mínimo de cada 30.000 años y máximo de 700.000 años, según el informe.
Los humanos no se han enfrentado nunca al Apocalipsis y no toman dimensión psicológica y lo ignoran, entre otras cosas porque no habría nadie para contarlo. "La gente entrena su sentido común de cada día sobre la experiencia e interacción con el mundo del día a día. Como los grandes desastres son afortunadamente raros, no desarrollamos una experiencia conciente sobre éstas amenazas que se basan en lo que se encuentran en la cultura popular, como las historias de Hollywood y las profecías religiosas".
El Fondo Skoll para las Amenazas Globales, y el Centro para el Estudio de los Riesgos Existenciales de la Universidad de Cambridge junto al Instituto Riesgos Catastróficos Globales (GCRI) de Estados Unidos, se han dedicado a estudiar y a vigilar qué es lo que puede acabar con la civilización humana y cómo mitigar ésos peligros.
Stephen Hawking declaraba a la BBC a fines de 2014 con el estreno de su nuevo ordenador en su nueva silla de ruedas con tecnología Intel y swift key una app de texto linguístico predictivo, que a partir de ahora le ayudará a comunicarse con el mundo aprendiendo sus hábitos de pensamiento y prediciendo las palabras que él quiere pronunciar, es el último grito de la inteligencia artificial, y dice que "el desarrollo de la inteligencia artificial plena podría significar el fin de la raza humana".
Para el genial físico, "los seres humanos, limitados por su lenta evolución biológica, no podrían competir, y serían reemplazados por la robótica" y teme que la inteligencia artificial alcance un punto sin retorno que la haga despegar por sí misma y tomar las riendas de su propia evolución y destino. En el momento en que la inteligencia artificial supere a la humana es lo que los robóticos llaman "singularidad" y para algunos científicos como el filorrobótico, y el asesor de Google Ray Kurzweil, le han puesto fecha: en algún momento de la década del 2030, las máquinas cibernéticas superarán a los humanos. Conviene saberlo por si algún día tenemos que huir de él, o adorarle como a una nueva deidad.

Recientemente en una carta firmada por centenares de científicos y tecnólogos apostaban por un desarrollo responsable de la inteligencia artificial, donde, entre otras cosas, el avance en la ética de las máquinas vaya parejo con el tecnológico para que nunca sean una amenaza para sus creadores. Pero, aún así no hay iniciativas similares para otros dos campos emergentes, como son la "biología sintética" y su promesa de crear organismos artificiales o la "nanotecnología" sobre los que el informe advierte que no habrá que esperar muchos años para ver su lado oscuro.
Para el futuro de la humanidad la Fundación Retos Globales no explicita pero hay un "decimotercer" peligro que sobrevuela sobre los otros doce, y es el de la ignorancia ya sea por la incapacidad para valorar económicamente un evento tan catastrófico por su baja probabilidad a corto plazo, ó la psicología humana de los políticos como buena parte de la comunidad científica que no toman muy en serio los riesgos, y ésa desidia es lo que explica buena parte de la imagen popular y acientífica del Apocalipsis.

Fuente; "El País" por Miguel Angel Criado