El fin de la humanidad según Stephen Hawking

7 de marzo del 2015

Tres formas de cómo se podría acabar la civilización.

Stephen Hawking

En una entrevista con el diario británico The Independent el astrofísico inglés Stephen Hawking habló de las tres cosas, que a su criterio, podrían destruir la humanidad.  Lea también: Stephen Hawking: dentro de 50 años viviremos en la Luna

El físico, que a finales del 2014, dijo que para él Dios no existía, señaló que nada que tenga que ver con la religión o los dioses, terminarán destruyendo la civilización.

También lea: Científico dice haber encontrado pruebas de la existencia de Dios

La agresividad:  

“A lo mejor, en los días del hombre de las cavernas la agresividad tenía una ventaja de supervivencia: permitía obtener más comida, más territorio o una pareja con la que reproducirse. Pero hoy en día amenaza con destruirnos a todos”, dijo el físico. También le puede interesar: Diez posibles finales para el fin del mundo

Señaló que desde este punto de vista, la única oportunidad que tiene la humanidad de sobrevivir es colonizar el espacio.

“Enviar a seres humanos a la Luna cambió el futuro de nuestra raza de una forma que todavía no entendemos. No ha resuelto ningún problema inmediato en la Tierra, pero sí nos ha dado perspectivas nuevas de su solución y causó que mirásemos tanto hacia afuera como hacia adentro”.

Según relata un texto del portal Live Scince, Hawking considera que “por ejemplo, una gran guerra nuclear sería probable terminar con la civilización, y podría acabar con la raza humana”.

Inteligencia artificial:

El físico hace parte de una creciente tendencia de científicos que consideran que la inteligencia artificial puede acabar con la civilización, tal y como sucede en algunas películas de ciencia ficción.

“El desarrollo de la inteligencia artificial completo podría significar el fin de la raza humana”, Hawking dijo a la BBC en diciembre de 2014.

Al referirse al sistema operativo de voz que permite la comunicación del físico con su entorno convirtiendo sus pensamientos en palabras, dijo: Debido al gran potencial de la IA (sistema de comunicación), es importante investigar cómo aprovechar sus beneficios y evitar peligros potenciales”.

La advertencia de Hawking, fue acogida y publicada en la revista de, Life Institute, una organización de voluntarios que tiene como objetivo mitigar las amenazas existenciales a la humanidad.

Sin embargo, para un sector de la ciencia, está amenaza no es tan certera. “Estamos a décadas de distancia de cualquier tecnología que necesitamos para preocuparse”, dijo Demis Hassabis, un investigador de inteligencia artificial en Google DeepMind.

Vida extraterrestre:

“Si los aliens alguna vez nos visitan, creo que el resultado será como cuando Cristóbal Colón desembarcó por primera vez en América, que no resultó nada bien para los nativos”, esta frase resume a la perfección el pensamiento del físico británico en el caso de que llegaran los extraterrestres a La Tierra.

Según le dijo al diario Time de Londres, si alguna vez encontramos vida extraterrestre, ésta no será necesariamente amistosa con nosotros, y además afirmó que posiblemente estemos en desventaja porque se podría tratar de una civilización miles de años más avanzada que la nuestra que rápidamente podría dominarnos y luego acabarnos de forma definitiva.

“Si es así, tiene sentido para ellos para explotar cada nuevo planeta para el material para construir más naves espaciales para que pudieran seguir adelante. ¿Quién sabe cuáles serían los límites?”, preguntó.

Ver comentarios
KONTINÚA LEYENDO