En la próxima hora … no, en serio, todo lo que se necesita es soltar un tornillo en la mente de un líder para desatar la guerra nuclear. Además de la destrucción inmediata y generalizada, a los humanos sobrevivientes les resultará difícil sobrevivir en un paisaje radiactivo donde los animales y las plantas están muertos. Las cenizas también borrarán el cielo y, sin la luz solar, se producirán efectos de dominó catastróficos al igual que la muerte de los dinosaurios.
De acuerdo con un escenario más probable de extinción.
¿Cuáles son las mayores amenazas globales para la humanidad? Somos nosotros mismos (No hay sorpresa allí)
Un equipo internacional de científicos, matemáticos y filósofos en el Future of Humanity Institute de la Universidad de Oxford está investigando los mayores peligros. Y argumentan en un documento de investigación, Riesgo existencial como prioridad global, que los responsables políticos internacionales deben prestar mucha atención a la realidad de los riesgos que destruyen especies.
- Cómo ganar $ 300 en un mes en Praga si tengo 5 horas a la semana y $ 100 para invertir
- ¿Qué pasa si el acoso sexual es legal?
- Si alguien está legalmente muerto, pero todavía está vivo, ¿qué pasaría con su deuda?
- ¿Cómo se vería afectada la economía mundial si el valor neto de las donaciones voluntarias mundiales aumentara repentinamente en un factor de 10?
- ¿Cuál es el período de tiempo más largo que la tierra podría dejar de girar para no matar a todos?
¿Cuáles son los mayores peligros?
Primero las buenas noticias. Las pandemias y los desastres naturales pueden causar una pérdida de vidas colosal y catastrófica, pero el Dr. Bostrom cree que es probable que la humanidad sobreviva.
El fémur de un dodo: se estima que el 99% de todas las especies que han existido se han extinguido
Esto se debe a que, como especie, ya hemos resistido miles de años de enfermedades, hambrunas, inundaciones, depredadores, persecución, terremotos y cambios ambientales. Entonces las probabilidades siguen a nuestro favor.
Y en el marco de un siglo, dice que el riesgo de extinción por los impactos de asteroides y las erupciones supervolcánicas sigue siendo “extremadamente pequeño”.
Incluso las pérdidas autoinfligidas sin precedentes en el siglo XX en dos guerras mundiales, y la epidemia de gripe española, no pudieron detener el aumento ascendente de la población humana mundial.
La guerra nuclear podría causar una terrible destrucción, pero suficientes individuos podrían sobrevivir para permitir que la especie continúe.
Los experimentos en áreas como la biología sintética, la nanotecnología y la inteligencia artificial avanzan hacia el territorio de lo imprevisto y lo imprevisto.
La biología sintética, donde la biología se une con la ingeniería, promete grandes beneficios médicos. Pero al Dr. Bostrom le preocupan las consecuencias imprevistas al manipular los límites de la biología humana.
La nanotecnología, que trabaja a nivel molecular o atómico, también podría volverse altamente destructiva si se usa para la guerra, argumenta. Ha escrito que los futuros gobiernos tendrán un gran desafío para controlar y restringir los usos indebidos.También hay temores acerca de cómo la inteligencia artificial o mecánica interactúa con el mundo externo.
Tal “inteligencia” impulsada por computadora podría ser una herramienta poderosa en la industria, la medicina, la agricultura o la gestión de la economía.No será que estas máquinas de repente desarrollen una línea de sarcasmo y mal comportamiento. Pero el investigador Daniel Dewey habla de una “explosión de inteligencia” en la que el poder acelerador de las computadoras se vuelve menos predecible y controlable.
Hay temores de consecuencias no deseadas de la ingeniería biológica.
“La inteligencia artificial es una de las tecnologías que pone cada vez más poder en paquetes cada vez más pequeños”, dice Dewey, un experto estadounidense en superinteligencia de máquinas que trabajó anteriormente en Google.
Junto con la biotecnología y la nanotecnología, dice: “Puedes hacer cosas con estas tecnologías, por lo general efectos de tipo reacción en cadena, de modo que, comenzando con muy pocos recursos, puedas emprender proyectos que puedan afectar a todos en el mundo”.
El proyecto El futuro de la humanidad en Oxford es parte de una tendencia a centrar la investigación en cuestiones tan importantes. El instituto fue creado por la Oxford Martin School, que reúne a académicos de diferentes campos con el objetivo de abordar los “desafíos globales más apremiantes”.
Lord Rees también destaca las preocupaciones sobre la biología sintética.
“Con cada nueva tecnología hay ventajas, pero también hay riesgos”, dice.Sugiere que la creación de nuevos organismos para la agricultura y la medicina podría tener efectos secundarios ecológicos imprevistos.
Entonces, ¿deberíamos estar preocupados por un inminente día del juicio final?
El Dr. Bostrom dice que existe una brecha real entre la velocidad del avance tecnológico y nuestra comprensión de sus implicaciones.
“Estamos al nivel de los infantes en responsabilidad moral, pero con la capacidad tecnológica de los adultos”, dice.
Como tal, la importancia del riesgo existencial “no está en los radares de las personas”.
Pero él argumenta que el cambio está llegando, ya sea que estemos preparados o no.
“Hay un cuello de botella en la historia humana. La condición humana va a cambiar. Podría ser que terminemos en una catástrofe o que seamos transformados al tomar un control mucho mayor sobre nuestra biología”.
“No es ciencia ficción, doctrina religiosa o una conversación nocturna en el pub.
“No hay un caso moral plausible para no tomarlo en serio”.
(Saqué algunas partes que eran un poco largas)
Fuente: ¿Cómo se extinguirán los humanos? – Noticias de la BBC
Como se ve en el artículo anterior, los humanos siempre pueden sobrevivir a lo que la Naturaleza nos arroja, utilizando tecnología y otras cosas. Sin embargo, no estamos preparados para lo que hemos hecho nosotros mismos. Para predecir cuándo se extinguirá la humanidad, debe esperar un poco más antes de crear cosas nuevas que no podamos controlar.