万维百科

全球灾难危机

小行星撞击事件的艺术想象。有人猜测一颗小行星可能曾以十亿颗原子弹的强度袭击了地球并导致了白垩纪-第三纪灭绝事件[1]

全球灾难危机Global catastrophic risk)是一个假设人类于未来将遭逢全球灾难性的事件,导致现代文明毁灭、倒退或衰落的概念,又称为世界末日[2][3] 而任何能让人类灭绝或永久减损人类发展性的事件,都可称为人类的生存危机[4]

潜在的全球灾难危机包括各种天灾与人祸。其中,天灾包括小行星撞击、超级火山爆发、伽玛射线暴气候变迁磁暴瘟疫发生或是全球的电子设备被摧毁等;甚至是外星生命入侵地球,这些事件都可能导致人类灭绝。 另外,随着人类科技发展,例如:人工智能叛变生物技术危机英语Biotechnology risk纳米科技武器英语Molecular nanotechnology等诸多新科技也都可能引发技术危机。而无能的全球治理政策则可能导致人类社会、政治、经济等全球系统出现危机,例如:第三次世界大战爆发,带来核子大屠杀英语Nuclear holocaust生物恐怖主义网络恐怖主义英语Cyberterrorism,摧毁各种维生管线(如输电网络),同时毁坏人类文明。全球暖化环境退化英语Environmental degradation人口过剩等环境、气候危机,则因全球生态环境系统崩坏而出现,带来物种灭绝饥荒

可能性

一些风险是基于地球过去发生的现象并留下地质记录所致。结合当代观察,可以对此类事件将来发生的可能性进行估算。例如,据估计2100年之前发生一次灭绝级彗星或小行星撞击事件的几率为百万分之一。[5][6]超级火山是另一个例子。有几种已知的超级火山,包括多巴山。依据多峇巨灾理论,该火山在上一次喷发时几乎消灭了人类。地质记录表明,这种特殊的超级火山大约每50,000年爆发一次。[7][8]

2008年,在牛津大学举行的全球巨灾风险会议上,针对不同全球巨灾风险的专家进行的非正式调查显示:到2100年,人类灭绝的可能性为19%。大会报告警告说,研究结果并不意味着要承担所有重大风险,也不包括气候变化之类的结果,并且该结果可能反映了会议参与者的许多认知偏见。[9]

风险类别 2100年之前 人类灭绝估计概率
总体几率
19%
分子纳米技术武器
5%
超级智能AI
5%
所有战争(包括内战)
4%
人造瘟疫
2%
核战争
1%
纳米技术事故
0.5%
自然瘟疫
0.05%
核恐怖主义
0.03%
表格来源:人类未来研究所英语Future of Humanity Institute,2008年。[10]

潜在的风险来源

人为因素

剑桥大学的“剑桥计划”指出:对人类的“最大威胁”是人为的;它们是人工智能全球暖化核子战争和有害生物技术。[11]牛津大学人类未来研究所英语Future of Humanity Institute还指出:人类灭绝更可能是由于人为原因而不是自然原因造成的。[12][13]

人工智能

在未来,学习迅速成为超级智能的计算机可能会采取无法预料的动作,或者机器人将在人类的竞争中胜出(一种技术奇点的情况)。[14]由于其卓越的调度能力和组织能力以及可开发的新技术范围,第一个出现的地球超级智能可能会迅速变得无与伦比:可以想像,它将能够带来几乎任何可能的结果,并且能够几乎可以阻止任何可能阻止其实现目标的尝试。[15]如果它选择,它可以消除任何其他具有挑战性的竞争对手的智慧;或者,它可能操纵或说服人们改变自己的行为以符合它自己的利益,或者可能只是阻碍他们进行干预的尝试。[15]在Bostrom的书《超级智能:路径、危险、策略》中,他将其定义为控制问题。物理学家斯蒂芬·霍金微软创始人比尔·盖茨和SpaceX创始人埃隆·马斯克都回应了这些担忧,霍金将这种人工智能理论推向了现实。可能“预示着人类的灭亡”。[16]

生物技术

生物技术可能以生物工程生物(病毒细菌真菌植物动物)的形式构成全球性的灾难性风险。在许多情况下,该生物体将是人类、牲畜、农作物或我们依赖的其他生物体(例如传粉媒介或肠道菌群)的病原体。

网络攻击

网络攻击有可能破坏从个人数据到电网的所有事物。前瞻性研究所英语Foresight Institute的联合创始人兼前任总裁克里斯蒂娜·彼得森认为,对电网的网络攻击可能会带来灾难性的风险。[17]

环境灾难

当前人口过剩,经济发展和不可持续农业的趋势可能引发环境或生态灾难,例如世界作物歉收和生态系统服务崩溃。

实验技术事故

尼克·博斯特伦(Nick Bostrom)认为,在追求知识时,人类可能会无意中创造出一种可以摧毁地球太阳系的装置。[18]核物理和高能物理的研究可能会导致异常情况,并带来灾难性后果。例如,科学家曾经担心第一次核试验会点燃大气。[19][20]其他人担心,RHIC 或大型强子对撞机可能引发包括黑洞奇异夸克团或虚假真空状态的连锁反应全球灾难。这些特殊的关注已被驳回,[21][22][23][24]但总体关注仍然存在。

全球暖化

人为因素造成大气成分改变,造成的气候变化将不同于地球的自然的气候周期,有可能产生无法恢复的灾难。

矿产资源枯竭

由于目前正在开采和使用地球上有限的矿产资源;因此,整个世界经济正在走向不可避免的未来崩溃,导致人类文明本身的灭亡。[25] :303f生态经济学家和稳态理论家赫尔曼·戴利(Herman Daly)认为,世界经济整体将走向不可避免的未来崩溃,从而导致人类文明本身的消亡。通过主张“……我们所能做的就是避免浪费有限的创造能力来支持地球上现在和未来的生活”来提出同样的论点。[26]:370

战争与大规模破坏

人们最常探索的场景是核战争和终极武器。错误的警报导致发动核攻击是一种可能的情况。这几乎发生在1983年苏联核警报误报事件期间。尽管每年发生核战争的可能性很小,但从长远来看,马丁·赫尔曼教授却认为这是不可避免的。除非可能性接近零,否则不可避免地会有一天,文明的运气就会耗尽。[27]古巴导弹危机期间,美国总统约翰·甘乃迪估计,核战争的几率“在三分之二到二分之一之间”。[28]美国和俄罗斯总共拥有14,700枚核武器,[29]估计全世界共有15,700枚核武器。[29]除了核武器之外,对人类的其他军事威胁包括生物战(BW)。相比之下,化学战虽然能够造成多种局部灾难,却不太可能造成全球性灾难。

世界人口与农业危机

由于医学的发展和农业生产率的大幅度提高,20世纪人口迅速增加。在1950年至1984年之间,随着绿色革命改变了全球农业,世界谷物产量增长了250%。农业的绿色革命帮助粮食生产跟上了世界人口增长的步伐,或实际上促进了人口增长。绿色革命的能源是通过化石燃料以肥料(天然气)、农药(石油)和碳氢化合物灌溉的形式提供的。[30]康奈尔大学生态与农业教授David Pimentel和美国国家食品与营养研究院(INRAN)的高级研究员Mario Giampietro在1994年的《食物、土地、人口和美国经济》研究中,推算美国可持续经济的最大人口为2亿。该研究称,为了实现可持续经济并避免灾害,美国必须至少减少三分之一的人口,而世界人口将必须减少三分之二。[31]

非人为因素

小行星撞击

地球上曾经发生了多次重大的生物灭绝过程,特别是七千万年前的恐龙灭绝(第二大灭绝事件,终结了中生代),被认为起因于一次严重的小行星撞击;而现在占主导的地-月系起源学说也认为月球是来源于一次巨大的星体撞出的地幔碎片重新凝聚而成。因此如果地球遭受类似的撞击,轻者地球表面严重损毁,重者整个地球结构将重组甚至解体。

宇宙威胁

近距离的超新星爆发会产生强大的光辐射和粒子流,因而影响到地球的安全。银河系的超新星爆发并不多,而近距离发生的概率更小。但是,据认为一颗近接地球的超新星引起的伽玛射线暴有可能是造成奥陶纪-志留纪灭绝事件的原因。此外,超新星爆发的位置也与其毁灭范围密切相关,只有发生在天球赤道面附近的超新星才会产生全球性照射,否则会在南极或北极附近出现一个射线轰击的盲区(在天极附近的超新星的盲区可达半个地球)。

外太空除了明亮的恒星,还有大量看不见的游移的褐矮星木星级别的天体,如果其中一个穿过太阳系会造成巨大的引力扰动,如果它幸运地没引起星球撞击,也有可能造成地球轨道的变更,无论是更接近太阳还是更远离太阳都会引起可怕的气候灾难。由于目前对这种不发光的游星发现困难,因此对其真实数目了解有限。按目前的知识估算,其发生概率微乎其微。[来源请求]

虽然太阳违背数十亿年的规律发生异常喷发或爆炸等情况出现的几率几乎为零(地球历史上未曾发生),但是随着太阳走向衰老,会逐渐变热变大,最终吞噬内轨行星,而在这一过程中,地球将变得酷热难当而不适宜生物生存。十多亿年后就会达到毁灭性的酷热,而吞噬行星将发生于几十亿年后。

当地球自转的切线速率接近光速时,地球自然被转开来。然而,地球的自转呈现减速趋势[32],这个灾难不太可能发生。

地磁消失或翻转将使地球表面失去磁保护层,直接暴露在太阳粒子辐射的轰击之下。不过这是否会造成如同某些影视作品描述的世界末日仍值得怀疑,因为地球历史上曾经发生过多次地磁翻转,但历史上曾出现的大小灭绝事件的时间与之并不重合。地磁骤变如果要造成毁灭性的破坏还需要与太阳爆发超级耀斑相配合,因此发生的概率极低。[来源请求]

外星人入侵

聪明的外星生命(如果存在的话)可能会入侵地球,[33]以灭绝和取代人类的生命,在殖民体系下奴役人类,窃取地球的资源,或彻底摧毁地球。

尽管从未获得过外星生命的证据,但卡尔·萨根等科学家推测,存在外星生命的可能性很高。1969年,针对阿波罗计划造成的生物污染可能性,将《地球外照射法》添加到了美国联邦法规中。1991年将其删除。[34]科学家认为这种情况在技术上是可行的,但可能性不大。[35]

全球性瘟疫

在2014年,联合国暂缓了对于甲型流感MERS,和SARS的研究。[36]有科学家对这种暂缓提出质疑,认为这种暂缓政策会导致人类在抗病毒研究上的延误并造成严重后果。(例如:2019-2020严重特殊传染性肺炎疫情。)[37]

自然气候变化

地质历史上的气候变化,曾多次导致寒冷的冰期全球暖化,有时候还导致海水缺氧或全球干旱,这些气候灾难被认为曾引起五大生物灭绝事件中相对较弱的三次,但比起完全改变地球生物圈的另两次(从古生代到中生代的转折和中生代向新生代的转折),没有造成全球性的毁灭,因此并不一定会造成完全意义上的世界末日。[来源请求]

超级火山爆发

超级火山爆发有可能产生遮蔽全球阳光的效果,造成连续数十年的全球寒冬,全球性粮食绝收。形成西伯利亚暗色岩的火山爆发,是过去5亿年来,已知最大型的火山爆发之一,与二叠纪-三叠纪灭绝事件的时期相符合。该次灭绝事件造成90%的物种消失,是生物史上最严重的灭绝事件,终结了古生代

参见

参考文献

  1. ^ Schulte, P.; 等. The Chicxulub Asteroid Impact and Mass Extinction at the Cretaceous-Paleogene Boundary. 科学 (期刊). 5 March 2010, 327 (5970): 1214–1218. Bibcode:2010Sci...327.1214S. PMID 20203042. doi:10.1126/science.1177265 (美国英语).
  2. ^ Nick Bostrom英语Nick Bostrom. Global Catastrophic Risks (PDF). Oxford University Press. 2008: 1 (英语).
  3. ^ World Scientists’ Warning to Humanity: A Second Notice. BioScience. 13 November 2017. doi:10.1093/biosci/bix125 (英语).
  4. ^ Bostrom, Nick. Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards. Journal of Evolution and Technology. March 2002, 9 (美国英语).
  5. ^ Matheny, Jason Gaverick. Reducing the Risk of Human Extinction (PDF). Risk Analysis. 2007, 27 (5): 1335–1344. PMID 18076500. doi:10.1111/j.1539-6924.2007.00960.x.
  6. ^ Asher, D.J.; Bailey, M.E.; Emel'yanenko, V.; Napier, W.M. Earth in the cosmic shooting gallery (PDF). The Observatory. 2005, 125: 319–322. Bibcode:2005Obs...125..319A.
  7. ^ Ambrose 1998; Rampino & Ambrose 2000, pp. 71, 80.
  8. ^ Rampino, M.R.; Ambrose, S.H. Super eruptions as a threat to civilizations on Earth-like planets (PDF). Icarus. 2002, 156 (2): 562–569. Bibcode:2002Icar..156..562R. doi:10.1006/icar.2001.6808.
  9. ^ Global Catastrophic Risks Survey, Technical Report, 2008, Future of Humanity Institute
  10. ^ Global Catastrophic Risks Survey, Technical Report, 2008, Future of Humanity Institute
  11. ^ 'Terminator center' to open at Cambridge University. Fox News. 2012-11-26.
  12. ^ Bostrom, Nick. Existential Risk Prevention as Global Priority (PDF). Global Policy. 2013, 4 (1): 15–3. doi:10.1111/1758-5899.12002 –通过Existential Risk.
  13. ^ Frequently Asked Questions. Existential Risk. Future of Humanity Institute. [26 July 2013].
  14. ^ Bill Joy, Why the future doesn't need us. Wired magazine.
  15. ^ 15.0 15.1 Nick Bostrom 2002 "Ethical Issues in Advanced Artificial Intelligence"
  16. ^ Rawlinson, Kevin. Microsoft's Bill Gates insists AI is a threat. BBC News. 2015-01-29 [30 January 2015].
  17. ^ UCLA Engineering. Scholars assess threats to civilization, life on Earth. UCLA. June 28, 2017 [June 30, 2017].
  18. ^ Bostrom 2002, section 4.8
  19. ^ Richard Hamming. Mathematics on a Distant Planet. The American Mathematical Monthly. 1998, 105 (7): 640–650. JSTOR 2589247. doi:10.1080/00029890.1998.12004938.
  20. ^ Report LA-602, Ignition of the Atmosphere With Nuclear Bombs (PDF). [2011-10-19].
  21. ^ Konopinski, E. J; Marvin, C.; Teller, Edward. Ignition of the Atmosphere with Nuclear Bombs (PDF) (Declassified February 1973) (LA–602). Los Alamos National Laboratory. 1946 [23 November 2008].
  22. ^ "Statement by the Executive Committee of the DPF on the Safety of Collisions at the Large Hadron Collider." 互联网档案馆存档,存档日期2009-10-24.
  23. ^ Safety at the LHC. [2008-06-18]. (原始内容存档于2008-05-13).
  24. ^ J. Blaizot et al., "Study of Potentially Dangerous Events During Heavy-Ion Collisions at the LHC", CERN library record CERN Yellow Reports Server (PDF)
  25. ^ Georgescu-Roegen, Nicholas. The Entropy Law and the Economic Process. (Full book accessible in three parts at Scribd). Cambridge, Massachusetts: Harvard University Press. 1971. ISBN 978-0674257801.
  26. ^ Daly, Herman E. (编). Economics, Ecology, Ethics. Essays Towards a Steady-State Economy. (PDF contains only the introductory chapter of the book) 2nd. San Francisco: W.H. Freeman and Company. 1980. ISBN 978-0716711780.
  27. ^ Hellman, Martin. On the Probability of Nuclear War. Houston Post (Houston, Texas: MediaNews Group). April 29, 1985.
  28. ^ Cohen, Avner; Lee, Steven. Nuclear Weapons and the Future of Humanity: The Fundamental Questions. Lanham, Maryland: Rowman & Littlefield. 1986: 237. ISBN 978-0847672585. gYmPp6lZqtMC.
  29. ^ 29.0 29.1 Federation of American Scientists. Status of World Nuclear Forces. Federation of American Scientists. 28 April 2015 [4 June 2015]. (原始内容存档于18 June 2015).
  30. ^ How peak oil could lead to starvation. 2009-05-27 [2012-01-31]. (原始内容存档于May 27, 2009).
  31. ^ Eating Fossil Fuels. EnergyBulletin.net. 2003-10-02 [2012-01-31]. (原始内容存档于2012-02-12).
  32. ^ Williams, George E. Geological constraints on the Precambrian history of Earth's rotation and the Moon's orbit. Reviews of Geophysics. 1 February 2000, 38 (1): 37–59. Bibcode:2000RvGeo..38...37W. ISSN 1944-9208. doi:10.1029/1999RG900016 (英语).
  33. ^ Twenty ways the world could end suddenly 互联网档案馆存档,存档日期2004-09-24., Discover Magazine
  34. ^ Urban Legends Reference Pages: Legal Affairs (E.T. Make Bail)
  35. ^ Bostrom 2002, section 7.2
  36. ^ Kaiser, Jocelyn; Malakoff, David. U.S. halts funding for new risky virus studies, calls for voluntary moratorium. Science. 17 October 2014 [28 July 2016].
  37. ^ Kaiser, Jocelyn. Researchers rail against moratorium on risky virus experiments. Science. 22 October 2014 [28 July 2016].

本页面最后更新于2020-09-08 17:17,点击更新本页查看原网页

本站的所有资料包括但不限于文字、图片等全部转载于维基百科(wikipedia.org),遵循 维基百科:CC BY-SA 3.0协议

万维百科为维基百科爱好者建立的公益网站,旨在为中国大陆网民提供优质内容,因此对部分内容进行改编以符合中国大陆政策,如果您不接受,可以直接访问维基百科官方网站


顶部

如果本页面有数学、化学、物理等公式未正确显示,请使用火狐或者Safari浏览器