欢迎访问中国历史网!

霍金有哪些预言?《重大问题简答》这本书讲了什么?

时间:2018-10-17编辑:浮泊凉

外媒称,已故物理学家斯蒂芬·霍金的最后著作预言:一种利用基因工程超越同伴的超人种群将占领主导地位。

据美国石英财经网站10月15日报道,在10月15日英国《星期日泰晤士报》上发表节选并即将于10月16日出版的《重大问题简答》一书中,霍金毫不留情地评论了诸如地球面临的最严重威胁、机器占领主导地位以及外太空可能存在智慧生命等问题。

人工智能

报道称,霍金对规范管理人工智能的重要性提出了严重警告,指出“未来人工智能可能形成自己的意志,与我们人类相冲突的意志”。他在书中写道,应当制止可能出现的自动武器军备竞赛,提出如果发生类似于2010年股市闪电崩盘那样的武器崩盘,其后果将会如何的疑问。

他接着写道:“总之,对人类来说,超级智慧的人工智能的出现不是福就是祸,二者必居其一。人工智能的真正危险并非在于恶意,而在于能力。超级智慧的人工智能将极其擅长实现目标。如果这些目标与我们不一致,那我们就麻烦了。你可能不是出于恶意而踩死蚂蚁的那种邪恶的仇恨蚂蚁的人,但是如果你负责一项水力环保能源项目,而洪水淹没地区有一个蚁丘,那么蚂蚁就惨了。我们别让人类陷入蚂蚁的境况。”

cde54db5ecca1c694ab8de5c0a4c98c2.jpg

基因编辑和超人

报道称,坏消息是:未来1000年的某个时刻,核战争或环境灾难将“严重破坏地球”。可是,到那时,“我们的天才种族将已经发现了摆脱地球粗暴束缚的办法,因此能够战胜灾难”。不过,地球上的其他物种可能做不到。

他说,成功逃离地球的人很可能是新的“超人”,他们利用诸如“规律成簇间隔短回文重复系统(CRISPR)”这样的基因编辑技术超过其他人。霍金说他们会不顾禁止基因工程的法律约束,提高自己的记忆力、疾病抵抗力和预期寿命。

霍金似乎对最后一点尤为感兴趣。他写道:“已经没有时间留给达尔文的进化论来提高我们的智力、改善我们的天性了。”

“一旦出现这种超人,未经基因改造而提高能力的人必将遇到重大政治问题,他们无力竞争。也许他们会绝种,或变得可有可无。不过,将出现一种不断加速改进的自我设计人类。如果这种人类种族设法重新设计自己,它很可能扩散开来,殖民其他行星和星球。”

ae66896e1bc3a7a214826255aeade888.jpg

太空智慧生命

有关为何尚未发现智慧生命或是智慧生命没有造访地球这类问题,霍金承认有各种各样的说法。对此,他的预言并不那么大胆,但他首选的解释是:人类“忽视了”外太空智慧生命的形式。

上帝存在吗?霍金说不存在

实际问题是:宇宙形成的方式究竟是上帝出于我们无法理解的原因选择的呢,还是由科学法决定的?报道称,如果你愿意,你可以称科学法为“上帝”,但不是那种你会遇到并提出问题的那种人格化凡身上帝。

地球面临的最大威胁

头号威胁就是小行星碰撞,类似那种导致恐龙灭绝的碰撞。可是,霍金写道:“我们(对此)无法防御。”更直接的威胁是气候变化。霍金写道:“海洋温度上升将融化掉冰冠,释放出大量二氧化碳。双重效应可能导致我们的气候类似于金星,气温达到250摄氏度。”

人类可实现的最佳建议

核聚变发电。这赋予我们清洁能源,不排放污染,不引起全球变暖。

35eee4412a2871d087502200092b8d4f.jpg

斯蒂芬·霍金

另据英国《每日镜报》网站10月14日报道,据披露,斯蒂芬·霍金的最后担忧是:操纵DNA将催生超人优等民族。这位已故物理学家认为这可能毁灭人类。

最近出版的霍金文集《重大问题简答》一书披露了他的最后预言。他担心富人不久将能够编辑子女的DNA,提高记忆和疾病免疫力。

报道称,霍金还说即使政治家设法用法律禁止这种做法,它仍将对世界其他人群构成危机。

在《星期日泰晤士报》发表的一篇文章节选中,霍金写道:“我敢肯定本世纪之内人们将找到修改智力和天资的办法,比如攻击性。”“可能会制定禁止人类基因工程的法律。但是,有人肯定抵制不了改进人类特征的诱惑,比如记忆力、疾病抵抗力和寿命。”

他还说这将对未修改基因的人造成严重后果,导致他们没有竞争力。这位教授甚至警告说这可能导致人类走向灭绝。

他还谈到了普通人:“他们可能会绝种,或沦为可有可无。”“相反,会出现一种不断加速改进的自我设计人类。”

这位《时间简史》作者还提到了相关基因编辑方法,比如“规律成簇间隔短回文重复系统(CRISPR)”,科学家可以借此修复有害基因并加入其他基因。

报道称,尽管这类方法可能促进医学发展,但是一些批评者担心它也可能导致优生学式的运动,弱势者将被社会淘汰。

报道表示,新书还收集了霍金的其他文章,涉及他对科学与广义社会所面临的重大问题的思考。他在书中探究了外星人是否存在,如何开拓太空殖民地以及人类最终是否能够走出太阳系。