[核武器]核武器是人类捍卫领土的终极武器,但核武器顷刻间会令一切化为乌有,研究我们无法控制的武器,最终的结局就是人类自取灭亡。
[探索宇宙]人类应该迈出地球,去宇宙中寻找人类的第二家园,如果安于现状,就会遭遇6500万年前恐龙灭绝的情况,人类文明顷刻间倒塌。
[全球变暖]全球变暖正在发生,人类开始改变环境但行动太慢,而且科技已经无法阻止环境变化。人类将在不到百年间被新文明取代。
(*当然,霍金的预言也招致了很多争论)
1962年,霍金的毕业照
2017年4月,霍金教授专门为GMIC北京2017大会做了主题为“让人工智能造福人类及其赖以生存的家园”的视频演讲。以下为当时的演讲全文:
在我的一生中,我见证了社会深刻的变化。其中最深刻的,同时也是对人类影响与日俱增的变化,是人工智能的崛起。简单来说,我认为强大的人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。是好是坏,我不得不说,我们依然不能确定。但我们应该竭尽所能,确保其未来发展对我们和我们的环境有利。我们别无选择。我认为人工智能的发展,本身是一种存在着问题的趋势,而这些问题必须在现在和将来得到解决。
人工智能的研究与开发正在迅速推进。也许科学研究应该暂停片刻,从而使研究重点从提升人工智能能力转移到最大化人工智能的社会效益上面。基于这样的考虑,美国人工智能协会(AAAI)于2008至2009年,成立了人工智能长期未来总筹论坛[原文:PresidentialPanel on Long-Term AI Futures],他们近期在目的导向的中性技术上投入了大量的关注。但我们的人工智能系统的原则依然须要按照我们的意志工作。跨学科研究可能是一条可能的前进道路:从经济、法律、哲学延伸至计算机安全、形式化方法,当然还有人工智能本身的各个分支。