它就是通用人工智能(artificial general intelligence ,简称AGI),它的重点落于‘通用’上。在Hassabis眼中,未来超级智能机器将与人类专家合作解决一切问题。‘癌症、气候变迁、能源、基因组学、宏观经济学、金融系统、物理学等,太多我们想掌握的系统知识正变得极其复杂。’Hassabis指出:‘如此巨大的信息量让最聪明的人穷其一生也无法完全掌握。那么,我们如何才能从如此庞大的数据量中筛选出正确的见解呢?而一种通用人工智能思维的方式则是自动将非结构化信息转换为可使用知识的过程。我们所研究的东西可能是针对任何问题的元解决方法(meta-solution)。’
如果对人工智能的忧虑真的像史蒂夫·霍金、比尔·盖茨、埃隆·马斯克、Jaan Tallinn 和 Nick Bostrom 等伟大的科学人物所说的那样,那生命会变得更加短暂。从无节制的AGI武器到对技术奇点恐惧的担忧都会导致一场‘智能爆炸(intelligence explosion)’,即机器将有能力进行无限循环的自我进化,它们将能超过人类大脑的智力,也超出我们的控制力。当超级智能灾难开始显现,历史就不再是一个可靠指标,我们将无法预见到应该何时从人工智能军备竞赛中全身而退,直到这一切开始发生。罗伯特·奥本海默(原子弹之父)有句名言:‘当你在某项技术上尝到甜头时,你会继续前行,只有当你获得技术上的成功后才会去考虑应该如何对待它。’几十年之后,Bostrom也提到:‘如果有一种方法可以保证高级人工智能永远不会伤害人类,那这种智能就已经被创造出来了。如果没有任何办法去做出这种保证,那它们也有可能被创造出来。’霍金近期总结到:‘在创造人工智能方面取得的成功将会是人类历史上最重要的事情。不幸的是,这也可能是最后一件。’