第2章 天算论(1)
- 超级智能
- (英)尼克·波斯特洛姆
- 3657字
- 2016-07-25 16:57:23
常言说,人算不如天算。
如果将来计算机的计算能力超过人的计算能力,那么人算不如天算,人被计算机所算计,这会成为一个关系人类命运的头号问题。
尼克·波斯特洛姆的《超级智能》讨论的就是怎么解决“人算不如天算”的问题。所以我称之为天算论。
你为什么应该关注这本书呢?
如果说天演论告诉人们的是,物竞天择,适者生存,至少人还是赢家;那么天算论就没那么简单了,将来人与计算机竞争,人还会是赢家吗?
《超级智能》讨论的是我们这个时代的优先事项。
“智能爆发的威力会击落整个苍穹”,在计算机时代,悠悠万事,唯此为大。
这个时代的优先事项
为什么要设置“超级智能”这个议题?有什么理由,值得让你为了它而放下手边杂事,屏息凝神?
让我们先从本书的最后一句读起。作者谈到这本书的立意:“透过日常琐事的迷雾,我们能够(模糊地)看到这个时代的核心任务。在这本书中,我们尝试着在相对模糊不清的视野中辨别更多的特征。我们看到,降低存在性风险,并且实现导向合理使用人类宇宙资源的文明进步,是我们道德上的主要优先事项。”
让我解释一下“这个时代的核心任务”,“道德上的主要优先事项”。
人生最大的喜乐,无非“久旱逢甘露,他乡遇故知。洞房花烛夜,金榜题名时”。而人生最大的悲哀,恐怕不是被枪毙,而是于枪毙前被要求自己给自己挖坑。
但人类经常干这种事:
在农业社会,土地本来是人类发展的工具,但结果却演变成,人为了土地,而失去了自我。托尔斯泰的《战争与和平》,讲的就是人类为了土地而打杀,死了都不知道是为了什么。
在工业社会,资本本来是人类发展的工具,但最后演变成,人为了资本,而失去了自我。马克思的《1844年经济学哲学手稿》,讲的就是人类为了资本而争斗,为了手段而忘记目的。
在信息社会,智能本来是人类发展的工具,但最后演变成,人为了智能,而失去了自我。《超级智能》讲的是,人把计算机造成了超级自我,但自我该如何做,才能保证人本身才是目的,而不被自己发明的手段所打败呢?
这就是“这个时代的核心任务”,“道德上的主要优先事项”。
所以,农业社会的人,应该看看《战争与和平》中那些活得明白的人;工业社会的人,应该了解《1844年经济学哲学手稿》中那些克服异化的思想。中国的工业化到2020年将基本完成,那时中国人将进入信息社会,但如果不关注《超级智能》讲的“时代核心”与“道德优先”,活着也是浑浑噩噩,在火葬场里边和外边,虽说有一些区别,但区别也不像想象的那么大。
人类经历了土地的挑战、资本的挑战,今天来到了信息时代,智能的挑战是“我们将要面对的最后一个挑战”。
正如波斯特洛姆点明的:
如果有一天我们发明了超越人类大脑一般智能的机器大脑,那么这种超级智能将会非常强大。并且,正如现在大猩猩的命运更多地取决于人类而不是它们自身一样,人类的命运将取决于超级智能机器的行为。
在本书中,我将努力诠释可能出现的超级智能带来的挑战,以及我们如何最好地应对。这很可能是人类面对的最重要和最可怕的挑战。而且,不管我们成功还是失败,这大概都是我们将要面对的最后一个挑战。
与许多相信机器最后将战胜人类的业界专家相比,波斯特洛姆的心态总的来说是积极的,他的乐观来自一个判断:“我们拥有一项优势,即我们清楚地知道如何制造超级智能机器。”
波斯特洛姆认为,原则上,我们能够制造一种保护人类价值的超级智能,当然,我们也有足够的理由这么做。实际上,控制问题—也就是如何控制超级智能,似乎非常困难,而且我们似乎也只有一次机会。一旦不友好的超级智能出现,它就会阻止我们将其替换或者更改其偏好设置,那时我们的命运就被锁定了。
智能大爆发的动力学
一、什么是智能爆发?
简单地说,智能爆发就是电脑超过人脑。可以从技术和社会两个方面理解其含义:技术性的理解是超级智能,即电脑比人脑更聪明;社会性的理解是智能异化,即作为手段的智能不再顺从作为目的的人类。
1.超级智能
超级智能是指“在许多普遍的认知领域中,表现远远超越目前最聪明的人类头脑的智能”。
作者将超级智能分为三种形式:高速超级智能、集体超级智能和素质超级智能。
—高速超级智能是指和人脑相似,但速度快于人脑的智能。
—集体超级智能是指一种通过将总数庞大的小型智能集中起来,从而达到卓越性能的系统智能。
—素质超级智能是指一个至少和人类大脑一样快,并且从素质上来说更加聪明的智能。
作者说的这三种能力,令人想到大数据的“3V”(不算“数据大”的Volume)。高速超级智能对应Velocity,集体超级智能对应Variety,素质超级智能对应Value。一言以蔽之,“3V”讲的都是复杂性,分别是量的复杂性(Velocity是时间量,Variety是空间量)和质的复杂性(素质)。
作者的意思是,电脑超过人脑,一定是表现在处理复杂性的量的能力与质的能力上。换句话说,当复杂性达到一定量和质的程度时,人算算不清,而天算算得清,人算可能不如天算。
2.智能异化
人算一旦不如天算,会出现什么情况呢?
作者有一个形象生动的比喻:人好比孩子,超级智能好比孩子玩的炸弹。一旦人算不如天算,智能就会像炸弹那样爆炸。
让我们来看作者生动的描述:
在智能爆发的前景之下,我们人类就像拿着炸弹玩的孩子。玩具的威力和我们行为的成熟度是如此的不匹配。超级智能是一个我们现在还没有准备好应对的挑战,而且很长时间之内都不会准备好。尽管我们把炸弹放到耳边能够听到微弱的滴答声,但是我们也完全不知道爆炸会在何时发生。
对于一个手拿着尚未引爆的炸弹的孩子来说,明智的做法是轻轻地将炸弹放下,快速跑出屋子,并告诉距离最近的大人。然而,我们现在面对的不是一个孩子,而是很多孩子,而且每个人都带着独立的引爆装置。我们所有人都意识到放下这个危险玩意儿的可能性几乎为零。总会有某个蠢孩子因为想要知道会发生什么,而按下引爆按钮。
我们也不可能通过逃离的方法获得安全,因为智能爆发的威力会击落整个苍穹。而且,我们也看不到任何成年人。
在这种情况下,任何“哎呀,太棒了!”的高兴情绪都是不合适的。惊愕和恐惧会稍微合适一些,但是最适当的态度是:下定决心,发挥我们最好的实力,就像准备一场很难的考试一样,考试通过了梦想就会实现,考试失败了梦想就会破灭。
映射到社会,人类曾至少在两类情况下引爆过这种超级“炸弹”。一类是“土地炸弹”。据说成吉思汗把四川人从2000万杀到只剩下80万,主要是因为他们影响了马吃草。人类开发出土地,本来是为了满足衣食之需;而在成吉思汗看来,人(至少是四川人)不重要,重要的是马。所以用土地种农作物有“罪”,必须从生存角度加以彻底否定。另一类是“资本炸弹”。两次世界大战本质上都是因为资本而引发的杀人游戏,纳粹对犹太人的迫害是人类的一种道德破产。
人类玩过“土地炸弹”、“资本炸弹”,下一步必然会玩“智能炸弹”。“智能爆发的威力会击落整个苍穹”,那时人会怎么样呢?记得18年前“网络文化丛书”组织者在小汤山开过一个未来讨论会,一位今天已变得家喻户晓的专家当时曾说(大意):“如果不考虑道德因素,计算机一旦统治人,从机器角度讲,人体除了脑袋,别的器官都没什么用,还浪费资源(按:成吉思汗如果管理互联网,肯定也会这么想)。所以最好的办法是把人的脑袋拧下来,像电灯泡一样安在工作台上,接好营养液,然后工作到死。为了减少人的痛苦,可以利用虚拟现实技术(按:现在已经快实现了),按照大脑的偏好,分别配一辈子的三级片或战争片,让他以为是真的,从而快快乐乐地度过一生。”
这就是我们和作者都要面对的问题。
如果你觉得这些都无所谓—什么电脑超过人脑,什么电脑统治人脑,包括你或你的后代哪天下午被莫名其妙地捉去当成灯泡,那你不需要读这本书,你赶紧忙你那更重要的事情去吧。
二、天算的动力学公式
本书在前几章讨论超级智能出现的可能性以及之后会发生什么后,接下来开始讨论智能爆发的原理,即“智能大爆发的动力学”。
这里补充一下,人生最大的悲哀,除了自己挖坑埋了自己(比喻为了手段而忘记目的),还在于死了都不知为什么而死,就像托尔斯泰笔下那些搞不懂决定战争与和平的原因的人们。不管将来出现什么情况,至少我们应该搞清人算不如天算的原因。
作者构建了一个公式,将超级智能的发展作为最优化力和系统反抗度的函数,来分析天算超过人算这个过程的动力学。
先假设一个系统的智能增长率为两个变量—最优化力(主要用于提高系统智能水平)和系统智能对这种最优化力的反应度的单调递增函数。用反抗度表示反应度的倒数,公式如下:
智能变化率=最优化力/反抗度
作者在这里用了两个新造的概念—最优化力和反抗度。最优化力指提高系统智能水平的能力,可以理解为计算效率,相当于聪明程度。反抗度则相当于阻力,作者曾说“边际效益开始递减(即反抗度递增)”,由此可以推论出,反抗度相当于智能提高的边际成本。
作者指出,提高系统效率过程中的反抗度很高,需要人类花费大量精力来应对。不过,即便这样,人类的综合能力每年也仅能提高几个百分点。此外,由于内外部环境不断变化,即便系统某一刻实现了效率最优,它也将无法很快适应新的环境。