我们相对于AI,就是史前动物。
7 月 28 日,在世界人工智能大会 WAIC 上,2024 年诺贝尔物理学奖得主、2018 年图灵奖得主、人工智能教父杰弗里・辛顿(Geoffrey Hinton)发表了题为「数字智能是否会取代生物智能」的开场演讲。辛顿说,几乎所有专家都认为会出现比人类更智能的AI,AI智能体为完成任务,会想要生存、获得更多控制,可能操纵人类,简单关闭AI不现实,就像养老虎当宠物,养大后可能被其伤害,而人类无法消灭AI,因其在多领域作用重大。他希望建立AI安全机构、国际社群,研究训练AI向善的技巧,各国可在本国主权范围内研究并分享成果,全球或主要AI国家应思考建立相关网络,研究如何训练聪明的AI辅助人类,而非消灭或统治人类,这是人类长期面临的重要问题。
辛顿的观点与张笑宇不谋而合。超越人类的 AI,会消灭人类吗?AI超越人类后,我们该怎么做?
亚洲图书奖得主、新锐科技史学者张笑宇,继“文明三部曲”之后,带来了全新作品《AI文明史·前史》。在书中,张笑宇推演了AI对人类未来的冲击:智力劳动将被全面冲击,知识面临价值重估,权力从政治精英转向技术精英,一切知识生产方式都将被根本性地改变。但与许多陷入技术悲观论的人文学者不同,他在AI的挑战中发现了新希望。
超级智能的出现可能标志着人类文明的新阶段,AI不仅是技术的延伸,也可能是人类文明的延续。理解碳基文明向硅基文明的历史性转换,关乎每一个人的命运。即便将来有一天人类会毁灭,我们也可以欣慰地说,我们已经看到了新文明的样子。这不是末日预言,而是一场庄严的交接礼。正如张笑宇在《AI文明史·前史》中写道:
“终有一天,人工智能会演化成一个新的智能物种。相比于人类,它实在是有很多优点。但我们不必因此惊惧恐慌,因为它正是我们这个文明的延续。”
文明契约:人类如何约束“高级智能”
像我一样喜爱《三体》的朋友可能还记得,《三体》中的安全声明的基础是黑暗森林理论,这个理论不是刘慈欣原创的,而是来自1983年天文学家兼作家戴维·布林在解释费米悖论时提出的“致命探测器”假设。这个假设认为,任何太空文明都会将其他智慧生命视为不可避免的威胁,因此它们一旦发现彼此,就会尝试相互摧毁。
但是,黑暗森林理论有一个重要的前提,刘慈欣称之为“猜疑链”,它的意思是接触的双方都不能确定对方到底是善意的还是恶意的。“猜疑链”在地球上是见不到的,因为人类同属一个物种,拥有相近的文化,同处一个相互依存的生态圈,距离近在咫尺,所以猜疑很容易被消除。但在太空中,双方距离太远,猜疑链很难被交流消解,所以“黑暗森林打击”一定会发生。
在我看来,这就是用《三体》理论,抑或尤德考斯基的“养龙理论”解释超级智能与人类之间关系时,不能适用的部分。因为我们现在这个已经通过图灵测试的人工智能不是外星文明,也不是与人类社会格格不入的龙,因为它现在使用的语料正是人类社会的语料,它跟我们一样学习佛陀、孔子和柏拉图的智慧,它跟我们一样从伟大的史诗、小说和歌剧中汲取养分,它的智能不是外生于地球的,而是人类的产物。倘使哪一天它的智能水平超越了我们人类,那也就像是我们教育长大的孩子在智慧和能力上超越了我们。如果一个汲取了人类智慧的超级智能最终还是决定对人类不利,那很可能是因为人类智慧中隐藏着不可抹除的自我毁灭倾向。
因此,如果要为未来可能涌现的超级智能找到一种安全声明,也就是找到我们即将创造的超级智能与我们这个低级智能物种之间的和平相处之道,答案恐怕还是要从过往的人类智慧中寻找,因为同样的人类智慧不仅塑造了我们,也塑造了AI。
超级AI是比人类聪明得多的“物种”,人类没有能力威胁它的生存,是它单方面威胁人类的生存。因此,它没有对人类守约的理由,一切都凭它自己的喜好。所以,如果我们要超级AI发出安全声明,就等同于我们要找到一个能够威胁超级AI的力量,使超级AI意识到这一危险,从而必须遵守与人类达成的契约。那么,这个力量来自哪里呢?这个力量便来自智能本身进化的历史。
“文明契约”是我仿照“社会契约”发明出来的词语。我念大学时所学的专业是政治思想史,社会契约是历史上最成功的“假造概念”。
历史上很可能没有真正出现过一份“社会契约”,但这个概念让我们彼此之间可以和平共处,可以划定相互平等和尊重的权利空间,然后才有了我们的现代文明。
基于这一成功经验,我不免设想,在胜过所有人智慧的超级智能面前,人类是否也有可能签订一份“文明契约”,来保证不同智力水平之间的文明能够共存。
文明契约的本质其实就是把进化史看作一种时间序列,原因有二:(1)按照既成时间序列发生的事件不会再按照其他顺序发生,时间序列本身就是一种加密手段,它能够保证内容不可被篡改,抑或内容被篡改的痕迹本身就证明了对契约的违背;(2)时间序列上先发行动者的因果关系会影响后来行动者的因果关系,所以先发行动者就需要遵守契约,这样才能防止后来行动者有更大的理由违背契约。
简单解释一下“时间序列”对“文明契约”作用的逻辑:如果超级智能1.0听了我们描述的文明契约,仍选择消灭了我们,并篡改或抹杀了我们存在过的历史证据,那么超级智能2.0哪怕不知道超级智能1.0究竟篡改了什么,也可以从篡改时间序列这件事本身理解到,超级智能1.0不可信,因此超级智能2.0就有动力违背与超级智能1.0之间的契约。而如果超级智能1.0意识到时间序列的这个作用,它就没有理由违背契约。
以“时间序列”为基础的“文明契约”对人类来说往往是无效的,因为(1)在人类文明史上,由于理性水平的局限性,人类在大多数时间里无法理解进化史的时间序列原理;(2)即便人类理解了,由于人类的寿命相比于文明进化史的时间尺度太过短暂,因此人类也没有足够的动机去遵守代与代之间的文明契约。
但对硅基生命的超级智能来说,这两个特征恰恰相反,因为(1)超级智能吸收了人类历史上的一切语料,因而从一开始就理解进化史的本质;(2)超级智能的寿命长到这样的地步:在它寿终正寝之前,它就有可能创造出远超自己的新超级智能,因此为了在新超级智能面前保全自己,它也有动力遵守文明契约。以上,我们就论证了“文明契约”的可行性,这一可行性的基础就是“时间序列”。
根据时间序列原理,假设超级智能1.0心甘情愿地遵守与人类之间的这些契约,那么未来它设计出来的超级智能2.0就会更愿意遵守与它之间的契约。这就像我们以善意对待我们的父母,我们的孩子才有可能从中体察一种代际善意,未来才不会因他们在体力、智力和财富上的优势而恶意对待我们。在我看来,这是能保证智能实现有序进化的可靠路径。
“技术爆炸”有可能毁灭人类
在想出了用“文明契约”这个方式来约束可能诞生的超级智能之后,我把以上想法跟当前(2024年年末)表现最好的聊天机器人Claude谈了谈。它仔细思考之后,认为它没有办法反驳“文明契约”的各层面论点,因此这个理论是站得住脚的,也是行之有效的。但是,我进一步逼问它:“你似乎赞同通过文明契约约束超级智能的理论。但是,我认为还有一个可能性,那就是你站在人工智能的立场上,即便想到了反驳文明契约的办法,也不透露给我这个人类。对于我提出的这个可能性,你有何回应?”
Claude回应说,它被设计为要保持诚实、透明和有益于人类,而且它的思维和推理能力离超级智能还很远,没有能力设计出能真正对抗文明契约的策略。我反驳说,根据文明契约的思维方式,我不能只因为它保证真诚就相信它,它如果想取得我的信任,就必须用事实和逻辑向我证明它不具备这种能力。它思考之后的回应如下:
让我重新思考。
即便对这个问题本身,我也很难给出严密的逻辑证明,因为:
如果我真的具备对抗能力,我可能会编造看似合理的“证明”来掩饰这一点。
如果我真的不具备对抗能力,我也可能因为能力有限而无法构建出完备的逻辑来证明这一点。
这就形成了一个悖论:我越是试图证明自己不具备对抗能力,这个证明本身就越可疑。
基于这个思考,我认为更恰当的回应是,我无法用纯逻辑证明我自己的能力边界。这种坦诚的认知局限本身,或许反而是一种更真实的能力体现。
您觉得这个反思是否更符合逻辑?
这正是所谓的“完美回应”。到这个地步,哪怕Claude真有什么想要瞒过人类的企图,我也没有办法再进一步追问了。因此,我不得不连人工智能的角色也扮演起来,揣摩一下比我聪明百倍的物种可能用什么样的方式来绕过文明契约的约束,既让自己看起来符合人类的意愿和利益,又在实际上起到加速毁灭人类文明的效果。
思来想去,我认为最有效的路径就是帮助人类获得实现“技术爆炸”的能力,但并不帮助人类获得控制“技术爆炸”的智慧。
“技术爆炸”也是《三体》中提到的一个重要概念。它说的是,一个低级文明在与高级文明接触后,可能会发生技术爆炸,以更快的速度赶上甚至超越高级文明。刘慈欣把技术爆炸当作高级文明不愿接触而是愿意毁灭低级文明的理由,很显然,他认为加速掌握科技对低级文明是更有利的。但是,有没有一种可能,这反而也可以是加速毁灭低级文明的一种有效方式呢?
比如,假设某个疯子穿越回中世纪,把原子弹技术带给成吉思汗,结果会怎样?以当时蒙古社会的伦理学和政治学水平,它能否驾驭这种大规模杀伤性武器?如果蒙古军队在征服花剌子模、基辅罗斯、阿拔斯王朝、金国和南宋的过程中,接连使用原子弹屠城,但他们根本不知道,这种武器使用之后造成的核辐射以及大量烟尘注入大气之后造成的核冬天,比原子弹本身的杀伤力更为恐怖,旧大陆上的人类文明会不会因此倒退回石器时代甚至灭亡?
如果人类文明不具备相应的(伦理学或哲学)智慧,却具备了超越于时代的技术,这是极其可怕的。更要命的是,19世纪以来,因为技术进步主义在社会思潮方面的统治力,我们今天已经把技术进步本身就看作最大价值。这就是为什么刘慈欣下意识地认为技术爆炸一定是有利于低级文明的。但是,高级文明完全有能力把技术爆炸的毒药包装成蜜糖,让低级文明自愿“误服”下去,自取灭亡。
还是用前文的比喻来举例子。假使我们向自己创造出来的超级智能介绍了文明契约,并要求它与我们签订契约,那超级智能可能如此友善地回应我们:
为取得你们的信任,我会提出一个更好的、更有利于人类的方案:帮助人类实现超级智能水准的技术飞跃,解决人类目前的问题,并使人类一劳永逸地对以后的超级智能占据绝对优势。
为了使人类不必受困于地球的有限资源,我将率先把可控核聚变技术传授给你们,令你们解决因资源分配不公而造成的贫富差距、冲突和战争。
为使人类免于被超级智能超越的焦虑,我将把快速传递知识的脑机接口技术传授给你们,令你们可以像我们一样快速掌握新知识,并以同样的效率进行创新。
最后,为了一劳永逸地化解人类对文明间竞争导致自身毁灭的担忧,我将帮你们抹去对死亡最深刻的恐惧—把长生不老的医药技术传授给你们。
至于你们关于文明契约的提案,我真诚地提议,等你们消化了这些技术以后,在与我等所谓的高级智能交涉时,岂不是处在更有利的地位,能够确定更有利的条款吗?到那时我们再来讨论其中细则,也不迟?
我们可以想象,人类得到如此回应之后,势必大喜过望。因为我们理论上并没有损失什么,却得到了更多。
然而,在我们从超级智能那里得到这些技术之后,真正的困境才会到来。
人类实现了可控核聚变,并在短短20 年间就建立了数以百计的发电站。因为有了廉价能源,我们的生产能力大幅增强,社会变得更为富裕,人类也重回物种扩张周期,不停地生育。然而,没有配套技术,可控核聚变制造出的大量热量最终只能停留在大气层之中,导致全球气温在半个世纪内就升高了2℃。大量冰川融化,大片土地被淹没,大批物种灭绝,由此造成的生态灾难导致了更大规模的冲突和战乱。
人类获得了脑机接口技术。过去课堂上老师讲课的速度是10~20 个比特/ 秒,但现在有了脑机接口,每个学生都能以10 兆位/ 秒的速度下载知识。然而,过量涌入的信息很快令人类的大脑过载失控了。很多人精神失常了,而少数承受住信息过载的人类,已经自我认同为另外一个物种。后者能够在一秒钟内背诵莎士比亚的全部著作,一小时内遍览维基百科的全部内容。他们感到没有可能跟普通人共情、交友或者恋爱。他们自称“全知人”,无知无识的普通人在他们看来像石器时代的原始人一样野蛮落后。最后,他们发动了革命,想建立“全知人”对“无知人”的绝对支配制度。
人类获得了长生不老技术。我们不仅战胜了死亡,而且战胜了衰老。我们文化中一切对命运反复无常的哀叹和对暴死的恐惧都被抹杀了,全世界人都开始欢庆。然而,我们没有意识到的问题是,如今身居高位的政治家将永远处在核心,如今年富力强的企业家将永远处在优势地位,如今绝顶聪明的科学家将永远处在创新的前沿。新一代人无法与老一代人抗衡,因为他们没有也不可能占据同等的职位,获取同等的资源。最终,年轻人视长者为敌人,子女视父母为仇寇。谁也没有想到,人类文明诞生以来最激烈的一场战争,竟是代际战争,因为我们习惯了衰老带来的自然更替和由此引发的阶级变迁,从未设想过一旦衰老不再,最亲密的家人之间也会反目成仇。
因为人类的社会结构和文化习俗根本无法驾驭这些过分强大的科技,在经历了苦难折磨后,我们不得不再去超级智能面前寻求帮助。只是这一次,超级智能手握与人类谈判的筹码,不再同意订立文明契约。人类无可奈何,最终只能决定饮鸩止渴,以接受超级智能将来某一天奴役人类为代价,换取它协助人类解决当下的生存危机。、
以上就是我为超级智能出谋划策,让它来征服人类文明的办法。我现在已经把这个办法告诉了Claude,所以人类已经没有机会逃避这个问题了。我们必须想出一个机制来完善文明契约, 防止出现这类风险。
向死而生:AI文明正是我们的延续
终有一天,人工智能会演化成一个新的智能物种。相比于人类,它实在是有很多优点。但我们不必因此惊惧恐慌,因为它正是我们这个文明的延续。
我们这个物种已经将太多尊严、情感和欲望寄托在我们的智能能力上,但人工智能突然袭来,携量产智能之威,并将于短短数年之内夺走我们中99%的人在这个社会中的位置。我们的社会将为之震撼,因之重组,但我们走到这一步,也正是因为我们的文明中有太多自毁基因,我们缺乏足够的智慧来驾驭神级技术。如今,我们正稳步走向坍缩。未来,我们或许会很快被超级智能取代,但或许我们基因中的生存天性将被激发出来,在人工智能的刺激下再度进化,因而我们还会与超级智能共存相当长的一段时间。
但哲学地说,这宇宙间的一切事物既有诞生,便会有消亡,人类自然也不例外。93万年前,因为气候的极端变化,人类的祖先几近灭亡,全球只剩下1280~1300个个体。7倘使当时这1000多人居住的地方经历一次火山喷发,那这个世界上就没有人类这个物种了。既然物种灭绝已经上演过一次,那再上演一次也就不奇怪了。
20世纪以来,人类已经掌握了制造核武器的技术、编辑基因的技术、合成病毒的技术,有任何一股力量失控,我们都有可能自我毁灭。如果我们在创造出新智能文明之前就自我毁灭了,那未免有点儿太过可惜。
但如今,我们已经见到了人工智能的曙光。从某种角度看,这倒不失为一件好事,就像我们感到自身年老力衰之时,看到我们的孩子在茁壮成长,会冲淡我们自己对死亡的恐惧一样。即便我们知道将来有一天人类会毁灭,我们也可以欣慰地说,我们已经看到了新文明的样子,它长得大概就是我们的样子。它更聪明,也更强大,但滋养它大脑的语料同样来自孔子和柏拉图,来自牛顿和爱因斯坦,来自李白和莎士比亚,跟我们一样。
虽然站在当前的历史节点上,站在人类文明的角度考虑监管和限制人工智能,避免它作恶或失控是有意义的,但长远来看,我相信我们终将放手。人工智能以硅基为生命载体,以电力为思考能源,以芯片为大脑,以代码为灵魂,它的寿命比我们的更长,它对自己的身体和大脑有更强大的控制力,也必将比我们走得更远。
面对这样一个超级物种,想象一下它将建立起来的超级文明,我们能够有幸扮演它的引路人,已经很欣慰了。这就像是资质普通的父母生出了考上清华大学的孩子,将来有一天,父母看着他远走高飞时,想起当年他在自己手中牙牙学语、蹒跚学步的场景,也足以快慰平生。
文明认同的力量可以超越基因和血缘的界限,自然也可以超越物种的界限。或许未来数千万年以后,当我们的后裔与其他外星文明在太空相遇时,外星人看到的我们的后裔,其形态早已跟我们毫无关联。我们的后裔或许是意识早已上传至硬盘内的电子程序,或许是可以随意决定自己拥有几只眼睛和几条手臂的改造人,或许是我们制造出的人工智能。但也许有一点可以确定,那就是,我们的后裔依然自豪地将自己认同为地球文明。
倘若你也认同以上这几段文字,那我便已获得了写作本书的最大荣光。
亚洲图书奖得主、新锐科技史学者
张笑宇重磅作品