- 为机器立心(通用人工智能的中国蓝图系列)
- 朱松纯
- 1182字
- 2025-07-03 17:11:32
大模型与缸中之脑
基于语义学的分析,帕特南指出,当处于缸中大脑状态的人声称自己是“缸中之脑”时,“缸”和“脑”的所指已经发生了变化。如何理解这一观点呢?举个简单的例子:假设存在一个孪生地球,其居民的生活方式、语言均与人类相同,但他们的水分子构成为XYZ,而不是H2O。两种“水”在外观、用途和名称上并无差异,且两地居民对“水”的心理感知相同,但它们指向的实质却不同,因此其含义也应有所区别。这也启示研究者要从符号落地(symbol grounding)的视角看待大模型。
我们研究团队的成员前段时间发表了一篇论文:Brain in a Vat: On Missing Pieces Towards Artificial General Intelligence in Large Language Models(5)。该论文指出大模型无异于“缸中之脑”,因为大模型本身并不存在于真实世界中,无法像人一样实现从词语(word)到世界(world)的联结。这一点是由它的内在构造机制所决定的,即通过统计建模在大量文本上进行训练,学习文本之间的语言学相关关系,从而根据上一个词语预测下一个词语。
缺乏符号落地使得大模型很容易陷入无限循环。如果用户启动了一个话题,让两个GPT-4进行对话,它们在只进行一轮对话后,就开始对彼此表示感谢,并且无限重复“感谢”。这与符号落地理论相呼应,即当不能建立从词语到世界的联结时,对话将进入无限循环。
大模型的智能与其说是内在的,不如说是人类智能的投影。大模型生成的文本本身并不具有意义,其意义完全取决于人类用户对文本的阐释。例如,美国语言学家诺姆·乔姆斯基(Noam Chomsky)曾经尝试挑战语言学界,构造了一个符合语法规范但无意义的句子:无色的绿思狂暴地沉睡(Colorless green ideas sleep furiously),中国语言学之父赵元任在《从胡说中寻找意义》一文中,以一种充满哲思的方式阐释了这个句子:
我有一个朋友,总是充满各种想法,好的和坏的,精致的和粗糙的,陈旧的和新颖的。在付诸实践之前,他通常会把新的想法放在心里,让它们成熟和发酵。然而,当他匆忙时,有时会在想法完全成熟之前就付诸实践,换句话说,当它们还很“生”的时候。他的一些“生绿”想法非常生动且丰富多彩,但并非总是如此,有些则相当朴素和无色。当他想起一些无色的想法仍然太不成熟,以至于无法使用时,他会再次考虑,或者让它们“睡觉”,正如他所说的那样。但是,其中一些想法可能彼此冲突和矛盾,当它们在同一晚上一起“睡觉”时,它们会爆发激烈的争斗,将整个夜晚变成一场噩梦。因此,我的朋友经常抱怨说,他那些无色的“生绿”想法睡得很狂暴。(6)
这段充满哲思的阐释让我们深刻理解到,文字本身并不携带固有的意义,而是人类赋予了它们意义。这种意义既可以是字词本身的含义,也可以是结合了现实生活体验,从而超越单个字词而在语境中创造出来的新的含义。因此,意义的前提是符号落地。现在的大模型更多的是在纯符号空间中进行符号组合,即使它们生成了诸如“我爱你”这样的语句,也不过是另一种形式的“缸中之脑”。这种表达缺乏对人类真实生活体验的深刻理解,因此与我们所认同和期待的“我爱你”有着本质的不同。