AI Evolution

2.4 第一次人工智能寒冬

早期 AI 的宏大预言未能实现,机器翻译等项目因无法处理语言的复杂性和常识而失败。符号主义遭遇了计算复杂性、知识表示困难和常识无穷性等根本技术瓶颈。这些问题导致资金链断裂和人才流失,人工智能领域由此进入了第一次长达数年的寒冬期。

1973 年,英国数学家 詹姆斯·莱特希尔(James Lighthill) 发表了一份叫作 人工智能通用调查(Artificial Intelligence A General Survey) 的报告,给火热的 AI 研究泼了一盆冷水。这份后来被称为"莱特希尔报告"的文件毫不留情地指出:AI 研究承诺的突破一个都没有实现。从此人工智能的发展进入了第一次寒冬!

2.4.1 美好愿景破灭

还记得那些雄心勃勃的预言吗?现实给了它们一记响亮的耳光:

那些 AI 头部研究者在 10 年前的预言,一个都没有实现。

例如,美国政府资助开发的俄英机器翻译项目:把 The spirit is willing but the flesh is weak(心有余而力不足)翻译成了 The vodka is good but the meat is rotten(伏特加很好但肉坏了)。因为词汇有多义性,俄语 дух(spirit) 也有“酒精”含义,плоть(flesh) 也可以代指“肉类”。早期的系统无法理解文化隐喻,翻译时仅仅是把语句当作字面词汇进行替换,导致这样的笑话层出不穷,最终项目在 1966 年被迫叫停。

这种例子陆续出现了很多。当时的AI机器能证明复杂的数学定理,却回答不了“鸟会飞吗?”这样的简单问题。因为按照逻辑规则,企鹅也是鸟,但企鹅不会飞,答案应该是“不一定”。但其实人类这个问题可能真正想问的是“一般情况下鸟会飞吗?”这种常识性的推理十分困难。

2.4.2 根本性技术瓶颈

这一切的根源不在于技术不够成熟,而在于符号主义遇到了一些根本性的障碍,我们暂且把它分为以下 3 类。

1. 计算复杂性

符号主义假设智能可以通过逻辑推理实现,但现实中的推理过程远比想象的复杂。以一个简单的动物分类系统为例:

规则1:If 有羽毛 Then 是鸟类
规则2:If 是鸟类 AND 会游泳 Then 是水鸟
规则3:If 是水鸟 AND 脖子长 Then 可能是天鹅
规则4:If 有羽毛 AND 不会飞 Then 可能是企鹅
规则5:If 是鸟类 AND 是黑色 Then 可能是乌鸦

看起来只有5条规则,但当系统推理“这个动物是什么?”时,需要考虑所有可能的推理路径:

  • 路径1——有羽毛→是鸟类→会游泳→是水鸟→脖子长→可能是天鹅
  • 路径2——有羽毛→不会飞→可能是企鹅
  • 路径3——有羽毛→是鸟类→是黑色→可能是乌鸦
  • ......

随着规则数量的增加,可能的推理组合会呈指数级增长。如果有 n 条规则,最坏情况下需要考虑 2^n 种组合!当时的机器翻译项目就是这个问题的典型受害者,每个词汇的多种含义、每种语法结构的多种解释,组合起来让计算机根本无法在合理时间内找到答案。

此外,那个年代的计算机硬件远远无法支撑这种计算需求。当时计算机的 随机存储器(random access memory,RAM,可简单理解为内存) 的容量通常是以 KB 为单位的,一个中等规模的专家系统就需要数千条规则,占用大量 RAM 容量内存。复杂的逻辑推理需要大量计算资源,但当时计算机的 中央处理器(central processing unit,CPU) 的处理能力也严重不足。存储设备容量有限且访问缓慢,大规模知识库更难以实现。实时响应就更不可能了,用户往往需要等待很长时间才能得到结果,而这个等待时间也会随着计算复杂度增长而延长。

这种硬件限制让本就复杂的计算问题变得更加严重,在有限的计算能力下,实现通用智能几乎不可行。

2. 知识表示困难

符号主义假设现实世界可以用精确的符号表示,但现实知识往往是模糊、多义、依赖上下文的。

举一个简单例子:“天空是蓝色的”,要用符号精确表示,就会遇到以下问题:

  • 晴天、阴天、黄昏、夜晚的天空颜色都不同
  • 城市、乡村、沙漠、海边的天空颜色也不同
  • 不同的人、色盲患者对“蓝色”的理解不同
  • 天蓝、深蓝、灰蓝,哪个颜色才是“蓝色”?

更复杂的是抽象概念,比如“杯子”:

杯子 = 容器 + 有把手 + 用来喝水

而现实情况是:

  • 茶杯可能没有把手
  • 笔筒也是容器,但不是杯子
  • 破了的杯子还算杯子吗
  • 装饰用的杯子不用来喝水

人类能够轻松处理这些模糊性,但符号系统需要为每种可能性都编写明确规则。这就像试图用数学公式来精确定义“美”或“幽默”一样困难。

3. 常识的无穷性

符号主义假设可以通过编写足够多的规则来模拟智能,但人类的常识知识几乎是无穷的。

一个看似简单的常识“杯子用来喝水”,背后隐藏着无数条相关知识。

物理常识

  • 杯子是空心容器
  • 液体会受重力影响
  • 开口向上,便于倒入液体

材料常识

  • 杯子材质应该无毒
  • 不同材质有不同特性
  • 破损的杯子可能有危险

使用常识

  • 杯子大小适合手掌握持
  • 使用前应该清洗干净
  • 热饮需要隔热材质

社会常识

  • 不同场合用不同杯子
  • 某些杯子有纪念意义

研究者估算,一个成年人掌握着数百万条这样的常识。要把这些全部编码成 if-then 规则,需要几十年甚至上百年,更糟糕的是,不同文化背景的人还有不同的常识,规则库就会更庞大。

这个时代的AI系统即使花费数年时间,也只能编码出人类常识的冰山一角。面对如此庞大的知识需求,符号主义显得力不从心。

4. 三重困境的叠加效应

这三重困境不是独立存在的,而是相互叠加、相互放大的:

  • 知识越模糊,需要的规则越多
  • 规则越多,计算复杂度越高
  • 计算越复杂,对知识精确性要求越高

这形成了一个恶性循环,让符号主义陷入了无法解脱的困境,好像无论从现实技术还是理论角度来讲,通用智能都没有办法实现。

2.4.3 资金链断裂和人才流失

面对上述问题,投资者开始失去耐心。美国政府大幅削减 AI 研究资金,从每年数百万美元骤降到几十万,英国政府更是几乎完全停止了 AI 研究的资助。

没有资金,就留不住人才。很多 AI 研究者开始转向其他领域,有的去搞数据库,有的去做操作系统,那些坚持留下来的,也只能在极其有限的资源下苦苦支撑。

媒体的态度也发生了大转变。之前说 AI “即将改变世界”,现在说它是“被过度炒作的泡沫”。AI 研究从万众瞩目的明星,一下子沦为无人问津的边缘学科。

这就是 AI 历史上的第一次寒冬,从 1973 年一直持续到 1980 年。整个国际AI领域陷入了深深的反思:是符号主义的路走错了吗?

于是,面对AI领域的寒冬,一些人开始另辟蹊径...

Edit on GitHub

Last updated on