AI Evolution

3.6 机器能否自动学习

尽管机器学习算法取得了巨大成功,但其发展在 2006 年左右遇到了一个致命瓶颈——特征工程。所有主流算法都严重依赖人类专家手工设计特征,这个过程耗时耗力、需要深厚的领域知识,且直接决定了模型性能的上限,成为机器学习的“阿喀琉斯之踵”。为了突破这一困境,研究者们从人脑分层处理信息的机制中获得启发,开始探索让机器自动学习特征的可能性,为深度学习的诞生埋下了伏笔。

到了 2006 年,机器学习迎来了前所未有的繁荣时期。

神经网络的复兴、强化学习的突破,以及统计学习方法论在各行各业的广泛应用,都标志着机器学习领域的蓬勃发展。特别是决策树、随机森林、推荐系统等算法都在商业领域取得了显著成功。

然而,在这片繁荣景象的背后,一个根本性的问题正在困扰着整个领域 —— 特征工程

3.6.1 机器学习的“阿喀琉斯之踵”

阿喀琉斯之踵(Achilles' Heel) 是源自希腊神话的典故,指代看似强大事物中唯一的致命弱点。

想象一下,你是一个翻译官,老板给了你一份外文文件让你翻译。但这份文件是用火星文写的,你完全看不懂。这时老板又给了你一本火星文词典,告诉你每个火星文字符对应的中文意思。有了这本词典,你就能翻译了。

机器学习算法面临的就是类似的困境。无论是神经网络、强化学习还是统计学习算法,它们都无法直接“理解”原始的数据,必须有人先把复杂的原始数据“翻译”成算法能懂的“特征”。

这个“翻译”过程,就叫做特征工程。

神经网络的“眼盲”

虽然反向传播算法让神经网络能够学习,但它们依然看不懂原始图片。

比如识别手写数字:

  • 给神经网络看一张数字 “8” 的图片
  • 网络看到的是 784 个像素点的灰度值:[0.2, 0.8, 0.1, 0.9...]
  • 它完全不知道这些数字代表什么

所以工程师必须先“告诉”神经网络什么是有用的特征:

  • “注意看笔画的密度”
  • “注意看有多少个圈”
  • “注意看线条的弯曲程度”

只有提取了这些人工设计的特征,神经网络才能开始学习。

强化学习的“迷糊”

Q-learning 强化学习算法虽然能通过试错学习,但它需要人类先定义“状态”是什么。

就像教小孩开车:

  • 原始信息:前方 100 米有个红绿灯,左边50米有辆车,右边 30 米有个行人...
  • 人工抽象:前方有障碍,左右安全,可以直行

如果没有这种人工抽象,算法根本不知道该关注什么。

统计算法的“依赖症”

基于统计的机器学习算法对数据有着近乎贪婪的需求,而且必须是有特征(标注)的高质量数据。 而统计学习的支持向量机、决策树、随机森林、聚类等算法更是完全依赖特征的质量。

前文介绍过的垃圾邮件检测就是典型例子:

  • 原始邮件:一堆文字、图片、链接
  • 人工提取特征:统计“中奖”出现几次,发件人是否可信,有多少个感叹号...

没有这些人工特征,再好的算法也无能为力。

困境

到了 2006 年,特征工程已经成为制约机器学习发展的最大瓶颈,再好的算法,如果特征设计不当,效果就会很差。就像给米其林厨师一堆腐烂的食材时,他们也做不出美味的菜肴。而且,人类专家的认知也有局限性,可能遗漏关键特征,或者包含无用噪声。

而不同领域特征的设计也有很高的门槛,每个应用领域都需要该领域的顶级专家来设计特征:

  • 金融风控需要资深的金融分析师
  • 语音识别需要语言学和声学专家
  • 推荐系统需要用户行为分析专家

但这样的专家世界能有多少个,他们又愿意花多长时间去做特征工程呢?

每个领域都有其独有的特征工程,跨领域特征复用是十分困难的,就比如为图像识别设计的特征(边缘、纹理、形状等),完全不能用于语音识别。每换一个应用场景,特征工程都要从零开始,这无疑大大增加了人工复杂度。

3.6.2 人类大脑的启发

就在研究者们为特征工程头疼时,神经科学家发现了一个有趣的现象。人类大脑的视觉系统是分层处理信息的:

  • 最底层:检测简单的边缘和线条
  • 第二层:把线条组合成简单形状
  • 第三层:把形状组合成复杂图案
  • 最顶层:识别出完整的物体

这就像搭积木一样,从最简单的零件开始,一层层组装成复杂的作品。

关键是大脑的每一层都是自动学习的,不需要外部“老师”教它什么是有用的特征。

这给了研究者一个大胆的想法:如果神经网络也能像大脑一样,自动学习一层层的特征,是不是就不需要人工设计特征了,当不需要人为设计特征,机器是不是就真正意义进入自动学习了?

Edit on GitHub

Last updated on