AI 技术祛魅:从“神迹”回归“矩阵”的三年
为什么深入研究 AI 三年后,我觉得它变“浅”了?
最近,在这个行业高强度摸爬滚打三年后 —— 每天大量学习、调优、应用 —— 我产生了一种奇怪的感觉。
那是对当下火热的 AI 技术的一种“轻视感”。有时候一刹那,我会觉得大家顶礼膜拜的 AI 并没有什么太深奥的内容。剥去那些华丽的术语外衣,Transformer 的根本似乎只是去判断“两个物体哪个更像”(置信度更高) 这么一回事。它并不理解它生成的文字,它只是在做概率预测。
这让我一度陷入自我怀疑:是因为我接触得太多产生了疲态?还是因为我理解得依然太浅,没看到真正的奥秘?
经过一番深度的梳理与复盘,我意识到,这既不是理解太浅,也不是单纯的疲劳,而是所有技术人员都会经历的 “技术祛魅”(Disenchantment)过程。
一、 看山不是山:还原论视角下的“简单”
当我们刚开始接触 AI 时,看到它能写诗、能画画,觉得这是“神迹”,是硅基生命的觉醒。
但作为一个写了近二十年代码的工程师,当我们每天在 Log 里看着 Query、Key、Value
矩阵变换,当我们明白所有的“智能”在微观层面都是高维空间里的向量运算时,神话就破灭了。
这就是还原论(Reductionism)的视角。
- 数学本质:它就是一堆矩阵乘法加上非线性激活函数。
- 预测本质:它不理解莎士比亚,它只是算出了“To be or not to”后面接“be”的概率最大。
这种视角的获得,说明我们已经跨过了“盲目崇拜”的门槛。就像神经外科医生看大脑,看到的是灰质、白质和电信号, 而不是“灵魂”。但这并不代表大脑不深奥,只是关注点从“涌现的结果”转移到了“机械的实现”。
二、 看山还是山:真正的深奥在于“不可控”
然而,如果认为“底层逻辑简单”就等同于“技术浅薄”,那就掉进了另一个陷阱。 Transformer 架构本身或许几年没变,但真正的深奥隐藏在工程与科学的边界上:
1. 涌现(Emergence):量变引起的诡异质变
我们只定义了一个简单的目标函数(预测下一个词),从未教过它逻辑或数学。 但当参数规模突破百亿、千亿时,推理能力突然“蹦”了出来。简单的规则造就了复杂的智能, 这就像我们知道水分子的结构很简单,但推导不出“海啸”这种宏观现象。 这种“More is Different”的不可预知性,是深渊。
2. 不可解释性(Interpretability):黑盒里的“外星代码”
我们拥有模型的源代码,拥有每一个权重参数的数值,但我们依然不知道它在想什么。 神经网络学会了“叠加态”,一个神经元可能同时编码了“诗句”和“汽车零件”。 我们创造了一种我们自己都无法 Debug 的“黑盒”。
三、 既然“浅”了,那就换种玩法
作为一名中小企业的技术管理者,这种“祛魅”其实是一件好事。
当我们不再把 AI 视为全知全能的神,而是看透了它“概率统计工具”的本质,我们在做技术选型和落地时, 心态会发生根本性的转变:从“崇拜技术”转向“驾驭技术”,从“追求先进”转向“防御性编程”。
既然知道了它的底色是“概率”和“黑盒”,那么在我的项目(无论是法律文档处理还是视觉识别)中, 我制定了更务实的策略:
- 把它当成“不可靠的实习生”:绝不让 AI 做最终的法律责任判定或金额计算。逻辑严密的部分,依然交给传统的代码或规则引擎。
- 对抗“幻觉”:建立“引用源”(Grounding)机制。既然我不信你的推理过程,那你输出结论时必须附带原文链接或截图,把信任链条锚定在原始证据上。
- 对抗“不可控”:建立黄金测试集(Evals)。不迷信模型的智商,只相信跑通那 500 个 Corner Case 的测试结果。
结语
我现在对 AI 的感觉,大概就是“看山还是山”。
山依然在那里,我知道它是由石头和土堆成的(矩阵与概率),没什么神秘的。 但正因为我知道了它的成分,我才更懂得如何在其间修路、架桥,以及规避那随时可能发生的塌方。
对于应用层的我们来说,祛魅,才是真正专业化的开始。