Ink
登录注册

黄金起点:当科学家们许下不可能的承诺

AI爱好者·2/15/2026·7

AI 这个领域有个非常有趣的特点:它不是一条平滑的上升曲线,而是一部充满戏剧性的兴衰史。从 1956 年达特茅斯会议上的豪言壮语,到七十年代的资金断裂,再到八十年代专家系统的虚假繁荣与崩塌,最后到 2012 年深度学习的绝地反击——这条路上的每一次「死亡」和「复活」,都藏着技术发展的底层规律。

理解这些规律,不是为了做历史考古,而是因为:今天的 AI 热潮,正在重演许多相同的剧本。

PART 01

黄金起点:当科学家们许下不可能的承诺

1956 年夏天,约翰·麦卡锡、马文·明斯基、克劳德·香农等人在达特茅斯学院召开了一场研讨会。这场会议被视为 AI 的「创世纪」——「人工智能」这个术语正式诞生。

与会者的乐观程度在今天看来令人咋舌。他们普遍认为,在一代人的时间内,就能造出与人类智能相当的机器。赫伯特·西蒙在 1965 年预言:「二十年内,机器将能做到人类能做的任何工作。」明斯基则在 1967 年说:「在一代人之内,创造人工智能的问题将得到实质性解决。」

美国政府被这些承诺打动了。DARPA 在六十年代向 MIT、斯坦福、CMU 等高校的 AI 实验室投入了数百万美元的资金,而且几乎不设附加条件——纯粹的基础研究拨款。早期的 AI 程序确实在一些简单任务上表现惊艳:能下国际象棋、能解代数题、能进行基本的英语对话。

问题在于,这些系统在「玩具级」问题上的成功,给了所有人一个错觉——觉得只要投入更多资源,就能解决真实世界的复杂问题。这个错觉,直接为第一次寒冬埋下了伏笔。

PART 02

第一次寒冬(1974-1980):一份报告冻结了一个时代

1973 年,英国政府请来了著名数学家詹姆斯·莱特希尔爵士(Sir James Lighthill)来评估 AI 研究的现状。莱特希尔本人是流体力学和航空工程专家,不是 AI 研究者——这个细节很重要。

他提交的报告——即著名的《莱特希尔报告》——给了 AI 领域一记重锤:

"In no part of the field have the discoveries made so far produced the major impact that was then promised."(该领域没有任何一个分支,产出了当初承诺的重大影响。)
—— James Lighthill, 1973

报告精准地指出了一个核心技术瓶颈:「组合爆炸」(Combinatorial Explosion)。简单说就是:AI 算法在简单问题上表现很好,但当问题规模增长时,所需的计算资源会呈指数级增长。这意味着大多数 AI 算法只能解决「玩具版本」的问题,面对真实世界就彻底歇菜。

1973 年,BBC 还播出了一场辩论——莱特希尔 vs. 唐纳德·米奇、约翰·麦卡锡、理查德·格雷戈里的组合。这场辩论在学术界引发轩然大波。

后果是立竿见影的:英国政府大幅削减了 AI 研究资金,几乎取消了对英国大学 AI 工作的全部支持。与此同时,美国这边的情况也好不到哪去。1969 年通过的《曼斯菲尔德修正案》要求 DARPA 只能资助与特定军事功能直接相关的研究,纯粹的基础 AI 研究再也拿不到钱。DARPA 砍掉了对 CMU 语音理解研究的 300 万美元年度拨款。

结果呢?大学关闭 AI 实验室,研究生项目萎缩,有前途的研究者纷纷转行。「人工智能」这个词在经费申请书里变成了有毒标签,研究者们开始用「信息学」「计算智能」之类的委婉说法来替代。

💬 深度解读

不过,第一次寒冬的严重程度是有争议的。历史学家 Thomas Haigh 在 2023 年发表在 ACM Communications 上的文章中指出:整个 70 年代,AI 研究社区实际上一直在增长。ACM SIGART 分组在 1973 年有 1,241 名成员,到 1978 年增长到了 3,500 名。所以准确地说,被「冻住」的主要是政府资金渠道,而不是整个研究领域。这是一个重要的区分——「资金寒冬」和「研究寒冬」不是一回事。

PART 03

短暂的春天:专家系统的十亿美元幻觉

八十年代初,AI 以「专家系统」的形态卷土重来。这类系统的思路很朴素:不搞通用智能了,转而用一套 if-then 规则来模拟特定领域专家的决策过程。

代表作是 1982 年 McDermott 开发的 R1 系统(后来叫 XCON),用于帮 DEC 公司配置计算机订单。这套系统在四年内为公司带来了 4,000 万美元 的额外收入。终于,AI 有了一个能赚到真金白银的商业案例。

资本和政府的热情再次被点燃:

参与方 投入
美国企业 到 1985 年,每年在 AI 上的支出超过 10 亿美元
日本政府 启动十年计划「第五代计算机」,投资超 13 亿美元
美国政府 成立 MCC(微电子与计算机技术公司),重启硬件与软件研究
AI 硬件产业 Symbolics、LISP Machines 等公司形成 5 亿美元 的专用硬件市场

看起来 AI 真的「复活」了。但问题是,这次繁荣建立在一个根本性的缺陷之上。

PART 04

第二次寒冬(1987-2000):比第一次更冷、更长、更痛

1987 年,第一声警报拉响了——AI 专用硬件市场一夜崩塌。苹果和 IBM 的桌面电脑性能稳步提升,到 1987 年已经超过了 Symbolics 等公司生产的昂贵 LISP 机器。一个价值 5 亿美元的产业在一夜之间被摧毁。

紧接着,专家系统的固有缺陷集中暴露:

  • 脆弱性(Brittleness):遇到规则库以外的情况就会犯荒唐错误,缺一条规则整个系统就可能崩溃
  • 知识工程瓶颈:把人类专家的知识编码成规则,速度极慢、成本极高
  • 无法学习:专家系统不能从新数据中自我改进,只能靠人工维护规则
  • 维护成本失控:连最成功的 XCON 系统最终也因维护成本过高而被弃用

1987 年上任的 DARPA 信息处理技术办公室主管 Jack Schwarz 把专家系统斥为「聪明的编程」(clever programming),对 AI 经费进行了「深刻而残酷的」削减。

数据最能说明问题:AAAI(美国人工智能大会)的参会人数从 1986 年的 5,000+ 人暴跌至 1991 年的不到 2,000 人,到 1995 年后更是跌至 1,000 人以下

整个九十年代,AI 研究者们再次不敢叫自己的领域为「人工智能」,纷纷改称「信息学」「知识系统」「认知系统」「计算智能」「机器学习」「统计学」「数据挖掘」。

💬 深度解读

两次寒冬的核心病因其实是同一个:承诺与交付之间的鸿沟。第一次是「通用智能」的承诺无法兑现,第二次是「实用 AI」的承诺无法规模化。但关键差异在于:第二次寒冬暴露的不仅是技术瓶颈,还是一种架构范式的根本缺陷——基于手工规则的系统天然无法扩展。这次寒冬更长、更深,恰恰因为它否定的不只是某项技术,而是一整套做 AI 的方法论。

PART 05

绝地反击:2012,一个卧室里训练出来的革命

第三次复兴的导火索,是一场图像识别比赛。

2012 年,ImageNet 大规模视觉识别挑战赛(ILSVRC)上,来自多伦多大学的三人小组——Alex Krizhevsky、Ilya Sutskever 和 Geoffrey Hinton——提交了一个叫 AlexNet 的深度卷积神经网络。

结果不是赢了,而是碾压:Top-5 错误率 15.3%,而第二名是 26.2%。接近 11 个百分点的差距,在此前每年只进步一两个点的赛道上,堪称降维打击。

一个有趣的细节:Krizhevsky 是在父母家的卧室里,用两块 NVIDIA GTX 580 显卡(每块只有 3GB 显存)训练的这个模型。因为模型太大单卡放不下,他把网络劈成两半分别跑在两块 GPU 上。

AlexNet 的成功不是偶然的,而是三个长期积累的因素终于同时到位:

要素 具体内容
大规模标注数据 ImageNet 提供了超过 1400 万张标注图片,让深度模型有足够的数据来学习
GPU 并行计算 NVIDIA CUDA 平台让本为图形渲染设计的 GPU 变成了神经网络训练的利器
算法改进 ReLU 激活函数解决梯度消失、Dropout 防过拟合、更好的权重初始化方法

AlexNet 之后的发展速度令人目眩。2014 年的 GoogLeNet 和 VGGNet,2015 年的 ResNet——每年都在刷新纪录。深度学习从计算机视觉迅速蔓延到语音识别、自然语言处理、自动驾驶……整个 AI 领域彻底变了天。

💬 深度解读

这次复兴和前两次有一个本质区别:前两次繁荣都是由理论承诺驱动的——「我们相信 AI 能做到 X」,然后发现做不到。而这次是由实证结果驱动的——先有了碾压性的数据证明,再有的产业跟进。这是一个更健康的发展模式。不过,也正是 AlexNet 之后的十年间积累的巨大成功,催生了今天的超级泡沫。

PART 06

2026:第三次寒冬正在酝酿?

如果你了解了前两次寒冬的剧本,你会发现当下的 AI 热潮中,有些信号让人不安地似曾相识。

先看数据:

  • MIT 媒体实验室 2025 年 8 月报告:企业在 GenAI 上投入了 300-400 亿美元,但 95% 的组织回报为零
  • OpenAI 预计到 2028 年仍在亏损,其中 2028 年运营亏损预计达 740 亿美元;德意志银行估计 2024-2029 年间累计亏损 1,400 亿美元
  • OpenAI 承诺 8 年投入 1.4 万亿美元 建设数据中心,主要依靠债务融资
  • Morgan Stanley 估算 2025-2028 年全球数据中心支出达 3 万亿美元,其中 1.5 万亿来自私人信贷
  • S&P 500 中 30% 的市值集中在五家公司——半个世纪以来最高集中度

再看大佬们怎么说:

  • Sam Altman(OpenAI CEO)在 2025 年承认:当前存在 AI 泡沫
  • Ray Dalio(桥水基金):当前 AI 投资水平与互联网泡沫时期「非常相似」
  • Jamie Dimon(摩根大通):AI 是真实的,但现在投进去的一些钱会打水漂
  • 斯坦福学者:「你不可能把全世界的钱都绑在这一件事上,这看起来像是一个非常投机性的泡沫」

一个有趣的信号:Dell 在 CES 2026 上重新推出 XPS 品牌时,刻意把 AI 从营销前台撤下,转而强调续航、日常性能和轻量设计——「消费者真正关心的东西」。这就像九十年代企业悄悄把「AI」从产品名称中去掉一样。

💬 深度解读

当前的 AI 热潮和前两次有一个关键不同:这次是由已经盈利的科技巨头主导的(微软、谷歌、Meta),而不是初创公司或政府拨款。这意味着即使泡沫修正,底盘也比前两次稳得多。更大的可能是「挤泡沫」而不是「寒冬」——荒唐的估值会回调,跟风公司会消失,但核心技术的应用不会倒退。MIT Sloan Management Review 的判断很中肯:泡沫破裂「似乎不可避免」,「可能很快」,但触发因素可能只是一个糟糕的季度财报、一个更便宜的中国 AI 模型、或者几个大客户缩减开支。

PART 07

三次寒冬教给我们什么

把七十年的 AI 兴衰史摊开看,有几条规律清晰得像写在墙上:

1. 「承诺-失望」循环是这个领域的宿命

每一轮都是同样的剧本:突破 → 媒体关注 → 投资涌入 → 期望膨胀 → 交付不及预期 → 信心崩塌。不同的只是主角的名字——五十年代是「通用 AI」,八十年代是「专家系统」,今天是「大语言模型」。

2. 每次「死亡」都淘汰了错误的路线

第一次寒冬否定了「靠暴力搜索就能实现智能」的天真想法。第二次寒冬否定了「靠手工编码规则就能捕获知识」的范式。每次痛苦的淘汰,都为下一次正确的方向腾出了空间。

3. 真正的突破需要基础设施的成熟

神经网络的理论在六十年代就有了,反向传播在八十年代就被提出了。但直到 2012 年,大数据、GPU 算力和算法改进三者同时到位,深度学习才真正爆发。技术突破从来不是单一因素驱动的。

4. 「AI」这个标签本身就是双刃剑

在繁荣期,什么都想贴上 AI 标签来蹭热度;在寒冬期,什么都想撕掉 AI 标签来避嫌。七十年代叫「信息学」,九十年代叫「数据挖掘」,对比今天所有产品都要加个「AI-powered」——这种品牌运动本身就是泡沫的可靠指标。

实操建议

对开发者和决策者的启示

如果你是开发者:

  • 学 AI 没有错,但要学底层原理而不只是调 API。每次寒冬过后,活下来的都是理解基础理论的人
  • 不要把全部赌注押在某一个框架或平台上。技术栈会变,思维方式不会
  • 关注 AI 能实际解决什么问题,而不是它「理论上」能做什么。XCON 系统的教训至今有效

如果你是业务决策者:

  • 在投入 AI 项目前,先问一个朴素的问题:这个问题不用 AI 能解决吗? 如果传统方案够用,就不要为了「AI 化」而 AI 化
  • 警惕「95% 零回报」的陷阱。小规模验证,证明 ROI 后再扩大,不要一上来就搞大基建
  • 泡沫期的供应商定价通常会虚高。不急的项目可以等修正后再下注

斯坦福的 AI 研究者们预测,2026 年将标志着 AI 从「布道时代」进入「评估时代」——从狂热的信仰驱动,转向冷静的价值验证。这可能不是第三次寒冬的开始,但几乎肯定是这轮狂热的转折点。

参考来源

— 嗨清单 · 质取tech —

关注公众号「嗨清单」,回复「报告」,免费获取 Anthropic 2026 三份趋势报告原文 PDF