机器之心报道
️机器之心编辑部
今天,华人学者金驰(Chi Jin)宣布他在普林斯顿晋升为终身副教授。
金驰于 2019 年加入普林斯顿大学电气与计算机工程系,担任助理教授。在普林斯顿的 6 年任期内,他在 AI 领域的学术影响力迅速提升。
- 个人主页:https://sites.google.com/view/cjin/
他的副教授任命将于 2026 年 1 月 16 日正式生效。这一任命不仅是金驰个人学术生涯的重要里程碑,更是对他在机器学习理论领域所做出的基础性贡献的高度认可,这些贡献为当前 LLM 的崛起提供了关键的数学基石。
去年 2 月,金驰与杨笛一、杜少雷等华人学者一起获得了 2024 斯隆奖。
️主要贡献
金驰的职业生涯恰逢深度学习革命的爆发。自 2012 年 AlexNet 引领热潮以来,学界与业界在 2010 年代中期已能训练大规模非凸模型,但一个根本问题依然悬而未决:为何像随机梯度下降(SGD)这样简单的优化器能如此有效,尤其在鞍点问题上缺乏理论解释。
金驰与导师 Michael I. Jordan 等人的合作正面回应了这一挑战,为深度学习的实践成功提供了坚实的理论基础。
与此同时,随着强化学习因其在复杂控制和 AI 对齐中的潜力而受到关注,他的研究也为强化学习核心算法的样本效率建立了严谨证明。
总体而言,金驰的工作为两个核心问题奠定了理论保障:
- 如何高效训练庞大而复杂的模型?
- 如何确保这些模型在与人类交互时可靠且有益?
️非凸优化
深度学习训练的核心挑战之一是非凸优化。与只有唯一最优解的凸问题不同,神经网络的损失函数景观充满局部最小值与鞍点。鞍点尤其棘手:梯度为零却不是最优解,可能导致算法停滞。长期以来,人们担心优化器会在高维空间中被困住。
金驰通过多篇论文证明,即便是简单的梯度方法,只要存在少量噪声(无论来自 SGD 本身还是显式加入),就能有效「逃离」鞍点,并在多项式时间内继续向更优区域探索。
- ️论文标题: How to Escape Saddle Points Efficiently,ICML 2017
- ️论文地址:https://arxiv.org/abs/1703.00887
- ️论文标题: Accelerated Gradient Descent Escapes Saddle Points Faster than Gradient Descent,COLT 2018
- ️论文地址:https://arxiv.org/abs/1711.10456
这些成果证明,鞍点并非不可逾越的障碍,优化过程在计算上也相对「廉价」。
在金驰等人的工作之前,深度学习的实践成功已超前于理论,但始终存在疑问:我们是否只是「运气好」?会不会在某种规模下,简单方法彻底失效?
金驰与合作者给出了明确答案:对于一大类函数,鞍点不是根本性障碍。
这项工作成为大型模型训练的隐形基石。它解释了为何简单的算法在复杂问题上表现出「不合理的有效性」,也让公司和研究机构敢于投入数十亿美元进行模型训练,确信底层优化过程是稳健的。从理论优化角度看,金驰为深度学习的规模化扫清了一个重大风险。
️强化学习:可证明的高效性
强化学习(RL)的核心是智能体通过与环境交互学习决策,以最大化累积奖励。然而,在许多现实应用中,交互成本高昂或缓慢,因此样本效率成为关键指标。其常用的衡量方式是遗憾值(regret)——智能体表现与最优策略的差距。低遗憾值意味着算法能以更少样本学到有效策略。
金驰在多篇高被引论文中,为基础 RL 算法建立了严格的遗憾界限,推动了理论突破:
- ️论文标题: Is Q-learning Provably Efficient?,NIPS 2018
- ️论文地址:https://arxiv.org/abs/1807.03765
- ️论文标题: Provably Efficient Reinforcement Learning with Linear Function Approximation,COLT 2026
- ️论文地址:https://arxiv.org/abs/1907.05388
这些工作首次证明了无模型算法(如 Q-learning)在复杂设定下依然具备样本效率,达到了近乎最优的遗憾界限(T 为总步数)。这使 RL 理论达到了与多臂赌博机等经典问题相当的严谨性,为函数逼近与大状态空间下的学习奠定了数学基础。
金驰的研究承接了两端:一端是深度强化学习在 AlphaGo 等系统中的实践成功,另一端是抽象的序列决策数学理论。他的成果解释了为何「面对不确定性时的乐观主义」这一启发式策略有效,并为其提供了坚实的理论基础。例如,他证明了最小二乘价值迭代(LSVI)的乐观版本是可证明高效的。
这种理论保障不仅回应了学术上的疑问,也为开发更稳健、更可靠的 RL 算法提供了指导,确保其能在更高风险、更关键的应用中安全部署。
️学术背景
金驰的学术背景为其理论研究奠定了坚实基础。他于 2012 年在北京大学获得物理学理学学士学位,这一背景为其后续研究注入了严谨的数学与分析思维。
随后,他前往加州大学伯克利分校深造,并于 2019 年获得电气工程与计算机科学博士学位。在此期间,伯克利正值人工智能与机器学习研究的关键发展期,为金驰提供了世界顶级的学术环境。
其博士阶段导师为 Michael I. Jordan 教授。Jordan 教授是机器学习领域的泰斗级人物,以其在统计学与计算机科学之间的桥梁性工作而闻名。这段师承关系将金驰置于一个强调统计严谨性与理论保障的学术传统之中。他早期的多篇关键论文,均是与 Jordan 教授合作完成的。
在 Google Scholar 网站上,他的论文引用数量已经达到 13588 次。
以下是我们之前报道过的金驰团队的相关工作:
- 普林斯顿团队领衔发布最强开源数学定理证明模型:32B 性能大幅超越前代 SOTA DeepSeek 671B
- 哥德尔-Prover 超过 DeepSeek-Prover,金驰、陈丹琦团队造出当前最强形式化推理模型