仅凭一篇博客,他成功入职OpenAI! - 新闻详情

仅凭一篇博客,他成功入职OpenAI!

来源:新智元

分类: 其他

发布时间:2025-06-16 12:04:38

https://inews.gtimg.com/om_bt/OAdFPkKFfXXNcUp4bxJIvVrRPxHm5dUq_0xl3H5rG7NAoAA/641



  新智元报道  

编辑:定慧 桃子

【新智元导读】未中顶会,没有发表arXiv,一篇博客却成为OpenAI速通票。天才科学家KellerJordan仅凭Muon优化器博客加入OpenAI。甚至,它可能被用于训练下一代超级模型GPT-5。



如果想成功应聘加入OpenAI需要什么条件?

科班出身?顶会论文?师从像Hinton、LeCun这样的AI大师?还是社交媒体上的技术红人?

或者,

也许只需要

写一篇博客

就行。

KellerJordan是一名机器学习领域的研究学者,2024年底他设计了一种神经网络隐藏层的优化器Muon,并公开记录了自己的研究进展。

https://inews.gtimg.com/om_bt/Ou4P-OS8ujp0lMR_SmkAiCx6DIbicqrbJSocHpygPnVfQAA/641

很快,社区成员也开始并行实验,报告结果,事情变得越来越有趣——OpenAI和xAI同时注意到了他,最终他选择加入了OpenAI!

https://inews.gtimg.com/om_bt/O2ONVYsACZIsQAoJJiCmt6IpBuyKfy5R3N9-zyIwZ_XzAAA/641

Muon第二作者Yuchen Jin直言,发表论文≠影响力。或许Muon已经被用于GPT-5的训练中。

https://inews.gtimg.com/om_bt/OUn9aLKFvS3DBwOxmj6ni6t6ENfvxaAF3c2yGu9F0f4RYAA/641

https://inews.gtimg.com/om_bt/OFraKUfpfSuwUJmpAh2fJ2e6vslwrOx9b8wpZ1WfoiZRoAA/641

别再盲目追顶会

Keller Jordan的故事和DeepSeek

开源引发的轰动有些相似,虽然两者的影响力远不可比拟,但事情背后的底层逻辑似乎都指向同一个——

在快速迭代的AI世界里,传统的论文模式似乎已经落伍,

开放&社区共建&快速响应

也许才能让人类跟上AI进化的速度。

微软研究院的研究工程师Shital Shah在知晓Keller Jordan的经历后感到非常兴奋,因为他一直认为研究就该

「以这种方式进行」



即使在「开放」的研究实验室中,你也会看到太多研究人员对「早期想法」

敝帚自珍、

斤斤计较。

研究分享通常只在亲密的朋友之间进行,很长一段时间,人们对此过于执着……

任何一个想法都需要花费数月时间才能通过发表的论文面世。

而当它最终发表时,又常常淹没于大量其他论文之中。

如果有人确实注意到了它,对其做出改进又需要经历同样漫长而艰难的另一个周期。

Keller则采取了不同的方法。

https://inews.gtimg.com/om_bt/OVsUiq9ezW4WhSHN55aCFjfIOOa-5dBcEXoVgpTaXIeTMAA/1000

他将初步想法作为公开的GitHub仓库发布,而不是以论文形式发表。

人们可以立即尝试并改进这些内容。

所有人都可以在任何时间验证所有内容。由于一切都是开放的,因此不存在作弊或夸大主张的空间。

这确实可以称得上是

「分布式实时人工智能研究」

!短短几天内,Keller和其他人就改进了想法。看到潜力的人们纷纷加入并协助进行并行化。

在传统的人工智能研究领域,这个反馈周期本需要6个多月的时间,而不是仅仅6天。

关于在发论文和「速通技术」之间,KellerJordan的看法依然和半年前一样,今日他转发了一则2月份的自己的推文,表示虽然Muon火了,也帮他进入了OpenAI,

但是他不会给Muon写一篇论文。

https://inews.gtimg.com/om_bt/Ow8xgi6WGURuVTJmo6vgJMqt9bSG09gyr-PTXpyTBwumUAA/641

KellerJordan的意思很明显,相比于arXiv上的一篇大概率被「淹没」的论文,还不如老老实实的继续研究自己的「优化器」。

甚至在今天还「特地」表达了自己关于目前AI优化其论文的看法——

「都是虚假的,都是水文」



https://inews.gtimg.com/om_bt/Oi2_gtZ0xSJEFfckztLqoEYpknuHRPwNlxghphuH8TRSIAA/641

https://inews.gtimg.com/om_bt/OFraKUfpfSuwUJmpAh2fJ2e6vslwrOx9b8wpZ1WfoiZRoAA/641

影响力>声望

说来,仅凭一个博客被OpenAI招入麾下,Keller Jordan本人有着怎样的背景?

https://inews.gtimg.com/om_bt/OfJLPDgS25usgWFOf-SXYVpm-uW_QgGY4PLlcVXNP_8UwAA/641

他于2020年获得了加州大学圣地亚哥分校数学和计算机科学双学士学位,也曾就读于加州大学圣克鲁斯分校和UC伯克利。

https://inews.gtimg.com/om_bt/OjfbR2Vj3dzljdLAfn4pibLgXdxRnt2kEC53R5wCfNdKYAA/641

毕业后,他曾入职专注于生成式AI公司Hive任机器学习工程师。随后,又在维也纳复杂性科学中心担任访问研究员。

直到2024年12月,Keller正式加入OpenAI。

他所有GitHub项目中,最具影响力的便是——Modded-NanoGPT,星标超2.4k。

Keller和团队仅用8块H100在3分钟内复现GPT模型,仅需处理0.73B token。

https://inews.gtimg.com/om_bt/O-qBWmeCokY8ePDo3-di1DBq1M-LcFAAorX0pPV-nNLrYAA/641

他本人还有一个个人博客,自入职OpenAI以来,一直没有更新,

最后一篇文章正是Muon优化器。

https://inews.gtimg.com/om_bt/OvVi9w6ceV8uO-q7DtOO0umuIqssPIgba-SGR-3mJfcEIAA/641

Muon这篇文章究竟讲的是什么?

https://inews.gtimg.com/om_bt/OFraKUfpfSuwUJmpAh2fJ2e6vslwrOx9b8wpZ1WfoiZRoAA/641

一个优化器,破训练速度新纪录

在深度学习领域,优化器是推动模型训练效率和性能的核心工具。

直到2024年12月,一个名为Muon优化器横空出世,凭借卓越性能刷新NanoGPT和CIFAR-10训练速度世界纪录。

Muon,是一种为神经网络2D参数隐藏层设计的优化器。

其核心思想是,SGD-动量法(SGD-momentum)生成的更新矩阵,通过Newton-Schulz迭代进行正交化处理,生成接近于半正交矩阵的更新,从而提升训练效率。

它的实现简单高效,支持在bf16精度下稳定运行,显著降低了计算开销。

https://inews.gtimg.com/om_bt/OBNY1YI6QbVNg3mexDUBL051VczC_GTmWR2TJgrWffO0EAA/641

比起AdamW优化器,Muon在多个任务中,表现非常惊艳。

在CIFAR-10中,它将达到94%准确率的训练时间从3.3缩短至2.6 A100 秒,提升约21%。

针对NanoGPT训练,Muon在FineWeb数据集上,将验证损失达到3.28训练速度提升了1.35倍。

https://inews.gtimg.com/om_bt/Ozs3f17BEM8b_GaZlXue0P86mbwVQaO-0zaZtqcr3H3RgAA/641

此外,在774M和1.5B参数规模的模型上,Muon依旧保持训练速度优势。

训练一个1.5B参数的Transformer模型达到GPT-2XL水平,Muon仅需10个8xH100小时,而AdamW需要13.3小时,效率提升约25%。

那么,在AI圈,Muon的影响力有多大?

微软团队1月份论文中,便使用了Muon优化器。

https://inews.gtimg.com/om_bt/OeaW78xJrcYIz2ZyGtWDzFh8eAc7N42cb4OqLyawOQULAAA/641

一些机器学习大佬专为此著分析,还有更多研究中拥抱Muon优化器。

https://inews.gtimg.com/om_bt/OxH2GpmVc7oO9eIhmXO47K2YrmaBl_HZ8W6rtUkA7L8rAAA/1000https://inews.gtimg.com/om_bt/OTiwgMgUIRHdGT_qfUFdSsSdArBLrbrl1aSg6gH8r9XCMAA/641

https://inews.gtimg.com/om_bt/ORqmDUGme_4QKR_gUQVeFfcI3cuzkhbNiUnmOSrkTRcqsAA/641

Muon的潜力

人工智能发展速度飞快,模型训练始终是其核心环节,而优化器则扮演着至关重要的角色,它负责调整模型的参数,让模型在数据上表现得更好。

过去几年里,

AdamW一直

是训练大语言模型的主力。

AdamW能让GPT、LLaMA、Qwen这类庞然大物学得又稳又快。

然而,随着模型参数从几亿增加到几千亿,训练时间从几天变成几周甚至几个月,AdamW的局限性开始显现——它在超大规模场景下的效率开始受到挑战。

进一步提升AI能力,需要更大的模型和更多的训练资源。

但计算资源的成本高昂,训练时间过长也会拖慢研究和应用的进度。

因此,开发更高效的优化器,不仅是技术上的追求,更是经济和实践上的迫切需求。

然后Muon「悄然出现」,尽管它还未成为业界焦点,但其独特的设计和卓越的性能表明,它可能是AI模型训练领域的一次重大基础创新。

而这个事关重大的创新,并不是来自于著名论文或者知名团队,而仅仅是Keller Jordan的一次「练手」。

https://inews.gtimg.com/om_bt/OFraKUfpfSuwUJmpAh2fJ2e6vslwrOx9b8wpZ1WfoiZRoAA/641

AI研究员就业市场的「混乱现状」

许多AI研究员博士似乎都陷入了一个误区,认为在顶级会议上发表论文就是最终目标。

曾经有一段时间,发表论文就等于产生影响!

ResNet、Seq2Seq、Adam、Attention、Transformers、MoE,都是以论文的形式出现的。

真正的错误在于未能察觉这一情况早已不再适用。

发表文章≠影响力。

Muon只是一篇博客文章。它让Keller成功进入了OpenAI,他现在可能正用它来训练GPT-5。

Keller并不是孤例!

即便是没有获得博士学位,也可以入职OpenAI。昨天,James Campbell官宣放弃博士学位,要为ChatGPT和AGI

引入记忆与人格。

https://inews.gtimg.com/om_bt/OOMP3oo65h12m9OIvscmtoeyZHgbqS08EfuvS9KU7Uda8AA/641

传统的同行评审周期根本无法跟上现代人工智能研究和开发的步伐。

当然基于人工智能的同行评审可能还是很有必要的。

开源

就像新的同行评审。现实世界的采用和可复现性更为重要。

但不幸的是,在学术界,激励机制有些错位。学者需要展示「证据」来推动自己的职业生涯(升职、资金支持、同行认可)。

而最有价值的证明形式就是在顶级会议上发表论文。

顶级AI企业的人才选拔是否已从单纯看学术论文,转向综合考察论文、工程和社区等多维度表现还不能就此下定论。

但正如OpenAI官方所言,他们「并不唯学历论,更看重实际潜力与技能」。

无论通过哪条路径,关键在于

拿出过硬的成果

(无论是论文、代码还是项目)并产生

实质影响力



评论 (0)