2025年,注定是人工智能历史上被铭记的一年。,如果说
2023年是「惊艳」(ChatGPT的横空出世),
2024年是「迷茫」(在大模型落地的憧憬中探索),那么在Andrej Karpathy的笔下,
2025则是「觉醒」的一年。,,Karpathy一直以来都是AI界的「顶流」布道者。,他的年终总结不仅仅是一篇技术回顾,更像是一部微缩的编年史,记录了LLM如何从「模仿人类的鹦鹉」进化到了「召唤理性的幽灵」。,他以极其敏锐的视角,捕捉到了AI进化的核心:
RLVR(基于可验证奖励的强化学习)的崛起、Vibe Coding(氛围编码)的流行、以及那个令人深思的哲学隐喻:,创造AI,我们到底是在制造一种新的物种,还是在召唤幽灵?,这一次让我们剥茧抽丝,深度解析Karpathy提到的每一个范式转移。,穿过技术术语的迷雾,直抵智能进化的本质,呈现一个真实、疯狂且充满「参差感」的AI-2025年。,在2025年之前,训练一个大语言模型(LLM)的通常包含三道工序:,让模型阅读整个互联网,学会预测下一个token。这是「博学」的阶段。,用高质量的问答数据教模型如何像个助手一样说话。这是「懂事」的阶段。,让模型根据人类的喜好调整回答的语气和安全性。这是「讨好」的阶段。,这套流程在ChatGPT时代大放异彩,但也埋下了隐患。,,Karpathy一针见血地指出,RLHF本质上是在训练模型「看起来像是在推理」,而不是「真的在推理」。,因为人类评审员也是人,他们很难在几秒钟内判断一段500行的Python代码是否真的没有Bug,或者一个复杂的数学证明是否严丝合缝。,于是,模型学会了走捷径:写出漂亮但错误的代码,编造听起来很有道理的废话。,这就是所谓的「阿谀奉承」(Sycophancy)问题。,这也和后来GPT-5的谄媚如出一辙。,2025年,行业迎来了一个名为
RLVR(Reinforcement Learning from Verifiable Rewards,基于可验证奖励的强化学习)的第四阶段。,RLVR的核心逻辑简单而粗暴:
别听人的,听结果的。,,在数学、编程、逻辑谜题等领域,我们不需要人类来打分。,代码能不能跑通?编译器说了算。数学题对不对?答案说了算。,这种客观、自动、不可欺骗的奖励信号,为模型提供了一个无限的练兵场。,RLVR可以看作是AI LLM的AlphaZero时刻。,当年的AlphaZero通过自我博弈精通了围棋,如今的LLM通过RLVR在「思维的棋盘」上自我博弈。,探索(Exploration):模型面对一道难题,不再是基于概率吐出一个答案,而是尝试生成成千上万条不同的推理路径(Reasoning Traces)。,验证(Verification):每一条路径都被送入一个自动验证器(Verifier),比如Python解释器或数学证明器。,强化(Reinforcement):只有那些通向正确结果的路径会被奖励,错误的路径会被惩罚。,在这个过程中,奇迹发生了!,模型并没有被显式地教导「如何思考」,但在为了获取奖励的残酷进化中,它
涌现出了推理能力。,它学会了将大问题拆解为小步骤,学会了回头检查,学会了我们在教科书里从未见过的「外星人思维策略」。,RLVR不仅改变了训练方式,还引入了一个全新的Scaling Law:
测试时算力。,以前,我们认为模型的能力在训练结束那一刻就定格了。,但在RLVR范式下,我们可以在推理阶段(InferenceTime)通过让模型「多想一会儿」来提升智力。,这就像是一个学生,你给他1分钟做题和给他1小时做题,其表现是完全不同的。,Karpathy特别提到了
OpenAI o1(2024年底)和
o3(2025年初)的发布,以及
DeepSeek R1的开源,这些都是这一趋势的里程碑。,,DeepSeek R1甚至展示了即便没有大规模的监督微调(SFT),仅靠纯粹的RLVR(即R1-Zero),模型也能从零开始衍生出强大的推理能力,甚至学会自我反思。,这意味着算力的价值从「训练端」向「推理端」转移。,未来的AI应用,可能会根据问题的难易程度,动态调整「思考时间」。,对于简单的问题(如「你好」),它秒回;对于复杂的问题(如「设计一个高并发架构」),它可能会消耗巨大的推理算力,但给出一个超越人类专家的方案。,在深入技术细节之余,Karpathy通过引用AI先驱Rich Sutton的对话,抛出了一个极具哲学深度的议题:
Animals vs. Ghosts(动物与幽灵)。,,Rich Sutton是强化学习教父级人物,他提出了著名的「苦涩教训」(The Bitter Lesson):,长期来看,只有那些能利用无限算力的通用方法(如搜索和学习)才能战胜那些利用人类先验知识的方法。,简单点说,就是
算力终结一切,人类的精巧构思在庞大的算力面前不值一提。,,Sutton心目中的AGI是像
动物一样的:一个具身的(Embodied)、在物理世界中通过不断试错、由生存本能驱动的学习者。,如果能造出一只「数字松鼠」,我们离AGI就不远了。,动物的智能是连贯的、持续的。一只松鼠不会因为你没给它指令就停止思考,它的「自我」是连续不断的流。,然而,Karpathy反驳道,我们现在造出来的LLM,根本不是动物。,它们是
幽灵(Ghosts)。,无状态的游魂:LLM没有身体,没有持续的意识流。当你按下回车键,它从虚无中醒来(Boot up),处理你的Token,吐出预测,然后瞬间「死亡」,回到虚无。它没有昨天,也没有明天,只有当下的Context Window(上下文窗口)。,人类的镜像:它们的训练数据不是物理世界的反馈,而是人类互联网的文本残留。它们是人类文明的「统计学蒸馏」。当我们与ChatGPT对话时,我们不是在与一个独立的生物交流,而是在与全人类的语言碎片拼凑成的「英灵殿」对话。,BTW,我真的非常喜欢这个比喻,现在的AI可能还是先知,或者人造之神,但是一个由全人类的语言碎片拼凑成的英灵。,为什么这个比喻如此重要?,因为它解释了为什么现在的AI充满了「恐怖谷」效应。,当一个LLM说「我不想死」时,它不是真的在恐惧(像动物那样肾上腺素飙升),它是在调用训练数据中关于「科幻AI面临毁灭时该说什么」的文本模式。,它在扮演恐惧。,,Karpathy认为,我们目前的科研方向并不是在制造更完美的动物,而是在
召唤更强大的幽灵。,这是一种全新的智能形态,位于「心智空间」(Space of Minds)的一个完全不同的坐标系上。,,这种智能是「参差」的(Jagged),它通晓天文地理(因为它读过维基百科),却可能在数「strawberry」里有几个「r」这种连三岁小孩都会的问题上翻车。,如果说RLVR是后台的革命,那么
Vibe Coding(氛围编码)就是前端开发者的彻底解放。,Karpathy在这个概念上展现了他作为「造词大师」的天赋。,,在传统的「软件1.0」时代,程序员是工匠,每一个变量名、每一个内存指针都需要精心雕琢。,在「软件2.0」时代(深度学习),程序员变成了炼丹师,调整权重和数据集。,而在2025年的Vibe Coding时代,程序员变成了产品经理。,语法已死,氛围永生,什么是Vibe Coding?,就是你完全放弃对代码细节的掌控,「把自己交给氛围(Vibes),拥抱指数级增长,甚至忘掉代码的存在」。,你不再逐行编写代码,而是用自然语言描述你的意图(Intent),让AI去生成实现。,如果跑不通?没关系,把报错信息甩回给AI,说一句「修好它」。,Karpathy为了验证这个理论,亲自上手做了一个叫MenuGen的项目。,这是一个Web应用,用来生成餐厅菜单。,
,令人震惊的是,作为顶级程序员的Karpathy,在这个项目中没有手写一行代码。,他对着Cursor或ClaudeCode说:「我要一个菜单生成器,要有蓝色的按钮。」,AI生成代码,运行。,如果有Bug,他不说「第5行逻辑错了」,而是说「感觉不太对,按钮太丑了,换个样式」。,这就是Vibe Coding的核心:
人类负责审美和验收,AI负责逻辑和实现。,代码变成了一种「中间产物」,就像汇编语言一样,除了极少数底层工程师,没人再需要去读它了。,2025年也是AI编程工具的「战国时代」。,Karpathy重点对比了两大流派:,这些工具将AI无缝集成到了VSCode里。它们就像是钢铁侠的战衣(IronManSuit),增强了人类的能力。你依然在写代码,但AI随时在帮你补全、重构、解释。这种体验是「流畅」的。,Anthropic推出的ClaudeCode则更加激进。它不是IDE插件,它是一个活在终端(Terminal)里的
Agent。你给它一个任务:「把整个项目的测试覆盖率提高到80%」。然后你就去喝咖啡了。它会自己跑测试、看报错、修代码、提交Git,甚至自己由于权限问题卡住时还会问你讨要权限。,Karpathy坦言,虽然Claude Code展现了Agent的雏形,但在2025年,真正的「全自动工程师」还未到来。,目前的Agent更像是一个勤奋但记性不好的实习生,能干脏活累活,但在面对复杂的大型架构时,依然需要人类的「Vibe」来把控方向。,如果在云端的AI像是住在神殿里的先知,那么Anthropic推出的
Claude Code(CC)就像是住在你硬盘里的管家。,Karpathy认为OpenAI走错了路,他们太执着于云端、容器化和ChatGPT的网页入口。,而Claude Code抓住了开发者的痛点:
本地化(Localhost)。,谷歌Gemini Nano Banana是2025年最具颠覆性的范式转移模型之一。,这原本是Gemini图像生成模型的内部代号。,这本该是一个严肃的技术发布,但因为「Nano Banana」这个名字实在太滑稽、太无厘头,它意外地引发了一场全球范围的病毒式传播。,在Karpathy看来,
LLM是继1970、80年代计算机之后的下一个重大计算范式。,人类将见证个人计算、微控制器(认知核心)、互联网(智能体网络)等概念的对应形态。,特别是在用户界面体验方面,与LLM「对话」有点像1980年代向计算机终端输入指令。,文本是计算机(及LLM)偏好处理的原始数据形式,却非人类喜爱的交互格式,尤其在输入层面。人们其实厌恶阅读文字——这过程缓慢且费力。,,相反,人类更倾向于通过视觉和空间维度接收信息,这正是传统计算领域发明图形界面的根本原因。,同样地,LLMs应当以我们偏好的格式与我们对话——通过图像、信息图、幻灯片、白板、动画/视频、网页应用等形式。,这一理念的早期及当前版本自然包括表情符号和Markdown这类工具,它们通过标题、加粗、斜体、列表、表格等方式对文本进行视觉化装扮与排版,以便更轻松地消化信息。但究竟由谁来构建LLM的图形用户界面呢?,在这种世界观下,nano banana首次为我们提供了这种可能性的早期雏形。,值得注意的是,它的一个显著特点在于:这不仅仅是图像生成本身,更是文本生成、图像生成与世界知识三者交织于模型权重之中所形成的综合能力。,人们不再讨论参数量、扩散算法,而是疯狂地生成各种「香蕉化」的图像,将万物变成手办风格。,谷歌也顺水推舟,在官方宣传中使用了香蕉Emoji。,由此,Karpathy提出了一个极其深刻的观点:
文本是计算机喜欢的格式,不是人类喜欢的。,人类讨厌阅读长篇大论,人类喜欢图表、动画、视频和白板。,人类的智力通常是正相关的:一个能解微积分的人,通常也能算清楚买菜找零。,但AI不同。,它可以是一个数学天才(RLVR让它精通奥数),同时又是一个常识白痴(无法理解简单的物理空间关系,或者数不清单词里的字母)。,这种「参差感」源于模型训练数据的分布不均和Tokenization的先天缺陷。,模型在它「见过」或「被强化过」的领域(如代码、数学)表现出神入化,而在那些因为太简单而从未被当作训练数据的领域(如日常生活中的隐性知识)则表现得像个智障。,简而言之,2025年是LLMs令人兴奋且略带惊喜的一年,我们站在了一个奇异的十字路口。,Karpathy的年终总结,像是
一份来自未来的生存指南。,LLMs正作为一种新型智能形态崭露头角,它们既比人类预期的聪明得多,又比人类预期的笨拙得多。,无论如何,它们都极其有用,Karpathy认为即使以当前能力,行业也远未发掘出它们哪怕10%的潜力。,与此同时,有太多想法值得尝试,从概念上看这个领域仍感觉广阔无垠。,正如今年早些时候在Dwarkesh播客中提到的,Karpathy同时(表面上看似矛盾地)相信:,我们将见证持续快速的发展,同时仍有大量工作亟待完成。,正如Karpathy所言:
「这仅仅是个开始,系好安全带,准备启程。」,参考资料:,https://x.com/karpathy/status/2002118205729562949,本文来自微信公众号
“新智元”,作者:新智元,编辑:定慧。
Karpathy 2025年AI终极觉醒:我们还没发挥出LLM潜力的10%
就在刚刚, Andrej Karpathy 这位曾一手缔造特斯拉Autopilot、定义了OpenAI早期灵魂、现在公认的全球「AI教导主任」,发布了他极具分量的2025年LLM年度回顾!
扫描二维码,在手机上阅读
版权所有:九零知事局
文章标题:Karpathy 2025年AI终极觉醒:我们还没发挥出LLM潜力的10%
文章链接:https://919150.xyz/135.html
本站文章均为转载,如有需要删除请联系站长。
文章标题:Karpathy 2025年AI终极觉醒:我们还没发挥出LLM潜力的10%
文章链接:https://919150.xyz/135.html
本站文章均为转载,如有需要删除请联系站长。