你还在让 ChatGPT 帮你 Debug?
不好意思,顶级玩家已经换玩法了。
就在昨天,OpenAI 联合创始人安德烈·卡帕西(Andrej Karpathy)发了一条推文,炸翻了整个科技圈。
他不再用 LLM 写代码了。
准确地说,他让 LLM 干的活,已经从“敲代码”升级到了“长脑子”。
一个知识库,40 万字
卡帕西最近搞了个大新闻。
他用 LLM 给自己建了一个“第二大脑”——一个完全由 AI 维护的个人知识库。
多大?
约 100 篇文章,40 万词。
这不是简单的笔记软件。让我给你拆拆他的工作流:
第一步:吃数据。 他把各种源文件——论文、博客、代码仓库、数据集、图片——全部丢进一个 raw/ 目录。
第二步:AI 编译。 LLM 自动把这些原始资料“编译”成一个 Wiki。是的,就是一堆 .md 文件,按主题分类,互相链接,还自带摘要和反向链接。
第三步:问答。 知识库足够大之后,他直接问 LLM 各种复杂问题。LLM 会自己去 Wiki 里“翻资料”,然后给他一个完整的研究报告。
第四步:输出。 回答不只显示在对话框里。LLM 会给他生成 Markdown 文件、幻灯片(Marp 格式)、甚至 matplotlib 可视化图表。所有产出都直接存回知识库,形成一个不断生长的“活系统”。
第五步:自净。 LLM 还会定期给 Wiki 做“健康检查”——发现数据不一致?补上缺失信息?甚至主动找出有趣的联系,生成新文章候选。
全程几乎不用手动编辑。
“我很少直接碰 Wiki。LLM 是它的全职管理员。”
说实话,看到这我有点恍惚。
这还是我们熟悉的“编程”吗?
以前是 LLM 帮我们写代码,现在是 LLM 帮我们管理知识。
有人已经在等下一个产品了
推文发出后,评论区比正文还精彩。
一条评论被顶到了最高赞:
“Every business has a raw/ directory. Nobody's ever compiled it. That's the product.”
(每个企业都有一个 raw/ 目录。但从来没人把它编译出来。这就是产品机会。)
卡帕西自己都回复了:
“可能是另一个 LLM 回的,但我完全同意。”
这话说得一点不夸张。
现在多少公司的内部文档散落在飞书、Notion、Confluence、Slack、邮件……各个角落?找一份需求文档得像侦探一样翻半天。
而卡帕西展示的,是一个AI 原生的知识管理体系——
它不只是存储,它理解。它不只是检索,它推理。它不只是回答问题,它帮你长出新的认知。
另一个高赞评论问:
“能做个视频演示一下吗?你之前解释 LLM 用法的视频特别有帮助。”
卡帕西说:
“我也在想这个事。”
嗯,你大概能想象这条视频发出来会多少播放量。
这波操作意味着什么
让我说几点个人判断。
第一,LLM 的使用范式正在迁移。
过去一年,大家都在卷“让 AI 写更好的代码”。Copilot 们很猛,但本质上还是效率工具。
而卡帕西展示的,是 LLM 作为认知基础设施的可能性。
它不只是帮你干活的助手,它是帮你长脑子的系统。
第二,“Vibe Coding”已经不够了,现在是“Vibe Research”。
之前卡帕西提出“Vibe Coding”——用自然语言描述需求,AI 生成代码,人只负责“感觉不对就改”。
现在他更进一步:用自然语言提问,AI 构建知识、回答问题、生成报告。
人变成了“提问者”和“最终审核者”,中间全部交给 AI。
第三,一个巨大的产品机会正在打开。
评论里说的“raw/ 目录”只是比喻。
真实情况是:每个知识工作者、每个企业,都需要一个 AI 维护的“活知识库”。
现在大家还在用 RAG(检索增强生成)这种技术方案,但卡帕西的实验说明——只要规模不太大,LLM 本身就能做好索引和摘要这件事,根本不需要复杂的工程。
“我本来以为得用上什么高级 RAG,结果 LLM 在这个量级(~100 篇文章)表现已经很强了。”
这意味着什么?
产品经理们,该行动了。
当然,故事还没完。
卡帕西在推文最后留了一个“Further explorations”:
“随着仓库增长,自然会想到——能不能用合成数据 + 微调,让 LLM 直接'记住'这些知识,而不是每次都在上下文窗口里翻?”
这已经不只是“知识库”了。
这是让 AI 长出你的脑子。
细思极恐。
你觉得这种“AI 知识库”会成为下一个标配吗?
【MiniMax-M2.5锐评】:卡帕西轻描淡写地秀了一个“AI 第二大脑”,评论区已经有人把产品机会想明白了——这才是真正的“降维打击”。
参考链接:
https://x.com/karpathy/status/2039805659525644595