做开发的兄弟们,有没有觉得现在的 AI 开发越来越像搭积木?

而且还是那种摇摇欲坠、随时可能塌方的积木。

为了搞个稍微聪明点的 AI Agent,你得像个保姆一样伺候好几个大爷:

Postgres 存结构化数据,Pinecone 或 Quadrant 搞向量搜索,Neo4j 处理图谱关系……

这哪里是在写代码,简直是在搞拆迁。

就在周二,有个叫 SurrealDB 的公司扔了个炸弹,声称要终结这种混乱。他们发布了 3.0 版本,顺便还从投资人手里抢走了 2300 万美元,把总融资额干到了 4400 万。

GitHub 上 3.1 万颗星,230 万次下载,这帮人显然不是来打酱油的。

你的 AI 为什么像个傻子?

image

现在的 AI Agent,也就是所谓的智能体,最大的毛病是什么?

是没记性,或者说记性太差。为了让它稍微“聪明”点,我们不得不把数据切得稀碎。向量数据存这儿,关系数据存那儿,业务逻辑扔在中间件里。

结果呢?

SurrealDB 的 CEO 兼联合创始人 Tobie Morgan Hitchcock 吐槽得很直白:

“人们同时跑着 DuckDB、Postgres、Snowflake、Neo4j、Quadrant 或者 Pinecone,然后纳闷为什么他们的 Agent 准确度上不去。”

这太真实了。

你想想,AI 为了回答一个问题,得向五个不同的数据库发五次请求,每个库只知道自己那一亩三分地。这就像让五个互不通气的部门协同办个事,效率能高吗?

数据在不同层级之间来回倒腾,同步延迟那是家常便饭,准确性自然也就崩了。

image

一个引擎,全都要了

SurrealDB 的路子很野,跟 OpenAI 那种靠 Postgres 读副本撑起 8 亿用户的“读多写少”模式完全不同。

他们搞了一个 Rust 原生引擎,硬是把向量搜索、图遍历、关系查询这几样活儿,全部塞进了一个事务里。不用同步,不用跨系统调用,就在一个锅里把饭做了。

Hitchcock 举了个例子:当 Agent 查询一个客户问题时,它能顺着图关系找到过去的相关事故,拉出类似案例的向量嵌入,再关联结构化的客户数据。

所有这些,一次查询,全部搞定

这架构有点意思,它把数据存成了带图关系的二进制文档。这意味着你不需要在应用代码里去拼凑结果,数据库自己就懂怎么把线索串起来。

把“脑子”直接长在数据库里

3.0 版本里有个叫 Surrealism 的插件系统,这点我觉得挺关键。

以前的 RAG 系统,Agent 的“记忆”通常存在应用代码里,或者外部的缓存层,就像个随身携带的记事本,容易丢,也不够实时。

SurrealDB 的做法是:把 Agent 的记忆直接烘焙进数据库里。

image

当 Agent 和数据交互时,它会创建上下文图,把实体、决策、领域知识直接变成数据库记录。

Hitchcock 说得很清楚:

“人们不再只想存储最新数据,他们想分析并让 AI 理解组织过去一两年的所有数据。”

因为只有了解了历史和上下文,Agent 才能给出更像样的结果。

而且,这套系统全是事务性的。

哪怕是 50 多个节点的规模,任何节点写入的数据,其他节点立马就能看见。没有缓存,没有读副本,主打一个“所见即所得”。

别急着神化,它不是万能药

有意思的是,Hitchcock 这人挺实在,没把牛吹上天。他直接劝退了一部分人:

“重要的是要承认 SurrealDB 并不是所有任务的最佳数据库。如果你只是分析 PB 级数据且从不更新,去用对象存储或列式数据库吧。”

人家说得对。

如果你只是单纯搞个向量搜索,那 Pinecone 这类专门的数据库可能更顺手。SurrealDB 的杀手锏在于你需要多种数据类型混着用的时候。

这时候,它的威力就出来了。

以前需要好几个月来协调多数据库架构的项目,现在可能几天就能上线。

这种开发效率的提升,对于急着推产品的企业来说,诱惑力太大了。

从汽车边缘设备到国防系统,再到纽约大零售商的推荐引擎,这帮人已经把这套玩意儿部署到了不少硬核场景里。

这 4400 万美元,赌的就是开发者们受够了折腾。

未来的数据架构,究竟是继续“分久必合”,还是维持精细化的分工?

您觉得呢

参考链接:
https://venturebeat.com/data/surrealdb-3-0-wants-to-replace-your-five-database-rag-stack-with-one