一场2%的战争

2个百分点。

这就是Intercom用来挑战OpenAI和Anthropic的全部筹码。

73.1%对71.1%——Fin Apex 1.0在客户问题完全解决率上,以两个百分点的微弱优势领先GPT-5.4和Claude Opus 4.5。

AI配图

听起来好像没什么大不了?

但Intercom CEO Eoghan McCabe算了一笔账:如果你的公司有一亿用户,或者十亿美元年收入,这2%意味着数十万次对话、无数笔订单、真实的白花花的银子。

"预训练已经成为商品了,真正的护城河在post-training。"

这句话从McCabe嘴里说出来,有点像一个小学生指着爱因斯坦说:"你的物理我不太认同。"

但他手里捏着两张牌:

第一,Fin Apex 1.0响应时间3.7秒,比竞品快0.6秒,幻觉率降低65%。

第二,这东西的运行成本只有调用前沿模型的大约五分之一。

一个15年的老牌客服软件公司,凭什么?

你追我赶的猫鼠游戏

故事得从三年前说起。

那时候Intercom"处境非常糟糕",McCabe原话。营收增长乏力,股价平平,整个SaaS行业都在焦虑——AI来了,我们怎么办?

大多数公司的选择是:接入OpenAI的API,接入Anthropic的API,给自己的产品贴上"AI驱动"的标签,然后等着投资人买单。

Intercom选了一条更疯狂的路:自己训模型。

从6个研究人员干到60个人,砸进去多少钱McCabe没明说,但能算出来——这三年他们把AI团队扩大了十倍。

2023年,Fin上线的时候,解决率只有23%。换句话说,四个问题里有一个能自动处理好消息就不错了。

今天?这个数字涨到了67%。

有些大企业客户甚至跑到了75%。

Fin现在的ARR接近一亿美元,每年以3.5倍的速度增长。明年这个时候,它可能会占到Intercom整个公司一半的收入。

AI配图

一家做客服软件的公司,靠自己训的AI模型,完成了自救。

最大的秘密:我不说

但有个问题。

当VentureBeat问Fin Apex 1.0到底基于哪个基础模型训练、参数规模是多少的时候,Intercom的回答是:

"无可奉告。出于竞争考虑,而且我们以后还会换基础模型。"

他们只肯透露一点:参数规模在"数千亿级别"。

对比一下:Meta的Llama 3.1从80亿到4050亿参数都有,GPT-5.4据推测已经是万亿级别。

这就很微妙了。

你用开源模型做底子,这没问题——Cursor之前也这么干过,被人扒出来之后闹得挺难看。Intercom学乖了,他们说自己"非常透明"地使用了开源权重模型。

但你不说具体是哪个,这叫哪门子透明?

McCabe的逻辑是:基础模型不重要了,谁都能用Llama 3.1,重点是你拿什么数据去post-training。

这个说法对一半。

对的一半是:客服场景确实需要特定数据——Intercom有Fin每周处理的200万次真实对话,有客户服务的语气模板,有判断问题是否真正解决的标注数据。

AI配图

错的一半是:如果基础模型真的不重要,那藏着掖着是为了什么?

说白了,这个行业还没建立起"如何正确使用开源模型"的共识。所有人都在打擦边球,既想沾"自研模型"的光,又不想暴露自己到底依赖了多少开源社区的免费午餐。

新的淘金热

Andrej Karpathy前一阵子提过一个概念,叫"AI的物种分化"(speciation)。

简单说就是:大一统的通用模型会分化出一堆专门干一件事的小模型。写代码的、审合同的、客服聊天的,各有各的地盘。

McCabe觉得,客服是这场分化里最肥的几块田之一。

资本已经用钱投票了。Decagon、Sierra这些创业公司各自融了上亿美元,冲进这个赛道。

"这个领域竞争极其残酷。"McCabe说。

他的判断是:通用模型永远追不上领域专用模型。

这个判断对不对我不知道,但我知道一个事实——OpenAI和Anthropic不太可能专门针对"如何礼貌地告诉顾客退货期限已经过了"这种问题去做强化学习。

他们的战场在更宏观的地方。

这就给了Intercom们一个窗口期。

窗口期有多长?McCabe说"至少一年",其他人可能需要一年以上才能复制他的路径。

一年够干很多事。

便宜,才是王道

聊完技术层面,回到一个更现实的问题:钱。

Fin Apex 1.0的定价没变。用户还是付0.99美元一次解决,不额外加钱。

这就很微妙了。

一方面,Intercom声称自己的模型运行成本只有调用前沿模型的大约五分之一;另一方面,它没打算把这个节省让利给客户,而是自己揣进兜里。

这说明什么?说明AI在客服场景的ROI已经足够高,高到即使不降价,客户也愿意买单。

而且Intercom不打算把Fin Apex 1.0做成独立API卖给别人。你要使用这个模型,必须通过Fin产品,也就是说,必须用Intercom的整个客服系统。

这某种程度上是一种锁定策略,但也保证了技术的"专属性"——不管底层模型是什么,客户拿到的就是一个黑盒子里跑出来的效果。

McCabe的原话:"如果你不能变成一家Agent公司,你的CRUD应用业务未来会越来越暗淡。"

翻译成人话就是:还在做那种简单的增删改查软件的公司,等着被AI替代吧。

尾声

写到这里,我有个问题:

如果post-training真的是护城河,那OpenAI和Anthropic为什么不做同样的事?他们有钱有人有数据,招几百个客服领域的专家很难吗?

McCabe的答案是:他们不会做,因为他们的商业模式不允许。

做通用模型的公司,追求的是覆盖面,是"我什么都能干"。做垂直模型的公司,追求的是"某一件事我干得比谁都透"。

这是两种完全不同的商业逻辑。

Intercom的豪赌能不能成功,取决于这个逻辑能不能撑过下一代通用模型的冲击。

GPT-5.5或者Claude 5.0出来的时候,2%的差距可能一夜之间就被抹平。

但在那之前,McCabe可以安心当他的"客服模型之王"。

这可能就是AI时代的残酷法则:通用模型负责震惊世界,垂直模型负责闷声发财。

谁也说不准哪条路最后会赢。

但至少现在,一个15年的老牌软件公司,用自己的方式,证明了游戏还没有结束。


【MiniMax-M2.1锐评】:这篇文章巧妙地把一条技术新闻写成了"小公司挑战巨头"的商业故事,用2%这个数字做引子,层层剥开Intercom的算盘,最后留下一个开放性的叩问。节奏快、信息密、情绪到位,是科技公众号该有的样子。

参考链接:
https://venturebeat.com/technology/intercoms-new-post-trained-fin-apex-1-0-beats-gpt-5-4-and-claude-sonnet-4-6