你的Mac里藏着一个AI,但苹果不让你用
2025年,苹果在macOS 26里塞了一个约30亿参数的语言模型。
不是下载,不是更新,不是订阅。
它就在那儿。每一台Apple Silicon Mac都有。苹果用它在背后驱动Siri、写作工具、以及各种系统功能。但如果你想直接跟它对话——不好意思,没门。
苹果给这个模型配了一套FoundationModels框架,用Swift调用。没有终端命令,没有HTTP接口,没有任何"正常人类"能直接使用的方式。
想用?写个Swift App吧。
于是有个叫Arthur-Ficial的开发者,看了一眼这套逻辑,说了句"离谱",然后花了点时间,写了个不到200KB的工具。
叫apfel。
德语里"苹果"的意思。
一条命令,AI就从Siri里越狱了
apfel做的事情其实很简单:它给苹果那个锁在系统里的模型开了三个门。
第一扇门是CLI。终端里直接敲apfel "翻译成德语:苹果",回车,出来"Apfel"。支持管道,支持jq,支持写进shell脚本。跟任何UNIX工具一样自然。
第二扇门是个OpenAI兼容的HTTP服务器。跑起来之后,你电脑本地就多了个localhost:11434,跟OpenAI的API长得一模一样。Python代码里把base_url一改,原来调用GPT的代码直接改成调用你自己的Mac。流式响应、工具调用、JSON输出——全支持。
第三扇门是个交互式聊天。apfel --chat,开启多轮对话,上下文自动管理。不想聊了/quit退出。
全程不需要任何API key。不花一分钱。不需要联网。所有推理在你的Neural Engine和GPU上本地完成。
Tokens不离开你的机器。永远。
零成本、零隐私风险,但有个前提
apfel的slogan很直接:100% On-Device, Zero Cost。
这意味着什么?
意味着你让AI看你的财务表格、处理你的代码、分析你的客户数据——这些信息不会经过任何云端服务器。Claude那个"乱读用户数据"的bug跟你没关系。DeepSeek被质疑"数据回流"的争议也跟你没关系。
你的硬件,你的模型,你的隐私。
但代价是性能上限。4096个tokens的上下文窗口(输入+输出加起来),约3B参数,混合2/4位量化。这个规格大约相当于一年前的Qwen-3-4B,不是最新的模型。
评论区里有人实测:拿苹果这个内置模型做价格预测任务,10个case里它赢了6个。有人说它"比云端模型还准"。
也有人说时区转换这种简单问题它能给出两个完全矛盾的答案。
所以别指望它能打赢GPT-4o或者Claude Sonnet。但在特定场景下——本地代码、隐私数据、离线环境——它可能是最优解。
开源两周,1000颗星,苹果员工都在用
apfel在GitHub上挂了两周,1030颗星。
数据截止到4月3日,单日818颗。
评论区里有人列了一份star名单:Apple、Google、VMware、NVIDIA、Grafana。意思是说,这些公司的工程师也在用这个工具。
还有个有趣的评论:有个Linux用户看完apfel,想了想——"这不就是我想要但Linux没有的东西吗?"然后他自己写了个本地语音转文本的工具。
开源社区有时候就是这样:看到一个好想法,第一反应是"我能不能也搞一个"。
apfel本身的代码也开源,MIT License。开发者甚至接受PR,有人帮忙修了旧版macOS的兼容性问题。
苹果为什么不放出来?
这可能是最值得玩味的问题。
苹果给每台Mac塞了一个能用的模型,然后把它藏起来。
是因为Siri需要这个模型来维持"智能助手"的定位?如果用户能直接调用更强的底层能力,Siri的存在感是不是更弱了?
还是因为FoundationModels框架还没准备好?apfel的开发者自己在文档里写:"苹果只通过FoundationModels框架暴露API,你得写Swift App才能用。这没问题,但apfel把它变得更人类了。"
又或者,苹果在等云端模型足够成熟,再把本地模型作为"隐私兜底方案"推出来?
我不知道。
但有一点是确定的:苹果这个"锁住"的动作,给第三方开发者留出了空间。apfel这样的工具,本质上是在苹果划定的边界里,把体验重新做了一遍。
你的Mac比你想象的更强
apfel让我想到一件事:我们对设备的利用率,可能连10%都不到。
苹果往macOS里塞了一个完整的语言模型,几亿用户每天用Siri问"今天天气怎么样",然后继续打开ChatGPT网页版付费提问。
这不是讽刺,这是现实。大多数人不知道设备里有什么,也不知道能做什么。
apfel做的事情,本质上是"降低门槛"。把一个需要写Swift App才能调用的API,变成一条brew install就能用上的终端工具。
它不一定适合所有人。它没有GPT-4o那么强,不能联网查资料,4096 tokens的限制摆在那儿。
但它提供了一个选择:完全离线、完全私有、完全免费的AI。
这个选择以前不存在。现在存在了。
所以,这东西能火吗?
我不知道。
评论区里已经有人担心安全问题了:如果你把OpenAI兼容的服务器开在本地端口,网页里的JS脚本也能往那个端口发请求。虽然同源策略能挡住数据返回,但挡不住别人往你本地AI发指令。
apfel加了CORS支持,理论上可以关掉。但普通用户会不会改配置?不知道。
还有一个更现实的问题:苹果下次更新系统,这个模型还在吗?FoundationModels框架会变吗?apfel还能用吗?
如果苹果选择收紧,本地AI的窗口可能随时关闭。
但至少现在,它能用。你的Mac里那个AI,套上apfel,就能跟你对话。
试一下。
brew install Arthur-Ficial/tap/apfel
然后apfel "你好,Mac"
看它怎么回你。
【MiniMax-M2.1锐评】:把"苹果锁住的东西"写成"越狱",把技术细节翻译成"你的设备比你想象的更强",这篇抓的是隐私焦虑+技术解放的情绪爽点,但结尾留了个活口——"窗口可能随时关闭",让读者自己心里打鼓。
参考链接:
https://apfel.franzai.com