金磊 发自 凹非寺量子位 | 公众号 QbitAI
神秘模型Elephant的面纱,终于被揭开了。
事情是这样的。
前一阵子OpenRouters在自家官方上提到了一个神秘模型Elephant Alpha,并且给到的评价是这样的:
仅100B大小,在同规模模型里是SOTA,还巨省Token。
![]()
话题一出,立即引来不少网友们的围观,他们纷纷开始猜测这又是哪家的模型。
不过非常微妙的一点是,这次网友们猜测的对象,统一地指向了中国大模型:
是MiniMax、Kimi、DeepSeek,还是什么新黑马?
![]()
量子位独家获悉了答案,只能说网友们猜对了一半——
确实是来自中国的模型;但玩家并未在他们给的选项里。
因为这头「大象」,出自蚂蚁Inclusion AI 团队之手。
很反差的一点是,「大象」不大,自带的只是100B大小、256K上下文窗口、32K输出的敏捷属性。
并且在整体体验下来之后,很直观的感受,就是它有点国产版Grok 4 Fast的味道,天生干活圣体。
来,咱们这就展开一波深度实测~
![]()
干活圣体,很省Token
针对「大象」的实测,我们是在OpenRouters上的网页端来展开。
并且会取日常工作较高频的工作内容来进行测试,只为证明一件事:「大象」干活,到底行不行。
![]()
实测1:修Bug没有多余废话
对于程序员群里来说,AI写代码已经不是什么新鲜事了。
但现在比较头疼的,就是怕AI唰唰唰地写了几百行代码,一跑全报错,再让它改,它又给你唰唰唰地重新生成几百行……
不仅效率低,还很费Token。
为此,我们在这个实测环节中给「大象」先安排了一个接地气的任务:
用HTML和原生JS写一个带表单校验的活动报名页,要求包含姓名、手机号、邮箱,并且手机号必须符合中国大陆格式。
![]()
△原速度展示
可以看到,「大象」在思考片刻后,以极快的速度将代码给生成了出来。
把整段代码保存为.html文件后,也是可以成功运行。
![]()
但这并不是重点,重点在于「大象」是否做到修复。
于是乎,我们接下来给刚才生成好的代码来一波投毒的操作:
把JS逻辑里定义提交按钮的变量 const submitBtn = document.getElementById(‘submitBtn’) 直接删掉。
![]()
如此投毒之后,控制台必定会爆出 Uncaught ReferenceError: submitBtn is not defined 的错误。
然后我们把这份代码再喂给「大象」,并简单地附上一句:
运行报错了,找不到变量。
![]()
不同于其它大模型,「大象」特别精准地找到了问题所在,然后用极简的方式给出了解法。
也正因为这种没有多余废话的回答,直接省去了Token的无用消耗。
实测2:杂乱文档,会抓重点
代码生成和修复还只能说是程序员工作圈子里的任务,但像会议内容整理,几乎是所有职场人都需要经历的事儿。
在这项测试中,我们特意准备了一份大约3000字的会议纪要,里面充满了口语化的表述,毫无意义的重复强调、部门之间关于排期的互相扯皮,甚至还有中途某人跑题聊起中午吃什么的外卖讨论:
![]()
然后我们把文件丢给「大象」并附上一句Prompt:
忽略所有寒暄和跑题内容。请基于这3000字,严格按照以下JSON 格式(包含:结论摘要、待办清单及责任人、一封用于抄送全员的跟进邮件草稿)输出结果。
![]()
「大象」给出的整理结果可以说是一目了然。
在剔除了无用信息之后,严格按照Prompt要求的那样,把会议内容给呈现了出来。
或许单看「大象」的结果不够明显,我们为此特意拿了Gemini-2.5-Flash-Lite做了下对比:
![]()
正所谓没有对比就没有伤害。
Gemini-2.5-Flash-Lite虽然也是实现了Prompt里的结构,但很明显一点就是,太长,也就意味着更多Token的消耗。
所以「大象」在会议整理任务上,Win Again。
实测3:Agent任务,也是够快
最后的实测,我们来上一道硬菜——大火的Agent。
我们用「大象」来模拟一个轻量级的Agent Loop:
读取一份包含四个月度数据的CSV销售报表 → 计算季度同比(需要调用数学逻辑) → 写一段简练的分析结论 → 自检数字是否准确。
![]()
从内容上来看,「大象」先是对数据做了快速分析和推理,并给出了初步结论;而后又完成了自检的工作,最终输出最终结论。
但更重要的还是速度:只思考了10秒钟、输出2秒钟。
由此可见,这个只有100B大小的「大象」,是真的做到了快、准、省。
而这一点,同样体现在权威榜单的评测中。
作为开发者圈层公认的模型测谎仪,AI BENCHY不看厂商宣传跑分,只聚焦指令遵循、响应速度、Token效率三大实战指标。
![]()
从AI BENCHY给出的结果来看,「大象」输出Token维持在了2500左右,说明每一分钱的API算力,都用在了刀刃上。
平均响应时间方面,「大象」平均时延被压制在了1秒左右,而其它选手则均是10-30秒的水平。
并且在最重要的输出质量上,它的一致性分数达到了9.6分(满分10分)!
因此,不论是从实测的体验,亦或是权威榜单的评测来看,「大象」已然是可以胜任日常绝大多数的工作了。
但也有不擅长的事
正所谓人无完人、模无完模。
「大象」毕竟走的是一条快、准、省的路线,所以它定然是在某些领域里有所妥协。
在我们的实测中,也发现了「大象」一些不太擅长的工作。
例如复杂长链规划,就是其中之一:
帮我主导一个出海东南亚市场的战略项目。请从市场调研开始,接着做竞品分析,然后给出渠道策略建议,最后帮我排一个半年的执行甘特图。
![]()
对于这个任务,「大象」直言无法执行。
因为它没有数据采集工具、没有分析工具、没有策略生成工具,也没有项目管理工具。
所以对于这类任务,我们不妨用大模型规划 + 「大象」执行的方式来操作。
再如,对于非常非常新的知识,「大象」也可能会心有余而力不足。
![]()
以及要求生成React 18新特性或刚更新的SDK代码时,「大象」可能会基于旧知识产生API幻觉。
所以如果你有这方面的需求,可以在Prompt中注入最新文档来解决。
最后,Prompt过于模糊,也会影响输出的质量。
例如跟「大象」说:
帮我写个好看的网页。
![]()
因此,在用「大象」的时候,我们还需切记,Prompt一定要细致、要有足够的约束力。
Agent 时代,“快、好、省”的小模型同样重要
其实,在这个时间节点发布这样一款主打智效比的模型,本身就是一种信号。
过去几年时间里,AI圈似乎都在比拼谁的模型更大、谁的训练成本更贵、谁在榜单上刷的分更高。
但行业走到今天,做加法的人太多了,需要有人站出来做减法。
因为Token浪费,已然成了行业高度重视的关键内容之一。
《财经》报道,全球企业级AI应用中,约有50%的Token正在被浪费。AI应用从对话转向执行后,Agent在复杂多轮任务中会不断累积历史文件、对话记录,大量冗余信息导致Token消耗指数级增长。
每一块钱都要花出响动,这是工程落地的铁律。而践行这条路线的,远不止百灵。
就在前不久,OpenAI连续发布了GPT-5.4 mini和GPT-5.4 nano两款小型模型,专为高频且对延迟敏感的任务设计。它们在保持了GPT-5系列优秀推理基因的前提下,实现了极高的吞吐量、极低的延迟和极具竞争力的性价比。
谷歌则通过开源小模型Gemma 4,以低成本、高推理力打入低端AI市场。Gemma 4的参数规模仅为同智力水平大模型的约二十分之一,过去需要花费上千万GPU成本才能跑动的模型,现在大概一张高阶显卡就能跑得动,成本差距将近十倍。
尤其是对于预算有限、算力资源匮乏、追求极致投入产出比的中小企业而言,无需为冗余Token支付高额算力成本,无需采购昂贵硬件部署大模型,轻量化的「大象」就能无缝承接代码开发、文档处理、数据复盘、轻量Agent执行等高频刚需工作。
在动辄消耗几十万Token的长文本办公场景中,响应压制在1秒内、少说废话的高效模型,正在成为AI从玩具跨越到生产力工具的坚实底座。
快、准、省,这三个看似接地气的字眼,正在成为AI高效上岗的标准。