xAI 推出代码专用模型:256K上下文,速度更快,限时免费

刚刚,马斯克的xAI推出了智能编程模型Grok Code Fast 1

Fast写进名字里,新模型主打的就是快速经济,且支持256K上下文,可在GitHub Copilot、Cursor、Cline、Kilo Code、Roo Code、opencode和Windsurf上使用,还限时7天免费!

不仅性能比肩Claude Sonnet 4和GPT-5,价格更是只有它们的十分之一。

目前,Grok Code Fast 1在ToyBench上的整体排名为第5名,仅次于GPT-5、Claude Opus 4、Gemini 2.5 Pro和DeepSeek Reasoner。

xAI 推出代码专用模型:256K上下文,速度更快,限时免费

超 12000 人的「AI 产品市集」社群!不错过每一款有价值的 AI 应用。

进群后,你有机会得到:

  • 最新、最值得关注的 AI 新品资讯;
  • 不定期赠送热门新品的邀请码、会员码;
  • 最精准的AI产品曝光渠道

 

01 模型实测:

速度快,指令遵循能力强

先来看一波网友实测。

首先,第一感受就是确实,思考时长基本在几秒之内。在VS Code开源免费的扩展Cline中即可使用。

xAI 推出代码专用模型:256K上下文,速度更快,限时免费

还有人将Grok Code Fast 1添加到聊天机器人中,只需要简单的prompt:

展示真正优秀的pygame。

就得到了如下随机的多媒体效果,看上去也非常丝滑~

xAI 推出代码专用模型:256K上下文,速度更快,限时免费

不只游戏模拟器,Grok Code Fast 1对UI设计也手拿把掐。

xAI 推出代码专用模型:256K上下文,速度更快,限时免费

在多指令下构建的时间晶体的细节展示也很到位。

xAI 推出代码专用模型:256K上下文,速度更快,限时免费

确实,不少体验者都表示,这个新模型在指令遵循方面表现很优秀。

xAI 推出代码专用模型:256K上下文,速度更快,限时免费

看完实测案例,再来看看模型情况。

 

02 专为开发者完成日常任务设计,

兼具速度与性价比

根据官方透露出的消息,Grok Code Fast 1从零开始搭建了全新的模型架构,使用专门的代码语料库进行预训练,并利用真实世界拉取请求与编码任务数据进行微调。

另外,还与GitHub Copilot、Cursor、Roo Code等平台深度合作,让模型能够在IDE中快速理解开发者指令,完成如grep、终端和文件编辑等常用工具的使用。

借助推理加速和提示缓存优化,模型能在你还没读完思维流程第一段文字时,就已经执行了数十种工具调用。

指令缓存命中率更是超过90%,用户体验将会极度顺畅,让响应毫无卡顿的感觉。

除了快,Grok Code Fast 1还具有很强的通用性,无论是TypeScript、Python、Java,还是Rust、C++、Go,它都可以轻松完成,从创建项目到点对点的bug修复,而无需人工监督。

在内部基准测试SWE-Bench-Verified的完整子集上,grok-code-fast-1成绩可达70.8%,在其余一众编程模型中,性能也处于较为领先的程度。

xAI 推出代码专用模型:256K上下文,速度更快,限时免费

除了传统基准,测试过程中还额外添加了开发者主观评估与自动化行为监控,确保模型快速可靠,满足日常编码任务。

支持256K的上下文窗口,每分钟最多请求数是480,每分钟可处理约200万token。

xAI 推出代码专用模型:256K上下文,速度更快,限时免费

对于日常高频编码用户,这个价格可以说是相当友好了,在性能上也不输其他编程模型。

xAI 推出代码专用模型:256K上下文,速度更快,限时免费

另外,官方也和Grok 4做了对比,Grok 4更适合单次问答类场景,如复杂概念解析或深度调试,需要事先提供充足上下文。

而Grok Code Fast 1作为轻量级智能编码模型,更适用于多步骤、工具调用密集的复杂自动化任务,是兼具速度和效率的AI代码助手。

此次更新中,最亮眼的莫过于Grok Code Fast 1超高的性价比

每1M输入tokens只需要0.2美元(折合人民币约1.4元),输出tokens需要1.5美元(约10.7元),缓存调用tokens更是仅需0.02美元(约0.14元)

与Claude Sonnet 4和GPT-5相比,相当于是只有别人的10%。

文章转载自「量子位」

© 版权声明
THE END
喜欢就支持一下吧
点赞757赞赏 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容