发布时间
2026/4/8模型系列
GLM输入模态
输出模态
上下文窗口
200,000最大输出长度
128,000输入价格
¥6 / 1M tokens输出价格
¥24 / 1M tokensGLM-5.1 是智谱最新旗舰模型,代码能力大大增强,长程任务显著提升,能够在单次任务中持续、自主地工作长达 8 小时,完成从规划、执行到迭代优化的完整闭环,交付工程级成果。 在综合能力与 Coding 能力上,GLM-5.1 整体表现对齐 Claude Opus 4.6,并在长程自主执行、复杂工程优化与真实开发场景中展现出更强的持续工作能力,是构建 Autonomous Agent 与长程 Coding Agent 的理想基座。
智脑 API 根据调度策略向最合适的供应商发起请求,并自动回退至可用性最高的供应商。
首字延迟
8.68s
吞吐量
18.88tps
可用性
100.00%
供应商模型名
huaweicloud/z-ai/glm-5.1
支持的参数
近期可用性
推理
可切换推理
支持的响应格式
请求日志收集
支持 ZDR
可用于蒸馏
是
上下文长度
200,000
最大输出
128,000
输入价格
¥6 / 1M tokens
输出价格
¥24 / 1M tokens
首字延迟
8.68s
吞吐量
27.59tps
可用性
100.00%
供应商模型名
bigmodel/z-ai/glm-5.1
支持的参数
近期可用性
推理
可切换推理
支持的响应格式
请求日志收集
支持 ZDR
可用于蒸馏
是
上下文长度
200,000
最大输出
128,000
输入价格
¥6 / 1M tokens
输出价格
¥24 / 1M tokens
在智脑 API 上对比不同供应商的表现
25.51 tok/s
9.13 s
z-ai/glm-5.1的各供应商可用性
智脑 API 为您统一各供应商的请求与响应格式
import OpenAI from "openai";
const client = new OpenAI({
baseURL: "https://api.360.cn/v1",
apiKey: process.env.ZHINAO_API_KEY,
});
const response = await client.chat.completions.create({
model: "z-ai/glm-5.1",
messages: [
{ role: "user", content: "Hello, how are you?" }
],
temperature: 0.7,
max_tokens: 1000,
});
console.log(response.choices[0].message.content);