智脑 API 根据调度策略向最合适的供应商发起请求,并自动回退至可用性最高的供应商。
首字延迟
0.86s
吞吐量
19.53tps
可用性
100.00%
供应商模型名
huaweicloud/qwen3-235b-a22b
支持的参数
近期可用性
推理
-
支持的响应格式
请求日志收集
-
可用于蒸馏
-
上下文长度
65,536
最大输出
31,000
输入价格
¥2 / 1M tokens
输出价格
¥8 / 1M tokens
首字延迟
0.94s
吞吐量
17.37tps
可用性
100.00%
供应商模型名
qiniu/qwen3-235b-a22b
支持的参数
近期可用性
推理
-
支持的响应格式
请求日志收集
-
可用于蒸馏
-
上下文长度
65,536
最大输出
31,000
输入价格
¥2 / 1M tokens
输出价格
¥8 / 1M tokens
首字延迟
0.58s
吞吐量
21.95tps
可用性
98.00%
供应商模型名
sophnet/qwen3-235b-a22b
支持的参数
近期可用性
推理
-
支持的响应格式
请求日志收集
-
可用于蒸馏
-
上下文长度
65,536
最大输出
31,000
输入价格
¥2 / 1M tokens
输出价格
¥8 / 1M tokens
首字延迟
0.81s
吞吐量
28.45tps
可用性
100.00%
供应商模型名
alibaba/qwen3-235b-a22b
支持的参数
近期可用性
推理
-
支持的响应格式
请求日志收集
-
可用于蒸馏
-
上下文长度
65,536
最大输出
16,384
输入价格
¥2 / 1M tokens
输出价格
¥20 / 1M tokens
在智脑 API 上对比不同供应商的表现
21.55 tok/s
0.56 s
qwen3-235b-a22b的各供应商可用性
智脑 API 为您统一各供应商的请求与响应格式
import OpenAI from "openai";
const client = new OpenAI({
baseURL: "https://api.360.cn/v1",
apiKey: process.env.ZHINAO_API_KEY,
});
const response = await client.chat.completions.create({
model: "qwen3-235b-a22b",
messages: [
{ role: "user", content: "Hello, how are you?" }
],
temperature: 0.7,
max_tokens: 1000,
});
console.log(response.choices[0].message.content);