01
模型路由
在多家国产模型间灵活切换,无需重写客户端代码。
DeepSeekQwenGLMKimi豆包Llama
一次接入,统一调用 DeepSeek、Qwen、GLM、Kimi、豆包、文心、混元等主流国产模型。保持 OpenAI 兼容格式,同时获得调用日志和渠道治理能力。
curl -X POST "/v1/chat/completions" \
-H "Authorization: Bearer sk-••••" \
-d '{
"model": "your-model",
"messages": [
{ "role": "user", "content": "..." }
]
}' {
"choices": [{ "message": { "content": "Chat request routed." } }],
"usage": { "total_tokens": 27 }
} curl -X POST "/v1/responses" \
-H "Authorization: Bearer sk-••••" \
-d '{
"model": "your-model",
"input": "..."
}' {
"output": [{ "type": "output_text", "text": "Response workflow ready." }],
"usage": { "total_tokens": 31 }
} curl -X POST "/v1/messages" \
-H "Authorization: Bearer sk-••••" \
-d '{
"model": "your-model",
"messages": [
{ "role": "user", "content": "..." }
]
}' {
"content": [{ "type": "text", "text": "DeepSeek message routed." }],
"usage": { "input_tokens": 11, "output_tokens": 18 }
} 在多家国产模型间灵活切换,无需重写客户端代码。
统一管理渠道、密钥、额度和调用权限,降低运维复杂度。
按可用性与延迟策略调度请求,让业务链路更稳。
保留熟悉的请求格式,同时补齐价格、日志和供应商选择。
创建密钥、选择供应商,并为不同业务配置路由规则。
用熟悉的 OpenAI 风格请求接入 Chat、Responses 与厂商消息接口。
在同一控制台查看延迟、token 用量与成本信号。