chat/completions 接口完全一致。model 参数为对应的模型名称,即可调用不同厂商的模型,无需修改其他代码。https://api.tokenhot.cn/v1/chat/completionsmodel 参数为您需要的模型名称即可。| 项目 | 说明 |
|---|---|
| Base URL | https://api.tokenhot.cn |
| 请求方式 | POST |
| 请求路径 | /v1/chat/completions |
| 认证方式 | Bearer Token(在请求头中添加 Authorization: Bearer YOUR_API_KEY) |
| Content-Type | application/json |
阿里云千问系列,覆盖旗舰、均衡、高速等多层次模型,全面支持 Function Calling 和流式输出。最新 Qwen3.5 系列支持百万级上下文。
| 模型名称(model 值) | 说明 | 上下文窗口 |
|---|---|---|
qwen3.5-plus | 最新旗舰,基于 MoE 混合专家架构,具备卓越的逻辑推理、代码编写和多模态能力 | 1M |
qwen3.5-flash | 最新高速,基于 Qwen3.5-35B-A3B 架构,高性价比和快速响应 | 1M |
qwen3.5-397b-a17b | 新一代原生多模态大模型(MoE),在推理、代码、视觉理解等方面表现突出 | 1M |
qwen-max | 经典旗舰模型,适合复杂推理、代码生成、多语言任务 | 32K |
qwen-plus | 均衡模型,性能/速度/成本最佳平衡 | 128K |
qwen-turbo | 高速模型,适合高吞吐量通用场景 | 128K |
DeepSeek 系列模型,最新的 V3.2 引入了稀疏注意力机制(DSA),大幅降低推理成本并提升长上下文处理能力。
| 模型名称(model 值) | 说明 | 上下文窗口 |
|---|---|---|
DeepSeek-V3.2 | 最新旗舰,具备顶尖推理能力的 MoE 模型,通过 DSA 优化长上下文处理 | 128K |
DeepSeek-V3.2-Thinking | V3.2 思维链版本,前沿思维链与稀疏注意力机制融合,适合深度推理 | 128K |
DeepSeek-V3.2-Fast | V3.2 高速版本,适合高吞吐量场景 | 128K |
deepseek-v3.1 | 上一代统一架构模型,融合对话、推理和编码能力 | 128K |
deepseek-reasoner | 经典推理模型,通过思维链技术实现深度逻辑推理 | 128K |
⚠️ deepseek-reasoner 注意事项: 不支持 temperature、top_p、presence_penalty、frequency_penalty参数不支持 Function Calling 响应中会包含额外的 reasoning_content字段多轮对话时需从历史消息中移除 reasoning_content
xAI 公司的 Grok 系列模型,最新 Grok 4.x 系列采用多智能体协作架构,支持超长上下文和深度推理。
| 模型名称(model 值) | 说明 | 上下文窗口 |
|---|---|---|
grok-4.2 | 最新旗舰,多智能体协作推理架构,适合复杂分析和深度推理 | 2M |
grok-4.1 | 新一代旗舰,在保持深层推理能力的同时大幅增强对话连贯性 | 2M |
grok-4.1-fast | 4.1 高速版本,通用任务首选,低成本高效率 | 2M |
grok-4-fast-reasoning | 高性能推理模型,优化了推理速度与效率 | 2M |
grok-3-mini | 轻量级推理模型,高效率与高性价比 | 131K |
智谱 AI 的 GLM 系列模型,最新 GLM-5 采用动态稀疏注意力(DSA)机制,在对话、代码、Agent 任务等方面表现出色。
| 模型名称(model 值) | 说明 | 上下文窗口 |
|---|---|---|
glm-5 | 最新旗舰,新一代旗舰模型,在逻辑推理与复杂指令遵循方面表现卓越 | 200K |
glm-4.7 | 上一代旗舰,在代码生成和 Agent 任务中表现出色 | 200K |
glm-4.7-cc | 4.7 旗舰级智能体编程模型,专注复杂任务规划与全栈编码 | 200K |
glm-4.6 | 新一代旗舰模型,针对复杂智能体与工程化场景深度优化 | 200K |
glm-4.5-air | 轻量高速模型,低成本快速响应 | 128K |
MiniMax 系列模型,最新 M2.7 系列专注 Agent 工作流和高级推理,支持 OpenAI 和 Anthropic 双协议。
| 模型名称(model 值) | 说明 | 上下文窗口 |
|---|---|---|
MiniMax-M2.7 | 最新旗舰,具备强大的自主进化与复杂工程任务处理能力 | 204K |
MiniMax-M2.7-cc | M2.7 高性价比版本,适合高吞吐量的编程与 Agent 工具使用 | 204K |
MiniMax-M2.5 | 上一代旗舰,主打代码生成和重构 | 204K |
MiniMax-M2.5-cc | M2.5 高性价比版本,低延迟生产环境设计 | 204K |
月之暗面的 Moonshot 和 Kimi 系列,以超长上下文处理和 Agent 能力著称。最新 Kimi K2.5 支持原生多模态。
| 模型名称(model 值) | 说明 | 上下文窗口 |
|---|---|---|
kimi-k2.5 | 最新旗舰,原生多模态 MoE 模型(1T 参数),支持 Agent Swarm 协作 | 256K |
kimi-k2 | 上一代旗舰,强大的编码和 Agent 能力 | 256K |
moonshot-v1-128k | 经典超长上下文模型,适合大规模文档分析 | 128K |
moonshot-v1-32k | 中等上下文,适合文档分析和长对话 | 32K |
moonshot-v1-8k | 基础模型,适合短对话和日常任务 | 8K |
💡 API Key。获取地址:https://api.tokenhot.cn/api-key
{
"id": "chatcmpl-abc123def456",
"object": "chat.completion",
"created": 1711712000,
"model": "qwen-max",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "量子计算是一种基于量子力学原理的新型计算模式。与传统计算机使用比特(0或1)不同,量子计算机使用量子比特(qubit),它可以同时处于0和1的叠加态..."
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 28,
"completion_tokens": 156,
"total_tokens": 184
}
}| 字段 | 类型 | 说明 |
|---|---|---|
id | string | 本次请求的唯一标识 |
object | string | 固定为 chat.completion |
created | integer | 响应创建的 Unix 时间戳 |
model | string | 实际使用的模型名称 |
choices[].message.role | string | 固定为 assistant |
choices[].message.content | string | 模型生成的回复内容 |
choices[].finish_reason | string | stop=正常结束,length=达到最大 token |
usage.prompt_tokens | integer | 输入消耗的 token 数 |
usage.completion_tokens | integer | 输出消耗的 token 数 |
usage.total_tokens | integer | 总消耗 token 数 |
| 参数 | 类型 | 必填 | 默认值 | 说明 |
|---|---|---|---|---|
model | string | ✅ | — | 模型名称,参见上方支持的模型列表 |
messages | array | ✅ | — | 对话消息列表,包含 role 和 content |
temperature | number | ❌ | 1.0 | 采样温度 (0-2),值越高输出越随机 |
top_p | number | ❌ | 1.0 | 核采样概率 (0-1),与 temperature 二选一 |
max_tokens | integer | ❌ | — | 生成的最大 token 数 |
stream | boolean | ❌ | false | 是否启用 SSE 流式输出 |
stop | string/array | ❌ | — | 停止词,遇到时停止生成 |
presence_penalty | number | ❌ | 0 | 存在惩罚 (-2.0 ~ 2.0) |
frequency_penalty | number | ❌ | 0 | 频率惩罚 (-2.0 ~ 2.0) |
tools | array | ❌ | — | 工具/函数调用定义(部分模型支持) |
response_format | object | ❌ | — | 响应格式,如 {"type": "json_object"}(部分模型支持) |
| role | 说明 |
|---|---|
system | 系统指令,定义 AI 的行为和角色 |
user | 用户输入的消息 |
assistant | AI 之前的回复(用于多轮对话) |
| 状态码 | 类型 | 说明 |
|---|---|---|
400 | BusinessError | 业务校验失败 — 如缺少必填参数、模型不支持当前请求格式等 |
401 | GatewayError | 认证失败 — API Key 无效、过期或缺失 |
503 | GatewayError | 服务不可用 — 上游渠道异常或服务暂时不可用 |
{
"code": "video_url_required",
"message": "model doubao-seedance-2.0-V2V requires video_url content",
"data": null
}| 字段 | 类型 | 必返 | 说明 |
|---|---|---|---|
code | string | ✅ | 业务错误代码,标识具体的错误类型 |
message | string | ✅ |