tokenhot.cn
    • 服务条款
    • 隐私协议
    • 🌐 OpenAI 兼容格式 — 大模型统一调用文档
    • Image Models
      • DOUBAO
        • doubao-seedream-4-0-250828(图片编辑)
        • doubao-seedream-4-5-251128(图片编辑)
        • doubao-seedream-5-0-260128(图片编辑)
        • doubao-seedream-4-0-250828
        • doubao-seedream-4-5-251128
        • doubao-seedream-5-0-260128
      • GPT
        • GPT Image-1.5
        • GPT Image-1.5(图片编辑)
      • Gemini
        • gemini-2.5-flash-image(图片编辑)
        • gemini-3-pro-image-preview(图片编辑)
        • gemini-3.1-flash-image-preview(图片编辑)
        • gemini-2.5-flash-image
        • gemini-3-pro-image-preview
        • gemini-3.1-flash-image-preview
      • Qwen
        • qwen-image-edit-max-2026-01-16
        • qwen-image-max
        • qwen-image-plus-2026-01-09
      • dall
        • dall-e-2
        • dall-e-3
      • wan
        • wan2.6-image
        • wan2.6-image(图片编辑)
        • wan2.6-t2i
    • Video Models
      • DOUBAO
        • doubao-seedance-1-5-pro-251215
        • doubao-seedance-1-5-pro-251215(获取视频任务信息)
        • doubao-seedance-2.0
        • doubao-seedance-2.0(获取视频任务信息)
        • doubao-seedance-2.0-V2V
        • doubao-seedance-2.0-V2V(获取视频任务信息)
        • doubao-seedance-2.0-fast
        • doubao-seedance-2.0-fast(获取视频任务信息)
        • doubao-seedance-2.0-fast-V2V
        • doubao-seedance-2.0-fast-V2V(获取视频任务信息)
    • Audio Models
      • Gemini
        • gemini-2.5-flash-preview-tts
        • gemini-2.5-pro-preview-tts
      • whisper
        • whisper-1(音频翻译)
        • whisper-1(音频转中文)
    • Chat Models
      • Claude
        • claude-opus-4-6
        • claude-opus-4-6-cc
        • claude-sonnet-4-5-20250929
      • GPT
        • GPT 5
        • GPT 5(Responses)
        • GPT 5.2
        • GPT 5.2(Responses)
        • GPT 5.4
        • GPT 5.4(Responses)
      • Gemini
        • gemini-2.5-flash
        • gemini-2.5-pro
        • gemini-3-flash-preview
        • gemini-3.1-pro
        • gemini-3.1-pro-preview
        • gemini-3.1-pro-preview(流式)

    🌐 OpenAI 兼容格式 — 大模型统一调用文档

    📖 概述#

    以下模型厂商均支持通过 OpenAI 兼容格式 进行调用,请求格式与 OpenAI chat/completions 接口完全一致。
    只需替换请求体中的 model 参数为对应的模型名称,即可调用不同厂商的模型,无需修改其他代码。

    🌐 接口地址#

    https://api.tokenhot.cn/v1/chat/completions

    🎯 使用方法#

    只需替换 model 参数为您需要的模型名称即可。

    ℹ️ 基础信息#

    项目说明
    Base URLhttps://api.tokenhot.cn
    请求方式POST
    请求路径/v1/chat/completions
    认证方式Bearer Token(在请求头中添加 Authorization: Bearer YOUR_API_KEY)
    Content-Typeapplication/json

    🤖 支持的模型列表#

    1. 千问(Qwen)— 阿里云#

    阿里云千问系列,覆盖旗舰、均衡、高速等多层次模型,全面支持 Function Calling 和流式输出。最新 Qwen3.5 系列支持百万级上下文。
    模型名称(model 值)说明上下文窗口
    qwen3.5-plus最新旗舰,基于 MoE 混合专家架构,具备卓越的逻辑推理、代码编写和多模态能力1M
    qwen3.5-flash最新高速,基于 Qwen3.5-35B-A3B 架构,高性价比和快速响应1M
    qwen3.5-397b-a17b新一代原生多模态大模型(MoE),在推理、代码、视觉理解等方面表现突出1M
    qwen-max经典旗舰模型,适合复杂推理、代码生成、多语言任务32K
    qwen-plus均衡模型,性能/速度/成本最佳平衡128K
    qwen-turbo高速模型,适合高吞吐量通用场景128K

    2. DeepSeek#

    DeepSeek 系列模型,最新的 V3.2 引入了稀疏注意力机制(DSA),大幅降低推理成本并提升长上下文处理能力。
    模型名称(model 值)说明上下文窗口
    DeepSeek-V3.2最新旗舰,具备顶尖推理能力的 MoE 模型,通过 DSA 优化长上下文处理128K
    DeepSeek-V3.2-ThinkingV3.2 思维链版本,前沿思维链与稀疏注意力机制融合,适合深度推理128K
    DeepSeek-V3.2-FastV3.2 高速版本,适合高吞吐量场景128K
    deepseek-v3.1上一代统一架构模型,融合对话、推理和编码能力128K
    deepseek-reasoner经典推理模型,通过思维链技术实现深度逻辑推理128K
    ⚠️ deepseek-reasoner 注意事项:
    不支持 temperature、top_p、presence_penalty、frequency_penalty 参数
    不支持 Function Calling
    响应中会包含额外的 reasoning_content 字段
    多轮对话时需从历史消息中移除 reasoning_content

    3. xAI(Grok)#

    xAI 公司的 Grok 系列模型,最新 Grok 4.x 系列采用多智能体协作架构,支持超长上下文和深度推理。
    模型名称(model 值)说明上下文窗口
    grok-4.2最新旗舰,多智能体协作推理架构,适合复杂分析和深度推理2M
    grok-4.1新一代旗舰,在保持深层推理能力的同时大幅增强对话连贯性2M
    grok-4.1-fast4.1 高速版本,通用任务首选,低成本高效率2M
    grok-4-fast-reasoning高性能推理模型,优化了推理速度与效率2M
    grok-3-mini轻量级推理模型,高效率与高性价比131K

    4. 智谱 AI(GLM)#

    智谱 AI 的 GLM 系列模型,最新 GLM-5 采用动态稀疏注意力(DSA)机制,在对话、代码、Agent 任务等方面表现出色。
    模型名称(model 值)说明上下文窗口
    glm-5最新旗舰,新一代旗舰模型,在逻辑推理与复杂指令遵循方面表现卓越200K
    glm-4.7上一代旗舰,在代码生成和 Agent 任务中表现出色200K
    glm-4.7-cc4.7 旗舰级智能体编程模型,专注复杂任务规划与全栈编码200K
    glm-4.6新一代旗舰模型,针对复杂智能体与工程化场景深度优化200K
    glm-4.5-air轻量高速模型,低成本快速响应128K

    5. MiniMax#

    MiniMax 系列模型,最新 M2.7 系列专注 Agent 工作流和高级推理,支持 OpenAI 和 Anthropic 双协议。
    模型名称(model 值)说明上下文窗口
    MiniMax-M2.7最新旗舰,具备强大的自主进化与复杂工程任务处理能力204K
    MiniMax-M2.7-ccM2.7 高性价比版本,适合高吞吐量的编程与 Agent 工具使用204K
    MiniMax-M2.5上一代旗舰,主打代码生成和重构204K
    MiniMax-M2.5-ccM2.5 高性价比版本,低延迟生产环境设计204K

    6. 月之暗面(Moonshot / Kimi)#

    月之暗面的 Moonshot 和 Kimi 系列,以超长上下文处理和 Agent 能力著称。最新 Kimi K2.5 支持原生多模态。
    模型名称(model 值)说明上下文窗口
    kimi-k2.5最新旗舰,原生多模态 MoE 模型(1T 参数),支持 Agent Swarm 协作256K
    kimi-k2上一代旗舰,强大的编码和 Agent 能力256K
    moonshot-v1-128k经典超长上下文模型,适合大规模文档分析128K
    moonshot-v1-32k中等上下文,适合文档分析和长对话32K
    moonshot-v1-8k基础模型,适合短对话和日常任务8K

    💻 请求示例#

    Python 示例代码#

    💡 API Key。获取地址:https://api.tokenhot.cn/api-key

    cURL 示例#

    OpenAI SDK 示例(Python)#

    Node.js 示例#


    📤 返回示例#

    成功响应结构#

    {
      "id": "chatcmpl-abc123def456",
      "object": "chat.completion",
      "created": 1711712000,
      "model": "qwen-max",
      "choices": [
        {
          "index": 0,
          "message": {
            "role": "assistant",
            "content": "量子计算是一种基于量子力学原理的新型计算模式。与传统计算机使用比特(0或1)不同,量子计算机使用量子比特(qubit),它可以同时处于0和1的叠加态..."
          },
          "finish_reason": "stop"
        }
      ],
      "usage": {
        "prompt_tokens": 28,
        "completion_tokens": 156,
        "total_tokens": 184
      }
    }

    响应字段说明#

    字段类型说明
    idstring本次请求的唯一标识
    objectstring固定为 chat.completion
    createdinteger响应创建的 Unix 时间戳
    modelstring实际使用的模型名称
    choices[].message.rolestring固定为 assistant
    choices[].message.contentstring模型生成的回复内容
    choices[].finish_reasonstringstop=正常结束,length=达到最大 token
    usage.prompt_tokensinteger输入消耗的 token 数
    usage.completion_tokensinteger输出消耗的 token 数
    usage.total_tokensinteger总消耗 token 数

    📝 请求参数说明#

    参数类型必填默认值说明
    modelstring✅—模型名称,参见上方支持的模型列表
    messagesarray✅—对话消息列表,包含 role 和 content
    temperaturenumber❌1.0采样温度 (0-2),值越高输出越随机
    top_pnumber❌1.0核采样概率 (0-1),与 temperature 二选一
    max_tokensinteger❌—生成的最大 token 数
    streamboolean❌false是否启用 SSE 流式输出
    stopstring/array❌—停止词,遇到时停止生成
    presence_penaltynumber❌0存在惩罚 (-2.0 ~ 2.0)
    frequency_penaltynumber❌0频率惩罚 (-2.0 ~ 2.0)
    toolsarray❌—工具/函数调用定义(部分模型支持)
    response_formatobject❌—响应格式,如 {"type": "json_object"}(部分模型支持)

    messages 数组中的消息角色#

    role说明
    system系统指令,定义 AI 的行为和角色
    user用户输入的消息
    assistantAI 之前的回复(用于多轮对话)

    ⚠️ 错误码与错误响应说明#

    错误码概览#

    状态码类型说明
    400BusinessError业务校验失败 — 如缺少必填参数、模型不支持当前请求格式等
    401GatewayError认证失败 — API Key 无效、过期或缺失
    503GatewayError服务不可用 — 上游渠道异常或服务暂时不可用

    400 — 业务错误(BusinessError)#

    当请求参数校验失败(如缺少必填字段、模型不支持某种输入格式等)时返回此结构:
    {
      "code": "video_url_required",
      "message": "model doubao-seedance-2.0-V2V requires video_url content",
      "data": null
    }
    字段类型必返说明
    codestring✅业务错误代码,标识具体的错误类型
    messagestring✅错误的详细描述信息,说明出错的原因
    datanull❌业务负载,错误时固定为 null

    401 / 503 — 网关错误(GatewayError)#

    当鉴权失败(401)或上游渠道异常(503)时返回此结构:
    401 示例(令牌无效):
    {
      "error": {
        "code": "",
        "message": "无效的令牌 (request id: 20260327...)",
        "type": "new_api_error"
      }
    }
    503 示例(渠道异常):
    {
      "error": {
        "code": "model_not_found",
        "message": "当前分组没有可用的渠道 (request id: 20260330...)",
        "type": "new_api_error"
      }
    }
    字段类型必返说明
    errorobject✅错误对象详情
    error.codestring❌系统错误代码,有时可能为空字符串
    error.messagestring✅系统错误描述,通常包含 request id 便于排查
    error.typestring✅错误类型分类,如 new_api_error

    📌 温馨提示: 不同模型在部分参数支持上可能略有差异(例如 deepseek-reasoner 不支持 temperature),具体请参考各模型的详细说明。如有疑问,请联系 TokenHot 客服。
    Modified at 2026-04-01 09:13:34
    Previous
    隐私协议
    Next
    doubao-seedream-4-0-250828(图片编辑)
    Built with