ZX 智行API Developer Docs
AI Gateway · OpenAI Compatible · Multi Provider

一套密钥,调用多家模型。

智行API 是面向开发者的 AI 模型聚合与分发网关。你可以用 OpenAI SDK 的调用方式接入,同时按需使用 Claude、Gemini、DeepSeek、Qwen、Grok、Midjourney 等模型与渠道分组。

/v1 OpenAI 兼容入口
Bearer 统一令牌认证
SSE 支持流式输出

平台概览

智行API 提供统一的模型访问入口,把不同供应商、不同格式、不同渠道分组封装成稳定的 HTTP API。业务侧只需要管理自己的 API Key、模型名、调用参数和错误重试策略。

统一协议

默认使用 OpenAI 兼容格式,现有 SDK 只需替换 baseURL 和 apiKey。

多模型聚合

支持文本、推理、视觉、嵌入、重排、图像、语音等常见模型类型。

分组路由

通过后台分组控制成本、稳定性、模型覆盖和不同业务线的可用渠道。

兼容套件

LCONAI 兼容套件已独立整理,覆盖 Codex、ClaudeCode、图片视频、MJ 与 Suno。

本文档中的令牌示例均为占位符。不要把真实 API Key 写入前端代码、公开仓库、日志或客户端安装包。

快速开始

在控制台创建令牌后,将 SDK 的服务地址改为 https://zhixingai.cloud/v1。下面示例使用 OpenAI 官方 SDK 的兼容调用方式。

Node.js

import OpenAI from "openai";

const client = new OpenAI({
  apiKey: process.env.ZHIXING_API_KEY,
  baseURL: "https://zhixingai.cloud/v1"
});

const completion = await client.chat.completions.create({
  model: "gpt-4o-mini",
  messages: [
    { role: "system", content: "你是一个简洁的技术助手。" },
    { role: "user", content: "用一句话介绍智行API。" }
  ]
});

console.log(completion.choices[0].message.content);

Python

from openai import OpenAI

client = OpenAI(
    api_key="sk-你的令牌",
    base_url="https://zhixingai.cloud/v1",
)

resp = client.chat.completions.create(
    model="gpt-4o-mini",
    messages=[
        {"role": "user", "content": "返回一个 JSON 格式的接入检查清单"}
    ],
)

print(resp.choices[0].message.content)

cURL

curl https://zhixingai.cloud/v1/chat/completions \
  -H "Authorization: Bearer sk-你的令牌" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-4o-mini",
    "messages": [
      {"role": "user", "content": "测试连接是否正常"}
    ]
  }'

认证与令牌

所有模型调用都通过 Bearer Token 鉴权。令牌在控制台创建,可以限制额度、过期时间、模型访问范围、IP 白名单和可用分组。

位置 字段 说明
Header Authorization 固定格式为 Bearer sk-你的令牌
Header Content-Type POST JSON 请求使用 application/json
Body model 模型名称,需要在令牌允许的模型与分组范围内。

服务端调用建议把令牌放在环境变量中,例如 ZHIXING_API_KEY。多租户系统建议为不同用户或业务线分配独立令牌,方便额度、风控和审计。

接口总览

以下路径均以 https://zhixingai.cloud 为根域名。OpenAI 兼容接口通常以 /v1 开头。

接口 方法 用途
/v1/chat/completions POST 聊天补全,适合对话、工具调用、结构化输出。
/v1/responses POST Responses 兼容入口,适合新式多模态与推理任务。
/v1/messages POST Claude Messages 兼容入口。
/v1beta/models GET Gemini 兼容模型列表。
/v1/embeddings POST 文本向量化。
/v1/rerank POST 文档重排。
/v1/images/generations POST 图像生成。
/v1/audio/speech POST 文本转语音。
/v1/audio/transcriptions POST 语音转文字。

Chat Completions

这是最常用的兼容接口,适合绝大多数聊天、分类、抽取、改写、代码生成和客服场景。

{
  "model": "gpt-4o-mini",
  "messages": [
    {"role": "system", "content": "你只输出 JSON。"},
    {"role": "user", "content": "提取订单号:订单 ZX-20260508 已支付"}
  ],
  "temperature": 0.2,
  "stream": false
}

流式输出

stream 设为 true 后,服务会按 SSE 分片返回增量内容。前端或后端需要按 data: 行解析,直到收到 [DONE]

curl https://zhixingai.cloud/v1/chat/completions \
  -H "Authorization: Bearer sk-你的令牌" \
  -H "Content-Type: application/json" \
  -N \
  -d '{
    "model": "gpt-4o-mini",
    "stream": true,
    "messages": [{"role":"user","content":"分三点介绍流式输出"}]
  }'

Responses API

/v1/responses 适合需要统一输入输出结构的新式任务。不同上游模型的支持能力会有差异,生产环境建议在上线前对目标模型做固定用例回归。

const response = await client.responses.create({
  model: "gpt-5-mini",
  input: [
    {
      role: "user",
      content: "写一个用于健康检查的 JSON 响应示例"
    }
  ]
});

console.log(response.output_text);

如果你的 SDK 还不支持 Responses API,可以用普通 HTTP POST 调用。

Claude 兼容

Claude Messages 兼容入口为 /v1/messages。当你使用 Claude SDK 或 Anthropic 兼容客户端时,把 base URL 指到智行API 域名,并使用智行API 令牌。

curl https://zhixingai.cloud/v1/messages \
  -H "Authorization: Bearer sk-你的令牌" \
  -H "Content-Type: application/json" \
  -H "anthropic-version: 2023-06-01" \
  -d '{
    "model": "claude-sonnet-4-5-20250929",
    "max_tokens": 1024,
    "messages": [
      {"role": "user", "content": "给出 API 网关的三条稳定性建议"}
    ]
  }'
Claude 模型名、上下文长度、thinking 参数和工具调用能力取决于后台渠道配置。若请求返回模型不可用,请在控制台确认令牌分组是否包含对应渠道。

Gemini 兼容

Gemini 兼容接口通常使用 /v1beta 路径。不同 SDK 对 base URL 拼接规则不同,建议先用 cURL 完成联调,再接入业务 SDK。

curl "https://zhixingai.cloud/v1beta/models/gemini-2.5-flash:generateContent" \
  -H "Authorization: Bearer sk-你的令牌" \
  -H "Content-Type: application/json" \
  -d '{
    "contents": [
      {
        "parts": [
          {"text": "用一句话解释模型聚合网关"}
        ]
      }
    ]
  }'

图像、嵌入与音频

智行API 支持多种非聊天能力。实际可用模型由后台渠道和用户分组决定。

Embeddings

用于语义检索、聚类、推荐、RAG 入库。接口为 /v1/embeddings

Rerank

用于检索结果重排。接口为 /v1/rerank

Images

图像生成、编辑和变体接口使用 /v1/images/*

Audio

语音合成、转写、翻译接口使用 /v1/audio/*

curl https://zhixingai.cloud/v1/embeddings \
  -H "Authorization: Bearer sk-你的令牌" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "text-embedding-3-small",
    "input": "智行API 文档检索样本文本"
  }'

模型与分组

智行API 使用“模型 + 分组 + 渠道”的方式路由请求。管理员可以把不同供应商、不同价格、不同稳定性的渠道放入不同分组,用户令牌只会访问被授权的分组。

分组 定位
default 默认分组,适合通用模型覆盖。
A1 / A2 特价或国产模型推荐分组,适合成本敏感任务。
G1 / G2 高稳定或高性价比分组,适合生产业务按需选择。
claude max / claude AWS Claude 专用渠道,适合长上下文、代码和复杂推理任务。
gemini-vertex Gemini Vertex 渠道,适合 Gemini 兼容调用。
mj1 Midjourney 绘图相关能力。

如果某个模型返回不可用,通常需要检查三件事:模型名是否存在、令牌是否允许该模型、令牌所属分组是否有可用渠道。

额度与计费

额度消耗由模型倍率、分组倍率、输入输出 token、图片或音频等附加计费项共同决定。不同模型的实际成本差异很大,生产环境建议按业务线创建独立令牌,并设置额度上限。

  • 聊天与文本模型通常按输入 token 和输出 token 计费。
  • 图片、音频、缓存读写、重排等能力可能有独立倍率。
  • 流式输出不改变最终计费逻辑,只改变响应传输方式。
  • 重试会产生额外消耗,客户端应限制最大重试次数。

错误码

智行API 尽量保持与 OpenAI 兼容的错误返回格式。客户端应同时读取 HTTP 状态码和响应体里的错误信息。

状态码 常见原因 处理建议
400 请求体格式错误、参数不支持、模型名为空。 打印请求 JSON,检查 SDK 版本和模型能力。
401 令牌缺失、格式错误、令牌无效。 检查 Authorization 是否为 Bearer 格式。
403 令牌被禁用、IP 不在白名单、模型或分组无权限。 到控制台检查令牌限制和分组授权。
404 路径错误或模型未找到。 确认 base URL 不要重复拼接 /v1/v1
429 请求过快、额度不足、上游限流。 加入指数退避,必要时切换分组或扩充额度。
500 / 502 / 503 上游模型异常、渠道暂不可用、网关内部错误。 对幂等任务重试,记录请求 ID 方便排查。
{
  "error": {
    "message": "令牌无效或额度不足",
    "type": "invalid_request_error",
    "code": "invalid_api_key"
  }
}

最佳实践

  1. 服务端保存 API Key,不要在浏览器、移动端或公开配置里暴露真实令牌。
  2. 为开发、测试、生产分别创建令牌,生产令牌设置额度上限和 IP 限制。
  3. 对 429、502、503 使用指数退避重试,对非幂等任务不要盲目重放。
  4. 记录模型名、分组、请求 ID、耗时、状态码和错误摘要,便于定位渠道问题。
  5. 固定生产模型名,不要依赖随时变化的 latest 模型做关键业务决策。
  6. 上线前为结构化输出、工具调用、长上下文和多模态输入分别做回归用例。