快速开始

1

注册并获取 Key

注册账号后,在控制台创建一个 API Key

2

配置 Base URL

设置为 api.tokenmp.cn

3

发起请求

使用 OpenAI SDK 或 HTTP 请求即可调用

认证方式

所有 API 请求都需要在 Header 中携带 Bearer Token:

Authorization: Bearer sk-xxxxxxxxxxxxxxxxxxxxxxxx

请妥善保管您的 API Key,不要在客户端代码中暴露。

API 端点

Base URL: https://api.tokenmp.cn

POST /v1/chat/completions

聊天补全接口(主要接口),兼容 OpenAI Chat Completions API

POST /v1/completions

文本补全接口,兼容 OpenAI Completions API

GET /v1/models

获取可用模型列表

模型列表

模型名称 提供商 说明
mimo-1阶跃星辰MIMO 模型
minimax-text-01稀宇科技MiniMax 文本模型
glm-4智谱 AIGLM-4 模型
doubao-pro字节跳动豆包 Pro
qwen-turbo阿里巴巴通义千问 Turbo
ernie-4.0百度文心一言 4.0

模型列表持续更新,通过 GET /v1/models 获取最新列表。

请求示例

cURL 请求

curl https://api.tokenmp.cn/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer sk-xxxxxxxx" \
  -d '{
    "model": "glm-4",
    "messages": [
      {"role": "user", "content": "你好"}
    ]
  }'

响应示例

{
  "id": "chatcmpl-xxxxxxxx",
  "object": "chat.completion",
  "created": 1700000000,
  "model": "glm-4",
  "choices": [{
    "index": 0,
    "message": {
      "role": "assistant",
      "content": "你好!有什么我可以帮助你的吗?"
    },
    "finish_reason": "stop"
  }],
  "usage": {
    "prompt_tokens": 5,
    "completion_tokens": 12,
    "total_tokens": 17
  }
}

Python SDK

from openai import OpenAI

client = OpenAI(
    api_key="sk-xxxxxxxx",
    base_url="https://api.tokenmp.cn/v1"
)

response = client.chat.completions.create(
    model="glm-4",
    messages=[{"role": "user", "content": "你好"}]
)

print(response.choices[0].message.content)

错误码

状态码 说明 处理建议
400请求参数错误检查请求体格式和参数
401认证失败检查 API Key 是否正确
429请求限流等待 Retry-After 后重试
500服务器内部错误稍后重试或联系客服
503服务暂不可用上游模型不可用,稍后重试

限流说明

429 响应处理

当请求被限流时,API 返回 HTTP 429。响应头包含 Retry-After 字段,表示距离下次可请求的秒数。

HTTP/1.1 429 Too Many Requests
Retry-After: 3600

{
  "error": {
    "type": "rate_limit_error",
    "message": "请求频率超限,请在 3600 秒后重试"
  }
}

建议在客户端实现指数退避重试策略,避免在限流期间反复请求。