快速开始
1
注册并获取 Key
注册账号后,在控制台创建一个 API Key
2
配置 Base URL
设置为 api.tokenmp.cn
3
发起请求
使用 OpenAI SDK 或 HTTP 请求即可调用
认证方式
所有 API 请求都需要在 Header 中携带 Bearer Token:
Authorization: Bearer sk-xxxxxxxxxxxxxxxxxxxxxxxx
请妥善保管您的 API Key,不要在客户端代码中暴露。
API 端点
Base URL: https://api.tokenmp.cn
POST
/v1/chat/completions
聊天补全接口(主要接口),兼容 OpenAI Chat Completions API
POST
/v1/completions
文本补全接口,兼容 OpenAI Completions API
GET
/v1/models
获取可用模型列表
模型列表
| 模型名称 | 提供商 | 说明 |
|---|---|---|
| mimo-1 | 阶跃星辰 | MIMO 模型 |
| minimax-text-01 | 稀宇科技 | MiniMax 文本模型 |
| glm-4 | 智谱 AI | GLM-4 模型 |
| doubao-pro | 字节跳动 | 豆包 Pro |
| qwen-turbo | 阿里巴巴 | 通义千问 Turbo |
| ernie-4.0 | 百度 | 文心一言 4.0 |
模型列表持续更新,通过 GET /v1/models 获取最新列表。
请求示例
cURL 请求
curl https://api.tokenmp.cn/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer sk-xxxxxxxx" \
-d '{
"model": "glm-4",
"messages": [
{"role": "user", "content": "你好"}
]
}'
响应示例
{
"id": "chatcmpl-xxxxxxxx",
"object": "chat.completion",
"created": 1700000000,
"model": "glm-4",
"choices": [{
"index": 0,
"message": {
"role": "assistant",
"content": "你好!有什么我可以帮助你的吗?"
},
"finish_reason": "stop"
}],
"usage": {
"prompt_tokens": 5,
"completion_tokens": 12,
"total_tokens": 17
}
}
Python SDK
from openai import OpenAI
client = OpenAI(
api_key="sk-xxxxxxxx",
base_url="https://api.tokenmp.cn/v1"
)
response = client.chat.completions.create(
model="glm-4",
messages=[{"role": "user", "content": "你好"}]
)
print(response.choices[0].message.content)
错误码
| 状态码 | 说明 | 处理建议 |
|---|---|---|
400 | 请求参数错误 | 检查请求体格式和参数 |
401 | 认证失败 | 检查 API Key 是否正确 |
429 | 请求限流 | 等待 Retry-After 后重试 |
500 | 服务器内部错误 | 稍后重试或联系客服 |
503 | 服务暂不可用 | 上游模型不可用,稍后重试 |
限流说明
429 响应处理
当请求被限流时,API 返回 HTTP 429。响应头包含 Retry-After 字段,表示距离下次可请求的秒数。
HTTP/1.1 429 Too Many Requests
Retry-After: 3600
{
"error": {
"type": "rate_limit_error",
"message": "请求频率超限,请在 3600 秒后重试"
}
}
建议在客户端实现指数退避重试策略,避免在限流期间反复请求。