这里只保留 OpenAI 兼容 HTTP 接口说明,以及 cURL、Python、Node.js 的直接调用示例。
接口摘要
| Endpoint | Summary |
|---|---|
POST /v1/chat/completions | 用于标准聊天补全调用,适合多轮对话、工具调用和流式返回。 |
POST /v1/responses | 用于新版统一响应接口,适合结构化输出、多模态输入和后续能力扩展。 |
POST /v1/chat/completions
用于标准聊天补全调用,适合多轮对话、工具调用和流式返回。
请求说明
- 使用 Authorization: Bearer 进行鉴权,请求体核心字段为 model 与 messages。
- messages 按角色顺序传入 system、user、assistant 历史;如需流式返回,额外设置 stream=true。
- 如果网关兼容 OpenAI 协议,这个接口通常是最稳妥的默认接入入口。
响应说明
- 同步结果一般从 choices[0].message.content 读取。
- 如果模型触发工具调用,需要同时处理 tool_calls 和后续工具结果回传。
- 流式模式下返回的是 SSE chunk,而不是一次性完整 JSON。
调用示例
cURL
chat.completionsPython
requestsNode.js
fetch响应示例 (200)
responsePOST /v1/responses
用于新版统一响应接口,适合结构化输出、多模态输入和后续能力扩展。
请求说明
- 同样使用 Bearer Token 鉴权,但请求体主体从 messages 转为 input 与 instructions 等字段。
- 如果你要统一文本与结构化结果输出,优先考虑这个接口而不是旧的 chat.completions。
- response_format、工具定义和多模态输入通常也会优先在这一支接口演进。
响应说明
- 返回结构通常从 output[] 或 output_text 中读取,而不是 choices[0].message。
- 当接口进入异步或工具编排模式时,状态字段会比旧接口更丰富。
- 迁移时应同时检查服务端日志、重试逻辑和字段映射。
