跳转到主要内容
POST
/
v1
/
chat
/
completions
OpenAI chat completions
curl --request POST \
  --url http://sandbox.mintlify.com/v1/chat/completions \
  --header 'Authorization: Bearer <token>' \
  --header 'Content-Type: application/json' \
  --data '
{
  "model": "gpt-4o",
  "messages": [
    {
      "role": "system",
      "content": "<string>"
    }
  ],
  "temperature": 123,
  "stream": true
}
'
{
  "id": "<string>",
  "object": "chat.completion",
  "choices": [
    {
      "index": 123,
      "message": {
        "role": "system",
        "content": "<string>"
      },
      "finish_reason": "<string>"
    }
  ],
  "usage": {
    "prompt_tokens": 123,
    "completion_tokens": 123,
    "total_tokens": 123
  }
}
用于为一段聊天对话生成模型回复。 这个接口适合标准文本对话,也可以承载视觉、音频和工具调用等场景。具体可用参数会随着模型能力不同而变化,尤其是推理模型与通用模型之间会有差异。

接入说明

  • 鉴权方式使用 Authorization: Bearer {API_KEY}
  • 请求体通常至少包含 messagesmodel
  • 如果你在兼容现有 OpenAI SDK、聊天前端或多轮对话工作流,这通常是默认入口
  • 如果你更看重统一的结构化输出、多模态输入和后续能力扩展,可以优先评估 /v1/responses
  • 开启流式返回时,请按 SSE chunk 增量处理,而不是等待完整 JSON

请求重点

  • messages 是必填字段,用于承载完整对话历史;不同模型支持的消息模态可能不同
  • model 是必填字段,用于指定本次调用的模型 ID
  • temperaturetop_p 都会影响采样行为,通常只需要重点调整其中一个
  • 如果需要更丰富的调试或概率信息,可以结合 logprobstop_logprobs
  • 如果需要缓存优化或安全归因,优先使用 prompt_cache_keysafety_identifier

返回重点

  • 常规文本结果通常从 choices[0].message.content 读取
  • 如果模型触发工具调用,可以从 message.tool_calls 中读取工具名称和参数
  • 流式模式下,返回内容会分段推送,客户端需要持续消费事件流
  • 用量统计可以从 usage 中读取,包括输入、输出和更细粒度的 token 明细

授权

Authorization
string
header
必填

Bearer authentication header of the form Bearer <token>, where <token> is your auth token.

请求体

application/json
model
string
必填
示例:

"gpt-4o"

messages
object[]
必填
temperature
number
stream
boolean

响应

Successful chat completion response

id
string
object
string
示例:

"chat.completion"

choices
object[]
usage
object