跳转到主要内容
POST
/
v1
/
responses
OpenAI responses
curl --request POST \
  --url http://sandbox.mintlify.com/v1/responses \
  --header 'Authorization: Bearer <token>' \
  --header 'Content-Type: application/json' \
  --data '
{
  "model": "gpt-4.1",
  "input": "<string>",
  "instructions": "<string>",
  "max_output_tokens": 123
}
'
{
  "id": "<string>",
  "object": "response",
  "status": "<string>",
  "output_text": "<string>",
  "output": [
    {}
  ],
  "usage": {
    "input_tokens": 123,
    "output_tokens": 123,
    "total_tokens": 123
  }
}
用于创建统一的模型响应对象,适合文本生成、结构化输出、工具调用以及多模态输入。 这个接口比 chat.completions 更适合做新接入,因为它把文本、图像、工具和推理控制放进了同一套请求模型。不同模型支持的字段会有差异,尤其是推理能力、工具能力和多模态输入范围。

接入说明

  • 鉴权方式使用 Authorization: Bearer {API_KEY}
  • 如果你要统一文本输出、结构化 JSON、工具调用和后续多模态扩展,优先使用这个接口
  • 多轮对话可以通过 previous_response_id 串联上下文
  • 推理模型场景下,建议把 reasoningmax_output_tokenstools 这类控制项收敛到服务端统一下发
  • 流式接入时同样需要按事件流逐段消费,而不是等待整包 JSON

请求重点

  • input 是最常见的输入字段,可以承载文本或多模态内容块
  • model 用于指定本次调用的模型 ID
  • 如果要连续对话,可以结合 previous_response_id 复用上下文,而不是每次重传全部历史
  • 如果要做结构化输出,优先显式声明 JSON 格式相关配置,再在服务端做结果校验
  • 如果要启用工具调用,需要一并传入 tools,并处理模型返回的工具调用结果

返回重点

  • 简单文本结果通常可以从 output_text 读取
  • 更完整的结构化结果需要查看 output[] 中的各类内容块
  • 工具调用、推理片段和多模态输出也会落在统一响应对象里,客户端不要只假设返回纯文本
  • 计费用量与输出状态可以从响应对象的元信息和 usage 字段中读取

授权

Authorization
string
header
必填

Bearer authentication header of the form Bearer <token>, where <token> is your auth token.

请求体

application/json
model
string
必填
示例:

"gpt-4.1"

input
必填
instructions
string
max_output_tokens
integer

响应

Successful responses payload

id
string
object
string
示例:

"response"

status
string
output_text
string
output
object[]
usage
object