メインコンテンツへスキップ
POST
/
v1
/
responses
OpenAI responses
curl --request POST \
  --url https://maas.apigo.ai/v1/responses \
  --header 'Authorization: Bearer <token>' \
  --header 'Content-Type: application/json' \
  --data '
{
  "model": "gpt-4.1",
  "input": "<string>",
  "instructions": "<string>",
  "max_output_tokens": 123
}
'
{
  "id": "<string>",
  "object": "response",
  "status": "<string>",
  "output_text": "<string>",
  "output": [
    {}
  ],
  "usage": {
    "input_tokens": 123,
    "output_tokens": 123,
    "total_tokens": 123
  }
}

Documentation Index

Fetch the complete documentation index at: https://docs.apigo.ai/llms.txt

Use this file to discover all available pages before exploring further.

テキスト生成、構造化出力、ツール呼び出し、およびマルチモーダル入力用の統合応答オブジェクトを作成します。 chat.completions と比較して、このエンドポイントは、テキスト、画像、推論コントロール、ツールがすべて 1 つの応答モデルを共有しているため、新しい統合に適しています。サポートされるフィールドはモデルによって異なります。

統合ガイダンス

  • Authorization: Bearer {API_KEY}で認証する
  • テキスト、JSON 出力、ツール呼び出し、および将来のマルチモーダル ワークフローに 1 つのサーフェスが必要な場合は、このエンドポイントを優先します。
  • previous_response_id を使用して、完全な履歴を再送信せずに会話を続行します
  • 推論モデルのワークフローの場合、reasoningmax_output_tokens、および tools をサーバー側ゲートウェイに一元化します。
  • ストリーミング クライアントは、最後のペイロードを待つのではなく、増分イベントを消費する必要があります。

リクエストのハイライト

  • input は主要な入力フィールドであり、テキストまたはマルチモーダル コンテンツ ブロックを含めることができます
  • model 応答のターゲット モデルを選択します
  • previous_response_id は、会話中にターンを連鎖させる主な方法です
  • 構造化出力の場合、明示的な JSON フォーマット要件を宣言し、サーバー側を検証します。
  • ツールを使用する場合は、tools を渡し、ツール呼び出しの出力を明示的に処理します。

回答のハイライト

  • 単純なテキストは output_text から読み取れることが多い
  • より豊富な結果は output[] から読み取る必要があります
  • ツール呼び出し、推論トレース、およびマルチモーダル出力はすべて同じ応答オブジェクトを共有します
  • 使用状況とステータスのメタデータは、テキストのみから推測するのではなく、応答オブジェクトから読み取る必要があります。

承認

Authorization
string
header
必須

Bearer authentication header of the form Bearer <token>, where <token> is your auth token.

ボディ

application/json
model
string
必須
:

"gpt-4.1"

input
必須
instructions
string
max_output_tokens
integer

レスポンス

Successful responses payload

id
string
object
string
:

"response"

status
string
output_text
string
output
object[]
usage
object