OpenAI Chat completion

Maakt een modelreactie voor het gegeven chatgesprek. Deze endpoint volgt de OpenAI Chat Completion-specificatie en stuurt verzoeken door naar de Azure OpenAI-endpoint.

Endpoint POST https://api.langdock.com/openai/{region}/v1/chat/completions

In dedicated deployments wijst api.langdock.com naar /api/public

Authenticatie

  • Header: Authorization

  • Waarde: Bearer YOUR_API_KEY

Ondersteunde modellen Momenteel ondersteunde modellen zijn onder andere: gpt-5, gpt-5-mini, gpt-5-nano, gpt-5-chat, gpt-4.1, gpt-4.1-mini, gpt-4.1-nano, o4-mini, o3, o3-mini, o1, o1-mini, o1-preview, gpt-4o, gpt-4o-mini

Opmerking: Als u uw eigen API-sleutels in Langdock gebruikt (BYOK), kan de beschikbaarheid van modellen verschillen — neem contact op met uw admin.

Limieten en niet-ondersteunde parameters

  • Niet ondersteund: n, service_tier, parallel_tool_calls, stream_options

  • Elk model heeft zijn eigen snelheidslimiet (workspace-niveau)

  • Standaard snelheidslimiet voor deze Chat Completion-endpoint: 500 RPM (verzoeken per minuut) en 60.000 TPM (tokens per minuut)

  • Het overschrijden van limieten geeft 429 Too Many Requests terug

  • Voor hogere limieten neem contact op met [email protected]

Probeer het — Voorbeelden

curl --request POST \
  --url https://api.langdock.com/openai/{region}/v1/chat/completions \
  --header 'Authorization: <authorization>' \
  --header 'Content-Type: application/json' \
  --data '
{
  "model": "gpt-4o-mini",
  "messages": [
    {
      "role": "system",
      "content": "You are a helpful assistant."
    },
    {
      "role": "user",
      "content": "Write a short poem about cats."
    }
  ]
}
'

Voorbeeld reactie (200)

{
  "choices": [
    {
      "message": {
        "content": "In moonlit shadows soft they prowl,\nWith eyes aglow in night's dark cowl.",
        "role": "assistant"
      },
      "index": 0,
      "finish_reason": "stop",
      "logprobs": null
    }
  ],
  "created": 1721722200,
  "id": "chatcmpl-8o4sq3sSzGVqS0aQyjlXuuEGVZnSj",
  "model": "gpt-4o-2024-05-13",
  "object": "chat.completion",
  "system_fingerprint": "fp_asd28019bf",
  "usage": {
    "completion_tokens": 34,
    "prompt_tokens": 14,
    "total_tokens": 48
  }
}

Parameters

Headers

  • Authorization (string, required): API-sleutel als Bearer-token. Formaat "Bearer YOUR_API_KEY"

Padparameters

  • region (string, required): De regio van de API die gebruikt moet worden. Beschikbaar: eu, us

Body (application/json)

  • model (string, required): ID van het te gebruiken model.

  • messages (array, required): Een lijst met berichten die het gesprek tot nu toe vormen. Minimale lengte: 1. Berichtrollen: system, user, assistant, tool, function.

    • berichtvelden:

      • role (enum, required): bv. system, user, assistant

      • content (string, required for messages that contain text)

      • name (string, optional): een optionele naam voor de deelnemer

  • max_tokens (integer, optional): Maximale aantal tokens om te genereren.

  • temperature (number, optional, default 1): 0–2

  • top_p (number, optional, default 1): 0–1

  • frequency_penalty (number, default 0): -2.0 tot 2.0

  • presence_penalty (number, default 0): -2.0 tot 2.0

  • logit_bias (object): Map van token-ID's naar bias-waarden (-100 tot 100)

  • stop (string or array, optional): Tot 4 reeksen waarbij de generatie stopt

  • stream (boolean, optional, default false): Als true worden gedeeltelijke tokens als server-sent events verzonden, beëindigd met data: [DONE]

  • response_format (object, optional): { "type": "text" } of { "type": "json_object" } — JSON-modus vereist dat u het model instrueert om JSON uit te voeren

  • seed (integer, optional, Beta): Voor best-effort deterministische sampling

  • user (string, optional): Unieke identificator die uw eindgebruiker representeert

  • tools (array of objects, optional): Lijst van tools (functies) die het model kan aanroepen (max 128). Elke tool: { type: "function", function: { ... } }

  • tool_choice (enum or object, optional): Regelt het gedrag bij het aanroepen van tools. Opties: none, auto, required, of specificeer een bepaald hulpmiddel. Standaard: none wanneer geen tools aanwezig zijn; auto als er tools aanwezig zijn.

Verouderde / vervangen velden

  • function_call (verouderd): Vervangen door tool_choice

  • functions (verouderd): Vervangen door tools

Details en opmerkelijke gedragingen

  • response_format.type: "text" of "json_object". Bij gebruik van "json_object" moet u het model in de conversatieberichten instrueren om JSON te produceren om problematisch gedrag te vermijden (bijv. het streamen van witruimte).

  • logprobs en top_logprobs: Als logprobs true is, kunt u top_logprobs (0–20) opvragen om token waarschijnlijkheidsinformatie te krijgen.

  • Tools/functies: Geef een JSON Schema in parameters voor functies. Het weglaten van parameters definieert een lege parameterlijst.

Uitvouwbaar: Volledig schema en velddetails

Toon/verberg volledige aanvraag- en antwoordveld-details

(Velden hierboven beschreven, plus geneste attributen zoals logit_bias.{key}, functions[].parameters als JSON Schema, usage.* velden in de response, system_fingerprint, finish_reason waarden, enz.)

finish_reason mogelijke waarden:

  • stop

  • length

  • tool_calls

  • content_filter

  • function_call (verouderd)

Responsvelden:

  • id (string): Unieke identificator voor de chat completion

  • object (string): "chat.completion"

  • created (integer): Unix-tijdstempel (seconden)

  • model (string)

  • choices (array): Een of meer choice-objecten, elk met index, message, finish_reason, logprobs

  • usage (object): { completion_tokens, prompt_tokens, total_tokens }

  • system_fingerprint (string): Fingerprint van backend-configuratie (gebruik samen met seed om determinisme te monitoren)

Snelheidslimieten

  • Standaard voor deze endpoint: 500 RPM en 60.000 TPM (workspace-niveau)

  • Elk model kan zijn eigen limieten hebben

  • Het overschrijden van limieten geeft HTTP 429 terug

  • Voor hogere limieten neem contact op met [email protected]

Gebruik van OpenAI-compatibele bibliotheken Omdat de aanvraag- en antwoordformaten overeenkomen met de API van OpenAI, kunt u OpenAI-compatibele bibliotheken gebruiken zoals:

  • OpenAI Python-bibliotheek (openai-python)

  • Vercel AI SDK

Opmerkingen

  • Beheerders kunnen API-sleutels aanmaken in workspace-instellingen.

  • Als u BYOK gebruikt (bring-your-own-keys), kan de beschikbaarheid van modellen verschillen — neem contact op met uw admin.

Relevante links

  • OpenAI Chat Completion-specificatie: https://platform.openai.com/docs/api-reference/chat/create

  • OpenAI modellen compatibiliteitstabel: https://platform.openai.com/docs/models/model-endpoint-compatibility

  • Handleiding voor function calling: https://platform.openai.com/docs/guides/function-calling

  • Voorbeeld token tellen: https://cookbook.openai.com/examples/how_to_count_tokens_with_tiktoken