OpenAI Chat completion
Maakt een modelreactie voor het gegeven chatgesprek. Deze endpoint volgt de OpenAI Chat Completion-specificatie en stuurt verzoeken door naar de Azure OpenAI-endpoint.
Endpoint POST https://api.langdock.com/openai/{region}/v1/chat/completions
In dedicated deployments wijst api.langdock.com naar /api/public
Authenticatie
Header: Authorization
Waarde: Bearer YOUR_API_KEY
Ondersteunde modellen Momenteel ondersteunde modellen zijn onder andere: gpt-5, gpt-5-mini, gpt-5-nano, gpt-5-chat, gpt-4.1, gpt-4.1-mini, gpt-4.1-nano, o4-mini, o3, o3-mini, o1, o1-mini, o1-preview, gpt-4o, gpt-4o-mini
Opmerking: Als u uw eigen API-sleutels in Langdock gebruikt (BYOK), kan de beschikbaarheid van modellen verschillen — neem contact op met uw admin.
Limieten en niet-ondersteunde parameters
Niet ondersteund: n, service_tier, parallel_tool_calls, stream_options
Elk model heeft zijn eigen snelheidslimiet (workspace-niveau)
Standaard snelheidslimiet voor deze Chat Completion-endpoint: 500 RPM (verzoeken per minuut) en 60.000 TPM (tokens per minuut)
Het overschrijden van limieten geeft 429 Too Many Requests terug
Voor hogere limieten neem contact op met [email protected]
Probeer het — Voorbeelden
curl --request POST \
--url https://api.langdock.com/openai/{region}/v1/chat/completions \
--header 'Authorization: <authorization>' \
--header 'Content-Type: application/json' \
--data '
{
"model": "gpt-4o-mini",
"messages": [
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": "Write a short poem about cats."
}
]
}
'from openai import OpenAI
client = OpenAI(
base_url="https://api.langdock.com/openai/eu/v1",
api_key="<YOUR_LANGDOCK_API_KEY>"
)
completion = client.chat.completions.create(
model="gpt-4o-mini",
messages=[
{"role": "user", "content": "Write a short poem about cats."}
]
)
print(completion.choices[0].message.content)import { streamText } from "ai";
import { createOpenAI } from "@ai-sdk/openai";
const langdockProvider = createOpenAI({
baseURL: "https://api.langdock.com/openai/eu/v1",
apiKey: "<YOUR_LANGDOCK_API_KEY>",
});
const result = await streamText({
model: langdockProvider("gpt-4o-mini"),
prompt: "Write a short poem about cats",
});
for await (const textPart of result.textStream) {
process.stdout.write(textPart);
}Voorbeeld reactie (200)
{
"choices": [
{
"message": {
"content": "In moonlit shadows soft they prowl,\nWith eyes aglow in night's dark cowl.",
"role": "assistant"
},
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"created": 1721722200,
"id": "chatcmpl-8o4sq3sSzGVqS0aQyjlXuuEGVZnSj",
"model": "gpt-4o-2024-05-13",
"object": "chat.completion",
"system_fingerprint": "fp_asd28019bf",
"usage": {
"completion_tokens": 34,
"prompt_tokens": 14,
"total_tokens": 48
}
}Parameters
Headers
Authorization (string, required): API-sleutel als Bearer-token. Formaat "Bearer YOUR_API_KEY"
Padparameters
region (string, required): De regio van de API die gebruikt moet worden. Beschikbaar:
eu,us
Body (application/json)
model (string, required): ID van het te gebruiken model.
messages (array, required): Een lijst met berichten die het gesprek tot nu toe vormen. Minimale lengte: 1. Berichtrollen: system, user, assistant, tool, function.
berichtvelden:
role (enum, required): bv. system, user, assistant
content (string, required for messages that contain text)
name (string, optional): een optionele naam voor de deelnemer
max_tokens (integer, optional): Maximale aantal tokens om te genereren.
temperature (number, optional, default 1): 0–2
top_p (number, optional, default 1): 0–1
frequency_penalty (number, default 0): -2.0 tot 2.0
presence_penalty (number, default 0): -2.0 tot 2.0
logit_bias (object): Map van token-ID's naar bias-waarden (-100 tot 100)
stop (string or array, optional): Tot 4 reeksen waarbij de generatie stopt
stream (boolean, optional, default false): Als true worden gedeeltelijke tokens als server-sent events verzonden, beëindigd met data: [DONE]
response_format (object, optional): { "type": "text" } of { "type": "json_object" } — JSON-modus vereist dat u het model instrueert om JSON uit te voeren
seed (integer, optional, Beta): Voor best-effort deterministische sampling
user (string, optional): Unieke identificator die uw eindgebruiker representeert
tools (array of objects, optional): Lijst van tools (functies) die het model kan aanroepen (max 128). Elke tool: { type: "function", function: { ... } }
tool_choice (enum or object, optional): Regelt het gedrag bij het aanroepen van tools. Opties:
none,auto,required, of specificeer een bepaald hulpmiddel. Standaard:nonewanneer geen tools aanwezig zijn;autoals er tools aanwezig zijn.
Verouderde / vervangen velden
function_call (verouderd): Vervangen door tool_choice
functions (verouderd): Vervangen door tools
Details en opmerkelijke gedragingen
response_format.type: "text" of "json_object". Bij gebruik van "json_object" moet u het model in de conversatieberichten instrueren om JSON te produceren om problematisch gedrag te vermijden (bijv. het streamen van witruimte).
logprobs en top_logprobs: Als logprobs true is, kunt u top_logprobs (0–20) opvragen om token waarschijnlijkheidsinformatie te krijgen.
Tools/functies: Geef een JSON Schema in parameters voor functies. Het weglaten van parameters definieert een lege parameterlijst.
Uitvouwbaar: Volledig schema en velddetails
Snelheidslimieten
Standaard voor deze endpoint: 500 RPM en 60.000 TPM (workspace-niveau)
Elk model kan zijn eigen limieten hebben
Het overschrijden van limieten geeft HTTP 429 terug
Voor hogere limieten neem contact op met [email protected]
Gebruik van OpenAI-compatibele bibliotheken Omdat de aanvraag- en antwoordformaten overeenkomen met de API van OpenAI, kunt u OpenAI-compatibele bibliotheken gebruiken zoals:
OpenAI Python-bibliotheek (openai-python)
Vercel AI SDK
Opmerkingen
Beheerders kunnen API-sleutels aanmaken in workspace-instellingen.
Als u BYOK gebruikt (bring-your-own-keys), kan de beschikbaarheid van modellen verschillen — neem contact op met uw admin.
Relevante links
OpenAI Chat Completion-specificatie: https://platform.openai.com/docs/api-reference/chat/create
OpenAI modellen compatibiliteitstabel: https://platform.openai.com/docs/models/model-endpoint-compatibility
Handleiding voor function calling: https://platform.openai.com/docs/guides/function-calling
Voorbeeld token tellen: https://cookbook.openai.com/examples/how_to_count_tokens_with_tiktoken

