OpenAI Embeddings
Maakt embeddings voor de opgegeven invoertekst.
Opmerking: In toegewijde implementaties, api.langdock.com wijst naar <Base URL>/api/public.
Alle parameters van de OpenAI Embeddings-endpoint worden ondersteund volgens de OpenAI-specificaties, met de volgende uitzonderingen:
model: Momenteel wordt alleen detext-embedding-ada-002model ondersteund.encoding_format: Ondersteunt zowelfloatalsbase64formaten.
Eindpunt
POST https://api.langdock.com/openai/{region}/v1/embeddings
Padparameter:
region (vereist) — De regio van de API die gebruikt moet worden. Beschikbare opties:
eu,us.
Headers:
Authorization (vereist) — API-sleutel als Bearer-token. Formaat:
Bearer YOUR_API_KEYContent-Type:
application/json
Body
Inhoudstype: application/json
input (vereist) — Invoertekst om embeddings voor te genereren, gecodeerd als een string of een array van tokens. Om embeddings voor meerdere invoeren in één verzoek te krijgen, geef een array van strings of een array van tokens door (bijv.
["text1", "text2"]). Elke invoer mag niet meer dan 8192 tokens lang zijn.model (vereist) — ID van het te gebruiken model.
encoding_format (optioneel, standaard:
float) — Het formaat waarin de embeddings geretourneerd worden. Beschikbare opties:float,base64.dimensions (optioneel) — Het aantal dimensies dat de resulterende output-embeddings moet hebben. Alleen ondersteund in
text-embedding-3en latere modellen. Vereist bereik:x >= 1.user (optioneel) — Een unieke identificator die uw eindgebruiker vertegenwoordigt, wat OpenAI kan helpen bij het monitoren en detecteren van misbruik.
Snelheidslimieten
De snelheidslimiet voor het Embeddings-endpoint is 500 RPM (verzoeken per minuut) als 60.000 TPM (tokens per minuut). Snelheidslimieten worden gedefinieerd op werkruimte-niveau (niet op API-sleutel-niveau). Als u uw snelheidslimiet overschrijdt, ontvangt u een 429 Too Many Requests antwoord.
Houd er rekening mee dat de snelheidslimieten aan verandering onderhevig zijn. Als u een hogere snelheidslimiet nodig heeft, neem contact op met [email protected].
Voorbeelden
Respons
200 OK — application/json
De respons volgt het OpenAI-embeddingsformaat. Voorbeeld:
Responsevelden:
data (vereist) — Lijst met embeddings die door het model zijn gegenereerd.
data[].index (vereist) — De index van de embedding in de lijst.
data[].embedding (vereist) — De embedding-vector (lijst met floats). Lengte hangt af van het model.
data[].object (vereist) — Het objecttype, altijd
"embedding".
model (vereist) — Naam van het gebruikte model.
object (vereist) — Het objecttype, altijd
"list".usage (vereist) — Details over tokengebruik:
usage.prompt_tokens (vereist) — Aantal tokens gebruikt voor de prompt(s).
usage.total_tokens (vereist) — Totaal aantal tokens dat door het verzoek is gebruikt.
Gebruik van OpenAI-compatibele bibliotheken
Aangezien het verzoek- en responsformaat hetzelfde is als de OpenAI API, kunt u bibliotheken gebruiken zoals de OpenAI Python-bibliotheek of de Vercel AI SDK met de Langdock API (zie voorbeelden hierboven).
Was deze pagina nuttig?
Ja
Nee

