OpenAI Embeddings

Maakt embeddings voor de opgegeven invoertekst.

Opmerking: In toegewijde implementaties, api.langdock.com wijst naar <Base URL>/api/public.

Om de API te gebruiken heeft u een API-sleutel nodig. Beheerders kunnen API-sleutels aanmaken in de instellingen.

Eindpunt

POST https://api.langdock.com/openai/{region}/v1/embeddings

Padparameter:

  • region (vereist) — De regio van de API die gebruikt moet worden. Beschikbare opties: eu, us.

Headers:

  • Authorization (vereist) — API-sleutel als Bearer-token. Formaat: Bearer YOUR_API_KEY

  • Content-Type: application/json

Body

Inhoudstype: application/json

  • input (vereist) — Invoertekst om embeddings voor te genereren, gecodeerd als een string of een array van tokens. Om embeddings voor meerdere invoeren in één verzoek te krijgen, geef een array van strings of een array van tokens door (bijv. ["text1", "text2"]). Elke invoer mag niet meer dan 8192 tokens lang zijn.

  • model (vereist) — ID van het te gebruiken model.

  • encoding_format (optioneel, standaard: float) — Het formaat waarin de embeddings geretourneerd worden. Beschikbare opties: float, base64.

  • dimensions (optioneel) — Het aantal dimensies dat de resulterende output-embeddings moet hebben. Alleen ondersteund in text-embedding-3 en latere modellen. Vereist bereik: x >= 1.

  • user (optioneel) — Een unieke identificator die uw eindgebruiker vertegenwoordigt, wat OpenAI kan helpen bij het monitoren en detecteren van misbruik.

Snelheidslimieten

De snelheidslimiet voor het Embeddings-endpoint is 500 RPM (verzoeken per minuut) als 60.000 TPM (tokens per minuut). Snelheidslimieten worden gedefinieerd op werkruimte-niveau (niet op API-sleutel-niveau). Als u uw snelheidslimiet overschrijdt, ontvangt u een 429 Too Many Requests antwoord.

Houd er rekening mee dat de snelheidslimieten aan verandering onderhevig zijn. Als u een hogere snelheidslimiet nodig heeft, neem contact op met [email protected].

Voorbeelden

curl

Respons

200 OK — application/json

De respons volgt het OpenAI-embeddingsformaat. Voorbeeld:

Voorbeeldresponse
{
  "data": [
    {
      "embedding": [
        0.0023064255,
        -0.009327292,
        "..."
      ],
      "index": 0,
      "object": "embedding"
    }
  ],
  "model": "text-embedding-ada-002",
  "object": "list",
  "usage": {
    "prompt_tokens": 9,
    "total_tokens": 9
  }
}

Responsevelden:

  • data (vereist) — Lijst met embeddings die door het model zijn gegenereerd.

    • data[].index (vereist) — De index van de embedding in de lijst.

    • data[].embedding (vereist) — De embedding-vector (lijst met floats). Lengte hangt af van het model.

    • data[].object (vereist) — Het objecttype, altijd "embedding".

  • model (vereist) — Naam van het gebruikte model.

  • object (vereist) — Het objecttype, altijd "list".

  • usage (vereist) — Details over tokengebruik:

    • usage.prompt_tokens (vereist) — Aantal tokens gebruikt voor de prompt(s).

    • usage.total_tokens (vereist) — Totaal aantal tokens dat door het verzoek is gebruikt.

Gebruik van OpenAI-compatibele bibliotheken

Aangezien het verzoek- en responsformaat hetzelfde is als de OpenAI API, kunt u bibliotheken gebruiken zoals de OpenAI Python-bibliotheek of de Vercel AI SDK met de Langdock API (zie voorbeelden hierboven).

Was deze pagina nuttig?

  • Ja

  • Nee