Anthropic-berichten

Maakt een modelantwoord voor het opgegeven chatgesprek. Dit eindpunt volgt de Anthropic API-specificatie en de verzoeken worden naar het AWS Bedrock Anthropic-eindpunt gestuurd.

Om de API te gebruiken heeft u een API-sleutel nodig. Beheerders kunnen API-sleutels aanmaken in de instellingen.

Alle parameters van het Anthropic “Create a message”-eindpunt worden ondersteund volgens de Anthropic-specificaties, met de volgende uitzondering:

  • model: De ondersteunde modellen zijn: claude-sonnet-4-5-20250929, claude-sonnet-4-20250514, claude-3-7-sonnet-20250219, claude-3-5-sonnet-20240620.

  • De lijst met beschikbare modellen kan verschillen als je je eigen API-sleutels in Langdock gebruikt (“Bring-your-own-keys / BYOK”, zie https://docs.langdock.com/settings/models/byok). Neem in dat geval contact op met je beheerder om te begrijpen welke modellen beschikbaar zijn in de API.

Autorisatie: API-sleutel vereist. Gebruik de Authorization-header als een Bearer-token: Authorization: Bearer YOUR_API_KEY


Eindpunt

POST https://api.langdock.com/anthropic/{region}/v1/messages

Padparameter:

  • regio (vereist) — enum: beschikbare opties: eu, us


Voorbeeld: cURL

curl
curl --request POST \
  --url https://api.langdock.com/anthropic/{region}/v1/messages \
  --header 'Authorization: <authorization>' \
  --header 'Content-Type: application/json' \
  --data '
{
  "max_tokens": 1024,
  "messages": [
    {
      "content": "Write a haiku about cats.",
      "role": "user"
    }
  ],
  "model": "claude-sonnet-4-20250514"
}
'

Voorbeeld succesvol antwoord (200):

response.json
[
  {
    "content": [
      {
        "text": "Here is a haiku about cats:\n\nFeline grace and charm,\nPurring softly by the fire,\nCats reign supreme.",
        "type": "text"
      }
    ],
    "id": "msg_013Zva2CMHLNnXjNJJKqJ2EF",
    "model": "claude-3-haiku-20240307",
    "role": "assistant",
    "stop_reason": "end_turn",
    "stop_sequence": null,
    "type": "message",
    "usage": {
      "input_tokens": 14,
      "output_tokens": 35
    }
  }
]

Snelheidslimieten

Het tarieflimiet voor het Messages-eindpunt is 500 RPM (verzoeken per minuut) als 60.000 TPM (tokens per minuut). Snelheidslimieten worden gedefinieerd op werkruimte-niveau — niet per API-sleutel. Elk model heeft zijn eigen snelheidslimiet. Als je je snelheidslimiet overschrijdt, ontvang je een 429 Too Many Requests antwoord. Tarieflimieten kunnen wijzigen; raadpleeg deze documentatie voor de meest actuele informatie.

Als je een hoger tarieflimiet nodig hebt, neem contact op met: [email protected]


Gebruik van Anthropic-compatibele bibliotheken

Aangezien het aanvraag- en antwoordformaat hetzelfde is als de Anthropic API, kun je bibliotheken gebruiken zoals de Anthropic Python-bibliotheek (https://github.com/anthropics/anthropic-sdk-python) of de Vercel AI SDK (https://sdk.vercel.ai/docs/introduction) met de Langdock API.

Voorbeeld met de Anthropic Python-bibliotheek

python
from anthropic import Anthropic
client = Anthropic(
  base_url="https://api.langdock.com/anthropic/eu/",
  api_key="<YOUR_LANGDOCK_API_KEY>"
)

message = client.messages.create(
  model="claude-3-haiku-20240307",
  messages=[
    { "role": "user", "content": "Write a haiku about cats" }
  ],
  max_tokens=1024,
)

print(message.content[0].text)

Voorbeeld met de Vercel AI SDK in Node.js

node.js
import { generateText } from "ai";
import { createAnthropic } from "@ai-sdk/anthropic";

const langdockProvider = createAnthropic({
  baseURL: "https://api.langdock.com/anthropic/eu/v1",
  apiKey: "<YOUR_LANGDOCK_API_KEY>",
});

const result = await generateText({
  model: langdockProvider("claude-3-haiku-20240307"),
  prompt: "Write a haiku about cats",
});

console.log(result.text);

Request body (application/json)

Alle velden volgen Anthropic's Messages API, met de hierboven vermelde ondersteunde modellen.

  • model (vereist) — enum: Het model om je prompt te voltooien.

    • Beschikbaar: claude-sonnet-4-5-20250929, claude-sonnet-4-20250514, claude-3-7-sonnet-20250219, claude-3-5-sonnet-20240620

  • messages (vereist) — array van InputMessage-objecten:

    • Elk invoerbericht moet een object zijn met role als content.

    • Rollen: user, assistant

    • Het eerste bericht moet altijd de user rol gebruiken.

    • content kan een tekenreeks zijn (afkorting voor een enkel tekstblok) of een array van contentblokken met types (bijv., tekst, afbeelding).

    • Vanaf Claude 3-modellen worden afbeeldingscontentblokken ondersteund met base64-gecodeerde afbeeldingen:

      {"role":"user","content":[
        {"type":"image","source":{"type":"base64","media_type":"image/jpeg","data":"/9j/4AAQSkZJRg..."}},
        {"type":"text","text":"What is in this image?"}
      ]}

      Ondersteunde mediatypen: image/jpeg, image/png, image/gif, image/webp.

  • max_tokens (vereist) — integer: maximaal aantal tokens om te genereren. Bereik: x >= 1

  • stop_sequences — array van strings: aangepaste tekstreeksen die ervoor zorgen dat het model stopt met genereren.

  • stream — boolean: of de respons incrementeel moet worden gestreamd met server-sent events.

  • system — string of array: systeemprompt (zie Anthropic systeemprompts-gids https://docs.anthropic.com/en/docs/system-prompts).

  • temperature — nummer: willekeurigheid, standaard 1.0, bereik 0.0 tot 1.0.

  • tool_choice — object: hoe het model de opgegeven hulpmiddelen moet gebruiken. Opties omvatten auto, alles, tool.

  • tools — array van tooldefinities. Elke tool bevat:

    • name (vereist)

    • description (sterk aanbevolen)

    • input_schema (vereist) — JSON-schema dat de vorm van de toolinvoer beschrijft. Tools stellen het model in staat om tool_use contentblokken die je kunt uitvoeren en resultaten kunt teruggeven als tool_result blokken.

  • top_k — integer: steek alleen uit de top K-opties voor elk token (gevorderd gebruik).

  • top_p — nummer: nucleus-sampling (0.0–1.0, gevorderd gebruik).

(Zie Anthropic-docs voor aanvullende voorbeelden en details: https://docs.anthropic.com/en/api/messages)


Respons (200: application/json)

Geeft een Message-object terug. Belangrijke velden:

  • id — string: unieke objectidentifier.

  • type — string: objecttype, altijd "message".

  • role — string: conversatierol, altijd "assistant".

  • content — array van contentblokken (bijv., {"type":"text","text":"Hi, I'm Claude."}).

  • model — string: gebruikt model.

  • stop_reason — enum: "end_turn", "max_tokens", "stop_sequence", "tool_use".

  • stop_sequence — string: welke aangepaste stopreeks is gegenereerd (indien aanwezig).

  • usage — object: input_tokens, output_tokens (tokenaantallen).

Voorbeeld contentblok:

[{"type":"text","text":"Hi! My name is Claude."}]

Hulpmiddelen en tool-workflows

Als je tools in je verzoek opneemt, kan het model tool_use contentblokken retourneren die de beoogde toolaanroep van het model weergeven. Je kunt die tools uitvoeren en eventueel resultaten teruggeven aan het model met behulp van tool_result contentblokken.

Voorbeeld van tooldefinitie en gebruik is beschikbaar in de Anthropic-docs (https://docs.anthropic.com/en/docs/tool-use).


Aanvullende bronnen

  • Anthropic API-specificatie: https://docs.anthropic.com/en/api/messages

  • Anthropic modellen overzicht: https://docs.anthropic.com/en/docs/models-overview

  • Anthropic systeemprompts: https://docs.anthropic.com/en/docs/system-prompts

  • Langdock BYOK-instellingen: https://docs.langdock.com/settings/models/byok

Was deze pagina nuttig? (Deze regel behouden uit de originele inhoud.)