Saltar al contenido principal

Cuerpo de la solicitud

model
string
requerido
ID del modelo que se va a usar. Consulta Models para ver las opciones disponibles.
messages
array
requerido
Una lista de mensajes que componen la conversación.Cada objeto de mensaje contiene:
  • role (string): system, user o assistant
  • content (string | array): El contenido del mensaje
temperature
number
predeterminado:"1"
Temperatura de muestreo entre 0 y 2. Los valores más altos hacen que la salida sea más aleatoria.
max_tokens
integer
Número máximo de tokens que se generarán.
stream
boolean
predeterminado:"false"
Si es true, se enviarán deltas parciales del mensaje como eventos SSE.
stream_options
object
Opciones para streaming. Establece include_usage: true para recibir el uso de tokens en los fragmentos del stream.
top_p
number
predeterminado:"1"
Parámetro de muestreo nucleus. Recomendamos modificar este o temperature, no ambos.
frequency_penalty
number
predeterminado:"0"
Número entre -2.0 y 2.0. Los valores positivos penalizan los tokens repetidos.
presence_penalty
number
predeterminado:"0"
Número entre -2.0 y 2.0. Los valores positivos penalizan los tokens que ya están en el texto.
stop
string | array
Hasta 4 secuencias en las que la API dejará de generar tokens.
tools
array
Una lista de herramientas que el modelo puede llamar (function calling).
tool_choice
string | object
Controla cómo el modelo usa las herramientas. Opciones: auto, none, required o un objeto de herramienta específico.
parallel_tool_calls
boolean
predeterminado:"true"
Indica si se debe habilitar function calling en paralelo. Establece false para llamar a las funciones secuencialmente.
max_completion_tokens
integer
Tokens máximos para la completion. Alternativa a max_tokens, útil para familias de modelos más nuevas con capacidad de reasoning.
reasoning_effort
string
Esfuerzo de reasoning para modelos con capacidad de reasoning. Opciones: low, medium, high.
seed
integer
Semilla aleatoria para muestreo determinista.
n
integer
predeterminado:"1"
Número de completions que se generarán (1-128).
logprobs
boolean
Indica si se deben devolver probabilidades logarítmicas.
top_logprobs
integer
Número de probabilidades logarítmicas principales que se devolverán (0-20). Requiere logprobs: true.
top_k
integer
Parámetro de muestreo Top-K (para modelos Anthropic/Gemini).
response_format
object
Especificación del formato de respuesta. Usa {"type": "json_object"} para el modo JSON, o {"type": "json_schema", "json_schema": {...}} para salidas estructuradas.
logit_bias
object
Modifica la probabilidad de que aparezcan tokens especificados. Asigna IDs de token (como strings) a valores de sesgo de -100 a 100.
user
string
Un identificador único que representa a tu usuario final para la supervisión de abuso.
cache_control
object
Opciones de control de caché de LemonData.
  • type (string): Estrategia de caché - default, no_cache, no_store, response_only, semantic_only
  • max_age (integer): TTL de caché en segundos (máx. 86400)

Respuesta

id
string
Identificador único de la completion.
object
string
Siempre chat.completion.
created
integer
Marca de tiempo Unix de cuándo se creó la completion.
model
string
El modelo usado para la completion.
choices
array
Lista de opciones de completion.Cada opción contiene:
  • index (integer): Índice de la opción
  • message (object): El mensaje generado
  • finish_reason (string): Por qué se detuvo el modelo (stop, length, tool_calls)
usage
object
Estadísticas de uso de tokens.
  • prompt_tokens (integer): Tokens en el prompt
  • completion_tokens (integer): Tokens en la completion
  • total_tokens (integer): Total de tokens usados
curl -X POST "https://api.lemondata.cc/v1/chat/completions" \
  -H "Authorization: Bearer sk-your-api-key" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-4o",
    "messages": [
      {"role": "system", "content": "You are a helpful assistant."},
      {"role": "user", "content": "Hello!"}
    ],
    "temperature": 0.7,
    "max_tokens": 1000
  }'
{
  "id": "chatcmpl-abc123",
  "object": "chat.completion",
  "created": 1706000000,
  "model": "gpt-4o",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Hello! How can I help you today?"
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 20,
    "completion_tokens": 9,
    "total_tokens": 29
  }
}