Cuerpo de la solicitud
ID del modelo que se va a usar. Consulta Models para ver las opciones disponibles.
Una lista de mensajes que componen la conversación.Cada objeto de mensaje contiene:
role(string):system,useroassistantcontent(string | array): El contenido del mensaje
Temperatura de muestreo entre 0 y 2. Los valores más altos hacen que la salida sea más aleatoria.
Número máximo de tokens que se generarán.
Si es true, se enviarán deltas parciales del mensaje como eventos SSE.
Opciones para streaming. Establece
include_usage: true para recibir el uso de tokens en los fragmentos del stream.Parámetro de muestreo nucleus. Recomendamos modificar este o temperature, no ambos.
Número entre -2.0 y 2.0. Los valores positivos penalizan los tokens repetidos.
Número entre -2.0 y 2.0. Los valores positivos penalizan los tokens que ya están en el texto.
Hasta 4 secuencias en las que la API dejará de generar tokens.
Una lista de herramientas que el modelo puede llamar (function calling).
Controla cómo el modelo usa las herramientas. Opciones:
auto, none, required o un objeto de herramienta específico.Indica si se debe habilitar function calling en paralelo. Establece false para llamar a las funciones secuencialmente.
Tokens máximos para la completion. Alternativa a
max_tokens, útil para familias de modelos más nuevas con capacidad de reasoning.Esfuerzo de reasoning para modelos con capacidad de reasoning. Opciones:
low, medium, high.Semilla aleatoria para muestreo determinista.
Número de completions que se generarán (1-128).
Indica si se deben devolver probabilidades logarítmicas.
Número de probabilidades logarítmicas principales que se devolverán (0-20). Requiere
logprobs: true.Parámetro de muestreo Top-K (para modelos Anthropic/Gemini).
Especificación del formato de respuesta. Usa
{"type": "json_object"} para el modo JSON, o {"type": "json_schema", "json_schema": {...}} para salidas estructuradas.Modifica la probabilidad de que aparezcan tokens especificados. Asigna IDs de token (como strings) a valores de sesgo de -100 a 100.
Un identificador único que representa a tu usuario final para la supervisión de abuso.
Opciones de control de caché de LemonData.
type(string): Estrategia de caché -default,no_cache,no_store,response_only,semantic_onlymax_age(integer): TTL de caché en segundos (máx. 86400)
Respuesta
Identificador único de la completion.
Siempre
chat.completion.Marca de tiempo Unix de cuándo se creó la completion.
El modelo usado para la completion.
Lista de opciones de completion.Cada opción contiene:
index(integer): Índice de la opciónmessage(object): El mensaje generadofinish_reason(string): Por qué se detuvo el modelo (stop,length,tool_calls)
Estadísticas de uso de tokens.
prompt_tokens(integer): Tokens en el promptcompletion_tokens(integer): Tokens en la completiontotal_tokens(integer): Total de tokens usados