Saltar al contenido principal

Descripción general

Dify funciona bien con LemonData mediante su flujo de proveedor de modelos compatible con OpenAI. Para las versiones actuales de Dify, la ruta más segura suele ser:
  • elegir el proveedor integrado de OpenAI
  • establecer tu API key de LemonData
  • establecer una URL base personalizada de https://api.lemondata.cc/v1
Algunas versiones antiguas de Dify exponen esto como OpenAI-API-compatible en lugar del proveedor integrado OpenAI con un campo de URL base personalizada. Si tu interfaz de Dify se ve diferente, usa el flujo de proveedor personalizado compatible con OpenAI más cercano disponible en esa versión.
Esta es una ruta de integración orientada a chat-completions. No debe entenderse como una garantía de que Dify exponga el mismo comportamiento de Responses o WebSocket que las integraciones dedicadas de Codex.

Requisitos previos

  • Cuenta de LemonData con acceso a API
  • Dify Cloud o Dify autoalojado

Pasos de configuración

Paso 1: Obtén tu API Key

  1. Inicia sesión en LemonData Dashboard
  2. Abre API Keys
  3. Crea o copia una API key que comience con sk-

Paso 2: Configura el proveedor

1

Abrir proveedores de modelos

En Dify, ve a SettingsModel Providers
2

Seleccionar OpenAI

Abre la configuración del proveedor OpenAI. Si tu versión de Dify no ofrece aquí una URL base personalizada, usa en su lugar la opción de proveedor personalizado compatible con OpenAI expuesta por esa versión.
3

Introducir la configuración de LemonData

Usa estos valores:
FieldValue
API Keysk-your-lemondata-key
API Base URL / Custom Base URLhttps://api.lemondata.cc/v1
4

Agregar modelos

Agrega los modelos que quieras usar, por ejemplo:
  • gpt-5.4
  • gpt-5-mini
  • gpt-4o
  • claude-sonnet-4-6
  • claude-opus-4-6
  • gemini-2.5-flash
  • gemini-2.5-pro
  • deepseek-r1

Paso 3: Probar la conexión

  1. Elige un modelo como gpt-5-mini o gpt-4o
  2. Envía un prompt de prueba
  3. Confirma que Dify reciba una respuesta válida

Embeddings para bases de conocimiento

Para RAG e indexación de bases de conocimiento, agrega un modelo de embedding como:
  • text-embedding-3-small
  • text-embedding-3-large
Luego configúralo como el modelo de embedding predeterminado en la base de conocimiento o en la configuración de la aplicación correspondiente.

Roles de modelo recomendados

Use CaseSuggested Models
Chat predeterminadogpt-5.4, gpt-5-mini, gpt-4o
Razonamiento profundogpt-5.4, claude-opus-4-6, deepseek-r1
Rápido/baratogpt-5-mini, gemini-2.5-flash
Embeddingstext-embedding-3-small, text-embedding-3-large

Buenas prácticas

En las versiones más recientes de Dify, el proveedor integrado de OpenAI con una URL base personalizada suele ser la configuración más limpia para LemonData.
Usa gpt-5-mini o gemini-2.5-flash mientras iteras, y luego cambia los flujos de trabajo más pesados a modelos más potentes solo donde sea necesario.
La mayoría de los flujos de Dify usan un comportamiento de chat compatible con OpenAI. Si necesitas Responses específicas de Codex o comportamiento WebSocket, usa las integraciones dedicadas de Codex en lugar de Dify.

Solución de problemas

  • Verifica que la URL base sea exactamente https://api.lemondata.cc/v1
  • Elimina las barras diagonales finales si Dify las duplica
  • Confirma que el servidor de Dify pueda acceder a LemonData a través de internet pública
  • Vuelve a comprobar la API key
  • Confirma que la key esté activa en el dashboard de LemonData
  • Asegúrate de que el valor pegado en Dify no contenga espacios adicionales ni saltos de línea
  • Verifica el nombre del modelo exactamente
  • Vuelve a agregar la entrada del modelo si la interfaz del proveedor almacenó en caché un valor anterior
  • Consulta la disponibilidad actual de modelos en la documentación o el dashboard de LemonData