Descripción general
Para LemonData, la configuración más robusta de LlamaIndex es usar integraciones compatibles con OpenAI en lugar de las clases OpenAI integradas. La documentación actual de LlamaIndex recomienda explícitamenteOpenAILike para endpoints de terceros compatibles con OpenAI, porque las clases OpenAI integradas infieren metadatos a partir de nombres de modelos oficiales.
En otras palabras: aquí debes tratar OpenAILike como la ruta soportada para LemonData, y no las clases OpenAI integradas.
Instalación
Configuración básica
Uso básico
Chat
Streaming
Embeddings
RAG con documentos
Motor de chat
Uso asíncrono
Mejores prácticas
Usa OpenAILike para LemonData
Usa OpenAILike para LemonData
Prefiere
llama_index.llms.openai_like.OpenAILike y llama_index.embeddings.openai_like.OpenAILikeEmbedding para LemonData y otros gateways de terceros compatibles con OpenAI.Configura api_base explícitamente
Configura api_base explícitamente
Pasa
api_base="https://api.lemondata.cc/v1" directamente en el código en lugar de depender de nombres antiguos de variables de entorno de OpenAI.Mantén separados los roles de los modelos
Mantén separados los roles de los modelos
Usa modelos de chat/reasoning para la síntesis y
text-embedding-3-small o text-embedding-3-large para la recuperación.