LemonData funciona bien con las integraciones ChatOpenAI y OpenAIEmbeddings de LangChain cuando te mantienes dentro de la superficie estándar de chat y embeddings compatible con OpenAI.
La documentación actual de LangChain señala que ChatOpenAI está orientado a las formas oficiales de solicitud/respuesta compatibles con OpenAI. Si necesitas campos de respuesta no estándar y específicos del proveedor, usa una integración específica del proveedor en LangChain en lugar de depender de ChatOpenAI.
Esta página cubre deliberadamente solo la superficie estándar compatible con OpenAI de LangChain, y no las funciones nativas del proveedor de LangChain fuera de ese ámbito.
from langchain_openai import ChatOpenAIllm = ChatOpenAI( model="gpt-5.4", api_key="sk-your-lemondata-key", base_url="https://api.lemondata.cc/v1",)response = llm.invoke("Explain LemonData in one sentence.")print(response.content)
from langchain_core.messages import HumanMessage, SystemMessagemessages = [ SystemMessage(content="You are a helpful assistant."), HumanMessage(content="What is the capital of France?")]response = llm.invoke(messages)print(response.content)
Para nuevos proyectos agénticos, LangChain recomienda considerar LangGraph para un control más explícito sobre flujos de trabajo de larga duración y que usan herramientas.
from langchain.agents import create_openai_tools_agent, AgentExecutorfrom langchain_core.prompts import ChatPromptTemplatefrom langchain_core.tools import tool@tooldef search(query: str) -> str: """Search for information.""" return f"Search results for: {query}"tools = [search]prompt = ChatPromptTemplate.from_messages([ ("system", "You are a helpful assistant with access to tools."), ("human", "{input}"), ("placeholder", "{agent_scratchpad}")])agent = create_openai_tools_agent(llm, tools, prompt)executor = AgentExecutor(agent=agent, tools=tools)result = executor.invoke({"input": "Search for LemonData pricing"})print(result["output"])
La configuración más confiable de LemonData es pasar base_url="https://api.lemondata.cc/v1" directamente a ChatOpenAI y OpenAIEmbeddings en lugar de depender de alias antiguos de variables de entorno.
Usa aquí funciones estándar
Limítate al chat estándar, llamadas a herramientas, streaming y embeddings en ChatOpenAI. Si necesitas extras nativos del proveedor, cambia a la integración propia del proveedor en LangChain.
Usa modelos más económicos para recuperación
Usa modelos de embeddings como text-embedding-3-small para recuperación y reserva modelos de chat más potentes para el paso final de respuesta.