Saltar al contenido principal

Resumen

LemonData ofrece generación de video mediante una API unificada. La generación es asíncrona: envías una solicitud, recibes task_id y poll_url, y después consultas hasta obtener el resultado final.
Puedes ver el inventario público actual de modelos de video a través de la Models API o en la página de modelos.
Si una respuesta de creación devuelve poll_url, llama exactamente a esa URL. Cuando apunte a /v1/tasks/{id}, trátala como el endpoint fijo canónico de estado.
El comportamiento del audio depende del modelo. En LemonData, la familia Veo 3 se trata por defecto como audio activado cuando se omite output_audio. Otros modelos públicos son silenciosos por defecto o no exponen un interruptor de audio estable.
En producción, es mejor usar URLs https públicas para imágenes, videos y audio. Los modelos compatibles siguen aceptando URLs data:, pero las URLs son más robustas para reintentos, observabilidad y depuración.

Flujo asíncrono

Operaciones públicas actuales

El contrato público de video de LemonData se centra actualmente en estas operaciones:
  • text-to-video
  • image-to-video
  • reference-to-video
  • start-end-to-video
  • video-to-video
  • motion-control
El contrato también acepta audio-to-video y video-extension para flujos específicos de algunos modelos, pero en la lista pública generalmente habilitada de esta compilación no hay ningún modelo ampliamente habilitado que publique esas capacidades.

Matriz de capacidades

Leyenda: ✅ Hay al menos un modelo público actualmente habilitado en esa familia de proveedores con esa capacidad | ❌ No hay modelos públicos actualmente habilitados con esa capacidad
SerieT2VI2VReferenciaInicio-FinV2VMovimiento
OpenAI
Kuaishou
Google
ByteDance
MiniMax
Alibaba
Shengshu
xAI
Otros

Definiciones de capacidades

  • T2V (Text-to-Video): generar un video a partir de un prompt de texto
  • I2V (Image-to-Video): generar un video a partir de una imagen inicial; para la compatibilidad más amplia conviene usar image_url
  • Referencia: condicionar la generación con una o varias imágenes de referencia mediante reference_images
  • Inicio-Fin: controlar el primer y el último fotograma con start_image y end_image
  • V2V (Video-to-Video): usar un video existente como entrada principal
  • Movimiento: combinar una imagen del sujeto con un video de referencia de movimiento

Inventario público actual de modelos

OpenAI

ModeloOperaciones públicas
sora-2Texto a video, imagen a video
sora-2-proTexto a video, imagen a video
sora-2-pro-storyboardImagen a video

Kuaishou

ModeloOperaciones públicas
kling-3.0-motion-controlControl de movimiento
kling-3.0-videoTexto a video, imagen a video, inicio-fin a video
kling-v2.5-turbo-proTexto a video, imagen a video, inicio-fin a video
kling-v2.5-turbo-stdTexto a video, imagen a video
kling-v2.6-proTexto a video, imagen a video, inicio-fin a video
kling-v2.6-stdTexto a video, imagen a video
kling-v3.0-proTexto a video, imagen a video, inicio-fin a video
kling-v3.0-stdTexto a video, imagen a video, inicio-fin a video
kling-video-o1-proTexto a video, imagen a video, referencia a video, inicio-fin a video, video a video
kling-video-o1-stdTexto a video, imagen a video, referencia a video, inicio-fin a video, video a video

Google

ModeloOperaciones públicas
veo3Texto a video, imagen a video
veo3-fastTexto a video, imagen a video
veo3-proTexto a video, imagen a video
veo3.1Texto a video, imagen a video, referencia a video, inicio-fin a video
veo3.1-fastTexto a video, imagen a video, referencia a video, inicio-fin a video
veo3.1-proTexto a video, imagen a video, inicio-fin a video

ByteDance

ModeloOperaciones públicas
seedance-1.5-proTexto a video, imagen a video

MiniMax

ModeloOperaciones públicas
hailuo-2.3-fastImagen a video
hailuo-2.3-proTexto a video, imagen a video
hailuo-2.3-standardTexto a video, imagen a video

Alibaba

ModeloOperaciones públicas
wan-2.2-plusTexto a video, imagen a video
wan-2.5Texto a video, imagen a video
wan-2.6Texto a video, imagen a video, referencia a video

Shengshu

ModeloOperaciones públicas
viduq2Texto a video, referencia a video
viduq2-proImagen a video, referencia a video, inicio-fin a video
viduq2-pro-fastImagen a video, inicio-fin a video
viduq2-turboImagen a video, inicio-fin a video
viduq3-proTexto a video, imagen a video, inicio-fin a video
viduq3-turboTexto a video, imagen a video, inicio-fin a video

xAI

ModeloOperaciones públicas
grok-imagine-image-to-videoImagen a video
grok-imagine-text-to-videoTexto a video
grok-imagine-upscaleVideo a video

Otros

ModeloOperaciones públicas
topaz-video-upscaleVideo a video

Ejemplos de uso

Texto a video

response = requests.post(f"{BASE}/videos/generations",
    headers=headers,
    json={
        "model": "sora-2",
        "prompt": "A calm cinematic shot of a cat walking through a sunlit garden.",
        "operation": "text-to-video",
        "duration": 4,
        "aspect_ratio": "16:9"
    }
)

Imagen a video

response = requests.post(f"{BASE}/videos/generations",
    headers=headers,
    json={
        "model": "hailuo-2.3-standard",
        "prompt": "The scene begins from the provided image and adds gentle natural motion.",
        "operation": "image-to-video",
        "image_url": "https://example.com/portrait.jpg",
        "duration": 6,
        "aspect_ratio": "16:9"
    }
)

Referencia a video

response = requests.post(f"{BASE}/videos/generations",
    headers=headers,
    json={
        "model": "veo3.1",
        "prompt": "Keep the same subject identity and palette while adding subtle motion.",
        "operation": "reference-to-video",
        "reference_images": [
            "https://example.com/ref-a.jpg",
            "https://example.com/ref-b.jpg"
        ],
        "duration": 8,
        "resolution": "720p",
        "aspect_ratio": "9:16"
    }
)

Control de fotograma inicial y final

response = requests.post(f"{BASE}/videos/generations",
    headers=headers,
    json={
        "model": "viduq2-pro",
        "prompt": "Smooth transition from day to night.",
        "operation": "start-end-to-video",
        "start_image": "https://example.com/city-day.jpg",
        "end_image": "https://example.com/city-night.jpg",
        "duration": 5,
        "resolution": "720p",
        "aspect_ratio": "16:9"
    }
)

Video a video

response = requests.post(f"{BASE}/videos/generations",
    headers=headers,
    json={
        "model": "topaz-video-upscale",
        "operation": "video-to-video",
        "video_url": "https://example.com/source.mp4",
        "prompt": "Upscale this clip while preserving the original motion."
    }
)

Control de movimiento

response = requests.post(f"{BASE}/videos/generations",
    headers=headers,
    json={
        "model": "kling-3.0-motion-control",
        "operation": "motion-control",
        "prompt": "Keep the subject stable while following the motion reference.",
        "image_url": "https://example.com/subject.png",
        "video_url": "https://example.com/motion.mp4",
        "resolution": "720p"
    }
)

Referencia de parámetros

ParámetroTipoNota
operationstringEn producción conviene enviarlo explícitamente
image_urlstringForma más robusta de entrada de imagen
imagestringURL data: útil para pruebas locales e integraciones pequeñas
reference_imagesstring[]Campo público canónico para condicionamiento con referencias
reference_image_typestringSelector opcional asset / style
video_urlstringObligatorio para los modelos públicos actuales de video-to-video y motion-control
audio_urlstringPara flujos específicos de audio a video
output_audiobooleanLa familia Veo 3 trata la omisión como true

Guía rápida de selección de modelo

Máxima calidad

Si la calidad importa más que la velocidad, veo3.1-pro, kling-video-o1-pro y viduq3-pro son opciones fuertes.

Iteración rápida

Para ciclos rápidos, veo3.1-fast, hailuo-2.3-fast y viduq3-turbo son buenos puntos de partida.

Flujos con referencias

Si necesitas control dedicado por imágenes de referencia, empieza con veo3.1, veo3.1-fast, wan-2.6 o kling-video-o1-pro / std.

Video a video

Las rutas públicas generalmente habilitadas de video-to-video hoy son sobre todo topaz-video-upscale, grok-imagine-upscale y kling-video-o1-pro / std.

Facturación

La facturación depende del modelo. Algunos modelos públicos de video se comportan en la práctica como modelos cobrados por solicitud, mientras que otros se asemejan más a un cobro por segundo. Para la superficie pública de precios actual, consulta la página de modelos o la Pricing API.