Tutoriales

    Crea canciones en Kubeez: guía de UI + automatización MCP

    Cómo generar pistas clase Suno en Kubeez — con voces o instrumental, alineadas a letras, separables en stems — desde la UI en menos de dos minutos, luego automatiza el mismo pipeline por MCP con cualquier agente compatible (Claude, Cursor, ChatGPT, propios).

    18 de abril de 20269 min de lecturaPor Kubeez
    Crea canciones en Kubeez: guía de UI + automatización MCP

    Crea canciones en Kubeez: guía de UI + automatización MCP

    La música solía ser el paso más lento de un pipeline de contenido — licencias, bibliotecas de stock, re-bounces sin fin. Kubeez lo reemplaza: pistas originales clase Suno generadas desde un brief corto, con stems completos, add-vocals y herramienta de letras integradas. Este post recorre primero la UI — el camino que toman la mayoría de creadores — y luego muestra cómo automatizar el mismo workflow a través del servidor MCP de Kubeez para que cualquier asistente compatible con MCP (Claude, Cursor, ChatGPT, agentes propios) te entregue pistas terminadas sin pestañas de navegador.

    Still life editorial: escritorio de madera cálida con auriculares de estudio, un micrófono condenser vintage, partituras manuscritas y una taza de café bajo luz natural suave

    #Qué puede hacer la música de Kubeez

    Antes del recorrido, la superficie cubierta:

    • Canciones completas con voces o solo instrumentales, en múltiples duraciones.
    • Generación de letras — pides un tema, obtienes una estructura de estrofa/estribillo, luego generas sobre esas letras.
    • Add Vocals sobre una pista instrumental existente.
    • Separación de stems — divide cualquier pista (generada o subida por ti) en vocals / drums / bass / other.
    • Exports listos para uso comercial — sin marca de agua, sin atribución requerida.

    Importa porque "música IA" suele venderse como el demo sin el pulido. Kubeez cubre todo el pipeline del brief al multitrack final por stems.

    #Guía UI: tu primera canción en menos de dos minutos

    1. Abre la página de generación de música. La vista por defecto es una caja de prompt limpia más algunos estilos iniciales — tipo dramatic symphony, pop song, rap instrumental. Haz click en cualquiera para ver un prompt funcional que puedes editar.
    2. Escribe el brief. Lo específico gana: "Pista indie-folk cálida, guitarra acústica y percusión ligera, voces masculinas relajadas, sobre la luz de fin de otoño y un camino a casa, 90 BPM, 2 minutos." Lo vago pierde: "una canción triste." Kubeez pasa tu texto directo al modelo — cuanto más rico sea el brief, más cerca aterriza la primera toma.
    3. Elige voces o instrumental. El toggle está junto al prompt. Las instrumentales cuestan igual pero te permiten poner tu voz encima después con Add Vocals.
    4. Opcionalmente escribe primero las letras. Si tienes un tema pero no tienes líneas, genera letras primero y pégalas de vuelta en el prompt de generación de música. Kubeez mantiene la toma vocal ajustada a tus letras en vez de alucinar sílabas.
    5. Genera. Kubeez encola el trabajo y muestra progreso. Las generaciones de música suelen tardar 40–90 segundos.
    6. Previsualiza en el reproductor con forma de onda. Puedes hacer scrub, loop sobre secciones y comparar A/B entre variantes sin salir de la página.
    7. Exporta o sigue iterando. Cada generación se guarda en tu historial; si una toma no queda perfecta, ajusta el brief y regenera — tu saldo de créditos y versiones previas siguen visibles todo el tiempo.

    Fotografía editorial, vista cenital de un escritorio de madera cálida con manos tecleando suavemente en un laptop minimal junto a un cuaderno de cuero, una pluma fuente, una taza de café, auriculares de estudio y flores secas bajo luz de ventana

    #Después de la primera toma — qué hacen los profesionales

    Una sola generación es un punto de partida, no una línea de meta. Los creadores que sacan kilometraje real a Kubeez suelen:

    • Generar con voces → separar en stems para poder cambiar la toma vocal por una propia después.
    • Generar un instrumental → Add Vocals con un set diferente de letras para la misma campaña (mismo fondo, dos versiones de idioma, tres opciones de voz).
    • Exportar + auto-captions la canción como parte de un video corto — Kubeez hace ambas en la misma cuenta.
    • Mantener un brief-doc vivo — párrafos pegables para "nuestro sonido" que sueltan en cada nueva generación para consistencia.

    La UI está optimizada para las primeras dos tomas de un flujo creativo. Una vez que sabes la forma de lo que quieres, la automatización empieza a pagar.

    #Automatizar con MCP — cualquier agente compatible

    El Model Context Protocol (MCP) es un estándar abierto para conectar asistentes de IA a herramientas, prompts y recursos. El servidor MCP de Kubeez expone la misma superficie de música que acabas de usar en la UI — generate_music, generate_dialogue, get_music_status, generate_separation, get_separation_status, más lookup de saldo y modelos.

    Cualquier cliente compatible MCP puede dirigirlo:

    • Claude Desktop y Claude Code — sign-in OAuth, UI de primera clase para llamadas a herramientas.
    • Cursor — agrega Kubeez vía la URL del servidor MCP, las mismas herramientas, chat in-IDE.
    • ChatGPT (builds con soporte MCP) y otros hosts que acepten un endpoint MCP remoto.
    • Tu propio agente — cualquier runtime con una librería de cliente MCP.

    La referencia autoritativa es la especificación del Model Context Protocol. Las guías de setup específicas para Kubeez están en MCP overview y Quick start.

    #Setup en menos de un minuto

    1. Abre configuración de MCP en tu cuenta de Kubeez. Copia la URL del servidor: https://mcp.kubeez.com/mcp.
    2. Agrega Kubeez como servidor MCP en tu cliente. OAuth es lo recomendado — el cliente abre un navegador, apruebas y no se pega ningún secreto. Si tu cliente solo acepta un token estático, genera un personal access token desde la misma página y úsalo como Authorization: Bearer ….
    3. Recarga la conexión MCP hasta que las herramientas de música aparezcan junto a las de media.

    #Cómo luce un brief de agente centrado en música

    Un prompt concreto y reutilizable que puedes pegar en cualquier asistente conectado por MCP:

    "Estoy corriendo un sprint de audio de 30 días para una app de meditación. Cada semana necesito 3 pistas ambient distintas, de 2–3 minutos cada una, solo instrumental, etiquetadas por mood (calm, focus, sleep). Revisa mi saldo antes de cada batch. Si una generación individual falla, reintenta una vez con un brief ligeramente distinto. Cuando las tres aterricen, dame las URLs de CDN y una descripción de una línea para cada una."

    Lo que típicamente hace el asistente:

    1. get_balance — confirma que el presupuesto está disponible.
    2. get_models filtrado a model_type=music — elige el modelo correcto y cotiza el costo por pista.
    3. Para cada pista: generate_music con el brief → get_music_status haciendo polling cada 10 segundos hasta completed.
    4. Ante fallo: lee el mensaje de error, ajusta el brief, reintenta una vez.
    5. Resume: tres URLs de CDN, moods etiquetados, créditos gastados.

    Sin pestañas de dashboard. Sin copy-paste de prompts. Si vives en Claude o Cursor, las pistas aterrizan en tu chat y tus créditos son el audit log.

    Still life editorial: escritorio de madera cálida con un cuaderno medio abierto con letras manuscritas, una pluma fuente, un laptop minimal, cuatro fundas de vinilo negras idénticas alineadas, un reloj analógico de latón y una taza de té bajo luz natural

    #Separación de stems, add-vocals y flujos más largos

    Una vez que te sientes cómodo con generate_music, el resto del toolchain de música encaja igual:

    • Add Vocals — sube (o reutiliza) un instrumental, provee las letras y obtén una toma vocal mezclada encima. Ideal para versiones multi-idioma de la misma canción.
    • Separación de stems — pasa cualquier pista (tuya o generada) a generate_separation para dividirla en vocals / drums / bass / other. Haz polling a get_separation_status para las URLs de stem individuales.
    • Auto-captions sobre videos musicales — combina una canción generada con un video generado y Kubeez quema los subtítulos encima.

    El servidor MCP expone cada una como herramienta de primera clase. Claude o Cursor las pueden encadenar: "Genera un instrumental lo-fi, luego añade mis letras como voz masculina, luego separa el resultado en stems para post-producción."

    #Mejores prácticas

    • Arranca el brief en lenguaje natural. Género, instrumentos, mood, tempo (BPM), género vocal si aplica, una historia de una línea. Palabras abstractas cortas como "vibes" producen resultados planos.
    • Guarda un párrafo de estilo reutilizable. Una descripción de dos frases de tu sonido (paleta, influencias, qué evitar) que pegas en cada nueva generación mantiene el catálogo consistente.
    • Elige instrumental cuando vayas a usar Add Vocals. Obtienes el mismo fondo con letras controlables por variante.
    • Presupuesta las generaciones en batch. Dile a tu asistente "mantente bajo X créditos en este run" — llamará a get_balance y get_models para encajar.
    • Guarda las tomas que te gusten. Kubeez mantiene tu historial, pero exporta las URLs MP3 para archivo — los modelos y precios cambian.

    #Seguridad e higiene

    • Revoca cualquier personal access token que dejes de usar desde configuración de MCP.
    • Prefiere OAuth para hosts interactivos — nada que pueda filtrarse a un log.
    • Nunca subas un PAT a git. Guárdalo en el credential manager de tu host.

    #A dónde ir después


    Resumen: Kubeez convierte un brief corto en música original — con o sin voces, alineada a letras, separable en stems, lista para uso comercial. La UI en /music es la forma más rápida de hacer la primera pista; el servidor MCP en https://mcp.kubeez.com/mcp deja que cualquier agente compatible MCP (Claude, Cursor, ChatGPT, runtimes propios) dirija generate_music, generate_separation, get_music_status de principio a fin sin abrir un navegador.

    Próximos pasos

    • Termina OAuth en configuración de MCP.
    • Haz tu primera canción desde la UI en /music.
    • Luego pídele a tu asistente conectado por MCP un batch: "Genera tres instrumentales indie-folk de 2 minutos, moods distintos, mantente bajo 100 créditos."

    Ver también