Sistema completo para reciclar tu contenido: de vídeo de YouTube a hilo de X, newsletter y post SEO con ayuda de IA
Tiempo estimado de lectura: 5 min
Ideas clave
- Documento Maestro: un JSON semántico como única fuente de verdad para generar todos los assets.
- Pipeline técnico: n8n → extracción de audio → transcripción fiable → LLM de ventana amplia → agentes por canal.
- Human-in-the-loop: automatiza generación, pero valida lógica y snippets antes de publicar.
Introducción
Un sistema completo para reciclar tu contenido transforma un único vídeo de YouTube en un post SEO, un hilo de X y una newsletter lista para enviar —con automatización y control humano—. En las primeras líneas: este artículo explica cómo montar ese pipeline técnico (n8n + transcripción fiable + LLMs), por qué usar un Documento Maestro intermedio y cómo evitar los errores que convierten la IA en ruido.
Resumen rápido (lectores con prisa)
Qué: Un pipeline que convierte un vídeo en múltiples assets usando transcripción y un Documento Maestro JSON.
Cuándo usarlo: Cuando quieras economizar la producción de contenidos técnicos y mantener coherencia entre canales.
Por qué importa: Reduce tiempo humano y disminuye contradicciones y alucinaciones entre outputs.
Cómo funciona: n8n detecta vídeo → extrae audio → transcribe → LLM genera Documento Maestro → agentes producen post/hilo/newsletter → revisión humana.
Por qué no basta con “resumir” y qué es el Documento Maestro
Resumir un transcript directamente produce frases planas y repetitivas. La diferencia entre contenido útil y contenido reciclado con criterio es la estructura semántica: tesis, puntos clave, bloques de código y hooks de publicación. Ese artefacto es el Documento Maestro —un JSON que sirve como única fuente de verdad para todos los generadores posteriores.
Ejemplo sencillo de esquema JSON
{
"tesis_central":"Por qué automatizar transcripciones mejora distribución técnica",
"puntos_clave":["Transcripción fiable","Documento Maestro","Generación por canal"],
"codigo_snippets":[{"lenguaje":"bash","codigo":"yt-dlp -x --audio-format mp3 ","explicacion":"Extrae audio del vídeo"}],
"punto_dolor_resuelto":"Perder horas reescribiendo lo mismo para cada canal",
"citas_destacadas":[{"ts":"00:02:15","texto":"La transcripción es tu índice semántico."}]
}
Genera ese JSON con un LLM de ventana amplia (Claude 3.5 Sonnet o GPT‑4o) para mantener coherencia en todo el pipeline.
Fase 1 — Ingesta y transcripción (calidad sobre rapidez)
Workflow básico en n8n
- Trigger: nuevo vídeo detectado por RSS/YouTube API.
- Descarga de audio:
yt-dlpo Apify YouTube Scraper. - Transcripción: OpenAI Whisper o Deepgram.
Recomendación práctica
– Empieza con Whisper por su integrabilidad y calidad con jerga técnica.
– Usa Deepgram si procesas muchos minutos al mes o necesitas diarización y baja latencia.
Salida
Salida: transcript con timestamps (SRT/JSON). Ese archivo alimenta el LLM que genera el Documento Maestro.
Fase 2 — Generación del Documento Maestro (estructura y criterio)
Prompt base (simplificado)
“Analiza esta transcripción técnica y devuelve un JSON con: tesis_central (1 frase), puntos_clave (3–5 bullets), codigo_snippets (lenguaje, codigo, explicacion), punto_dolor_resuelto y 2–3 citas_hook con timestamp.”
¿Por qué insistir en esto? Porque evita que cada asset derive de frases sueltas. Todas las piezas (blog, hilo, newsletter) referenciarán el mismo origen estructurado, reduciendo contradicciones y “alucinaciones”.
Fase 3 — Agentes especializados: un prompt por canal
Con el Documento Maestro listo, bifurca el proceso en n8n a tres agentes:
Post SEO (800 palabras, Markdown + frontmatter)
Prompt: “Actúa como editor técnico. Usa el Documento Maestro para escribir un artículo de 800 palabras con H2/H3, ejemplos de código y conclusión práctica. Incluye frontmatter para CMS.”
Output: Markdown listo para publicar en Ghost/WordPress/Next.
--- title: "Recicla tu vídeo: n8n + Whisper" date: 2026-01-24 keywords: ["content repurposing","n8n","AI transcription"] ---
Hilo de X (5–7 tweets)
Prompt: “Genera un hilo de 5–7 tweets. Tweet 1: gancho basado en punto_dolor. Tweets intermedios: 1 idea por tweet. Último tweet: CTA al vídeo.”
Output: Array de tweets listos para revisión o publicación programada.
Newsletter (≈400 palabras)
Prompt: “Escribe un email con tono de mentor: 1 anécdota, insight clave, tip exclusivo y CTA al vídeo/post.”
Output: HTML/Markdown para Mailchimp/Substack.
Fase 4 — Orquestación y Human-in-the-Loop
No publiques automáticamente. Workflow recomendado en n8n:
- Genera borradores en Notion/Google Docs/CMS.
- Envía notificación a Slack con enlaces.
- Un humano revisa: verifica código, corrige posibles alucinaciones y ajusta tono.
Plantéalo como edición, no como revisión ortográfica: valida lógica, snippets y enlaces.
Costes, métricas y escalado rápido
Coste aproximado (orden de magnitud para 10 vídeos/mes): transcripción + LLMs + Apify/n8n infra — entre $15–50/mes según consumo y modelos. Prioriza calidad de transcripción; un transcript limpio reduce tiempo de edición humana drásticamente.
Escalado
– Añade Vector DB (Pinecone) para buscar fragments y crear FAQs.
– Parsea el Documento Maestro a micro-formatos (carousels de LinkedIn, captions de Instagram).
Conclusión práctica
Montar este sistema toma unas horas si ya tienes n8n y claves de API: trigger → transcribir → Documento Maestro → tres agentes → revisión humana. El retorno es claro: un solo vídeo alimenta múltiples canales con coherencia técnica y menos trabajo repetitivo. Implementa la cadena hoy, ajusta prompts mañana y pisa el acelerador cuando el procedimiento sea sólido. Tu equipo agradece menos tareas manuales; tu audiencia recibe contenido pensado, no reciclado.
Más recursos y experimentos relacionados con automatización y agentes están disponibles en Dominicode Labs. Es una continuación útil si buscas plantillas y ejemplos prácticos para n8n y pipelines de IA.
FAQ
- ¿Por qué usar un Documento Maestro en JSON?
- ¿Qué transcriptor conviene para jerga técnica?
- ¿Puedo automatizar la publicación directa desde n8n?
- ¿Cómo evito alucinaciones en los outputs del LLM?
- ¿Qué coste aproximado tiene este pipeline?
¿Por qué usar un Documento Maestro en JSON?
Un Documento Maestro estructura la semántica del contenido (tesis, puntos clave, snippets, hooks). Sirve como una única fuente de verdad para generar assets consistentes y reducir contradicciones entre canales.
¿Qué transcriptor conviene para jerga técnica?
Empieza con OpenAI Whisper por su integrabilidad y manejo de terminología técnica. Usa Deepgram si necesitas diarización o procesas muchos minutos con baja latencia.
¿Puedo automatizar la publicación directa desde n8n?
Puedes, pero no es recomendable sin revisión humana. El flujo sugerido genera borradores en CMS/Notion y notifica a un revisor para validar código, enlaces y lógica antes de publicar.
¿Cómo evito alucinaciones en los outputs del LLM?
Usa el transcript con timestamps como contexto, genera el Documento Maestro con un LLM de ventana amplia y establece prompts estructurados. Siempre valida hechos y snippets en la etapa humana.
¿Qué coste aproximado tiene este pipeline?
Para 10 vídeos/mes, la estimación de orden de magnitud indicada es $15–50/mes, dependiendo de modelos y consumo. Prioriza calidad de transcripción para reducir horas de edición humana.
