Автоматизация создания мультика: end-to-end гайд на n8n + ИИ, с шаблоном JSON, промптами и FFmpeg
Автоматизация создания мультика — практичный способ собрать анимационный ролик без ручной рутины. В этом гайде вы получите импортируемый n8n шаблон JSON, готовые промпты, FFmpeg-конфиги и чек-лист. От сценария до публикации и мониторинга: генерация сценария LLM, промпты на кадры, генерация картинок ИИ, постобработка, озвучка TTS, субтитры, склейка видео FFmpeg, публикация и мониторинг.
Кому полезно: авторам контента, SMM-специалистам, small business, продюсерам коротких роликов, low-code/no-code разработчикам. Формат поста: шаги + готовый n8n export JSON шаблон + примеры кода + чек-лист.

One-line flow: генерация сценария ИИ
Один поток, одна строка: генерация сценария ИИ → разбивка на сцены → генерация изображений → постобработка кадров → сборка видео (FFmpeg) → автоматическая озвучка ИИ (TTS/клонирование) → субтитры → экспорт/публикация → мониторинг.
Ключевые артефакты: JSON сцен (структурированный сценарий), batch кадров (PNG/JPEG), аудио-файлы (WAV/MP3), финальный MP4 (H.264), n8n workflow (экспорт n8n JSON).
Что вы получите: пошаговая инструкция n8n
Итоговые артефакты: рабочие ноды и ветвления, параметризованный n8n шаблон JSON с placeholders, примеры промптов для сценария, изображений и TTS, набор FFmpeg‑конфигов и чек‑лист деплоя/мониторинга.
- n8n шаблон JSON (PLACEHOLDERS: OPENAI_API_KEY, IMAGE_API_KEY, S3_ACCESS, S3_SECRET)
- Примеры промптов: сценарий, промпты на кадры, SSML для TTS
- FFmpeg-команды: склейка, субтитры, вертикальная версия
- Чек-лист: тестовый запуск → импорт шаблона → проверка creds → мини‑проект
n8n workflow мультик — техническая архитектура
Компоненты: n8n (оркестратор) ↔ OpenAI/LLM ↔ API генерации изображений (Stable Diffusion / DALL·E / Midjourney) ↔ S3-совместимое хранилище ↔ FFmpeg ↔ TTS провайдеры ↔ Whisper/ASR ↔ внешние интеграции (YouTube/TikTok).

Потоки данных: Webhook/Cron → временные файлы в S3 → обработка (LLM → кадры → аудио) → сборка (FFmpeg) → публикация → логирование. Форматы: JSON, PNG/JPEG, WAV/MP3, MP4 H.264, SRT.
Деплой n8n для продакшна — подготовка
Варианты: Docker Compose, n8n.cloud, локально для теста. Рекомендуемые ресурсы для тестовой генерации: 2 vCPU, 4–8 GB RAM; для больших batch — 8–16 GB RAM и быстрый диск.
Credentials: OpenAI/LLM, Image API, S3, TTS, YouTube/TikTok. FFmpeg можно запускать внутри контейнера n8n, через host-бинарь (docker exec) или в Kubernetes Job.
Шаг 1 — Webhook / trigger
Узел: Webhook (POST) или Cron. Пример URL: https://your-n8n/webhook/mult/cartoon/start.
{
"project_id": "demo-tt",
"title": "Завтрак супергероя",
"length_sec": 20,
"style": "bright, 2D, flat colors, child-friendly",
"voice_profile": "elevenlabs:voice_123"
}
Шаг 2 — Сценарий для мультика (LLM)
Узлы: OpenAI (или HTTP к LLM), Function для парсинга JSON, опционально ajv для валидации. Важный момент — вернуть строго валидный JSON со сценами.
{
"scenes": [
{
"scene_id": "s1",
"start": 0,
"end": 4.0,
"description": "кот на кухне видит пылесос",
"prompts_for_images": ["medium shot, cat, kitchen, morning light"],
"dialogues": [{ "speaker": "кот", "text": "мяу!", "emotion": "joy" }]
}
]
}
Шаг 3 — Batch генерация кадров (разбивка сценария)
Логика: target_fps = 24; ключевые кадры на сцену зависят от динамики (статичная 1–3, полуанимация 5–12, динамическая >12). Function node разворачивает сцены в items; SplitInBatches даёт параллельность.
Шаг 4 — Генерация картинок ИИ (Image API)
HTTP Request → Stable Diffusion / DALL·E / Midjourney webhook. Формат: 1280×720 (16:9) или 1080×1920 для вертикального. В промпте указывайте token согласованности персонажа, seed и reference images.
"prompt": "young cat hero, orange tabby, blue scarf, big expressive eyes, consistent design token 'CAT_HERO_V1', kitchen, morning light, cel-shaded, medium shot"
Шаг 5 — Постобработка изображений (оптимизация качества)
Унификация размера/AR: scale+pad до 1280×720, апскейл (Real-ESRGAN) в отдельной очереди. Версионирование в S3: orig, upscaled, final. Сохраняйте метаданные (scene_id, frame_index, seed, model).

Шаг 6 — Автоматическая озвучка ИИ (TTS / клонирование)
Узлы: HTTP Request к Yandex SpeechKit / Google TTS / ElevenLabs. Генерируйте аудио для каждой реплики dialogues. Рекомендуемый формат: WAV 48kHz 16-bit PCM.
Привет! Поехали!
Шаг 7 — Субтитры / расшифровки
Whisper (локально или API) возвращает транскрипт с таймкодами → .srt. Если TTS генерирует текст заранее — используйте исходные реплики и подгоняйте тайминги под аудио.
Шаг 8 — Сборка видео из картинок (FFmpeg)
Основные команды для склейки и наложения аудио/subs:
# Последовательность PNG → видео ffmpeg -r 24 -f image2 -s 1280x720 -i frame_%04d.png -c:v libx264 -pix_fmt yuv420p -vf "fps=24,format=yuv420p" temp_video.mp4 # Добавить аудио и выровнять длительность ffmpeg -i temp_video.mp4 -i audio.wav -c:v copy -c:a aac -b:a 192k -shortest final.mp4 # Наложить субтитры ffmpeg -i final.mp4 -vf subtitles=subs.srt -c:a copy final_subs.mp4 # Вертикальная версия для TikTok ffmpeg -i final.mp4 -vf "scale=1080:1920:force_original_aspect_ratio=decrease,pad=1080:1920:(ow-iw)/2:(oh-ih)/2" -c:v libx264 -crf 23 -preset medium tiktok.mp4
Шаг 9 — Постобработка и оптимизация видео
Сжатие (bitrate/CRF), color grading (LUT), FPS адаптация и генерация превью/thumbnail. Пример сжатия:
ffmpeg -i input.mp4 -c:v libx264 -b:v 2500k -maxrate 3000k -bufsize 5000k -c:a aac -b:a 128k output.mp4
Шаг 10 — Публикация (YouTube / TikTok)
Узлы: HTTP Request / YouTube node / TikTok API. Метаданные: title, description, tags, thumbnail, privacy. Используйте chunked upload для больших файлов и проверяйте статус загрузки.
Шаг 11 — Мониторинг и логирование
Храните job-run JSON в S3; глобальные retry‑стратегии; метрики: время генерации кадра, задержки API, размер артефактов; алерты в Telegram/Slack при ошибках.
n8n шаблон JSON и примеры нод
Типичный маршрут: Webhook → OpenAI → Function(parse) → SplitInBatches → HTTP(image API) → S3 Upload → Execute Command(FFmpeg) → HTTP(TTS) → YouTube Upload → Telegram уведомление.
# Пример Execute Command (ffmpeg) в node
export FPS={{$json.fps||24}}; export WIDTH={{$json.width||1280}}; export HEIGHT={{$json.height||720}};
ffmpeg -r $FPS -f image2 -s ${WIDTH}x${HEIGHT} -i {{$json.frames_pattern}} -c:v libx264 -pix_fmt yuv420p -vf "fps=$FPS,format=yuv420p" /data/temp_video.mp4
Промпты: сценарий, кадры, TTS
System prompt (сценарий): «Ты — сценарист коротких детских мультов. Возвращай строго JSON со сценами…» Промпт для изображений: включайте CHAR_TOKEN, reference, pose, lighting, camera shot, style, seed.
Тонкости качества и практические советы
- Согласованность персонажей: reference images + attributes + фиксированный seed.
- Баланс fps vs уникальных кадров: для TikTok 24–30 fps с pan/zoom может быть экономным вариантом.
- Кэшируйте кадры по hash(prompt+seed+model) чтобы не рендерить заново.
Права на AI-контент и этика
Проверяйте ToS провайдеров (Stable Diffusion чекпойнты, DALL·E, Midjourney). Для клонирования голоса требуется письменное согласие носителя; храните образцы защищённо и удаляйте по запросу.
Стоимость и производительность (ориентиры)
Примеры затрат: LLM сценарий $0.01–0.08; изображение $0.02–0.10; TTS $0.01–0.20/минута; хранение S3 ~$0.02/ГБ/мес. Масштабирование через SplitInBatches и отдельные воркеры.
Безопасность API-ключей и деплой
Храните ключи в n8n encrypted credentials, Vault или K8s Secrets. Ротация ключей, минимальные права IAM для S3. Мониторинг: Prometheus/Grafana и централизованное логирование.
Чек-лист перед релизом
- Webhook → 1 сцена → 1 кадр → 1 аудио → мини-ролик
- Сценарий валидируется (ajv)
- Кадры сохранены в S3 (orig/final)
- FFmpeg создал temp_video.mp4 и final.mp4
- TTS сгенерировал WAV 48kHz, SRT синхронизирован
Пример мини‑кейса: TikTok 30 сек
Вход: title=»Кот‑герой и пылесос», style=cartoon, length=30. Технологии: LLM + Stable Diffusion + ElevenLabs + FFmpeg. Примерная стоимость $3–6, время генерации 6–12 минут на обычном сервере.
n8n export JSON шаблон — что приложить
Приложите zip с n8n export JSON, README и примерами credentials placeholders; FFmpeg-команды и набор промптов (сценарий, кадры, TTS SSML).
Заключение и дальнейшие шаги
Вы получили end-to-end гайд: импортируемый n8n JSON, рабочие промпты, FFmpeg-конфиги и чек-лист. Дальше масштабируйте пайплайн: добавьте более глубокую анимацию, подключите custom ML-модели и DAM, автоматизируйте мультиплатформенную публикацию.
Источники и полезные материалы
- Habr — n8n и AI Agent (Amvera)
- Habr — «n8n. Автоматизация… за чашечкой кофе» (Dockhost)
- Postmypost — как n8n автоматизирует контент
- YouTube — Генерация AI‑видео с n8n и Veo/Replicate (Igor Zuevich)


