Szenen
Szenen sind die grundlegenden Videogenerierungs-Knoten in Dal Nulla. Jeder Szenen-Knoten erzeugt einen Videoclip basierend auf deinem Text-Prompt und verbundenen Referenzbildern. Szenen sind der Ort, an dem deine kreative Vision zum Leben erwacht — von KI-generierten Videoclips bis hin zu Video-to-Video-Transformationen.

Was ist ein Szenen-Knoten?
Ein Szenen-Knoten repraesentiert einen einzelnen Videoclip in deinem Projekt. Er nimmt Text-Prompts, Referenzbilder, Start-/End-Frames oder sogar andere Videos als Eingabe entgegen und erzeugt ein generiertes Video als Ausgabe. Szenen-Knoten sind der Kern jedes Video-Workflows in Dal Nulla.
Du kannst mehrere Szenen-Knoten verketten, um Sequenzen zu erstellen, Video-to-Video (V2V) nutzen, um bestehende Clips zu transformieren, oder Referenzbilder verbinden, um die visuelle Ausgabe der KI zu steuern.
Eingaenge & Ausgaenge
| Port | Richtung | Typ | Beschreibung |
|---|---|---|---|
| input | Ein | Text | Text-Prompt von Textknoten, Concatenator, List Selector oder JSON Parser |
| source | Ein | Image | Referenzbilder (bis zu 3) von Reference Image, Draw, Upscaler oder Network Image Knoten |
| startFrame | Ein | Image | Start-Frame-Bild fuer den Frames-Modus |
| endFrame | Ein | Image | End-Frame-Bild fuer den Frames-Modus |
| sourceVideo | Ein | Video | Quellvideo von einer anderen Szene fuer Video-to-Video (V2V) |
| output | Aus | Video | Generiertes Video zu anderen Szenen (V2V), Upscaler, AI Voice, Text (multimodal), Image, Social-Knoten, AI If/Else oder Google Drive Export |
Inspector-Steuerungen
Wenn du einen Szenen-Knoten auswahlst, kannst du im Inspector-Panel auf der rechten Seite jeden Aspekt der Videogenerierung konfigurieren.
Prompt
Beschreibe die Handlung, den Stil und den Inhalt des Videos. Wenn ein Textknoten verbunden ist, erscheint sein Inhalt hier automatisch. Du kannst ihn Trennen, um den Prompt unabhaengig zu bearbeiten, oder den Editor Erweitern fuer ein Vollbild-Schreiberlebnis.
Negativer Prompt
Gib an, was im generierten Video vermieden werden soll. Haeufige Werte: blur, distortion, text, watermark, low quality, static.
Modell
Waehle das Videogenerierungs-Modell. Jedes Modell hat unterschiedliche Staerken, Qualitaetsstufen und Preise. Siehe die vollstaendige Modelltabelle unten.
Dauer
Stelle die Videolaenge ein. Die Optionen haengen vom gewaehlten Modell ab — typischerweise von 3 Sekunden bis 15 Sekunden, wobei VEO 3.1 bis zu 148 Sekunden unterstuetzt.
Aufloesung
Waehle die Ausgabequalitaet: 720p, 1080p oder 4K. Beachte, dass die 4K-Verfuegbarkeit modellabhaengig und teurer ist.
Seitenverhaeltnis
Stelle die Videodimensionen ein: 16:9 (Querformat), 9:16 (Hochformat/vertikal), 1:1 (quadratisch), 4:3, 3:4 und mehr je nach Modell.
Audio
Schalte die Audiogenerierung ein oder aus. Bei ON generiert die KI passendes Audio zum Video. Bei OFF ist das Video stumm — und kostet weniger Credits.
Seed
Setze eine bestimmte Seed-Nummer fuer reproduzierbare Ergebnisse. Die Verwendung des gleichen Seeds mit dem gleichen Prompt und den gleichen Einstellungen erzeugt konsistente Ausgaben. Von den meisten Modellen unterstuetzt.
Media-Eingabemodi
Wechsle zwischen zwei Arten der visuellen Eingabesteuerung:
- Refs (Referenzen): Verbinde bis zu 3 Referenzbilder. Die KI mischt sie fuer Stil- und Inhaltsfuehrung.
- Frames: Setze einen Start-Frame und/oder End-Frame. Die KI animiert den Uebergang zwischen diesen Bildern. Ideal fuer Produkt-Reveals und Uebergaenge.
Globalen Kontext verwenden
Binde den projektweiten globalen Kontext (Text und Referenzbilder) in die Generierung dieser Szene ein. Deaktiviere dies, wenn die Szene vollstaendig unabhaengig sein soll.
Versionsverlauf
Jede Generierung wird im Verlauf gespeichert. Durchsuche fruehere Versionen und klicke, um eine beliebige fruehere Video-und-Prompt-Kombination wiederherzustellen.
Tag
Weise diesem Knoten einen Tag zu (z. B. @scene-1), damit du seine Ausgabe in nachgeschalteten Textknoten fuer die multimodale Analyse referenzieren kannst.
Verfuegbare Modelle
| Modell | Anbieter | Stufe | Max. Aufl. | Dauern | FPS | Img2Vid | V2V | Ideal fuer |
|---|---|---|---|---|---|---|---|---|
| VEO 3.1 Pro | Kostenlos | 4K | 8-148s | - | Ja | Nein | Lange Clips, hoechste Qualitaet, kostenlos | |
| VEO 3.1 Fast | Kostenlos | 1080p | 8-148s | - | Ja | Nein | Schnelle Generierung, kostenlos | |
| Grok Imagine Video | xAI | Pro | 720p | 5/10/15s | - | Nein | Ja | V2V-Transformationen |
| Kling 3.0 Pro | KlingAI | Pro | 1080p | 3-15s | - | Ja | Nein | Hohe Qualitaet, flexible Dauer |
| Kling 3.0 Standard | KlingAI | Pro | 1080p | 3-15s | - | Ja | Nein | Gutes Gleichgewicht von Geschwindigkeit und Qualitaet |
| Kling O3 Pro | KlingAI | Pro | 1080p | 3-15s | - | Ja | Nein | Fortgeschrittenes KlingAI |
| Kling O3 Standard | KlingAI | Pro | 1080p | 3-15s | - | Ja | Nein | Standard KlingAI |
| Kling 2.6 Pro | KlingAI | Pro | 1080p | 5-10s | - | Ja | Nein | Zuverlaessige Qualitaet |
| Sora 2 Pro | OpenAI | Pro | 1080p | 4/8/12s | - | Ja | Nein | Kinematische Qualitaet |
| Sora 2 | OpenAI | Pro | 720p | 4/8/12s | - | Ja | Nein | Schnelle OpenAI-Generierung |
| Runway Gen-4.5 | Runway | Pro | 1080p | 5/8/10s | 24 | Ja | Nein | Konsistente Charaktere |
| Runway Gen-4 Turbo | Runway | Pro | 720p | 2/5/10s | - | Ja (erforderlich) | Nein | Schnell, erfordert Startbild |
| Runway Aleph | Runway | Pro | 1080p | 5/10s | - | Nein | Ja (erforderlich) | Nur V2V |
| Hailuo 02 | MiniMax | Pro | 1080p | 6s | - | Ja | Nein | Hochwertige kurze Clips |
| Hailuo 2.3 | MiniMax | Pro | 1080p | 6s | - | Ja | Nein | Neuestes Hailuo |
| Hailuo 2.3 Fast | MiniMax | Pro | 1080p | 6s | - | Ja (erforderlich) | Nein | Schnell, erfordert Bild |
| Seedance 1.5 Pro | ByteDance | Pro | 1080p | 4-12s | 24 | Ja | Nein | Fliessende Bewegung |
| Seedance 1.0 Pro | ByteDance | Pro | 1080p | 5-10s | 24 | Ja | Nein | Zuverlaessige Qualitaet |
| Seedance 1.0 Pro Fast | ByteDance | Pro | 1080p | 5-10s | 24 | Ja | Nein | Schnelles Seedance |
| Seedance 1.0 Lite | ByteDance | Pro | 720p | 5-10s | 24 | Ja | Nein | Guenstiges Seedance |
Stufe: “Kostenlos”-Modelle sind in allen Plaenen verfuegbar. “Pro”-Modelle erfordern ein aktives Abonnement.
Verwendung
- Fuege einen Szenen-Knoten zum Canvas hinzu — Rechtsklick und “Scene” waehlen, oder aus der Seitenleiste ziehen.
- Schreibe einen beschreibenden Prompt fuer den Videoclip (oder verbinde einen Textknoten).
- Waehle ein Videomodell basierend auf deinen Qualitaets-, Geschwindigkeits- und Kostenanforderungen.
- Waehle Dauer, Aufloesung und Seitenverhaeltnis in den Inspector-Steuerungen.
- (Optional) Verbinde Referenzbilder im Refs-Modus zur visuellen Fuehrung, oder nutze den Frames-Modus mit einem Start-Frame und End-Frame.
- (Optional) Schalte Audio ein oder aus.
- Klicke auf Szene generieren oder starte den gesamten Workflow.
Workflow-Beispiele
Multi-Referenz-Video
Verbinde einen Textknoten mit “cinematische Szene eines Kriegers, der durch einen Wald geht” mit einem Szenen-Knoten. Verbinde zwei Referenzbilder — eines des Charakters (Tag: @warrior) und eines des Waldhintergrunds (Tag: @forest) — mit den source-Ports des gleichen Szenen-Knotens. Die KI generiert ein Video, das den Charakter mit der Waldkulisse verschmilzt.
Video-to-Video-Kette
Szene A generiert einen ersten Clip. Verbinde die Ausgabe von Szene A mit dem sourceVideo-Port von Szene B. Szene B wendet eine V2V-Transformation an (z. B. Stiltransfer), waehrend die urspruengliche Bewegung erhalten bleibt. Verbinde dann Szene B mit einem Upscaler-Knoten, um die endgueltige Qualitaet zu verbessern.
Sequenzielle Geschichte
Erstelle eine Sequenz von Szenen, die zusammen fliessen. Verbinde Textknoten mit Kapitel-Prompts fuer jede Szene. Verwende gemeinsame Referenzbilder ueber Szenen hinweg, um die Charakterkonsistenz in der gesamten Geschichte aufrechtzuerhalten.
Tipps & Best Practices
- Kostenlose Modelle (VEO 3.1) unterstuetzen bis zu 148 Sekunden und 4K-Aufloesung — ideal fuer Prototyping und Produktion.
- Nutze den Frames-Modus fuer praezise Start-/End-Kontrolle. Ideal fuer Produkt-Reveals und fliessende Uebergaenge.
- V2V (Video-to-Video) transformiert bestehendes Video unter Beibehaltung der Bewegung — nur Grok Imagine Video und Runway Aleph unterstuetzen dies.
- Schalte Audio AUS fuer stumme Clips, um die Generierungskosten zu senken.
- Verbinde bis zu 3 Referenzbilder im Refs-Modus fuer maximale Stilkontrolle.
- Verwende Tags (
@scene-1), um Video-Ausgaben in nachgeschalteten Textknoten fuer multimodale Analyse zu referenzieren. - 4K ist teuer — erstelle Prototypen bei 720p oder 1080p, dann regeneriere deine besten Szenen in 4K.
- Verwende den Seed-Parameter, wenn du konsistente Ergebnisse ueber Iterationen hinweg wuenschst.
- Sperre einen Szenen-Knoten, um das generierte Video bei Workflow-Wiederholungen zu erhalten.
Fehlerbehebung
| Problem | Ursache | Loesung |
|---|---|---|
| Lange Generierungszeiten | Videogenerierung ist von Natur aus langsam (30s-5min) | Nutze Fast-Modelle (VEO 3.1 Fast, Hailuo 2.3 Fast, Seedance Fast) fuer schnelle Iterationen |
| Referenzbilder werden ignoriert | Modell unterstuetzt kein img2vid | Pruefe die Modelltabelle oben. Beachte, dass Runway Gen-4 Turbo ein Startbild erfordert |
| V2V funktioniert nicht | Modell unterstuetzt kein V2V | Nur Grok Imagine Video und Runway Aleph unterstuetzen V2V. Verbinde das Quellvideo mit dem sourceVideo-Port |
| 4K nicht verfuegbar | 4K ist modellabhaengig | VEO 3.1 Pro und Kling-Modelle unterstuetzen 4K. Andere Modelle erreichen maximal 1080p |
| Audio-Qualitaetsprobleme | KI-generiertes Audio ist experimentell | Fuer professionelle Erzaehlung nutze stattdessen AI Voice Knoten |
| Video wirkt statisch | Prompt fehlen Bewegungsverben | Verwende Aktionsverben wie “running”, “flying”, “panning”, “zooming” in deinem Prompt |
Siehe auch
- Referenzbilder — Erstelle Bilder zur Steuerung der Videogenerierung
- Textknoten — Generiere Prompts fuer Szenen
- Upscaler-Knoten — Verbessere die Videoqualitaet
- AI Voice Knoten — Fuege Videos Erzaehlung hinzu
- Video-Generator — Eigenstaendiges Tool fuer schnelle Videogenerierung
- Modelle & Spezifikationen — Vollstaendige Modelldetails und Preise