Nicht-lineares Schnittsystem, in dem Video, Audio und Effekte auf parallelen Spuren mit Frame-Genauigkeit für Synchronisation, Timing und komplexe mehrdimensionale Kompositionen angeordnet werden.
Technische Details
Timeline-Architektur in modernen NLEs
Frame-Genauigkeit und Timebase
Professionelle Timelines arbeiten mit Genauigkeit von 1/1000 Frame (Sub-Frame-Precision) für numerische Werte, aber Video-Schnitte erfolgen auf Frame-Basis (1 Frame = 1/fps):
| Format | Framerate | Frame-Dauer | Timeline-Auflösung |
|---|---|---|---|
| PAL | 25 fps | 40 ms | Frame-Ebene |
| NTSC | 29.97 fps | 33.37 ms | Frame + 1/1001 Präzision |
| 24p Cinema | 23.976 fps | 41.71 ms | Frame-Ebene |
| 60p/120p | 59.94/119.88 fps | 16.68/8.34 ms | Sub-Frame für Sync |
Spur-Management
| System | Video-Spuren | Audio-Spuren | Nesting-Ebenen | Max. Länge |
|---|---|---|---|---|
| Avid MC | 24 native | 64 mono/stereo | 8 | Unbegrenzt |
| Premiere Pro | Unbegrenzt | Unbegrenzt | Unbegrenzt | 4GB Pro |
| Final Cut Pro X | Unbegrenzt | Unbegrenzt | Unbegrenzt | Unbegrenzt |
| DaVinci Resolve | 24 (UI-Limit) | 32 Stereo | Unbegrenzt | Unbegrenzt |
Timeline-Strukturierung
Hierarchische Nesting (Nested Sequences)
Hauptsequenz (Master Timeline)
├─ Seq_Act1_Scene1 (Nested)
│ ├─ V1: Hauptkamera
│ ├─ V2: Detail/Insert
│ ├─ V3: VFX/Composit
│ └─ A1: Dialog
├─ Seq_Act1_Scene2 (Nested)
└─ Seq_VFX_Shots (Nested)
├─ V1: Plate (Live-Action)
├─ V2: CGI-Render
├─ V3: Particle-Effects
└─ A1: SFX-DesignProfessionelle Workflows nutzen bis zu 12 Nesting-Ebenen für:
- VFX-Scheinen: Plate + CGI + Grading isoliert
- Musik-Sequenzen: Alle Beats als separate Nested-Seq
- Color-Grading: Separate Grade-Seq mit Fusion-Nodes
Timeline-Performance-Faktoren
CPU/GPU-Anforderungen pro Video-Spur
- ProRes 422 SD: 10-15% GPU (1 Spur)
- ProRes 422 HD: 30-40% GPU (1 Spur)
- ProRes 422 4K: 60-80% GPU (1 Spur)
- DNxHR 444 4K: 80-120% GPU (erfordert dual-GPU)
- ARRIRAW 6K: >200% GPU (nur Proxy-Playback)
Rendering-Architektur
- Real-Time Playback: GPU-beschleunigt mit Cache
- Background Render: Separate CPU-Thread für Offline-Rendering
- Smart Render: Nur veränderte Frames neu berechnen
- Timeline Caching: Häufig abgespielte Sequenzen im RAM vorhalten
Timeline-Markers und Organisation
Professionelle Editoren verwenden Farbcodierung und Marker für Navigation:
Timeline Marker-System (DaVinci Resolve):
- ⭐ Gold: Critical Sync Points
- 🔴 Red: VFX Needs Revision
- 🟡 Yellow: Sound Design TBD
- 🟢 Green: Approved Takes
- 🔵 Blue: Color Correction Done
- 🟣 Purple: Low Res PlaceholderWorkflow-Integration: Timeline-Optimization
Assembly Phase (Raw Cut)
All Clips → Chronologische Anordnung
↓
Simple Cuts → Keine Effekte/Transitions
↓
Rough Timing → Grobe LängenermittlungTypische Timeline: 8-16 Spuren, ~50% Performance benötigt
Fine Cut Phase
Grouped Clips → Nested Sequences per Scene
↓
Transitions → Dissolves/Fades hinzugefügt
↓
Effects/Composit → VFX-Placeholder integriertTimeline-Performance: 60-80% gefordert
Color & Sound Phase
Separate Grade-Timeline → Fusion-Nodes parallel
↓
Audio-Multitrack → Separated per Type (Dialog/SFX/Music)
↓
Deliverable Sequences → Für DCP/Streaming/BroadcastTimeline-Komplexität: 20-32 Spuren, >90% Performance
Geschichte & Entwicklung
1984 führte EditDroid von George Lucas das Timeline-Konzept in die Filmmontage ein, basierend auf der linearen Bandmontage analoger Systeme. 1989 etablierte Avid Media Composer mit der ersten volldigitalen Timeline den Industriestandard. Apple Final Cut Pro revolutionierte 1999 mit magnetischen Timelines das Spurkonzept, während DaVinci Resolve 2009 farbcodierte Timeline-Ebenen einführte. Seit 2015 ermöglichen Cloud-basierte Systeme wie Avid MediaCentral kollaborative Timeline-Bearbeitung mit bis zu 16 gleichzeitigen Editoren.
Praxiseinsatz im Film
Christopher Nolans "Dunkirk" (2017)
Nolan strukturierte den Film mit drei separaten Timelines für unterschiedliche Zeitabläufe:
- Timeline 1 (Land): 1 Woche Handlung, konventionelle Schnittfolge
- Timeline 2 (See): 1 Tag Handlung, schnellere Story-Progression
- Timeline 3 (Luft): 1 Stunde Handlung, präzise Luftkampf-Sequenzen
Diese Timelines waren völlig unabhängig während des Offline-Schnitts, wurden aber über Timecode-Synchronisation am Finale zusammengeführt. Das Finale zeigt alle drei Timelines in Echtzeit-Konvergenz – eine technisch anspruchsvolle Timeline-Architektur mit verschachtelten Sync-Markern.
"Mad Max: Fury Road" (2015)
Stunt-Synchronisation über 3.500 Timeline-Marker:
- Jeder Stunt hat Start-, Peak- und End-Marker
- Musik-Beats sind als Markers gekennzeichnet
- Crash-Points für VFX sind farbkodiert
- Master-Timeline zeigt Echtzeit-Übersicht der 2.700 VFX-Shots
Spur-Architektur:
V1: Hauptkamera (digitales Intermediat)
V2: Crash-FX (Dust/Debris)
V3: Explosion-Composit
V4: Stunt-Enhancement (Motion-Capture)
V5: Speed-Ramps (Deceleration für Impact)
A1: Engine-Sounds (Layered)
A2: Impact-SFX (Time-aligned to Stunt-Markers)
A3: Music (Locked to Timeline Markers)Dokumentarfilm "The Act of Killing" (2012)
String-Out Timeline mit 120 Stunden Rohmaterial:
- Klip-Längen durchschnittlich 20-90 Sekunden
- 18 Interview-Sequenzen über 8 Nested Timelines
- Sync-Sound separate (Audio-Spuren 1-4)
- Final: 90-minütiger Film aus >150 Stunden Material
Serie "Stranger Things" (Netflix, Staffel 4)
Timeline-Standardisierung für Konsistenz:
- Template-Timeline für jede Episode (Intro, Act 1-4, Credits)
- Alle Episodes nutzen identische Spur-Ordnung
- Speicherung: AAF-Dateien für Online-Conform
- Editing-Zeit pro Stunde: 8-10 Stunden (vs. 5-6 für Film ohne Template)
Performance-Charakteristiken
Action-Sequenzen (z.B. Kampfszenen):
- 12-16 Videospuren: Hauptkamera, Detail-Inserts, VFX-Plates, Composits
- Rendering-Zeit: 2-3x Länge des Materials mit Full-Quality-Output
- Real-Time-Playback: Nur mit Proxy-Medien möglich
Dialogszenen:
- 3-4 Videospuren: Master-Kamera, Reaktionen, Insert-Shots
- Timeline-Komplexität: Minimal, Echtzeit-Playback auf Standard-Hardware möglich
- Editing-Effizienz: 60-80% schneller als Action wegen weniger Spuren
Vergleich & Alternativen
Timeline vs. andere Konzepte
| Konzept | Darstellung | Best For | Limitationen |
|---|---|---|---|
| Timeline | Parallel-Spuren, zeitlich | Film-/Video-Schnitt | Nicht ideal für komplexe Verflechtungen |
| Storyboard | Sequenzielle Bilder | Visuelle Planung, Kommunikation | Zeitliche Präzision fehlt |
| Node-Graph | Verbundene Knoten | VFX-Compositing, Grading | Schwer für Audio-Mixing |
| Keyframe-Editor | Animationskurven | Parametrische Automation | Komplexe Sequenzen schwierig |
Timeline ist der Standard für Video-Editing, weil sie:
- Zeitliche Genauigkeit bietet
- Parallele Spuren (Video + Audio) zeigt
- Echtzeit-Playback ermöglicht
- EDL-Konvertierung für Austausch unterstützt
Trimm-Monitore vs. Main Viewer
Trimm-Monitor (Avid-Terminologie, in allen NLEs verfügbar):
- Zeigt zwei Clips nebeneinander an den Schnitt-Punkt
- Ermöglicht frame-genaue Justierung mit Pfeiltasten
- Optimal für A-B-Vergleiche
- Kann auch Audio-Waveforms zeigen
Main Viewer / Program Monitor:
- Zeigt das gesamte Ergebnis der Timeline
- Für Übergänge und Effekte-Vorschau notwendig
- Real-Time-Playback wenn Performance erlaubt
Node-basierte Systeme als Alternative
DaVinci Resolve Fusion und Nuke bieten Node-basierte Workflows statt Timelines:
- Vorteil: Non-destructive, branching-fähig
- Nachteil: Steile Lernkurve, schlecht für Audio-Sync
- Realität: Hybrid-Approach ist Standard (Timeline + Nodes für Spezial-Shots)
AI-gestützte Assembly
Tools wie Adobe Sensei Auto Reframe und DaVinci Super Scale analysieren Timeline-Inhalte:
- Automatic Reframing: Konvertiert 16:9 zu 9:16 (Instagram Stories) automatisch
- Scene Detection: Automatische Scene-Cuts erkennen
- Audio Sync: KI syncht Musik zu Schnitt-Rhythmus
Limitationen:
- Handwerk bleibt essentiell: KI schlägt vor, Editor entscheidet
- 30-50% Zeit-Einsparung bei datengesteuerten Workflows (Interviews, Tutorials)
- Kreative Schnitte benötigen menschliche Entscheidung