Virtual Production

Virtuelle Produktion im Robidia-Studio — Slider + Unreal Engine für die Bundesregierung

Im robidia-eigenen Green-Screen-Studio läuft eine Produktion für ein Bundesministerium. Ein selbst entwickelter Slider mit PTZ-Kamera ist live mit Unreal Engine verbunden — der Hintergrund wird in Echtzeit erzeugt, ohne spürbare Latenz.

Slider + PTZ + Unreal Engine in Echtzeit, ohne spürbare Latenz

Virtuelle Produktion im Robidia-Studio — Slider + Unreal Engine für die Bundesregierung

Projekt-Details

Branche
Virtual Production / Green Screen
Standort
Robidia-eigenes Studio
Auftraggeber
Projekt eines Bundesministeriums (genaues Ressort folgt nach Freigabe)
Setup
Green-Screen-Studio · selbst entwickelter Slider mit PTZ-Kamera · Unreal Engine
Kerneigenschaft
Slider-Tracking + PTZ-Steuerung in Echtzeit an Unreal Engine, keine spürbare Latenz

Die Ausgangslage

Virtual Production mit Green Screen oder LED-Wall lebt davon, dass Kamerabewegung und virtueller Hintergrund perspektivisch zusammenpassen — Frame für Frame. Im klassischen Green-Screen-Setup bedeutet das: Die Bewegung der physischen Kamera muss in Echtzeit an die Render-Engine übergeben werden, der Hintergrund wird parallel berechnet, alles muss bei Live-Aufnahmen ohne sichtbare Latenz zusammenkommen. Ist die Latenz spürbar oder die Tracking-Daten unscharf, entsteht ein optischer „Drift” zwischen Vordergrund und Hintergrund — und Post-Production muss kompositieren, was eigentlich In-Camera funktionieren sollte.

Für ein Projekt eines Bundesministeriums war genau dieses Setup zu liefern: ein Moderator vor Green Screen, der live in eine virtuelle Umgebung eingebettet wird, mit einer Kamera, die nicht statisch steht, sondern auf einem Slider mit zusätzlicher PTZ-Funktion fährt.

Die Anforderung

  • Echtzeit-Integration zwischen physischer Kamerabewegung (Slider + PTZ) und der Unreal-Engine-Render-Pipeline für den virtuellen Hintergrund.
  • Keine spürbare Latenz — die Aufnahmen laufen live, der Hintergrund wird parallel zur Aufnahme erzeugt.
  • Hochwertige Bildsprache: Slider-Fahrten und PTZ-Schwenks sollen Produktionswert geben — nicht statisch wirken.
  • Robustheit: Das Setup muss über mehrere Drehtage zuverlässig laufen.

Die Lösung

Gedreht wird im robidia-eigenen Green-Screen-Studio. Die Produktion verbindet vier Komponenten zu einer geschlossenen Pipeline:

  1. Selbst entwickelter Slider mit PTZ-Kamera-Aufsatz — die mechanische Bewegung der Kamera ist sensorisch instrumentiert.
  2. APOS als zentrale Steuer- und Daten-Schicht — übernimmt die Steuerung der PTZ-Kamera (Schwenks, Neigung, Zoom) und liest gleichzeitig die Slider-Position kontinuierlich aus.
  3. Unreal Engine als Render-Pipeline für den virtuellen Hintergrund — empfängt die kombinierten Tracking-Daten (Slider + PTZ) in Echtzeit und passt die Perspektive des Hintergrunds Frame-genau an.
  4. Greenscreen-Compositing in Echtzeit — der Moderator wird live in die Unreal-Szene eingesetzt.

Die Autonome Kamerasteuerung führt dabei die PTZ-Kamera weiter — Speaker-Tracking, Bildausschnitt-Logik und manuelle Override-Eingriffe laufen parallel zur Hintergrund-Synchronisation. APOS bedient also gleichzeitig zwei Layer: die klassische Kamera-Bildsteuerung und die Tracking-Datenübergabe an Unreal.

Latenz: Im Regelbetrieb ist die Latenz zwischen physischer Slider-/PTZ-Bewegung und dem in der Unreal-Szene gerenderten Hintergrund nicht spürbar. Slider-Fahrten und Kameraschwenks ergeben mit dem virtuellen Hintergrund ein konsistentes Gesamtbild, ohne dass Post-Production nachträglich kompositieren müsste.

Die Ergebnisse

  • Live-Greenscreen-Produktion im robidia-eigenen Studio — Moderator vor Green Screen, virtueller Hintergrund live in Unreal Engine generiert.
  • Slider + PTZ als kombinierte Tracking-Quelle — beide Bewegungs-Achsen werden parallel an Unreal übergeben, ohne dass externe Tracking-Hardware ergänzt werden muss.
  • APOS in Doppelrolle: PTZ-Steuerung und Tracking-Datenübergabe laufen in einem System.
  • Keine spürbare Latenz im Regelbetrieb — Live-Aufnahmen sind direkt verwertbar, keine Post-Production-Korrekturen am Hintergrund-Drift nötig.

Was Sie daraus mitnehmen können

Wenn Sie Virtual Production mit Green Screen oder LED-Wall planen — und nicht den vollen LED-Wall-Stack mit externem Tracking-System aufbauen wollen, sondern eine schlanke, integrierte Pipeline brauchen — ist genau dieses Setup ein Anker. Slider, PTZ und Render-Engine sind keine getrennten Welten, sondern lassen sich über APOS zu einer Datenquelle zusammenführen.

Mehr zur VP-Lösung oder Demo im robidia-eigenen Studio anfragen.

Artikel teilen

Autonome Videoproduktion live erleben bei uns in Köln oder remote

Live-Demo im Robidia-Studio in Köln oder remote: Sie sehen APOS unter realen Studio-, Event- und Outdoor-Bedingungen.

Vereinbaren Sie ein Erstgespräch, Sie erhalten innerhalb eines Werktages eine Antwort mit Terminvorschlägen.