
Einblick in die Rechenleistung hinter der räumlichen Filmproduktion: Hugh Hou geht in der GIGABYTE Suite während der CES 2026 praktisch ans Werk
LOS ANGELES, 23. Januar 2026 /PRNewswire/ -- Auf der CES 2026 leitete der VR-Filmemacher und Dozent Hugh Hou in der GIGABYTE Suite eine Live-Demonstration zu Spatial Computing. Dabei zeigte er, wie immersives Video in realen Produktionsumgebungen entsteht, nicht in der Theorie oder unter kontrollierten Laborbedingungen.
Wo sich KI in reale kreative Workflows einfügt
Die Vorführung bot den Teilnehmenden einen direkten Einblick in eine vollständige Pipeline für räumliche Filmproduktion, von der Aufnahme über die Postproduktion bis zur finalen Wiedergabe. Statt auf vorgerendertes Material zu setzen, wurde der Workflow live auf der Messefläche umgesetzt. Das entsprach denselben Abläufen wie in kommerziellen XR-Projekten und stellte klare Anforderungen an die Systemstabilität, gleichbleibende Leistung sowie thermische Zuverlässigkeit. Das Erlebnis fand seinen Höhepunkt darin, dass die Teilnehmenden einen zweiminütigen Trailer eines räumlichen Films auf Meta Quest, Apple Vision Pro sowie den neu vorgestellten Galaxy XR-Headsets ansahen, parallel zu einem 3D-Tablet-Display, das eine zusätzliche 180°-Ansichtsoption bot.
KI wurde nicht als Funktion hervorgehoben, sondern als praktisches, in die täglichen Bearbeitungsaufgaben eingebettetes Tool. Während der Demonstration halfen KI-gestützte Verbesserungs-, Tracking- und Vorschauprozesse, die Iteration zu beschleunigen, ohne den kreativen Fluss zu unterbrechen.
Das mit kinotauglichen, immersiven Kameras aufgenommene Filmmaterial wurde mit branchenüblicher Software wie Adobe Premiere Pro und DaVinci Resolve verarbeitet. KI-gestützte Hochskalierung, Rauschunterdrückung und Detailverfeinerung wurden angewendet, um die visuellen Anforderungen von immersiver VR zu erfüllen, bei der jedes Artefakt oder jede Unschärfe in einer 360-Grad-Sichtumgebung sofort auffällt.
Warum Plattformdesign für Spatial Computing wichtig ist
Der gesamte Workflow lief auf einem GIGABYTE AI PC, der speziell für den Dauerbetrieb bei räumlichem Video ausgelegt ist. Das System kombiniert einen AMD Ryzen™ 7 9800X3D Prozessor mit einer Radeon™ AI PRO R9700 AI TOP GPU und liefert damit die erforderliche Speicherbandbreite sowie kontinuierliche KI-Leistung für die Wiedergabe und das Rendering räumlicher 8K-Videos in Echtzeit. Ebenso wichtig war, dass das X870E AORUS MASTER X3D ICE Mainboard eine stabile Stromversorgung und Signalintegrität lieferte, sodass der Workflow während der gesamten Live-Demonstration vorhersehbar ablaufen konnte.
Zum Abschluss der Veranstaltung sahen sich die Teilnehmenden einen fertigen räumlichen Filmtrailer auf Meta Quest, Apple Vision Pro und Galaxy XR-Geräten an.
Indem GIGABYTE einen anspruchsvollen Workflow für räumliche Filmproduktion auf der CES live und wiederholt ausführte, zeigte das Unternehmen, wie Plattformdesign auf Systemebene komplexe immersive Produktion zu etwas macht, auf das Kreative sich verlassen können, statt nur damit zu experimentieren.
Share this article