El poder computacional detrás de la cinematografía espacial: Hugh Hou realiza una exhibición interactiva en la suite GIGABYTE durante el CES 2026
LOS ÁNGELES, 23 de enero de 2026 /PRNewswire/ -- En CES 2026, Hugh Hou, cineasta y educador de realidad virtual, dirigió una demostración de computación espacial en tiempo real dentro de la suite GIGABYTE, en la que mostró cómo se crea un video inmersivo en entornos de producción reales, no en teoría o en condiciones de laboratorio controladas.
La sesión ofreció a los asistentes una mirada de cerca a todo el proceso de realización cinematográfica espacial, desde la captura hasta la posproducción y la reproducción final. En lugar de depender de contenido previamente renderizado, el flujo de trabajo se ejecutó en vivo en el piso de exhibiciones, reflejando los mismos procesos utilizados en proyectos de realidad extendida (XR) comerciales y planteando demandas claras de estabilidad del sistema, consistencia del rendimiento y confiabilidad térmica. La experiencia culminó con los asistentes viendo un tráiler cinematográfico espacial de dos minutos a través de Meta Quest, Apple Vision Pro y los recién lanzados auriculares Galaxy XR, junto con una tablet de pantalla 3D que ofrecía una opción de visualización adicional de 180°.
El papel de la IA en los flujos de trabajo creativos reales
La IA no se presentó como una característica destacada, sino como una herramienta práctica integrada en las tareas cotidianas de edición. Durante la demostración, los procesos de mejora, seguimiento y vista previa asistidos por IA ayudaron a acelerar la iteración sin interrumpir el flujo creativo.
Se pasaron imágenes capturadas con cámaras inmersivas de calidad cinematográfica por software estándar de la industria, como Adobe Premiere Pro y DaVinci Resolve. Se aplicaron mejoras de escala, reducción de ruido y refinamiento de detalles basados en IA para cumplir con los requisitos visuales de la realidad virtual inmersiva, en la que cualquier artefacto o suavidad se vuelve inmediatamente perceptible en un entorno de visualización de 360 grados.
Por qué el diseño de plataformas es importante para la computación espacial
Para respaldar todo el flujo de trabajo se utilizó una computadora con inteligencia artificial de GIGABYTE diseñada a medida y específicamente para cargas de trabajo de video espacial sostenidas. El sistema combinó un procesador AMD Ryzen™ 7 9800X3D con una GPU Radeon™ AI PRO R9700 AI TOP, para proporcionar el ancho de banda de memoria y el rendimiento de IA continuo necesarios para reproducir y renderizar videos espaciales 8K en tiempo real. También es importante señalar que la placa base X870E AORUS MASTER X3D ICE proporcionó energía estable e integridad de señal, lo que permitió que el flujo de trabajo se ejecutara de manera predecible durante la demostración en vivo.
La experiencia concluyó con los asistentes viendo un tráiler de película espacial ya terminado en dispositivos Meta Quest, Apple Vision Pro y Galaxy XR.
Al permitir que un exigente flujo de trabajo de realización de películas espaciales funcione en vivo y repetidas veces en el CES, GIGABYTE demostró cómo el diseño de sistemas a nivel de plataforma convierte la producción inmersiva compleja en algo en lo que los creadores pueden confiar, no solo en lo que pueden experimentar.
FUENTE GIGABYTE
Compartir este artículo