
Hugh Hou demuestra la potencia computacional de la tecnología de GIGABYTE para grabar vídeos espaciales en el CES 2026
LOS ÁNGELES, 23 de enero de 2026 /PRNewswire/ -- En el CES 2026, el cineasta y formador especializado en realidad virtual Hugh Hou realizó una demostración en directo de computación espacial en tiempo real con la tecnología de GIGABYTE en la que mostró cómo crear vídeos inmersivos en entornos de producción reales, lejos de planteamientos teóricos o pruebas realizadas en laboratorios.
La sesión permitió a los asistentes conocer en detalle todas las fases del proceso de producción de vídeos espaciales, desde la captura de imágenes hasta la fase de posproducción y la reproducción final del contenido. En lugar de recurrir a material renderizado previamente, todo el flujo de trabajo se ejecutó en directo en pleno recinto ferial, reflejando los mismos procesos utilizados en proyectos comerciales de XR (realidad extendida) y planteando exigencias claras de estabilidad del sistema, rendimiento sostenido y fiabilidad térmica. La experiencia culminó con la visualización por parte del público de un tráiler de un vídeo espacial de dos minutos, reproducido en dispositivos Meta Quest, Apple Vision Pro y el nuevo Galaxy XR, así como en una tableta en 3D que ofrecía una opción adicional de visualización en 180°.
El papel de la IA en los flujos de trabajo creativos reales
La inteligencia artificial no se presentó como un simple reclamo tecnológico, sino como una herramienta práctica integrada en las tareas cotidianas de edición. Durante la demostración, funciones de mejora de imágenes, seguimiento de elementos y procesos de previsualización asistidos por IA permitieron acelerar las iteraciones sin interrumpir el flujo creativo.
El material capturado en cámaras inmersivas de alta gama usadas en cine se procesó mediante software reconocido en la industria, como Adobe Premiere Pro y DaVinci Resolve. Se aplicaron técnicas basadas en IA para escalado de resolución, reducción de ruido y mejora de detalles con el fin de cumplir con los exigentes estándares visuales de la realidad virtual inmersiva, donde cualquier artefacto o pérdida de nitidez se hace inmediatamente perceptible en un entorno de visión de 360 grados.
Por qué el diseño de la plataforma es clave en la computación espacial
Todo el flujo de trabajo estuvo respaldado por un ordenador GIGABYTE con IA, diseñado a medida y concebido especialmente para soportar cargas prolongadas de trabajo en producción de vídeos espaciales. El sistema contó con un procesador AMD Ryzen™ 7 9800X3D y una tarjeta gráfica Radeon™ AI PRO R9700 AI TOP, que aportaron el ancho de banda y la capacidad de procesamiento de IA continua necesarios para la reproducción y el renderizado en tiempo real del vídeo espacial en 8K. Igualmente de decisiva fue la placa base X870E AORUS MASTER X3D ICE, que garantizó un suministro de energía estable y una integridad de señal constante para que todo el flujo de trabajo se ejecutara sin interrupciones durante la demostración en directo.
La experiencia culminó con la visualización por parte del público de un tráiler del vídeo espacial, reproducido en dispositivos Meta Quest, Apple Vision Pro y Galaxy XR.
Al conseguir que el flujo de producción de un vídeo espacial tan exigente funcionara en directo y de forma repetida durante el CES, GIGABYTE demostró cómo un sistema diseñado a partir de la plataforma convierte la producción inmersiva compleja en una herramienta en la que los creadores pueden confiar, y no solo para experimentar.
Share this article