HomePanoramaOrca Studios: una apuesta decidida por la producción virtual

Orca Studios: una apuesta decidida por la producción virtual

Orca Studios

La empresa independiente de efectos visuales y producción virtual Orca Studios lleva desde 2015 ofreciendo las últimas soluciones tecnológicas a ámbitos como el cine, la televisión o la publicidad. En su ADN reside una voluntad firme de apostar por la tecnología y sus aplicaciones más novedosas a la parte de la producción. La innovación no limita, sino que amplía las posibilidades de una industria siempre caracterizada por el progreso. A cierre de esta edición, han participado en producciones como ‘Down a Dark Hall’ o ‘Paradise Hills’, así como en una inminente serie que será vista en la plataforma de vídeo bajo demanda Netflix.
Adrián Pueyo, Compositing & VFX/VPX Supervisor, quien ha trabajado en producciones tan renombradas como ‘Captain Marvel’, ‘Star Wars – The Last Jedi’ o ‘Pirates of the Caribbean 5’, nos traslada una visión de presente y futuro sobre la producción virtual.

 

Adrián Pueyo en Orca Studios

Adrián Pueyo en Orca Studios

 

 

¿Cuál es la historia de Orca Studios y cuáles son las principales áreas de actuación del estudio?
Orca Studios nace en 2015 en Las Palmas de Gran Canaria. Fue fundada por Adrián Guerra (productor y socio de Nostromo Pictures) con el objetivo de desarrollar las posibilidades del nuevo campo de tecnologías en tiempo real para cine. Hace un año, Orca Studios se reinventó como una empresa independiente de efectos visuales y producción virtual.

En Orca Studios cubrimos todo el proceso de cinematografía, desde la previsualización con técnicas de tiempo real y captura de movimiento, concept art e ilustración, modelado y creación de entornos y assets, hasta la postproducción completa de efectos visuales, pasando por la producción virtual en plató led. En el centro de nuestra filosofía están los cineastas, y una de nuestras mayores prioridades es guiarlos en este proceso con tecnologías que se reinventan constantemente, ofreciendo eficiencia y control creativo.

 

Contáis con unas instalaciones propias en las que podéis ejecutar vuestros trabajos. ¿Qué espacios incluyen vuestros estudios?
Actualmente desempeñamos nuestro trabajo presencial principalmente desde dos sitios.

Por la parte de producción virtual, tenemos un plató dedicado a ello en Madrid. Está equipado para cumplir con todas las necesidades de producción (camerinos, despachos, áreas para peluquería y maquillaje, etc.) y es donde tenemos nuestro entorno led fijo, con una pantalla curva HDR de alta resolución de 100 m2 y otro conjunto de pantallas de alta luminosidad para crear un entorno inmersivo, además de toda la equipación técnica y humana necesaria para poder llevar a cabo los rodajes.

Por otro lado, nuestro estudio de efectos visuales está ubicado en Las Palmas de Gran Canaria, donde contamos con un equipo de profesionales y una infraestructura que, además de dar soporte para producción virtual, cuenta con un pipeline completo de pre y post producción de efectos visuales. Destacaría también que nuestro pipeline está altamente basado en el trabajo remoto, lo que nos permite que actualmente una gran cantidad de nuestros artistas estén trabajando desde distintos países.

 

¿Qué suelen solicitar los clientes de Orca Studios? ¿En qué área están más interesados? ¿Por dónde avanza la tendencia?
Destaca el interés por el área de publicidad, ya que la producción virtual (sobre todo en los tiempos que corren) da mucha más flexibilidad a la hora de desplazarse a varias localizaciones, además de la relativa a los tiempos del proyecto.

En grandes producciones de ficción, que es nuestro mercado principal, la curva de aprendizaje es más lenta y tenemos más demanda de grandes producciones internacionales familiarizadas con la tecnología, que por la situación con el covid se han ido retrasando. A nivel nacional, poco a poco se va perdiendo el miedo a esta nueva tecnología y sus posibilidades, y no solo por la parte de producción antes mencionada, sino como parte vital del estilo visual de la historia. Esta parece ser una tendencia de las que más van a darse en los próximos años: usar la producción virtual no sólo como medio tecnológico, sino también narrativo.

 

Una de vuestras apuestas más interesantes es vuestro sistema de producción virtual. ¿En qué consiste el sistema que habéis implementado? ¿Cuáles son sus usos?
El área de producción virtual (VPX) de Orca incluye varios procesos distintos, pasando por scouting virtual o previsualización (cinematografía virtual), pero el más representativo de ellos es quizás el que se conoce como “in-camera vfx”, que es el sistema de rodaje en el que utilizamos como fondo un panel led de grandes dimensiones, capaz de mostrar una imagen renderizada a tiempo real para la posición y orientación de la cámara real, creando una ilusión de perspectiva y fondo inmersivo.

Esto, más allá de generar VFX “en vivo”, presenta una amplia multitud de ventajas y nuevas posibilidades respecto a otros métodos tradicionales de integración de escenarios virtuales como el chroma key:

• En un entorno led, los propios paneles que nos rodean, además de actuar como fondo, iluminan a los actores y props reales, favoreciendo enormemente la integración y credibilidad del resultado final. Esto es especialmente importante en las zonas más reflectantes, donde generar en postproducción un reflejo complejo del entorno sobre los personajes en movimiento es una tarea complicadísima.

• Teniendo una imagen en lugar de un chroma, cualquier componente de spill (inundación de verde indeseado sobre los personajes) desaparece también, sustituyéndose en su lugar, como hemos visto, por los colores y formas del entorno virtual en el que queramos estar en cada momento.

• Nos permite crear, en cuestión de segundos, un oscurecimiento en cualquier parte de las pantallas que genere un reflejo o iluminación indeseados. O mover parte del fondo para conseguir un reflejo distinto. O crear un pequeño recuadro de chroma verde (o de cualquier color) detrás de los actores y props en caso de querer utilizar un chroma convencional, pero sin arrugas, y sin generar ningún spill frontal al estar colocado sólo en la parte de la pantalla de justo detrás. O realizar correcciones de color en vivo sobre el fondo, pantallas extra, o incluso en los materiales del escenario 3D que estemos viendo. Las posibilidades son amplísimas.

• Por otro lado, el hecho de que todos los implicados en el rodaje (desde los actores, director o director de fotografía hasta los técnicos de luces o incluso los clientes) puedan estar viendo en directo el entorno en el que nos encontramos, y no solo un fondo abstracto, genera un entorno de trabajo mucho más inmersivo y divertido, que se traduce en que todo el mundo entiende mucho mejor el contexto de la pieza final para la que estamos trabajando. Los actores saben dónde mirar, los técnicos de luces dónde iluminar, viendo el resultado final; y, para todos los demás, queda mucho menos lugar a la imaginación en un momento en el que cada decisión errónea podría ser cara.

 

También, respecto a rodar en un entorno real, este sistema ofrece ventajas claras en ciertas situaciones como las siguientes:
• Una situación de iluminación natural que no podemos mantener en el tiempo, como la hora dorada, amaneceres o cualquier situación meteorológica poco controlable o predecible.
• Entornos donde ya hemos rodado y necesitamos replicar a la perfección, pero en la realidad nos resulta imposible. Para estos casos, podemos generar un entorno virtual que replique este escenario. Una solución inteligente para esto es realizar una captura de cualquier set real en el momento de rodar, y en caso de necesitar retakes más adelante, tenemos el set virtual a modo de “copia de seguridad”.
• Lugares donde rodar nos resulta carísimo por cualquier motivo.
• Escenarios donde mover a todo el equipo resulta impráctico, por motivos legales, logísticos, o donde no resulta factible trasladar al talento.
• Escenarios donde en caso de rodar en el entorno real necesitaríamos un equipo de muchas más personas, bien por iluminación, transporte, catering o cualquier otro motivo. Especialmente importante con la situación actual de Covid-19, donde la limitación del número de asistentes a los rodajes cobra un papel importante.
• En general, ¡cualquier entorno imposible de conseguir en la realidad!

 

¿Qué tecnologías concretas forman parte de vuestro sistema de producción virtual?
Refiriéndonos ahora con producción virtual únicamente al contexto que mencionábamos de in-camera vfx (o efectos visuales directos en cámara), algunas piezas del puzzle son las siguientes:

• Trackeo de cámara en tiempo real, con sistemas como el StarTracker de Mo-Sys.

• Motor de render en tiempo real, como el de Unreal Engine.

• Paneles led de distintas características lumínicas y de reproducción de color según su función, electrónicas y demás hardware y cableado necesario para alimentar el set y lanzar las imágenes.
• Máquinas encargadas de traducir la posición de cámara a la imagen equivalente, y mapearla a la posición necesaria en las pantallas. En este caso podemos utilizar funcionalidades de motores como Unreal Engine directamente, crear nuestras propias herramientas o combinarlo con plataformas externas como disguise.

• Generador de señal de sincronía entre todas las piezas, tanto cámara como máquinas y pantallas.

Las anteriores son las relativas al hardware. Respecto a los flujos de trabajo digitales, el número de tecnologías posibles que confluyen aumenta significativamente. Podríamos categorizarlas en las de captura de entornos (vía fotogrametría, mapeo de proyecciones, fotografía 360º, escaneo LiDAR, etc.), las de generación de entornos puramente digitales (modelado, texturizado y shading, iluminación, etc.) o las de color management (necesarias en todos los pasos desde la captura a la grabación), además de todas las relacionadas con las interacciones y render en tiempo real.

 

La pantalla led es un eje fundamental. ¿Cómo se integra en el workflow?
Forma parte del proceso de rodaje, una vez ya tenemos todos los assets creados y el número de variables restantes en producción es muy bajo. Podemos considerar que la preproducción en un flujo de trabajo de producción virtual cobra mucha más importancia que en un workflow tradicional, y es el precio a pagar por todas las ventajas antes mencionadas y salir del rodaje potencialmente con un alto porcentaje de planos en cámara ya listos para montar y conformar.

 

Del mismo modo, vemos cada vez más relevante el uso de motores gráficos procedentes inicialmente del mundo de los videojuegos que se están convirtiendo en auténticos estándares. El ejemplo más ilustrativo es el de Unreal Engine. ¿Qué importancia tienen ya no solo en ‘Virtual Production’ sino en los workflows de postproducción actuales?
La cantidad de puertas que estos motores de render en tiempo real están abriendo de cara a la creación de contenido audiovisual es abismal, y va mucho más allá de la producción virtual. En la creación de efectos visuales, por ejemplo, el proceso de render ha sido tradicionalmente una parte muy cara y lenta de la producción, donde iterar en las escenas 3D para generar cambios siempre tendía a significar volver a renderizar, ocupando una gran cantidad de máquinas y tiempo. En cualquier contexto que requiera un feedback sobre el resultado final de una escena 3D vista por cámara, que como podéis imaginar son muchos, contar con la posibilidad de renderizar en tiempo real dicha escena nos otorga una ventaja increíble de cara a perseguir un resultado y poder iterar todo lo necesario y a toda velocidad para conseguirlo. Y estos motores de render se están haciendo verdaderamente potentes y realistas en los últimos años, basándose tanto en trucos visuales como en el procesamiento en GPU, al que está acompañando la rápida evolución de la capacidad de procesamiento de las propias GPUs y de algoritmos de machine learning para reducir ruido, aumentar resolución o mejorar, en general, el resultado del render.

 

¿Nos podríais contar alguna experiencia reciente que hayáis emprendido en materia ‘Virtual Production’?
Desde que empezamos con la producción virtual hace un año, hemos podido usar el set para una variedad de proyectos: algunos con técnicas más tradicionales como el uso de las pantallas led a modo de lienzo donde proyectar material previamente rodado (con todas las ventajas de luz y realismo que vienen con el entorno LED), otros donde el render de entornos 3D en tiempo real era una pieza central… Proyectos recientes han incluido el rodaje de una serie para Netflix y varios spots publicitarios. En uno de ellos, por ejemplo, no solo nos basábamos en fondos 3D estáticos, sino que activábamos en tiempo real distintas interacciones a base de animaciones y transiciones en las pantallas para generar efectos muy concretos y ad-hoc para la producción, en el momento que el director diera la señal.

 

Ya hablando como Adrián, destacas tu conocimiento en materia de matemáticas y programación. ¿Podemos decir que el mundo IT es cada vez más y más relevante en la producción audiovisual?
Creo que nos encontramos ante una industria donde son muy necesarios perfiles muy técnicos y muy artísticos en paralelo. Los programas y procesos evolucionan hacia algo cada vez más user-friendly, mientras que cada año se reduce la cantidad de pasos redundantes o mecánicos que son necesarios para crear una pieza audiovisual. Esto permite que directores y artistas puedan centrarse cada vez más en la parte visual. Pero a la vez, toda la infraestructura necesaria para dichos procesos crece exponencialmente en complejidad, y esto se traduce en que las personas que soportan la parte técnica, así como las que forman puentes entre técnicos y artistas (como los supervisores técnicos), tengan que asimilar cada vez una mayor cantidad de información y tecnologías.

 

En tu opinión, ¿cuáles han sido los avances decisivos en materia de producción virtual?
Desde luego, me parece que el mayor contribuyente con diferencia a que en estos momentos podamos vislumbrar las técnicas de producción virtual como una herramienta más, con ventajas claras a corto y largo plazo, han sido los avances en materia de render realista en tiempo real. Y centrándonos en los sistemas de vfx en cámara, las tecnologías de track de cámara y de transferencias de datos de alta velocidad y baja latencia, necesarias para mover tal cantidad de píxeles e información de color HDR en un tiempo suficientemente bajo como para que sea funcional. Todos los elementos previamente mencionados han sido piezas clave para permitir este desarrollo.

 

¿Hacia dónde crees que se dirige el mercado? ¿Qué mejoras se esperan de este sistema?
Una constante que ya se venía apreciando en los últimos años y que se aceleró enormemente por la situación de pandemia es la transformación progresiva de la industria hacia el trabajo remoto en todos los ámbitos, desde la preproducción a la postproducción; y con las tecnologías de producción virtual, como el nombre indica, esta tendencia tiene nuevas formas de permear en los propios rodajes, donde de otra forma habría parecido imposible reducir sustancialmente la cantidad de equipo técnico y artístico con el que es necesario contar de manera presencial.

Más allá de necesitar una menor cantidad de técnicos en rodaje, la enorme conectividad que tenemos hoy en día con internet de alta velocidad, sumada a la interactividad que nos otorgan las herramientas de rodaje virtual, permite situaciones anteriormente inimaginables, como que se desarrolle un rodaje en Madrid, mientras un director de fotografía controla la iluminación de la escena desde Barcelona, un técnico de imagen maneja los parámetros de las pantallas y flujo de color desde Londres, y un director realiza su trabajo de una forma completamente orgánica desde Los Ángeles.

Me parece que esta tendencia, más allá de la situación sanitaria, aumenta increíblemente la eficiencia que se puede conseguir para crear una pieza audiovisual al reducir las limitaciones de distintos ámbitos como el que acabo de mencionar de la localización física de cada persona, y por ello creo que va a seguir desarrollándose y encontrándose nuevas formas de sacarle partido en los próximos años.

Respecto a las mejoras cuyo desarrollo veo más claramente en este momento, de nuevo empiezo por la potencia gráfica de render en tiempo real. Un salto sustancial en la calidad y realismo de los render a tiempo real ha venido por la capacidad de motores como Unreal Engine de procesar ray tracing (cálculo de rayos) en distintas partes del proceso, y a día de hoy el ray tracing en tiempo real es de los mayores cuellos de botella en el tiempo y nivel de ruido del render. Un requisito indispensable para la producción virtual es que estemos renderizando a los mismos fotogramas por segundo que captura la cámara, y por el momento, en escenas con ray tracing, solemos tener que “setear” unos parámetros de calidad bastante justos. Con el aumento de la potencia gráfica de las máquinas, que es exponencial, cada pocos meses estamos viendo un salto sustancial en la cantidad de rayos que podemos calcular, lo que se traduce en una mejor iluminación indirecta, resolución y demás. Esta misma idea de “más y mejor” creo que podemos extrapolarla a otros parámetros como la cantidad de geometría que podemos tener en memoria en una escena, aunque ya tenemos algunas con decenas de millones de polígonos; o a la resolución de las texturas, aunque hoy ya tenemos escenas con una gran cantidad de texturas 8K. También, la latencia total del sistema estoy seguro de que seguirá bajando progresivamente estos años, hasta el punto en el que sea completamente instantáneo el feedback. Ahora mismo es completamente usable, pero creo que aún nos quedan unos años para que lo consideremos instantáneo. Por último, imagino que estas tecnologías también se democratizarán con el tiempo, pues algunas de las piezas necesarias para montar el sistema completo resultan enormemente caras para adquirir por estudios pequeños o equipos indie.

Mediaset España com
Nace la Fundación C