HomePanoramaPanorama estereoscópico

Panorama estereoscópico

Si por algo será recordado 2010 es por el boom del 3D, al cierre del año hemos querido ofrecer a nuestros lectores una visión general de la situación de la estereoscopía en nuestro sector. Para ello hemos hablado con varios profesionales que están en la punta de lanza de esta forma de producción.

Entrevista con Victor Santamaría – Sogecable

¿Qué nos puedes decir del partido de baloncesto?
Creo sinceramente que el baloncesto es algo que se adecua a la perfección a lo que es la producción estereoscópica, y eso lo digo aunque no pudimos colocar todas las cámaras de una manera adecuada porque la gente de la NBA lo tiene todo muy estructurado y había zonas en las que no podíamos situar nada. Lo que si pudimos hacer es colocar el plano master de una manera totalmente distinta a como solemos establecer ese tiro en una retransmisión de baloncesto en 2D. Se situó más abajo de forma que la sensación de realidad y profundidad, de estar en el propio estadio en definitiva, fue realmente impresionante. Después de esta experiencia con el baloncesto puedo decir sinceramente que el 3D ha llegado para quedarse. Hay muchas anécdotas, pero una de ellas es que el responsable de la NBA nos comentó que ellos no tenían pensado hacer producciones estereoscópicas hasta diciembre, y se tiraron todo el tiempo tomando notas de todo lo que nosotros estábamos haciendo. Pero claro, no tuvimos una libertad total porque ellos querían asegurar la producción 2D del partido, aún así ellos se mostraron muy interesados en nuestra forma de trabajar. Se dieron cuenta de algunas dificultades como que la situación de alguna cámara se encontraba en lo que sería un asiento de 1000 dólares en un pabellón como el Forum de Los Angeles. Pasó toda la plana mayor de la NBA por el stand donde se veía el partido en 3D en directo y se quedaron muy sorprendidos. Teníamos una steadycam para las actuaciones entre los tiempos muertos, en la NBA tienen muchos cortes bien para publicidad bien para hacer algún espectáculo en la pista, y esa cámara funcionó muy bien. También me gustó una pequeña cabeza caliente Polcam en 3D, una cabecita muy modesta pero que daba sin embargo unos planos espectaculares alrededor de la canasta. Quisimos montar también un travelling pero no pudimos por temas de organización de la NBA. Igual nos ocurrió con las cámaras de debajo de la canasta, las tuvimos que retirar a un extremo de la pista porque se asustaron del volumen de los rig, la verdad es que quitaban mucho espacio. Son los típicos problemas de intendencia que tiene el 3D por ser tan artesanal.
Pudisteis aplicar el know-how del anterior evento…
Si porque hemos aprendido mucho, hemos podido utilizar tres cámaras con zoom lo que ha influido mucho en el resultado, porque en el 3D la implementación del zoom es todavía un paso que se va incorporando poco a poco. Como decía, pudimos usar tres posiciones con zoom y otras dos a plano fijo con un ángulo estable y estático. Hubo además un gran trabajo de tres días para prepararlo todo y es por ello por lo que ha salido todo bien, quiero agradecer a nuestros proveedores D4D por la estereoscopía y a Uveauve que fue quien hizo todo el apoyo logístico. Hubo tiempo para todo dentro de la histeria que tenían los americanos, pensaban que les íbamos a volver locos y al final recibimos felicitaciones de toda la plana mayor de la NBA. Lo que yo te puedo decir a nivel personal es que la sensación que daba era que estabas en el pabellón de verdad. Lo vimos todo en un visualizador JVC para usos profesionales con gafas pasivas, que para mí son mejores porque cansa menos la vista, estuve tres horas con ellas puestas y no me cansé en absoluto. Y reitero mi sensación de estar metido en la fila 14 del Palau Sant Jordi.
¿En estos meses has visto avances a nivel tecnológico?
La verdad es que sí, antes tenía mis dudas porque veía que la tecnología se estaba retrasando mucho pero desde la primavera hasta aquí se ha dado un paso de gigante, ha evolucionado mucho. Incluso me atrevo a decir que esto va a ser un estándar, no creo que todo se produzca en 3D, una sitcom a lo mejor no tiene sentido, pero muchos espectáculos van a adquirir un valor añadido muy importante. El caso del baloncesto es clarísimo, es pasar de la noche al día. Aparte hay que sumar el aprendizaje que llevamos, sabemos mucho más sobre la colocación en altura de las cámaras, tiene que cambiar totalmente la colocación y eso es algo que nos tenemos que meter en la cabeza. Nos queda solucionar mejor los planos cortos, es lo que nos llevamos pendiente para el próximo evento.
¿Qué es lo próximo?
Creo que ya es hora de que nos metamos de forma descarada con un partido de fútbol, eso es lo próximo. Va a haber problemas porque hay que reubicar las cámaras en los estadios y probablemente haya mucha diferencia aquí con el 2D, y claro, los estadios están preparados para trabajar de una forma bastante determinada, diseñados para un tipo de retransmisión muy concreta que se lleva haciendo muchos años. El máster hay que ponerlo a una altura media, más bajo que el actual, hay que empezar a trabajar en donde se colocarían las cámaras de cortos, las de al lado de la portería. Hay que ver que se hace con las de cortos que están arriba, etc. Hay que hacer unas pruebas para ir aprendiendo el nuevo lenguaje. Es un toma y daca con el espectador, nosotros proponemos cosas y tenemos que ver lo que funciona porque puedes proponer cosas que luego no gusten, y a eso hay que estar muy atento.
¿Estás más convencido en general?
Sí, y lo digo sinceramente. Tal vez en el momento que hicimos los toros fue la explosión un poco de la tecnología, porque arrancamos poco después de los primeros montajes en España. Creo que estaba todo a un nivel rudimentario y en estos meses seis que han pasado se han afinado muchas cosas. La tecnología ha pegado un tirón importante, esto ya me lo advirtieron los técnicos y la verdad es que evoluciona cada vez más rápido. Seguro que si hablamos dentro de tres meses estaremos más contentos todavía.

Entrevista con Francisco de la Fuente – Media Luso

¿Cómo empezasteis?
Nosotros comenzamos con esto en 2008, ese año en el NAB de Las Vegas se empezaron a presentar los primeros proyectos de 3D. Vimos que era una tecnología que se iba a introducir bastante rápido, a los pocos meses coincidimos con gente de Kronomav y tuvimos una primera reunión donde vimos que encajábamos muy bien unos con otros. Ellos tenían algún desarrollo justo y decidimos aunar esfuerzos para desarrollar más el producto. Empezamos a probar los rigs en producciones y entornos reales, pusimos realizadores y operadores a trabajar con ellos donde les indicábamos los problemas que íbamos encontrando, gracias a esto el producto se ha pulido muchísimo. Ya en 2009 nos metimos en  la primera producción que hicimos con el objetivo de conseguir una Unidad Móvil para producciones estereoscópicas en directo.
¿Con qué recursos contáis en estos momentos?
Ahora mismo contamos con 12 rigs motorizados de última generación y otros 6 equipos entre rigs fijos, minirigs, etc. Tenemos también 13 SIP de Kronomav para control y corrección digital de las imágenes. Contamos por supuesto con la Unidad Móvil, que dispone de todas las cámaras las ópticas y el equipamiento necesario que hace falta para producción estereoscopía, incluyendo el monitorado. Como codificador usamos un Doremi con el que le damos el formato a la señal ya sea Sensio, Side by side, etc. Lo que tenemos que renovar es todo lo relativo a monitorado porque es algo en lo que se ha evolucionado mucho últimamente. También hemos adquirido la cámara compacta de Panasonic, la hemos probado y tiene una portabilidad que no tienen los rigs, se puede usar para entrevistas y hacer ciertas cosas que no necesiten mucha calidad sin tener que recurrir a un steadycam.
¿Qué tipo de eventos habéis cubierto?
La verdad es que de todo un poco, hemos hecho tenis, fútbol, surf, o unos castellers para TV3, y algunos documentales. Ahora mis-mo estamos ahora preparando un concierto y tenemos otro prevista. Lo que estamos intentando junto con nuestros realizadores es compatibilizarlo todo, yo soy un defensor de intentar compatibilizar todo lo que se pueda las producciones 2D y 3D, hemos hecho algunas realizaciones bastante arriesgadas intentando compatibilizar y no ha sido nada fácil. Nos hemos dado cuenta de que el 3D tiene que ser diferente, esto lo hemos visto a base de hacer muchas pruebas y la verdad es que no todo funciona igual, de hecho hay cosas que no funcionan directamente. Por lo tanto creo que ahora mismo no es posible esa compatibilización, estamos viendo hasta que punto podemos compartir partes de la producción, alguna cámara y poco más. Lo que está claro es que la realización debe de ser totalmente independiente.
¿Qué ha funcionado mejor?
Pues resulta curioso pero el fútbol no es de los mejores eventos para la estereoscopía. Donde sin embargo queda muy bien es en el tenis, creo que es de hecho el deporte que mejor se adapta, la perspectiva desde atrás funciona muy bien dándole mucha profundidad a la imagen. En el fútbol la producción es lateral y no termina de funcionar muy bien, me gustaría hacer una prueba un día desde atrás como si fuera tenis, pero todavía hay mucho que hacer hasta llegar a eso. Tenemos que probar muchas cosas, hay que ir con la mente abierta. Y lo que curiosamente ha quedado muy bien ha sido el surf, la verdad es que nos sorprendió mucho el resultado final. La apariencia es muy realista y las olas dan una profundidad muy natural a la imagen, queda muy bonito. Tiene aspectos muy de documental y después tiene la parte de competición que queda muy bien. Es sorprendente, en 3D piensas que hay cosas que no van a funcionar y sin embargo funcionan, y otras que de-berían funcionar como el fútbol y resulta que no, al menos por cómo se ha hecho hasta ahora. El fútbol está de-masiado evolucionado en 2D, con una dinámica rápida que incluye muchas repeticiones y ahora en 3D creo que hay que rehacerlo totalmente. Pero no nos tenemos que cerrar, porque el fútbol es la clave de todo y es que mueve muchísimo dinero y muchísima audiencia. Si no hay fútbol todo será más lento. Nosotros vamos a probar a darle una vuelta, hay que ser valientes, a lo mejor no hay que hacerlo en horizontal. A lo mejor hay que jugar con dos master detrás de porterías y pinchar según se está atacando, probaremos hasta que demos con la fórmula, sobre todo con la nueva Unidad Móvil que a final de año estará operativa, nos facilitará las cosas porque en ella está todo mucho más integrado.
¿Cómo evoluciona la tecnología?
Muy rápido, de esta primera fase a cómo será todo dentro unos muchos años creo que no va a tener nada que ver, va a cambiar mucho. Todavía es un poco artesanal todo y eso es en lo que toca incidir todavía. Así que en los próximos 3 ó 4 años creo que vamos a ver muchos cambios, pienso que los rigs tienden a desaparecer con el tiempo, por poner un ejemplo. Habrá mucha más integración cámara-rig con una mezcla de hardware y software que va a quitar complicaciones desde el punto de vista mecánico y geométrico, sin duda. La mayoría de los problemas que hay son de las diferencias entre ambas cámaras, su posición, la fabricación, diferencias geométricas, de componentes, etc. Cosas que ahora mismo hay que corregir, con el tiempo todo eso va a mejorar mucho y será más fácil, más automático. Habrá que hacer algunos ajustes, seguro, pero no habrá que ser un genio manejando todo esto para simplemente funcionar. Ahora estamos automatizando muchas cosas en el software de control que usamos, la tendencia la de ajustes automáticos de calibración para evitar que se tarde tanto tiempo en una labor muy compleja.
¿Habéis mejorado los tiempos en los montajes?
Esa es una de las cosas en las que más hemos trabajado y que hemos conseguido mejorar mucho. Hemos conseguido bajar mucho nuestros timings de producción, lo hemos logrado a base de insistir mucho en la correcta formación de nuestro personal que es un tema clave si quieres ser ágil. Estamos todavía en esa fase de formar equipos en España para poder trabajar más rápido y no tener que trasladar siempre personal entre España y Portugal. Los tiempos no tienen nada que ver ahora mismo con lo que eran antes, una producción con 5 ó 6 posiciones de cámara la podemos montar y dejar totalmente ajustada en una mañana para funcionar por la tarde, algo en lo que antes tardábamos casi dos días. La tendencia en Portugal es que se está produciendo más que en España donde parece que esto está un poco más parado. Solo Canal + y TV3 están en esa línea de producción 3D, y tampoco con demasiadas cosas. En Portugal las dos plataformas están con bastantes materiales y quieren producir bastantes cosas, probablemente todavía es un tema de marketing pero a partir de 2011 quieren tener en marcha un par de canales fijos.
¿Hay diferencias sustanciales entre cuando montáis para directos o para grabar?
A nosotros no nos influye demasiado, hacemos el montaje igual para una situación que para otra aunque en postproducción hay más capacidad de corrección a posteriori, cambios de planos que no han funcionado, etc. Esa es la diferencia básicamente, si hay un transición muy dura con grandes diferencias de convergencia donde una tiene mucha profundidad y otra poco por ejemplo se puede arreglar, igual ocurre con un plano que moleste a los ojos. Esto en directo no puede cambiarse. La ventaja de grabar es que el producto final siempre queda más limpio, cuando hemos hecho directos que hemos grabado para luego sacar un Blu-Ray o lo que fuese, hemos grabado no sólo la realización, hemos grabado todo lo que hemos podido para dar luego un mejor producto. Con ciertas correcciones de algunas cosas que no han salido mal, pero que no han quedado todo lo fino que se requería por algún ajuste de convergencia. Pero todo nuestro montaje es igual. Grabamos en EVS todo el material, nos hemos dado cuenta de que es un servidor que funciona muy bien para estereoscopía.
¿Algún formato en particular?
Depende de cómo se vaya a postproducir o qué vaya a ocurrir con el material a posteriori. EVS  dispone de muchos formatos así que según el cliente nos diga cómo va a querer el material, nos vamos a un formato o a otro. Pero está claro que hay que trabajar en servidores, además es la única forma de poder dar repeticiones. Los fabricantes están muy atentos a nuestros feedback, EVS está mejorando mucho el servidor y Grass Valley está mejorando los plugin de las cámaras, los mezcladores y las CCU. Queremos que se mejoren, sobre todo los software de control de cámaras para poder hacerlo de 2 en 2, es un tema importante.

Sergi Maudet – Ovide

¿Cómo habéis visto la evolución tecnológica en el último año?
Los desarrollos que hemos vivido en el último año y en concreto en los últimos seis meses han sido bastante fuertes. En el tema de rigs se han añadido muchos fabricantes, a nuestra manera de ver quizás demasiados. Esto lo digo porque ya hay muy buenos rigs en el mercado y estos no vienen realmente a ofrecer mejoras notables, o son ligeramente mejores o ligeramente más baratos pero no acabamos de ver muy clara la evolución en cuanto a rigs. Realmente son más de lo mismo e incluso hemos visto algún prototipo que parece que vuelvas a lo que estaba haciendo dos años atrás. No tiene sentido que lo saquen si eso ya estaba superado. Sí que han salido cosas muy interesantes para mejorar el uso de filtros por ejemplo, Element Technika ha sacado cosas muy interesantes, pero aparecen muchas marcas desconocidas que realmente no aportan nada. También es cierto que hay pocas cosas que mejorar a nivel de rig salvo en lo que son los espejos, pero claro son carísimos y estamos en ese punto tecnológico y de producción en el que cualquier mejora por pequeña que sea supone un encarecimiento sustancial del producto. Los espejos para mejorarlos pueden hacerse más delgados, pero eso además de más caros los hace más frágiles. Donde sí que hay mucha evolución es en el tema de monitorado. Nosotros a principios de año solo podíamos tener pequeños monitores, que además eran carísimos, activos la mayor parte ellos y con una tasa de refresco muy baja. O si no ya te ibas al JVC de 46 pulgadas que ha sido el estándar durante mucho tiempo , pero claro en un rodaje pasar de 14 a 46 que era el primer monitor más o menos decente que podíamos ofrecer al cliente y que podía usar el Director de Fotografía, era un salto bestial claro. Ahora por fin los fabricantes ya han sacado monitores de 24 pulgadas con gafas pasivas polarizadas, que está muy bien porque son baratas. En la situación actual mucha gente tiene que visionar lo que se está haciendo en un rodaje y claro, hacerlo con gafas activas de más de 100 euros que encima pueden romperse o perderse no era operativo. Y más en nuestro caso siendo una empresa de alquiler, decirle a un cliente que nos debe 600 euros en gafas perdidas, no es algo que resulte agradable. Hemos ganado mucho también en proceso. Primero porque ya nos permiten  los nuevos monitores salvar el Stereo Brain, que antes resultaba muy caro y tenías que configurarlo además por lo que perdías tiempo. Así que es una muy buena noticia que a nivel de procesadores esteroscópicos, estén empezando a salir muchos productos con el chip Sensio. Queríamos trabajar con tecnología de Sensio y claro, ellos no te venden la tecnología directamente sino que te venden el chip y hay que integrarlo. El problema es que la tecnología existía pero nadie nos la vendía así que había que trabajar mucho sobre prototipos, y por fin ya salen productos para hacer, por ejemplo, recepción de satélite con ese chip integrado, conversores para integrar las señales y multiplexarlas, etc. Muchas novedades en este sentido, Sony ha sacado un equipo muy interesante en esta línea. En lo que respecta a software sí que está habiendo saltos a paso de gigante, la verdad es que todo el mundo se está tirando al carro del 3D porque tanto en el mundo profesional como a nivel consumo, parece que hay dinero para gastar. Todavía se puede invertir dinero en software, hasta hace prácticamente dos días si querías hacerlo barato la opción conocida por todo el mundo era irse a Final Cut con el Plugin correspondiente, funcionaba pero tampoco era una maravilla. Ahora ha salido Vegas 10 que hace mucho trabajo a un precio contenido, y creo sinceramente que es un buen avance. Y hablando de software de edición de nivel alto se han lanzado todos, Quantel, Nucoda, etc. La verdad es que estamos en un punto en el que es muy interesante ver los avances que llegan en todos los frentes. Vienen también muchas novedades desde las empresas que se dedican a hacer mandos de foco inalámbricos. Ya están haciendo nuevas unidades o cambiando el firmware para que puedan trabajar en sincronizado. Todo se está facilitando muchísimo porque antes el 3D era muy artesanal y además nadie le hacía caso, de forma que cada problema que aparecía se tenía que solucionar como buenamente se podía, y ahora sin embargo todas las marcas están apostando por el 3D. Esto es bueno porque a la mínima que les dices algo , ellos intentan echar una mano con lo que sea. Cámaras como la Panasonic compacta y la que en breve saca Sony tienen sus limitaciones pero la verdad es que están muy bien de precio, y te pueden sacar de un apuro. Está bien para videos corporativos o algo que vaya a terminar en televisión, como cámara de apoyo en producciones, etc. Por los codecs y las ópticas no puedes ir a gran pantalla pero resuelve un problema del 3D que es el desembolso que hay que hacer para producir algo pequeño.
¿Por dónde van a evolucionar las cámaras?
Bueno, cámaras con dobles ópticas sería lo ideal pero el problema que nos encontramos ahí es la distancia interaxial. Tanto las ópticas como el sensor tienen un tamaño mínimo que te lleva a interaxiales de 95mm como mínimo en montura PL, por lo que es imposible ahora mismo una cámara así. En otras monturas hablamos de problemas similares. Estaría muy bien trabajar con cámaras que sean directamente 3D, pero a día de hoy sólo se puede con ópticas que se hayan fabricado específicamente para ese modelo, y por lo general no sirven para trabajos de cierto nivel. No se puede reducir tanto el tamaño y pedir las mismas prestaciones y la misma calidad aunque realmente sería lo ideal.
¿Cómo ha evolucionado el mercado?
Ha sido un gran boom desde luego, antes era una cosa anecdótica y este año ha sido el de la explosión del 3D sin ninguna duda. Hemos producido una barbaridad desde finales del primer trimestre hasta ahora, han sido unos meses en los que hemos hecho muchas producciones estereoscópicas. Ahora mismo estamos haciendo un corto en 3D y además bien hecho, que es algo que antes era absolutamente impensable, se está rodando como si fuese un largo. Hemos hecho documentales, directos, largos, escenas de alta velocidad, etc. Lo que pasa es que estamos con el pez que se muerde la cola, tenemos la suerte de Canal + y TV3 están haciendo cosas, pero claro no hay más contenidos porque no se han vendido suficientes televisores y viceversa. Estamos en ese bucle, aunque realmente se están vendiendo bastante bien los televisores en 3D, es un contenido Premium evidentemente para gente con un nivel adquisitivo algo más elevado, pero se entiende que la gente que ya tiene Digital Plus y se ha comprado una televisión en 3D a precios razonables empezará a demandar esos contenidos. No creo que vayamos a producirlo todo en estereoscópico, hay que ver qué es lo que se hace.  De momento se dice que sólo van a ser cosas espectaculares no una película dramática por ejemplo. Pero claro, Scorsese está ahora rodando una película y cuando se estrene veremos si funciona o no, y si aporta cosas a nivel dramático. Yo soy de la opinión de que no pero también me puedo equivocar. Mi percepción personal es que el 3D en las películas de animación es obligatorio, también en las de acción o las épicas, pero no lo veo en las dramáticas. Entonces ocurre una cosa, rebobino un poco y pienso en cuando apareció el cine sonoro o el cine en color, todo el mundo decía que no iba a funcionar.

Juan Pedro Rodríguez de la Ossa – Videoreport

¿Qué experiencia estereoscópica tiene Videoreport?
Llevamos tiempo con el 3D, de hecho hemos hecho cosas con anterioridad a estas últimas guerras. No tanto como hasta ahora y desde luego que no eran rodajes a los que íbamos con una unidad estereoscópica multicámara. Ha sido realmente este año cuando realmente todo se ha revolucionado y se ha despertado este interés. Desde Videoreport siempre hemos dado soporte a algunos rodajes y documentales estereoscópicos, hemos ido con los rigs de hace años que eran muy simples y aparatosos. Claro, estas experiencias han sido siempre muy trabajosas y artesanales, teníamos que dedicar muchos esfuerzos para sacar las producciones y parir incluso algún invento. La diferencia respecto ahora, es que hay una industria alrededor de todo esto, y aunque las soluciones no son todavía las más adecuadas o las que demandamos los profesionales, no tienen nada que ver con lo que había hace unos cuantos años, era todo demasiado artesanal. La diferencia en estos últimos trabajos es que tenemos mucho más apoyo en cuanto al desarrollo de estos elementos como pueden ser los rig, soluciones para servos, equipos adicionales, etc. El primer trabajo para Canal + en 3D fue el concierto de Bunbury, que era un concierto en el que metimos pares estereoscópicos, dimensionadores 3D, todo tipo de maquinas en definitiva. Y sobre todo filosofía de trabajo multicámara, por eso pasamos por una Unidad Móvil todos los elementos 3D como rig, cámaras, servos, ópticas etc. Y aunque no era necesario porque se trataba de un producto grabado, quisimos emitirlo también en directo a través de satélite para recibirlo en Sogecable a modo de pruebas, para ver lo que sería toda la cadena de trabajo y poder sacar conclusiones de verdad. Pudimos comprobar todo, desde las cámaras hasta la entrega por enlace satelital en formato side by side con la señal conformada para su emisión. Podemos hacer estas cosas porque por primera vez creo que hay una demanda, quizás no tan creciente como pensábamos a primeros de año pero sí existe una demanda que va un poco por delante de la técnica, no lo tenemos todo solucionado y mucho menos las empresas de servicio como nosotros que dependemos tanto de los avances técnicos. De hecho hay una demanda de soluciones porque ciertas cosas no están todavía resueltas al 100%. Creo que se ha perdido mucho el tiempo en el I+D de los rigs y no se ha puesto todo el énfasis necesario en la corrección electrónica, nadie se plantea hoy una producción en directo sin una corrección electrónica detrás, que es la que va a permitir tomar decisiones mucho más rápido y evaluar posibles errores que se están cometiendo. Nosotros en Grupo Vértice y a través de Apuntolapospo hemos desarrollado un software de control y gestión de datos, Polyphemus, que nos permite aceptar errores que sabemos que en postproducción vamos a poder corregir, y eso deriva en que puedas tener una producción mucho más ágil.
¿Cómo se puede optimizar el workflow?
Pues depende de para qué, hemos visto una gran diferencia en los tres proyectos que hemos hecho para Canal + y cada uno tiene sus peculiaridades. Los conciertos de Bunbury y Alejandro Sanz son muy parecidos, aunque los hicimos con planteamientos de producción diferentes por tener más experiencia. La gran diferencia radica en el montaje de cámaras, usaremos unas u otras dependiendo de si va a gran pantalla o a televisión, si usas cabezas calientes o steadycam, esa es la diferencia. Pero hasta ahí el workflow va a ser el mismo siempre.
¿Cómo estáis grabando?
En los dos conciertos que hemos grabado hemos usado 4 servidores EVS utilizando el códec  DNxHD185 que es el máximo que permite EVS con 4 canales, por ancho de banda podríamos llegar a grabar hasta 6 pero con este códec limitamos la capacidad del servidor a 4 canales. Al usar los 4 servidores disponíamos de 16 canales de grabación. Íbamos codificando a medida que se salvaban los clips y estos se agrupaban y transferían a un Xstore, donde ya se encapsulan en el formato que se quiera. Luego hay dos opciones, salir desde el Xstore directamente a discos SATA externos, o enviar el equipo a postproducción donde se hace un espejo en la SAN. Y nada más terminar, el material está listo para su edición sin transcodificaciones ni nada más. Es clave llevar las señales a la Unidad Móvil aunque no vayas a hacer realización, para poder dejar bien ajustados los pares estereoscópicos y que todo funcione bien. Pero hay una clara diferencia respecto a unos toros donde tenemos que emitir en directo, y donde ya interactúan las mezclas con las cámaras adecuadas en la mesa de producción, donde se mezclan con las salidas de los servidores para hacer las repeticiones, y donde tenemos que interactuar con rótulos, ahí es donde empieza a complicarse todo mucho. En la primera experiencia intentamos mover todo en L y R, duplicando canales y esfuerzos en todas las máquinas, los rig nos obligan a hacer correcciones con la consiguiente diferencia de colorimetría, luminosidad, etc. Todo eso hay que corregirlo para hacer el directo y ahí es donde una empresa como la nuestra tiene esa necesidad de corrección electrónica que nos permita tener pares estéreo con control electrónico, que se puedan hacer correcciones que no se hagan en el rig. Y pienso que es muy interesante que la dinámica de trabajo para una televisión, donde el final es la pantalla, sea en el formato adecuado como un side by side por ejemplo, pero multiplexado de origen. Que vaya multiplexado a la mesa de vídeo, que vaya multiplexado a los servidores, igual pasa con los rótulos. Así es como nosotros empezamos a amortizar los medios de verdad, teniendo un trabajo lo más parecido posible a una producción 2D. Me refiero a producciones en directo, para televisión hay que optimizar y esto pasa por poner unos rig donde podamos tener ciertos controles dinámicos, que se pueda hacer el ajuste interaxial y de convergencia de una forma inmediata en el control técnico, después efectuar la corrección electrónica y multiplexar. A partir de ahí ya va cada par estereoscópico multiplexado en una única señal y el resto del flujo de trabajo se hace exactamente igual que en 2D. Videoreport está trabajando ahora en el diseño de una Unidad Móvil estereoscópica para hacer el servicio en 3D a empresas que ya tienen resuelto su trabajo en 2D, de forma que no seamos invasivos en su forma de trabajo ni en sus medios. Queremos ser ese nexo de conexión, de forma que les resolvamos la producción proponiéndoles un flujo de trabajo con los pares estéreo multiplexados donde ellos van a poder usar sus recursos.
¿Cómo creéis que va a ser la evolución de todo?
Nosotros pensamos que es una tendencia que se está despertando, algunos canales empiezan a tener contenidos y hay interés por parte del público. Dicho esto es innegable que las producciones se resienten económicamente por todo el equipamiento que hay que mover. Hay que hacer un esfuerzo y terminar de ofrecer un producto que pueda resolver bien la técnica, entonces será cuando la producción se anime. Y el mercado en casa creo que está garantizado, el videojuego será el que introducirá los televisores 3D en casa de forma masiva, creo que la penetración en las casa será antes por videojuego que por contenidos de broadcasters.

Jose María Aragonés – Apuntolapospo

¿El videoclip de Pastora fue vuestra primera experiencia?
Hemos trabajado en 3D antes de aquel videoclip pero es cierto que hasta entonces todo había ido más orientado a museos, o temas relacionados con el mercado de la instalación y eventos en temas excepcionales. Cosas que por supuesto no son menos espectaculares ni tienen menos interés estereoscópico, pero no se encuentran metidos dentro de ningún estándar como se está trabajando ahora.
¿Qué particularidades hay que tener en cuanta con el 3D en postproducción?
Hay una cosa a tener muy en cuenta y es que se trabaja con el doble de media, y esto a la hora de gestionar el material es un peaje muy grande. Si estás haciendo una película en la que cada ojo es a 4K, la correcta gestión del mismo cobra especial importancia. Algo fundamental es que todavía faltan herramientas y experiencia para hacer ciertas cosas como puede ser a nivel de efectos, estamos explorando y descubriendo esta nueva forma de producir con el día a día. La experiencia en 2D hace que, por ejemplo, sepas cómo va a funcionar una composición pero en 3D la cosa cambia, no sabes realmente cómo va a funcionar hasta que no lo haces. Esto es porque tenemos toda una educación iconográfica en 2D que sabemos interpretar, pero al aplicar la tercera dimensión hay cosas que no funcionan como solían. Y también hay que tener en cuenta que aunque el rodaje estereoscópico ha mejorado mucho, sigue habiendo muchos errores que hay que solucionar en postproducción, es un peaje que hasta ahora no existía.
¿Por eso desarrollasteis Polyphe-mus?
Efectivamente, necesitábamos un software que nos facilitara la solución de todos esos problemas en el momento del rodaje. Es fundamental resolver todo lo que se pueda en la captación porque cuanto más ajustado venga todo de origen, mejor será la postproducción a todos los niveles. Ese era el cometido de ese software, ajustar las imágenes nivel estereoscópico, geométrico, etc. Ahora ya han salido otros equipos para esto pero en el momento en el que empezamos nos lo tuvimos que hacer nosotros mismos, porque nos teníamos que enfrentar a rodajes de cierta envergadura en los que nada debía quedar al azar.
¿Hay que aprender otra vez ciertas labores como el etalonaje o la colorimetría?
Algunas cosas sí y otras no. El etalonaje lo hacemos como una película en 2D y es fácil equiparar un ojo al otro porque hay herramientas para hacerlo de una forma bastante automática que funcionan muy bien. Donde todavía está todo por hacer sería a nivel de color y a nivel de lenguaje, o para ser más exactos, a nivel de lenguaje dentro del color. Cuando uno se plantea una corrección de color en 2D está bastante claro lo que hay que hacer según la emotividad que le quieras dar a la imagen, sabemos trabajar esa intencionalidad que busca enriquecer el lenguaje audiovisual. Pero en 3D todavía se está jugando con esto, estamos empezando y realmente no se han creado esos códigos. Pasa lo mismo con el ritmo de montaje, hay factores nuevos que el espectador tiene que asimilar y eso lleva un tiempo. Probablemente hoy por hoy el montaje debería ser un poco más lento pero el lenguaje no es un problema solo del que habla, también es un problema del que escucha. Y con esto hay que tener cuidado porque nos podemos llevar alguna sorpresa. Cuando hicimos el videoclip de Pastora el montaje fue como el de un videoclip 2D al uso, es decir, bastante trepidante. Y funcionó, no hubo quejas. Probablemente porque el target era gente joven que está más acostumbrada a ese ritmo de imágenes y tienen una capacidad de adaptación y aprendizaje rápida. Hay que observar mucho estas cosas.
¿Qué opinión te merecen las emulaciones?
Directamente diré que no funcionan. Otra cosa es que pueda servir para solucionar un problema técnico de los que te pueden ocurrir en un rodaje de forma puntual. Pero el planteamiento de que todas estas cámaras las uso en 2D y redimensiono después, no funciona. Esto yo creo que ha sido una gripe que se ha pasado y no es la forma de trabajar. Si la imagen viene de síntesis las posibilidades son más grandes, no volverá a ser exactamente igual pero nos podemos aproximar mucho dependiendo de la paciencia que uno tenga a la hora de reconstruir esa imagen. Cuando redimensionamos imágenes reales se consigue cierto volumen, pero esos volúmenes no son coherentes y cuando llevas un rato viéndolas el cerebro deja de procesarlas correctamente porque no entiende lo que está viendo.

Ramon Doltz – Kronomav

¿Cómo empezó Kronomav con la estereoscopía?
Arrancamos realmente en 2008 con un proyecto que hicimos junto a Neoduction para hacer un sistema que permitiera hacer eventos en 3D con sonido inmersivo. Previamente habíamos hecho en 2002 un documental que nos encargaron en 3D para el que hicimos el desarrollo primitivo del sistema que usamos ahora, adaptamos una cámara y creamos un sistema de corrección digital. Eso es lo que hemos desarrollado hasta obtener nuestro rig, que está robotizado para mantener los ajustes necesarios, y nuestro SIP (sistema digital de procesado de imagen) encargado de corregir lo que el rig no puede. Esto se presentó en el IBC en septiembre del año pasado y nos llevamos la gratísima sorpresa de que nuestro sistema fue elegido como uno de los 50 mejores productos de la feria. Éramos pocos los fabricantes metidos en esto en 2009, este año han aparecido muchísimas marcas y desarrollos, la industria se ha volcado. Entonces llegamos a un acuerdo con MediaLuso para implementar nuestros sistemas junto con una Unidad Móvil de ellos, hemos hecho ya muchos eventos.
¿Cómo ha sido esa colaboración?
Ha sido muy importante porque la parte del desarrollo de nuestro sistema lo hemos podido hacer gracias a todas las experiencias que hemos estado haciendo, cada semana o dos tenemos un evento y aplicamos los cambios oportunos de lo que hemos aprendido. Estamos mejorando exponencialmente, de hecho lo que hemos desarrollado estos últimos meses no es ni un rig ni un SIP, es un sistema total capaz de hacer un evento con una seguridad total. Eso es mucho más complejo que lo que son las máquinas como tal. Hemos conseguido una comunicación a tiempo real de todos los parámetros del rig y del SIP, de forma que trabajan conjuntamente. La mecánica del rig como tal parece que no tiene mucha más evolución, pero la convivencia con el SIP permite hacer muchísimas cosas que eran impensables hasta ahora. Hemos implementado el trabajar con ópticas full servo, antes lo hacíamos con servos externos para poder trabajar con cualquier óptica, pero esa mecánica genera imprecisiones por el propio acople. Tenemos un acuerdo de colaboración con Canon para el desarrollo de productos y estamos empezando a hacer cosas con Fujinon también. El trabajar en fulll servo  permite atacar a los propios motores de las ópticas que además proporciona los datos internos de posición de zoom y foco, el iris no lo usamos porque se ajusta a través de la CCU desde la Unidad Móvil. Estas ópticas no podíamos usarlas antes porque cada una es de una forma diferente, hemos desarrollado un sistema de calibración controlado por el propio rig de forma que ambas trabajan sincronizadas a la perfección. Después quedan ajustes de separación y convergencia que no dejan de ser dos desplazamientos controlados por motores de muy alta precisión. Pero lo realmente importante para que se puedan hacer zooms y focos perfectos, es el poder atacar directamente a las propias ópticas y poder hacer las tablas de calibración para cada una de ellas de forma independiente. Esos metadatos se cruzan entre el rig y el SIP en tiempo real de forma que se analizan las imágenes para hacer las correcciones necesarias ya sean digitales o mecánicas. Algo que no se puede solucionar en la óptica es que el eje óptico no es el mismo cuando están a tope de zoom que cuando están en gran angular, de forma que las imágenes de cada cámara quedan desplazadas. Como el SIP sabe en tiempo real la posición de zooms es capaz de corregir el eje óptico de las dos lentes y hace que funcionen exactamente igual. Para eso hemos tenido que desarrollar los elementos de comunicación entre todos los sistemas que están trabajando en un evento. Nuestro SIP trabaja sobre tarjetas Nvidia, tiene una capturadora con 4 entradas en HD, una tarjeta de procesado gráfico muy potente y otra de sincronía para que todos los cálculos que hace la tarjeta gráfica sean coherentes. Eso permite que cojamos dos entradas en Alta Definición, una para cada ojo, y en tiempo real efectuamos todos los cambios necesarios. El ordenador se comunica con el rig y se alimenta con sus metadatos. Desde este equipo se maneja el rig y se pueden realizar operaciones como la calibración de las ópticas, que es automática. Hace pequeñas modificaciones comprobando tamaños entre una imagen y otra. Gracias a esto podemos trabajar con ópticas 44x por ejemplo sin problemas, y con gente operando las cámaras que no sabe nada de estereoscopía, pueden trabajar igual que lo hacen en 2D.
¿Por dónde sigue la evolución?
La tendencia es clara, vamos a ir a sistemas con cámaras y ópticas especiales de forma que la estereoscopía se obtenga sin necesidad de usar rigs. Creo que esto es algo que va a tardar porque hay muchas cosas que solucionar, y aunque algunos problemas son complejos es verdad que hay muchos recursos de I+D puestos en ello.
De los eventos que habéis hecho, ¿Cuáles han quedado mejor?
Lo mejor ha sido un surf que hicimos. Quedó espectacular, y muy adecuado al 3D porque los planos de surf son agradecidos en el sentido de que sigues mucho tiempo al surfista. No es una realización como el fútbol en la que estás pegando saltos entre cámaras de forma rápida. Aquí tienes tiempo de recrearte en la imagen, con toda la profundidad del mar, de las olas, la espuma saltando, era increíble. También hicimos unos Castellers para TV3 que quedaron francamente bien.

La expansión de wTv
Conclusiones general