Sistemas de cámara inalámbricos. Acortando el tiempo y salvando distancias.

Bajo un título tan aparentemente sencillo se engloban muy distintas tecnologías, flujos de trabajo y propósitos que conviene distinguir adecuadamente para, como siempre, ser capaces de elegir la opción más adecuada a cada escenario y circunstancia. Sin hacer un análisis exhaustivo de todos los dispositivos y cámaras del mercado, nuestro interés se centrará en la tecnología y las principales opciones disponibles.
Hace muchas décadas que las transmisiones de televisión desde el emisor hasta los espectadores, el tradicional entorno de emisión “Broadcast” en formato inalámbrico, es la base de la televisión tradicional. Algo familiar para todos nosotros y que ha ido transitando a lo largo de la historia por sus distintas etapas y saltos tecnológicos. Pero la parte que hoy centra nuestra atención es justo el otro lado de la estación emisora: aquel que se ocupa de trasladar las señales desde la captación en cámara hasta los centros de producción y realización.
También en este lado de la cadena de producción estamos familiarizados con sus posibilidades habituales, con los conocidos despliegues para las retransmisiones en directo. Especialmente de esos grandes eventos deportivos o culturales como olimpiadas o conciertos, o no tan sofisticados pero de interés para una gran audiencia. Simplificando mucho, podríamos resumir que en éstos casos la forma habitual de realizar los despliegues ha sido mediante unidades móviles que desplazaban la mayoría de las tareas de producción y realización hasta el lugar del evento, enviándose a la emisora una señal única ya mezclada a través de un sofisticado y carísimo enlace vía satélite o línea dedicada, siendo el centro emisor poco más que un repetidor que se encargaba de hacer la difusión de esa señal. Reiteramos que simplificando mucho el esquema, ya que en ocasiones estas producciones son extremadamente complejas y requieren la participación de centenares de excelentes profesionales perfectamente coordinados tanto en las unidades móviles como en los distintos centros de emisión.
Otro escenario habitual, como el de noticias o reportajes, es aquel en el que un único reportero u operador de cámara envía sus contenidos a su agencia o su emisora y desde ahí los contenidos entran en los procedimientos tradicionales de ingesta/edición/realización. Pero este modelo ha estado habitualmente limitado por los tiempos necesarios para enviar los contenidos con calidad suficiente a través de los medios disponibles. Incluso en los recientes tiempos de Internet, hasta hace poco era necesario dedicar un tiempo significativo para subir ficheros a algún tipo de servidor. Esto era debido al volumen de los ficheros y las limitaciones de capacidad de las líneas de transmisión. Aún mayores cuánto más remoto era el lugar donde se producía la noticia o el suceso.
Pero desde hace relativamente pocos años, gracias a la incorporación de nuevas funcionalidades en las cámaras, algoritmos de compresión más eficientes y mayores anchos de banda en los canales de transmisión, es muchísimo más fácil hacer retransmisiones en directo. Y muy fácil no sólo significa sencillez de operación, sino que lo más importante es que además los costes han caído a niveles prácticamente insignificantes. Ahora es muy fácil y muy asequible. Fundamentalmente por este motivo, estas nuevas formas de hacer son hoy una realidad que facilitan multitud de nuevas opciones y, por las puertas que se abrirán en un futuro inminente, sus posibilidades van a significar una nueva transformación en la manera de crear y distribuir contenidos.
Pero, ¿de qué estamos hablando en concreto? En realidad estamos haciendo referencia a las distintas tecnologías, distintos conceptos y distintas funcionalidades que convergen para crear un nuevo horizonte. Cámaras con funcionalidades de conectividad integradas o que se les adosan con posterioridad. Sistemas de compresión que son capaces de mantener la misma calidad y resolución con un flujo mucho menor de datos. Métodos de transmisión en distintos tipos de redes: Wi-Fi, 4G, 5G y estructuras como el “bonding”. E incluso nuevas posibilidades como la realización en la nube.
Así que, vayamos desgranando esos sistemas de cámara que titulan nuestro contenido y que, como veremos enseguida, en ocasiones no son cámaras.
Para entender correctamente en qué consisten y qué posibilidades brindan esos sistemas, analicemos cuál es su propósito y qué medios utiliza cada uno para lograrlo. La idea básica es muy simple: hacer llegar en tiempo real el flujo de datos binarios que genera la cámara en captación, hasta la unidad de ingesta/mezcla/edición/realización sin precisar de ningún soporte físico para su transporte.
En realidad, es parecido a lo que hacemos cuando vemos un vídeo de cualquier plataforma en nuestro móvil. La gran diferencia es que ese contenido ya está grabado y nuestro móvil puede ir descargando y reproducirlo desde una memoria temporal, con unos cuantos segundos de retardo para compensar cualquier fluctuación en la velocidad de transporte de los datos a través del medio de comunicación, garantizando así la fluidez de la reproducción. En captación esto es inviable y más si pretendemos sincronizar el contenido de distintas cámaras. Así que nuestro canal debe asegurarnos una capacidad de transferencia por segundo sostenida en largos períodos de tiempo. Un “ancho de banda” estable, suficiente para transportar todo el enorme volumen de datos que genera la cámara. Especialmente si se trata de contenidos con elevados requisitos de calidad que incluyen resolución, rango dinámico, profundidad de color, tasa de cuadros por segundo, etc. que van haciendo crecer paulatinamente el volumen de información a trasportar.
En este sentido, una red Wi-Fi tradicional con un ancho de banda estándar de 54 Mbps y su alcance limitado en distancia puede resultar escaso para contenidos de alta calidad. Con las especificaciones genéricas de la red 4G-LTE de nuestros teléfonos móviles, deberíamos tener un ancho de banda de hasta 1 Gbps, que se puede reducir a sólo unos 100 Mbps máximos si el móvil se está desplazando a velocidades de hasta 200 Km/h. Con este ancho de banda ya sí disponemos de un canal viable, aunque en realidad puede resultar escaso. No porque 1 Gbps lo sea, sino por las fluctuaciones en las velocidades o la congestión que pueda tener la red en determinados momentos. Para resolver estas limitaciones disponemos de dos alternativas principales.
La primera se basa en aumentar el número de conexiones disponibles, recurriendo a una técnica denominada “bonding”. Consiste en distribuir la señal entre varios canales que van repartiéndose el volumen de información en función de su disponibilidad con margen suficiente. Así aseguramos el ancho de banda necesario diviendo la señal entre varias líneas de datos móviles que trabajan en paralelo.
La segunda consiste en reducir el volumen de datos a transmitir. Para lograrlo sin perder calidad, se desarrollan distintos algoritmos de compresión que, basados en la percepción del ojo humano, ponen el énfasis en asegurar la calidad percibida por el espectador. Así, por ejemplo, con menos de la mitad del volumen de datos y de ancho de banda, el algoritmo H.265 proporciona una calidad percibida claramente superior a la del H.264. Aunque hay que tener en cuenta que distintos algoritmos dan distintos resultados en función del tipo de contenidos a comprimir. Siendo el tema de la compresión suficiente para dedicarle un especial, por hoy nos quedaremos con la idea básica: mejores algoritmos reducen el volumen sin dañar la calidad.
Combinando ambas técnicas: “bonding” y algoritmos más avanzados, logramos asegurar sin compromisos el nivel de calidad en las transmisiones.
A la vuelta de la esquina ya tenemos el 5G, que evidentemente supondrá un nuevo gran salto adelante en los anchos de banda, aunque estos irán parejos con la creación y distribución de contenidos con mayores exigencias como 4K, profundidad de color, HDR, HFR, etc. Lo que mantendrá girando en paralelo las ruedas de crecimiento en las posibilidades técnicas y en las exigencias.
Y aún tenemos un par de guindas para nuestro pastel, que en ningún momento debemos perder de vista. Una: que el destino de la conexión de nuestras cámaras ya no va a ser necesariamente una estación tradicional o una unidad móvil al uso. Además de esas conexiones, hoy ya también es factible que los contenidos sean gestionados desde sistemas de producción virtual que nos permiten hacer una realización de directos, en tiempo real, manejando mezcladores virtuales y emitiendo contenidos simultáneamente a través de plataformas de streaming, incluso desde la nube.
Y otra especialmente interesante es aquella en la que la cámara está subiendo todos sus contenidos en tiempo real, aunque con la calidad justa para realizar la primera emisión, pero con todos los metadatos. Lo que convierte al sistema en diferente es que puede registrar todos los contenidos para ediciones posteriores y solicitar después a la cámara sólo los fragmentos necesarios en calidad máxima para ofrecer el mejor contenido habiendo movido el mínimo de datos estrictamente necesario.
Comenzando con las cámaras y mientras nos movamos en el entorno de cámaras de mano, multipropósito, ENG o incluso cine digital, prácticamente todos los fabricantes disponen de múltiples modelos con conectividad inalámbrica y con distintas tecnologías. Entre las que destacamos las dos más conocidas: Wi-Fi y datos móviles.
El propósito del Wi-Fi en la cámara es permitir establecer la conexión a través de un router ya existente o bien para utilizar el móvil del propio usuario como pasarela de comunicación. También es posible hacerlo con los routers autónomos Wi-Fi+4G que realizan la misma función de pasarela del móvil, pero sin precisar del terminal. En el caso del Wi-Fi la distancia a salvar será corta y significativamente mayor en el caso de las redes 4G-LTE.
Atención aquí a las posibilidades que proporcione cada versión de firmware de cada versión de cada cámara, ya que en algunas el Wi-Fi podría ser funcional sólo para operación remota, pero no como medio para enviar contenidos. En este caso no serviría para nuestros propósitos.
Independientemente de esta conectividad Wi-Fi, algunas cámaras también pueden contar directamente con algún puerto USB donde conectar el clásico “dongle” (módem USB inalámbrico) que aloja la tarjeta de red del operador móvil para utilizar las redes de datos móviles como medio de transmisión. Atención en este caso a que varios puertos USB permitan hacer bonding en cámara o estén limitados para funciones específicas.
Tanto el router autónomo como el “dongle” tienen la ventaja de permitir utilizar los mismos dispositivos en distintos países y mercados, o incluso distintos operadores del mismo país en función de sus distintos mapas de cobertura, simplemente cambiando la tarjeta de red del operador de telefonía y sin bloquear el uso del terminal móvil del operador. Además, con la inminente disponibilidad de las redes 5G, simplemente cambiando de dispositivo dispondremos de las prestaciones de la nueva red con una inversión mínima.
Dado lo amplio del catálogo de marcas como Canon, JVC, Nikon, Panasonic, Sony, etc. y la enorme cantidad de modelos disponibles en sus distintas gamas, cualquier enumeración se quedaría escasa. Si además consideramos las nuevas funcionalidades que suelen incorporar las sucesivas actualizaciones de firmware, recomendamos acudir a las especificaciones actualizadas de cada fabricante cuando precisemos asegurar lo adecuado de las características de cada modelo y versión a nuestras necesidades.
Continuamos con los dispositivos externos, pero ya partiendo de las conexiones de vídeo estándar de la cámara o de cualquier otra fuente, como las señales SDI, en sus distintas variantes, o HDMI. En este caso liberamos a la fuente de las configuraciones de red y trasladamos al dispositivo codificador/emisor todos los parámetros de compresión, tasa de datos, configuración de red, etc. Estos dispositivos aportan la ventaja de ser funcionales para todo tipo de cámaras o fuentes,y aunque lógicamente aumentan el peso, volumen y necesidades de alimentación del conjunto, son más eficientes al permitir mayor flexibilidad de operación, mayor cantidad de canales de “bonding” e incluso un control optimizado del tráfico de datos.
Todos esos flujos de vídeo que se han introducido en una red de datos, se vuelven a reconstruir como señal de vídeo convencional por los decodificadores correspondientes. En realidad hemos reemplazado el cable físico desde la cámara, ubicada en cualquier lugar del planeta, hasta su entrada en la matriz del mezclador de realización, ubicada en la unidad móvil o en la propia estación en cualquier otro lugar del planeta. Una vez que los dispositivos emisor y receptor se han sincronizado, son capaces de gestionar todos los parámetros de compresión/descompresión y de red para distribuir el tráfico entre los canales que hayamos puesto a su disposición, de forma transparente para el operador.
En estos dos últimos grupos de dispositivos, ya que en muchas ocasiones trabajarán como parejas emisor/receptor, necesitamos distinguir dos grandes estilos de operación. Por un lado los equipos que hacen una conexión inalámbrica punto a punto mediante radioenlace propio, línea de vista entre antenas, y con alcances de unos pocos cientos de metros, como los de ABonAir o Teradek. Y por otro lado los sistemas que se apoyan en redes de datos, a las que generalmente se accede a través de operadores de red o de telefonía móvil y ofrecen alcances emisor-receptor en distancias prácticamente ilimitadas. En este segundo caso estaríamos hablando de sistemas como los de TVU Networks y U-Live.
Aunque estos dispositivos externos no siempre tienen porqué funcionar en parejas. Simplemente porque si nuestro propósito no es emitir desde una antena Broadcast tradicional, sino que vamos a crear un contenido que se va a distribuir exclusivamente por canales de streaming, es factible utilizar sólo los emisores del segundo grupo para hacer la conversión y gestionar toda la realización en sistemas virtualizados en la nube, como los de TVU Networks. Así, una vez que la señal de cámara está en la red de datos, toda la realización, composición, envío a la plataforma de streaming y distribución a clientes se realiza sin salir de la red.
Evidentemente, las cámaras pueden estar en distintos lugares del planeta, el realizador en otro distinto y los clientes repartidos sin más limitación geográfica que el alcance de las redes de datos de los distintos operadores de telecomunicación.
Incluso disponemos de la posibilidad de generar el flujo de streaming, para enviar directamente a la plataforma de emisión desde un único dispositivo emisor y que podría ser la cámara o alguno de estos dispositivos emisores antes mencionados.
Por último, y ofreciendo el máximo de versatilidad y eficiencia, ya que permite su uso para emisiones en directo y la consolidación posterior de contenidos en máxima calidad, el sistema XDCamAir de Sony se basa en una funcionalidad avanzada en determinadas cámaras combinada con unos servidores específicos en los que se van volcando contenidos en tiempo real durante la captación en calidad hasta HD. Se envían con todos los metadatos pero con una tasa de datos muy baja para hacerlo viable a través de infraestructuras de red remotas o limitadas.
Esto facilita a los editores la posibilidad de montar un programa contando con el acceso instantáneo a todo el material. Lo interesante del concepto es que, una vez que el programa está montado y validado, desde el sistema de edición se requiere a la cámara remota para que envíe sólo los fragmentos necesarios para hacer la consolidación del programa final en calidad máxima. Para esto sólo se requiere que la cámara esté encendida y conectada a la red de datos. Así, sin necesidad de intervención por parte del operador de cámara, y aunque éste continúe desplazado a lugares con conectividad limitada, se puede contar con todos los contenidos necesarios en la estación con la máxima eficiencia.
En resumen, el escenario actual de sistemas de cámara inalámbricos nos permite configurar distintos flujos de trabajo que abarcan:
– Cámaras que se ocupan por sí mismas de la interconexión a la red de datos. Wi-Fi y 4G/5G. Necesitaremos configurar los parámetros de vídeo y de red en la cámara.
– Dispositivos que convierten y envían las señales de vídeo SDI o HDMI y las gestionan a través de las redes de datos. Necesitaremos configurar los parámetros de vídeo y de red en el codificador-/emisor.
– Cámaras y emisores capaces de generar un flujo de streaming que se envía directamente a las plataformas de distribución, sin más elementos intermedios.
– Sistemas de recepción, que reconstruyen la señal de vídeo tradicional procedente de las redes de datos, para inyectarla en los mezcladores convencionales. Necesitaremos configurar los parámetros de vídeo y de red en el receptor/decodificador.
– Plataformas de realización en la nube, que recogen los flujos de vídeo procedentes de varias fuentes, la procesan y generan directamente los flujos de streaming que llegan a las plataformas de distribución.
– Los servidores capaces de recibir la señal en calidad limitada pero con todos los metadatos, ponerla a disposición de los editores para una edición completa y a partir de los metadatos de edición, que el sistema interactúa de forma autónoma con la cámara descargando en máxima calidad sólo aquellos fragmentos de la grabación necesarios para el programa final.
No deja de resultar un tanto paradójico que hoy en día cualquier persona con una cámara o un simple teléfono móvil pueda emitir contenidos en directo prácticamente sin coste económico y alcanzando a una audiencia que para sí hubieran querido los mayores Broadcasters del mundo hace sólo una década.
Como podemos apreciar, con todas estas facilidades y si además combinamos las distintas posibilidades a nuestro alcance, disponemos de recursos para afrontar prácticamente cualquier proyecto con las mayores garantías de éxito, fiabilidad y eficiencia posibles.
Texto: Luis Pavía