HomeDivulgaciónTecnologías de contribución para alta definición

Tecnologías de contribución para alta definición

La aparición de nuevos servicios de Alta Definición en la actual TDT, desde los canales generalistas de TV5, Antena3 y La Sexta en sus versiones HD, hasta los canales públicos autonómicos y nacionales, está despertando el interés de los usuarios por la Alta Definición. Lamentablemente dicho interés decae de modo exponencial al comprobar que los contenidos en muchos casos no están producidos en HD, sino que son un simulcast del canal de definición estándar, donde sus contenidos han sido escalados al formato 1080i25, mejorando ligeramente su calidad relativa a la calidad ofrecida por el servicio de definición estándar, pero dejando mucho que desear con respecto a la calidad esperada y exigida a los servicios nativos de HD.
En otros casos, también resulta decepcionante comprobar cómo los contenidos emitidos son escasos y de dudosa calidad en alguna ocasión. Contenidos que son repetidos una y otra vez, día tras día, e incluso mes tras mes, eliminando el atractivo potencial que se había depositado en esta tecnología.
Pero sin lugar a duda el denominador común a todos ellos, y a su vez el hecho más valorado por la audiencia, es la difusión de eventos en directo de Alta Definición, encabezados por los acontecimientos deportivos y en menor medida por los musicales, donde la principal premisa es el ofrecer una elevada calidad acorde con la naturaleza del evento, para lo cual resulta inevitable la utilización de las tecnologías de contribución que encuentren el punto de equilibrio óptimo entre “Calidad” vs “Ancho de Banda”. Dicho equilibrio debe permitir el minimizar los costes de explotación de las redes de contribución, con una ocupación mínima de ancho de banda que permita disponer en los estudios de producción, la calidad suficiente para su posterior procesado y transcodificación, sin que la calidad final percibida por el usuario se vea deteriorada.
Con el objetivo de analizar qué tecnologías son las más apropiadas y eficientes para su implantación en los escenarios de contribución en HD, en los últimos tiempos se han realizado distintas evaluaciones de formatos y tecnologías con equipamiento comercial de última generación. En este artículo describimos uno de los más importantes estudios realizados en este ámbito, el llevado a cabo por el EBU N/HDCC Project group, cuyas conclusiones se recogen en el documento “EBU Technical Report 008 HDTV Contribution Codecs”.
En dicho estudio se analizó por medio de minuciosos test de campo, la eficiencia ofrecida por los novedosos estándares MPEG-4 AVC y JPEG 2000, como alternativa al infatigable MPEG-2 que todavía es utilizado de modo dominante en los intercambios de contenidos de calidad profesional en Alta Definición.
Mientras que nadie duda a día de hoy de la enorme eficiencia de MPEG-4 AVC en aplicaciones de servicios de difusión o streaming, su aplicación en los entornos de contribución es cuestionada frecuentemente. De igual modo, la supremacía de JPEG 2000 como estándar para el intercambio y soporte de contenidos cinematográficos entre los proveedores de contenidos y las salas de exhibición, no se ha visto reflejada en igual medida en los entornos de contribución profesional para Alta Definición.

Escenarios de contribución

Sin lugar a dudas, los dos parámetros más determinantes en los servicio de contribución son la calidad ofrecida por el estándar de compresión utilizado, y la latencia impuesta por el mismo. Entre las muchas opciones disponibles y discutibles, el Módulo Comercial del DVB optó por clasificar la “Calidad” de una contribución  en las cinco categorías que se exponen en la Tabla 1.

Los servicios de contribución en Alta Definición deben ser restringidos, siempre que sea posible, a las tres primeras categorías, donde se asegure una colorimetría adecuada con un submuestreo 4:2:2, y donde no se realice ningún tipo de submuestreo horizontal, manteniendo la resolución nativa del formato HD (1080i/720p).
En lo que respecta a la latencia, su valor está condicionado por dos factores: el retardo inherente de la red de distribución, cuyos valores son más elevados para las redes satelitales por razones obvias, frente a redes ópticas, redes terrestres o de cable; así como por la tecnología de codificación. La utilización de codificación temporal predictiva (frames P y B), así como el número y tipo de frames que componen el denominado GOP (Group of Pictures), son el factor determinante en el aumento del retardo de codificación, frente a tecnologías que tan solo realizan codificación Intraframe (frames I), como es el caso del estándar JPEG 2000.
Las etapas de preprocesado o prefiltrado de los codificadores, así como las estrategias de asignación de la tasa binaria a cada frame, y en ocasiones a cada MacroBloque, unidos a la estrategia de gestión de los buffer de salida, necesarios para acomodar la tasa binaria de la trama codificada al canal de comunicaciones, son otros parámetros que pueden provocar un aumento considerable de la latencia, y que presentan una diferencia considerable entre los distintos fabricantes, debido a las diferentes implementaciones llevadas a cabo.
De modo genérico, se puede clasificar la latencia de una contribución en las tres categorías de la Tabla 2.


Tomando en consideración ambos parámetros, calidad y latencia, la Figura 1 acomoda los diferentes escenarios de contribución en función de las categorías definidas anteriormente.

Estudio EBU: codecs de contribución

El objetivo de los test elaborados por la EBU, fue el evaluar las eficiencias de compresión de los estándares emergentes MPEG-4 AVC y JPEG 2000 con formatos de Alta Definición, frente al actual MPEG-2, bajo distintos escenarios de aplicación. En concreto se analizó la ganancia ofrecida por los productos comerciales de MPEG-4 AVC en su perfil “H422P” con profundidad de píxel de 8 bits, con tasas binarias comprendidas entre 15Mbps y 60Mbps, y con distinta estructura de GOP (I, IPPP, IBP, IBBP). Dichas tasas se ajustan con los escenarios de calidad “Buena” y “Broadcast” descritas con anterioridad al ser estos los más habituales, y que se corresponden con las contribuciones genéricas en comunicaciones satelitales con transpondedores de 36Mhz.
Por el contrario, las particularidades ofrecidas por JPEG2000, como son la No utilización de predicción temporal, o la facilidad para codificar muestras con independencia del número de bits/píxel, presentan a este estándar como un candidato idóneo para contribuciones de alta calidad (4:2:2 con 10 bits/píxel) y bajo retardo; por lo que la comparativa realizada se llevó a cabo con tasas binarias que alcanzaban los 100Mbps.
Se procedió a la selección de secuencias test en ambos formatos 1080i/720p, tomando fragmentos que dispusieran de una entropía dispar con el objetivo de cubrir los distintos servicios habituales de contribución, y haciendo especial hincapié en las escenas deportivas de elevada complejidad que producen un mayor estrés a los codificadores. La naturaleza de los contenidos fue tanto nativa, sin ningún tipo de compresión, como material con varias generaciones de codificación en formatos de almacenamiento profesional, en concreto con cuatro generaciones de XDCAM HD y AVC-I Class100.
Los test se llevaron a cabo encadenando dos etapas de codificación-decodificación, con el objetivo de conocer el comportamiento y prestaciones de los nuevos estándares antes situaciones críticas de multigeneración, al considerarse éstas muy realistas en la actual producción y distribución de contenidos.
Los resultados obtenidos en el estudio son mostrados en la Figura 2, donde se puede apreciar como el estándar MPEG-4 puede ofrecer para configuraciones de GOP I, IP e IBP, una calidad objetiva igual a la ofrecida por MPEG-2, medidas con la métrica habitual de PSNR (dB). Los ahorros en ancho de banda se sitúan en media entre el 40% y el 50%, y por lo tanto son muy similares a los obtenidos en los escenarios de difusión. En configuraciones IBBP las ganancias obtenidas son más moderadas, alcanzando su mínimo para la mayor tasa binaria (60 Mbps), pero aún así, ofrecen un ahorro superior al 25% con respecto al requerido por MPEG-2.

Figura 1

Figura 2

Estas conclusiones chocan frontalmente con el mensaje ampliamente aceptado, y divulgado en muchos casos sin un fundamento sólido, referente a la pérdida de eficiencia de MPEG-4 AVC frente a MPEG-2 para altas tasas binarias.
Con respecto a los test realizados con el estándar JPEG 2000, los resultados coinciden en gran medida con los descritos para MPEG-4AVC. En la Figura 3 se muestra cómo la mejora de la eficiencia obtenida con JPEG 2000, puede alcanzar unos ahorros medios entre el 40% y el 60% con respecto a MPEG-2, para los formatos 1080i25 y 720p50 respectivamente, siempre para una estructura de GOP Intraframe. Cabe destacar como la eficiencia del formato 720p50, llega a ser superior al 20% con respecto al formato entrelazado 1080i para una tasa binaria de 60Mbps. Este hecho ya se ha constatado en estudios previos para entornos de difusión, y se ratifica nuevamente para los escenarios de contribución en Alta Definición.

Figura 3

Por último, y con el objetivo de contrastar los resultados objetivos con la percepción visual subjetiva de cada uno de los estándares, se realizaron unas sesiones de evaluación subjetiva por observadores expertos utilizando la metodología de triple estímulo definida por la EBU (TSCES). Debido al enorme volumen de material codificado en los test, esta fase de evaluación subjetiva se restringió a las secuencias codificadas de 2ª generación con estructura de GOP I, IP e IBBP.
A pesar de que los resultados obtenidos muestran una tendencia muy diferente a las alcanzadas en las evaluaciones objetivas basadas en la PSNR, su análisis puede arrojar cierta convergencia entre ambas. En la Figura 4 se muestran los resultados medios, donde se ve cómo el hipotético ahorro de ancho de banda se reduce a un simple 10%, para la configuración Intraframe. La eficiencia crece de modo casi lineal con la incorporación de la predicción temporal, frames P y B, gracias a las mejoras que introduce MPEG-4 en este sentido.

Figura 4

Las diferencias mostradas entre las evaluaciones objetivas y subjetivas, constatan la mala correlación existente entre las métricas objetivas y subjetivas, motivo histórico de controversia, y que a día de hoy sigue sin encontrar una solución científica aceptada por todos.
Aun así, es importante destacar que para una configuración muy realista, tanto en su estructura de GOP como en su tasa binaria (IBBP, 45-60Mbps), la percepción subjetiva mejora las puntuaciones obtenidas en los análisis objetivos, corroborando una vez más que la utilización de MPEG-4 AVC puede ofrecer unos ahorros en ancho de banda del 50% con respecto a MPEG-2.

Conclusiones y tendencias futuras

Los resultados obtenidos, muy en particular para la estructura IBBP, tienen un fuerte fundamento en las herramientas novedosas que incorpora MPEG-4 AVC frente a MPEG-2, como son la utilización de frames B jerárquicos, la estimación de movimiento de ¼ de píxel o el filtro antiblocking entre otros, y como ha quedado demostrado, mejoran su eficiencia de modo notable, tanto en términos objetivos como subjetivos.
Todas estas herramientas exigen de una fuerte carga computacional, que sumado a las altas tasas binarias requeridas en los servicios de contribución, y a la necesidad de trabajar con submuestreos 4:2:2, demandan de unas implementaciones hardware muy optimizadas para trabajar de modo eficiente en tiempo real. Este puede ser uno de los motivos que han provocado que la oferta de codificadores profesionales de contribución para Alta Definición, todavía a día de hoy se pueda contar con los dedos de una mano.
Ante la disyuntiva de qué métrica es más fiable y adecuada en este tipo de evaluaciones, si la objetiva o la subjetiva, hay que destacar que la PSNR es un indicador de la similitud entre la secuencia comprimida y la señal original, y por lo tanto, incluso cuando subjetivamente no se puedan percibir diferencias entre ambas, la secuencia con mayor PSNR ofrecerá siempre una mayor robustez frente a posteriores etapas de procesado o recodificación.
Aun así, hay que tener en cuenta que la evaluación de tecnologías como JPEG 2000 que utilizan como algoritmo de compresión la transformada global de la imagen (transformada discreta de Wavelets) en lugar de procesar pequeños bloques de la imagen (16×16 píxeles), pueden provocar distorsiones especialmente molestas a las que tenemos poco habituado nuestro sistema de percepción visual, por lo que la evaluación subjetiva puede considerarse como un procedimiento complementario al objetivo, para este tipo de evaluaciones.
El conjunto de resultados mostrados apuntan en su conjunto a que tanto MEPG-4 como JPEG 2000, son estándares que ofrecen unas importantes ventajas en la cadena de contribución y han demostrado que pueden sustituir de modo eficiente al, hasta hace muy poco, indiscutible MPEG-2.

Txt: Damián Ruiz
Roland MVS-12, el au
Nueva versión de la