HomeDivulgaciónCalidad de vídeo en procesos de producción basados en ficheros

Calidad de vídeo en procesos de producción basados en ficheros

vídeo

Reflexión inicial

La industria de los medios de comunicación está migrando rápidamente desde flujos de trabajo basados en cinta a flujos de trabajo basados en ficheros, lo que comúnmente se denomina “tapeless”. Esta migración ha dado lugar a varios impactos de diferente dimensión que afectan a los contenidos. La transformación de los contenidos se produce en las sucesivas etapas del flujo de trabajo. Esta transformación empieza a partir de conversión de analógico a digital y afecta a los diferentes sistemas involucrados en el procesado y la entrega final de la media.
La digitalización de los contenidos ha dado lugar a varios cambios en los estándares de compresión, en la edición y en las tecnologías de transmisión. Existen diferentes opciones válidas para crear, editar y reutilizar los contenidos audiovisuales. Por otra parte, la industria de los medios de comunicación está teniendo que adaptarse a la evolución de las tecnologías de compresión, contenedores de media y formatos de entrega de contenidos en entornos multiplataforma. Existen varios métodos de transmisión basados en las necesidades de entrega, tales como TDT, satélite, cable, IPTV, VoD o móvil. Todos estos cambios han hecho que aumente sensiblemente la complejidad del flujo de trabajo basado en ficheros. Debido a ello, existe una creciente incertidumbre respecto a la calidad del contenido que llega al consumidor.
El crecimiento progresivo de los consumidores de video HD y la creciente competencia en la industria de los medios obliga a redefinir los procedimientos y requisitos de control calidad de los contenidos, lidiando tanto con las complejidades técnicas en constante evolución como con las expectativas de calidad de los consumidores. En este escenario, la metodología convencional de control de calidad es insuficiente.
Los procesos manuales de control de calidad para la verificación del material se vuelven inconsistentes, subjetivos, y de difícil escalado en un flujo de trabajo diseñado para el acceso global a la media desde las diferentes áreas de producción y emisión con objeto de incrementar la productividad.
Este artículo describe los diferentes elementos que afectan a la calidad de los contenidos durante las distintas etapas del flujo de trabajo, y propone la adopción de herramientas automatizadas para la detección precisa de errores, así como los procedimientos de corrección, con el objeto de mejorar tanto la calidad del producto emitido como la experiencia de los consumidores.

Introducción

La adopción de procesos de producción y emisión basados en archivos ha proporcionado muchas ventajas para los “broadcasters”. Se ha simplificado el almacenamiento de media y su recuperación, existe mayor flexibilidad, la velocidad se ha incrementado y la edición no lineal ha facilitado considerablemente la elaboración del producto final. El flujo de trabajo basado en archivos ha cambiado incluso la forma en que se entregan los contenidos al consumidor.
En los flujos de trabajo basados en cinta, muchos de los procesos se realizaban manualmente y eran engorrosos. Con la flexibilidad que aporta el flujo de trabajo basado en ficheros, éstos se comprimen y formatean con una amplia gama de tecnologías de compresión, de formatos de archivo, y de formatos de entrega. Con la flexibilidad que proporcionan los datos digitales, mediante operaciones más o menos complejas se pueden crear diversos tipos de archivos de salida, usando técnicas de edición y transcodificación.
El aumento de las operaciones complejas con los archivos de media incrementa la posibilidad de inyectar errores en el contenido. Estos errores se pueden manifestar tanto en los datos como en los metadatos asociados a los diferentes formatos de archivo. Puede haber errores de “no conformidad” debido a la variedad de estándares de compresión. Puede haber errores relacionados con la degradación de la calidad de video y de audio. Y también puede haber errores introducidos durante la digitalización de las cintas, cuyo origen puede estar en la propia cinta, en el codificador o en cualquier otro elemento que intervenga en el proceso.
Además, la llegada real de la televisión de Alta Definición, tanto a través de plataformas de pago vía satélite o IP, como a través de las emisiones experimentales de la TDT, entre las que destacamos Aragón TV HD,  ha llevado al consumidor final a un mayor nivel de exigencia, especialmente si se trata de un abonado.
Por ello, los “broadcasters” se están viendo en la necesidad de rediseñar sus áreas de verificación de contenidos, adaptándolas a los nuevos soportes y flujos de trabajo, mediante la implantación de controles de calidad automáticos que permitan a su vez la acción manual cuando así se requiera.
Así, la complejidad del flujo de trabajo basado en ficheros ha sido impactada por:
• Transformación de la media a lo largo de las sucesivas etapas de flujo de trabajo.
• Estándares y tecnologías de la industria de los medios de comunicación, que han influido en los estándares de compresión, en la edición y en las tecnologías de transmisión.
• Los métodos de transmisión basados en las necesidades de entrega, tales como satélite, TDT, cable, IPTV, VoD y móvil.
• Expectativas de los consumidores acerca de la calidad de los contenidos suministrados, especialmente si las emisiones son HDTV.
A continuación se analiza el escenario actual de producción y emisión en entornos sin cintas, las causas y efectos de la degradación de la calidad de la media en las distintas etapas del flujo de trabajo, y las ventajas de la verificación automatizada de la calidad del contenido.

Escenario del flujo de trabajo basado en ficheros

En los flujos de trabajo de la era pre-digital, el soporte de los contenidos era la cinta y el transporte lo realizaban individuos de forma manual. Los contenidos se grababan en cinta en los estudios o en exteriores y se enviaban a las islas de postproducción para su ingesta desde VTRs. La media ingestada se etiquetaba con algunos metadatos básicos (nombre, fecha, etc) para facilitar su posterior recuperación.
Con la llegada de los contenidos digitales, los flujos de trabajo basados en ficheros han evolucionando rápidamente.
La primera etapa consiste en la captura de media mediante cámaras ENG, en cualquier lugar del centro de producción o en exteriores. El vídeo captado se almacena en diferentes soportes, tal como cinta analógica o digital, tarjeta de memoria de estado sólido, professional disk (DVD profesional) o disco duro. Y por supuesto en diferentes formatos de fichero, tal como DV, MPEG-2, MPEG-4, etc, que los fabricantes personalizan como DVCPRO, DVCAM, IMX,  XDCAM, XDCAM HD, P2, AVC-I, etc. Normalmente mezclando los conceptos de soporte y formato. La captura también se puede llevar a cabo utilizando recursos de red, tal como FTP. Y finalmente, la captura también se efectúa a partir de cintas procedentes de producción ajena adquirida, ya que este tipo de producciones todavía se sigue suministrando en soporte convencional.
Ingesta es el proceso de transferencia de contenidos desde su soporte original al sistema de almacenamiento, utilizando los interfaces necesarios en cada caso. Este proceso incluye operaciones tales como la digitalización de los contenidos de una cinta analógica, o la inserción de metadatos para facilitar la recuperación eficiente desde una base de datos de archivos muy grande. La incrustación de los metadatos debe ser en formatos conocidos, tal como MXF y MOV.
En las etapas de postproducción la media se procesa y se edita. Aquí el tratamiento incluye al menos el ajuste de los valores de color, el aumento o disminución del brillo o el contraste, y la eliminación de algunos fotogramas del vídeo capturado, pudiendo aplicarse además diversos efectos 2D y 3D. Esta etapa generalmente no implica ninguna pérdida de calidad después de la captura real si el equipamiento es adecuado, aunque puede provocar modificaciones del video “fuera de norma” que afectan especialmente a la transmisión.
Antes de proceder a la distribución de los contenidos, la media tiene que ser procesada de nuevo para satisfacer los requisitos de la red de distribución y, en última instancia, del consumidor final. Este proceso puede ser en forma de transcodificación,  en cuyo caso se modifica al menos la tasa de bits de vídeo y audio. El tratamiento también puede implicar un cambio del formato de compresión de audio o de vídeo.
El sistema de automatización recoge la media transcodificada y la entrega a las diferentes redes, en el formato adecuado para cada caso.
Cada etapa del flujo de trabajo maneja diferentes tipos de fichero en función de la media que contienen, del formato utilizado, de la tasa de bits, del tamaño del cuadro y del número de cuadros por segundo. Los archivos se crean en las diversas etapas y se almacenan en los sistemas de almacenamiento junto con el esquema de metadatos aplicado. Para facilitar un acceso y búsqueda eficiente, se utilizan sistemas de automatización que controlan los procesos en cada etapa.

Temas de calidad de vídeo

El flujo de trabajo basado en archivos abarca la captura, post-producción y transcodificación, e incluye numerosos casos de transformaciones de media. La cantidad de transformaciones depende especialmente de los requerimientos de los operadores, además de los parámetros definidos por la normativa vigente. Estos requisitos afectan, a su vez, a la complejidad de los procesos y, por tanto, aumentan las probabilidades de error en los contenidos.
Los broadcasters deben validar la media recibida, ya sea procedente de producciones ajenas o producción propia. El objetivo es comprobar si existe algún contenido degradado antes de ser ingestado en el flujo de trabajo.
Al ingestar, puede haber problemas de calidad de vídeo, tales como desesenfoques, brillos o parpadeos que contienen patrones temporales y espaciales que podrían provocar malestar a determinados televidentes con excesiva fotosensibilidad. En el caso de ingesta desde cintas, puede haber problemas relacionados con “negros” (parte del vídeo inexistente), o ruidos debidos a la suciedad entre las cabezas lectoras de los VTRs y las cintas.
Después de la ingesta y la edición o reutilización, podría haber una amplia variedad de errores a causa de la manipulación errónea de los flujos de vídeo por parte de los sistemas de edición o de los editores. La edición básicamente consiste en cortar y pegar contenidos en la secuencia de vídeo. Esta operación puede distorsionar algunos de los ya conocidos parámetros, tales como el orden de campo (requerido para  telecine) y el campo dominante. Si un nuevo clip de  video se inserta en un contenido ya existente, habría que tenerlo en cuenta. La edición también puede incluir la inserción de barras de color o cuadros negros durante una duración de tiempo determinado dentro del “stream”, con objeto de reservar espacio para publicidad, por ejemplo. La duración de estos tipos de secuencias necesita volver a ser examinada antes de pasar el contenido a la siguiente etapa. Además, la necesidad de añadir efectos especiales 2D o 3D o la adición de gráficos puede alterar los niveles de señal existentes en la secuencia.
La etapa de transcodificación se refiere a la transformación de de la media de un formato a otro. La transformación puede ser con respecto al formato del contenedor, tal como MP4, DV, MXF, y TS MPEG2, o puede incluir procesos tales como redimensionar el tamaño del fotograma de vídeo, cambiar la tasa de bits o cambiar el formato de muestreo. La transformación también puede implicar el cambio del formato de compresión de MPEG2 a H264, de DV a MPEG2, etc., a una tasa de bits especificada y variando otros parámetros. Por ejemplo, podría haber un requisito para cambiar el formato de contenedor desde MPEG2 “Transport Stream” a un formato 3GPP para las redes 3G de distribución móvil. Después de la transcodificación, cuestiones tales como bloques erróneos, pixelación, “combing”, difuminados o “ringing” pueden reaparecer en el contenido.
Consideremos el caso de artefactos tipo bloques como una cuestión bien conocida acerca de la calidad del vídeo digital. Este es el artefacto más común en el caso de transformaciones basadas en los esquemas de compresión de vídeo. El artefacto comienza a aparecer en los procesos de transcodificación con baja tasa de bits de salida aplicados a un vídeo con alto grado de detalle. En un caso general del esquema de compresión MPEG, un fotograma de entrada está dividido en pequeñas entidades independientes llamadas bloques. Cada uno de los bloques se transforma al dominio de la frecuencia utilizando la transformación DCT (Transformada Discreta del Coseno). La transformación genera coeficientes de frecuencias discretas, de modo que los coeficientes de baja frecuencia tienen más coeficiente de ponderación para la representación de la información dentro de un bloque. Si un bloque contiene gran cantidad de detalle, los coeficientes para las frecuencias altas también pueden contener información importante. La reducción de la tasa de bits se traduciría en menor número de bits asignados para cada uno de los bloques. En este caso, los bloques podrían ser obligados a ignorar los coeficientes de las frecuencias más altas, disminuyendo el número de bits de la secuencia de salida codificada. En el lado del decodificador, la transformada inversa generará un bloque. Si el bloque contiene muy pocas aristas o es visiblemente suave, el hecho de ignorar los componentes de mayor frecuencia, no afectará a la reconstrucción. Por otro lado, si existe un gradiente o alto nivel de detalle en los bordes, sin duda afectará a la decodificación del bloque. En este caso, los bordes en los límites no serían continuos, debido a una reconstrucción inadecuada.
La posibilidad de artefactos tipo bloque aumenta con la disminución de la tasa de bits requerida. Los cuadros dependientes, tales como P o B, marcos, se verían afectados más severamente si el cuadro I ha sido codificado o decodificado con este artefacto. Un bloque de un único cuadro no afectaría a la calidad general del vídeo, pero una secuencia de vídeo desempeña un papel importante en las decisiones relativas a la calidad.
Hay problemas de calidad de vídeo que están relacionados con cuestiones propias de la señal, tales como el “gamut” RGB y los niveles de señal. Los datos de video se capturan y preprocesan según los niveles establecidos para las componentes de color, de modo que los voltajes representativos de estas señales no excedan de los niveles especificados en la normativa vigente (ITU-R o SMPTE). Los datos capturados y preprocesados se pasan a los sistemas de codificación para su compresión. Los datos RGB que se han capturado deben seguir el espacio de color RGB especificado, llamado «gamut”. Los datos capturados por las cámaras en formato RGB, se convierten al espacio YUV para facilitar su entrada a los sistemas de codificación. Debido a la pérdida de información y al procesamiento de datos llevado a cabo por el codificador, los datos YUV podrían ser diferentes de los datos capturados originalmente. Esto llevaría a una relación impropia entre los componentes de luminancia y crominancia. Así, componentes de color rojo, verde o azul inadecuadas, pueden llegar a estar fuera de “gamut”. Del mismo modo, los datos YUV también pueden estar fuera del rango marcado por los límites especificados. Pero, el “gamut” RGB y las cuestiones de nivel de señal no pueden ser detectados de forma manual en un fichero de datos y requieren de un sistema automatizado para analizar cada uno de los valores YUV decodificados, así como del espacio RGB convertido.
Hay casos en que las que la secuencia codificada no cumple con la recomendación o normas comunes para la codificación y descodificación de un “stream”. El incumplimiento de las especificaciones también puede ser el resultado de fallos en los sistemas de codificación o de errores de bits durante la transmisión. Por tanto, el incumplimiento de la normativa también debe ser verificado, ya que puede conducir a proporcionar una secuencia de vídeo errónea que provoque errores en los sistemas de descodificación.

Los requerimientos del control de calidad automatizado

Los sistemas con flujo de trabajo basado en ficheros han incrementado su eficiencia debido a la utilización de sistemas de automatización. Además, ha aparecido un nuevo reto: la transformación y entrega de contenido más rápido, con calidad competitiva, y cumpliendo las expectativas, a diferentes operadores de diferentes características.
Por otra parte, el usuario final se ha dotado con una selección de dispositivos de razonable calidad para la visualización, especialmente de un mayor tamaño de pantalla con resolución normalmente “Full HD”. La televisión de Alta Definición representa un avance importante para la experiencia del usuario final en comparación con la definición estándar en servicio en la actualidad. En este caso, los “broadcasters” deben prestar más atención al control de calidad del producto que emiten, debido al considerable aumento de las expectativas de calidad por parte del usuario final.
El proveedor de contenidos puede proporcionar media de la mejor calidad a los “broadcasters” cuando adquieren producciones ajenas (series, películas, etc.). Sin embargo, todas las conversiones y transformaciones llevadas a cabo hasta la entrega de la media a los operadores, hacen que sea importante el control de calidad en las diferentes etapas, de cara a proporcionar el mejor producto al usuario final.
El ojo humano a menudo no puede percibir los errores inherentes a un solo fotograma de vídeo, por ejemplo el “gamut” de color RGB, los niveles de señal de vídeo, la anchura de las barras o el estándar esperado de las barras de color. La detección de estos errores requiere algunos cálculos que el ojo humano no puede validar con sólo ver un fotograma.
La inspección manual es útil en los casos en que el ojo humano puede percibir los defectos de las imágenes de vídeo, tal como los bloques o desenfoques. Sin embargo, la inspección manual sólo puede inspeccionar un cuadro a la vez. La inspección manual no puede valorar la degradación de la calidad total en términos objetivos. El índice de calidad a cargo de personal varía en función de su habilidad, experiencia y preferencias individuales. Por tanto, una metodología formal, basada en cálculos programados, es necesaria para alcanzar los objetivos y disponer de una información de calidad medible y fiable.
Puesto que hay numerosos formatos de fichero y formatos de entrega, la validación manual tiende a ser cada vez más propensa a errores, debido al aumento de la información a manejar, que debe ser validada para cada una de las esencias de media. El rápido ritmo de aparición de nuevos formatos o directrices que llegan a la industria requiere una constante formación del personal. Esto implica costos y tiempo, pero aún así deja un margen para la incertidumbre acerca de la calidad de la media a entregar.
Por lo tanto, la validación de la media debe ser automatizada utilizando un entorno inteligente y flexible que pueda procesar grandes volúmenes de datos de manera precisa y consistente. Este sistema se debe poder parametrizar con las expectativas requeridas moduladas por las normas de validación de media, y estar al tanto de los diferentes formatos de media, de las normas de conformidad para los formatos de compresión, de las recomendaciones y directrices de las distintas organizaciones internacionales, y de los atributos complejos de la media. El sistema debe basarse en procesos y algoritmos capaces de detectar la calidad de un cuadro o una secuencia de cuadros de una manera objetiva,  y correlacionarse con datos y estadísticas que aporten la experiencia humana aplicada al análisis de la calidad de vídeo.
Analicemos el caso práctico de un fichero de una hora de duración que contiene audio y vídeo. Un proceso manual llevaría por lo menos una hora en cada una de las etapas del flujo de trabajo para comprobar un conjunto definido de especificaciones. Asimismo, múltiples especificaciones pueden requerir la comprobación de la media varias veces en varios puntos (Por ejemplo, en el caso de emisión multiplataforma). En el caso peor, cualquier cambio en las necesidades puede requerir que todo el proceso se repita de nuevo.
Además, los datos de audio y vídeo tienen que ser procesados por separado. El proceso de validación requiere mayor atención y un conocimiento completo acerca de los requisitos o especificaciones.
En cambio, un sistema automatizado puede operar el proceso de validación de contenidos en modo 24×7, ofreciendo resultados precisos y coherentes, independientemente de la cantidad de datos a procesar. Este sistema puede operar en paralelo a todas las etapas del flujo de trabajo, ahorrando tiempo. Las especificaciones detalladas y directrices para todos los formatos de compresión y formatos de entrega pueden ser parte de la base de conocimientos del sistema automatizado. Si se dispone de un sistema de automatización de trabajo en tiempo real, se puede proporcionar un informe de validación en apenas una hora, ahorrando así tiempo y costes. Evidentemente, todo pasa por “confiar” en el sistema de control de calidad automatizado, ya que no podemos “ver” la media como en las clásicas cabinas de verificación de la era pre-digital.
Los sistemas de control de calidad automatizado constan básicamente de los siguientes elementos:
•    El gestor de verificación, que consiste en una aplicación software específica, que corre en un servidor habitualmente homologado.
•    Los servidores de análisis, que consisten en uno o un conjunto de servidores dimensionados en función de las tareas de verificación que hay que realizar y los tiempos especificados para llevarlas a cabo
•    Los terminales de administración y monitorización de reportes, que consisten en PC estándar donde se tiene acceso a la aplicación con los permisos adecuados a cada usuario.

Conclusión

Los problemas y las complejidades implicadas en los flujos de trabajo de emisión requieren la adopción de la verificación automatizada de la calidad de los contenidos de vídeo y audio.
La inspección visual o manual de contenidos siempre falla en la identificación de problemas y no se puede escalar fácilmente a los grandes volúmenes de media con especificaciones de verificación complejas que manejan los broadcasters.
Por tanto, la verificación automatizada del contenido es una buena manera de cumplir con las expectativas de los consumidores cada vez más exigentes y de lograr una ventaja competitiva basada en la calidad.

Txt: José Antonio Giménez Blesa
Impulsa TDT y RTVE a
Novedades Equipson