DCP, un acercamiento práctico al estándar de proyección de cine (II)
Ya tenemos en mente cómo debemos preparar nuestro video y nuestro audio, pero todavía no hemos decidido la exportación en sí de estos archivos. Una vez que hemos terminado la edición, la inclusión de los FX y la corrección de color (incluido legalizar la señal entre 0 y 100 IRE), solo queda la exportación de nuestro proyecto. Pero, ¿a qué formato de archivo y con qué codec? Debemos exportar desde la línea de tiempos de nuestro programa de edición o postproducción. Las exportaciones deben hacerse por separado y conforme a las recomendaciones dadas con anterioridad. El video es recomendable exportarlo a un formato sin compresión 4:2:2 o 4:4:4, con 10 bits por muestra, manteniendo una resolución de 1920×1080 a 24 fps, o manteniendo nuestra base de tiempos como hemos visto antes. ¡Atención! ¡Muchos sistemas de edición también indican 24 fps cuando en realidad usan 23,976 fps! Hay que comprobar que el formato de salida elegido sea un 24 fps real, por ello es recomendable realizar previamente unas pruebas de exportación con unos pocos segundos de video antes de lanzarnos a trabajar con nuestros materiales completos.
La razón de usar 10 bits lineales por muestra en vez de 8 tiene su razonamiento técnico. Los bits están relacionados con la calidad de la imagen a nivel de gradación tonal. Es decir, a mayor número de bits en la codificación, mayor número de niveles posibles para la señal, y por lo tanto, una capacidad mayor para representar fielmente variaciones de tonalidad. El problema de las bandas en la imagen y en su histograma es uno de los inconvenientes que todos conocemos y está relacionado con el nivel de bits y la compresión, aunque muchas veces se confunde al responsable directo del error. Para 8 bits tendremos 256 niveles, para 10 bits tendremos 1024 y para 12 bits 4096. Está demostrado científicamente que el límite visual de cualquier persona está a un nivel inferior que las capacidades de representación de un sistema de 12 bits lineales (igual de eficaz que un sistema de 10 bits logarítmico). Por ello, se toma “12-bit lin” ó “10-bit log” como referente de calidad máximo. Sin embargo, las imperfecciones de los sistemas y el ruido, inherentes a cualquier imagen de origen no infográfico, enmascaran los defectos y se ha demostrado que en la práctica real y para la mayoría de los sistemas, el trabajo con 10 bits lineales es suficiente. Por eso 10 bits lineales es la referencia de calidad y las máximas especificaciones de casi todos los equipos de alta gama, tanto de grabación como de edición. Solo tenemos que pensar en que, hoy por hoy, la mayoría de las televisiones, los DVD y Blu-Rays que vemos, incluso nuestra pantalla de ordenador de edición, trabajan con ¡8 bits! y nos parecen suficientes. Pero nosotros vamos a trabajar a la máxima capacidad de nuestro sistema por varios motivos: para no perder calidad del original si tenemos fuentes de video de 10 bits o montajes de secuencias de imágenes infográficas de 16 bits, para evitar al máximo los errores de cuantificación de nuestro sistema durante la exportación y preservar en la medida de lo posible nuestros blancos de la imagen, y porque el destino final para el DCP será un archivo 12 bits lineal.
El audio lo exportaremos a un archivo con un formato sin compresión. La mejor manera de almacenar estos datos es usando el formato de intercambio OMF, especialmente para mezclas multipista de varios canales. Sin embargo, para mezclas estereofónicas (lo más común en cualquier proyecto) AIFF (Apple) o WAVE (forma de onda de Windows) son los formatos más extendidos dentro del audiovisual. Tenemos que evitar, en la medida de lo posible, usar formatos comprimidos tipo MP3 o AAC tanto en nuestras fuentes como en nuestras exportaciones.
Al final de estas exportaciones tendremos un archivo de video y un archivo de audio que forman nuestras fuentes master. ¡Enhorabuena, acabas de generar tu DSM!
Fotograma a fotograma: emulando al cine tradicional
Con el DSM nos podemos poner a trabajar en la exportación de los fotogramas. Va a ser como en el cine: imágenes sin compresión. Para ello disponemos de múltiples y variadas herramientas, y cada una ofrece unas funcionalidades diferentes que muchas veces no están bien documentadas. Para ello, antes debemos pararnos a evaluar nuestras herramientas. En un intento de mantener la calidad del original y puesto que a continuación vienen más modificaciones de los fotogramas resultantes, entre los múltiples formatos de archivos gráficos de salida que existen debemos escoger siempre aquel que nos permita trabajar sin compresión y con el máximo número de colores. A partir de este punto nuestro sistema operativo va a dejar de ser un inconveniente porque la exportación va a ser a un codec y un formato abierto y multiplataforma.
Entre las opciones posibles tenemos dos claros ganadores: TIFF (posee la opción de no comprimir, soporta hasta 16 bits lineales por muestra de color y es actualmente un estándar de la producción audiovisual) y DPX (SMPTE 268M-2003, archivo heredero del Kodak Cineon, sin compresión, siempre a 10 bits, con opción lineal o logarítmica, y que es el estándar de la producción cinematográfica digital). Ambos archivos permiten mantener la calidad original de nuestro DSM.
Sobre las herramientas disponibles, queda clara la orientación que las diferentes suites han elegido para sus productos. Mientras que Apple se ha decantado siempre más por el cine digital, Adobe siempre ha estado posicionado del lado de los artistas digitales y multimedia. Y esto se ve claramente en la evolución de sus productos y en sus capacidades. Con las últimas revisiones de software parece que todos tienden a ofertar las mismas opciones de trabajo, aunque esto no siempre es así. Podemos ver en el cuadro siguiente varias de las herramientas más extendidas y sus posibilidades para la exportación de los fotogramas como secuencia de imágenes en sus últimas versiones (Tabla 1).

Tabla 1. *permite realizar simultáneamente el cambio al espacio de color especificado por el DCI.
Es preferible trabajar con los máximos bits por color posibles para evitar futuros problemas. Sin embargo, tal y como hemos declarado antes, la realidad es que si bien las diferencias de calidad existen, estas son sutiles y es muy difícil, por no decir imposible, distinguir a simple vista entre un TIFF a 8 bits y otro a 16 bits. Está claro que disponer o no de alguna de las herramientas de la lista va a ser la clave para decantarse por un formato u otro. La capacidad de almacenamiento de que dispongamos también va a ser un factor de decisión, debido al alto volumen de datos que se va a producir en esta conversión. Por ejemplo, un fotograma Full-HD guardado como TIFF 16 bits sin compresión ocupa aproximadamente 12 MB, el doble que uno de 8 bits. El DPX, al ser un formato de 10 bits, ocupa aproximadamente 8 MB. Ahora, ¡calculad cuánto va a ocupar vuestro producto audiovisual! Menuda sorpresa, ¿verdad? La solución de compromiso es la exportación a formato DPX, ya que mantiene toda la información del original de forma óptima. Puesto que nuestras fuentes y el futuro DCP usan codificación lineal, usaremos la opción de exportación lineal (0-1023 niveles) para el DPX.
Independientemente del formato elegido, ocurre un primer cambio del espacio de color de Y’CbCr a RGB y del rango de codificación de la señal de video válida. Todo esto de forma automática por el cambio de video a imagen fija. Esto implica prestar atención a los niveles máximos (white) y mínimos (blacks) de nuestra señal, de forma que no se produzcan recortes imprevistos ni compresiones de negros que no había en nuestra corrección de color original (si no aplicamos en su momento niveles de señal legales para blancos y negros). De nuevo se requiere atención en el proceso y unas pruebas previas.
La extracción de los fotogramas la realizaremos con una tasa de cuadro 1:1 y en la resolución nativa del formato de archivo que hayamos elegido. Debemos usar para la secuencia un nombre raíz al que la herramienta de exportación anexará la numeración de cada fotograma. Esta numeración la elegiremos con el número de dígitos máximo que nos permita para evitar problemas en la secuencia final. Como dato orientativo, cuatro dígitos son suficientes para producción de anuncios y videoclips, cinco para trabajos de hasta de 69 minutos de duración y seis para trabajar con largometrajes completos. El resultado serán archivos con el formato siguiente: nombre.0001.dpx, nombre.0002.dpx… Es práctico crear un directorio de trabajo para cada punto del proceso, de forma que vayamos organizando los materiales de forma lógica y podamos volver a ellos en caso de necesidad.
Rodeados por el sonido: masterizando sonido surround
Ahora que ya tenemos la secuencia exportada, y antes de meternos en faena con los fotogramas, vamos a terminar el masterizado del sonido de nuestra producción y a comprobar que su duración y sincronía se ajusta perfectamente a nuestra secuencia de imágenes. Para ello sólo tenemos que volver a nuestro DSM y coger las pistas de audio e importarlas a nuestro sistema de edición de sonido. Si tenemos una mezcla de canales envolventes, podemos saltar hasta el final de este punto, donde hablamos de la duración, del formato y los parámetros que deben tener los canales exportados. Aunque de todas formas nunca está de más seguir leyendo para cuando nos tengamos que enfrentar a un sonido estereofónico.
Existen varios métodos posibles para mezclar nuestro sonido. Vamos a ver los más sencillos y efectivos, pero antes tenemos que saber por qué no podemos dejar nuestro audio estéreo sin maquillar. Veamos cómo se distribuyen los canales de sonido en una sala de proyección de cine (Figura 1).

Figura 1. Disposición de las cajas de sonido en una sala de proyección cinematográfica (Dolby Labs)
Se trata de una disposición llamada surround 7.1. Para una configuración 5.1 (la norma mínima admitida) el decodificador de sonido duplica los canales surround sobre los canales traseros (está representado con un sombreado bajo las cajas surround). Estos están distribuidos en la sala desde las primeras filas hasta rodear la última línea de butacas, una distribución que no se parece en nada a la que tendríamos en un sistema casero “home theater”. El resto de cajas están ocultas tras la pantalla perforada, donde vemos que la separación entre las cajas de los canales izquierdo y derecho es igual al ancho de la pantalla de proyección. En el medio exacto encontramos la caja central, mientras que el espacio inferior lo ocupa la caja de efectos de graves.
Así como en nuestra casa, viendo un DVD en nuestra televisión estéreo, apenas apreciamos las sutilezas de la mezcla, en el cine las percepciones espaciales se multiplican. El diseño arquitectónico de los cines y las imposiciones de rígidas certificaciones de calidad (como THX) hacen que nos enfrentemos a una diferencia de localización de las fuentes estéreo de entre 25 y 120 grados (en función de la butaca elegida). Ahora que notamos el tamaño de pantalla, la disposición de las cajas y nuestra proporción respecto a las medidas de la sala, ya podemos imaginarnos la necesidad de tratar y mezclar nuevamente nuestro audio. El mismo audio estéreo que se escuchaba muy bien en nuestra sala de edición va a percibirse deslocalizado en la gran pantalla, especialmente para los diálogos.
Es por ello que los diálogos diegéticos se mezclan siempre en el canal central, dejando los canales izquierdo y derecho para diálogos fuera de plano, efectos diegéticos y extradiegéticos y música. Estos son los tres canales principales y más importantes a los que debemos prestar atención y tratar con cariño en la mezcla. El resto de canales son opcionales. Si decidimos completarla, el siguiente canal de interés sería el de efectos de graves, bastante fácil de construir. Y como guinda, podríamos animarnos a realizar los canales surround, algo que personalmente no recomiendo salvo que exista experiencia pues podemos crear efectos indeseados en la sala e incluso perjudicar el resultado. Por ejemplo, muchas personas han duplicado los canales estéreo en los surround pensando en dar a la sala una mejor audición sin saber que, nada más lejos de su intención, en amplias zonas de la misma el audio se vuelve ininteligible debido a que determinadas frecuencias se anulan por llegar al oído en contrafase.

Disposición de las cajas de sonido en una sala de proyección cinematográfica y condiciones mínimas de escucha y visibilidad (THX)
Ahora que ya sabemos que este paso es necesario, solo queda dar las indicaciones para crear los canales necesarios desde nuestro estéreo. La opción sencilla es partir de una normalización y después crear los siguientes canales monofónicos:
– Izquierdo (L): 100% del canal izquierdo antiguo.
– Derecho (R): 100% del canal derecho antiguo.
– Central (C): 50% del canal izquierdo antiguo + 50% del canal derecho antiguo
– Efectos de graves (LFE): sin audio (silencio)
– Surround izquierdo (Ls): sin audio (silencio)
– Surround izquierdo (Rs): sin audio (silencio)
Desde la opción más sencilla podemos ir incrementando la complicación de la mezcla y el número de canales. La mezcla sencilla podría verse mejorada con dos cambios:
– Central (C): 50% del canal izquierdo antiguo + 50% del canal derecho antiguo, y al resultado le aplicamos un filtro paso alto (-18 dB para frecuencias inferiores a 200 Hz).
– Efectos de graves (LFE): 50% del canal izquierdo antiguo + 50% del canal derecho antiguo, y al resultado le aplicamos un filtro paso bajo (-18 dB para frecuencias superiores a 120 Hz).
Existe un filtro específico en aplicaciones profesionales de audio que permiten la extracción del canal central C. En caso de disponer de una de estas herramientas se recomienda encarecidamente su uso, puesto que se trata de un procesado digital de las señales de audio estereofónicas muy complejo y eficiente, con una respuesta frecuencial en sala excelente y que se complementa a la perfección con los canales L y R.
Podríamos llegar a la mezcla ficticia completa. Es la más complicada debido al uso de herramientas concretas y corremos el riesgo de que el sonido en sala no quede como imaginábamos (estamos haciendo trampa inventando y creando sensaciones de sonido envolvente). Los canales adicionales serían:
– Surround izquierdo (Ls): 50% del canal izquierdo antiguo, filtrado paso alto (-18 dB para frecuencias inferiores a 120 Hz) y un poco de reverberación.
– Surround derecho (Rs): 50% del canal derecho antiguo, filtrado paso alto (-18 dB para frecuencias inferiores a 120 Hz) y un poco de reverberación.
Debido a la complicación técnica y a que las mezclas son muy subjetivas, los parámetros indicados son orientativos y pueden modificarse para experimentar con ellos. Supongo que no habrá que insistir en que toda mezcla 5.1 debe ser probada en sala con anterioridad a su difusión pública.
Solo nos quedan dos pasos para cada uno de los seis canales. Se trata de la comprobación de la duración total y su exportación al formato D-Cinema. La mejor forma y la más exacta es crear un proyecto 24 fps en nuestro sistema de edición e importar la secuencia de imágenes a la línea de tiempos de forma que podamos ver la duración. Este dato debe coincidir con nuestros cálculos previos:
– Si convertimos nuestro proyecto a 24 fps en la exportación, la duración no habrá variado y cada canal de sonido tendrá la misma duración.
– Si no convertimos nuestro proyecto 23.976 fps, ahora debe indicarnos una duración 0,1% menor que el tiempo original y cada canal de sonido deberá comprimirse en esa misma proporción.
– Si no convertimos nuestro proyecto 25 fps, ahora debe indicarnos una duración 4,1% mayor que el tiempo original y cada canal de sonido deberá expandirse en esa misma proporción.
Desde nuestro sistema de edición de audio modificaremos la duración con ayuda de las herramientas disponibles intentando mantener el tono. Una vez comprobado que la duración del proyecto 24 fps y la de los canales de audio son idénticas, exportaremos cada uno de los canales que hayamos diseñado por separado (L, R, C, LFE, Ls y Rs) al formato sin compresión de audio WAVE (.wav tipo 1), con los siguientes parámetros de codificación (exigidos por la norma DCI): codificación PCM lineal, 48 KHz (96 KHz también está permitido) y con 24 bits por muestra. En este momento debemos tener seis archivos WAV en nuestro directorio de audio final.
Por el momento, hemos terminado con el sonido… Como anécdota, os tengo que contar que yo siempre pienso en dedicarme al sonido por aquello de que el material es infinitamente más barato que el de producción de imagen, preparar un plano cuesta muy poco, se puede doblar si algo sale muy mal, no ocupa espacio (ni real ni en disco duro), se puede editar en tiempo real ¡sin compresión! con un portátil viejo y los pasos para crear el DCP son mil veces más sencillos. Pero es solo un momento, y pronto vuelve mi motivación por todo el audiovisual y los secretos que esconde.
A maquillarse: convirtiendo al espacio de color XYZ
El consorcio DCI se adelantó en su momento al comité DC28 del SMPTE (constituido en el año 2000), encargado de normalizar el nuevo cine digital. En cierta manera, este hecho les vino bastante bien puesto que el DCI ya había puesto toda su maquinaria industrial en marcha. Los oídos del DCI se dejaron asesorar por los expertos, escucharon a los directores de fotografía, hicieron todo tipo de pruebas de proyección, incluso invitaron a gente de la calle a participar en algunas pruebas subjetivas. Todo para mantener y asegurar la máxima calidad del cine, hoy y en el futuro.
El DC28, por su parte, se limitaba a seguir de cerca las conclusiones del DCI, a comprobar sus proposiciones, a validar y estandarizar aquellos procesos y formatos que cumplían las especificaciones de calidad fijadas. Entre los temas más comprometidos y que más debates suscitó estuvo el color. Se debatió acerca de qué espacio de color elegir, qué gamut debía contemplar, si debía restringirse a la especificación HDTV ITU-R BT.709-5, o por el contrario, contener una gama más amplia como el fotoquímico. En ese momento, la tecnología más puntera en proyección digital era DLP (“Digital Light processing”), que lideraba Texas Instruments, y permitía un gamut de color intermedio entre el extenso del cine tradicional y el reducido del HD. La decisión parecía clara, pero el DCI pensaba que la tecnología acababa de nacer y que mejoras futuras llegarían incluso a sobrepasar al cine tradicional (ojo porque actualmente la resolución digital 4K ya ha sobrepasado con creces la definición del cine tradicional que vemos en la sala de cine, comparable a una resolución HD), así que se tomó la decisión de abarcar el máximo espectro de color posible. Pero ese espectro no puede lograrse con los primarios RGB, sino que tiene que adoptar como primarios los valores teóricos propuestos por la comisión CIE. Esto significa que se abarca todo el espectro de color visual del ojo humano, puesto que incluso los primarios propuestos son virtuales y escapan del rango visible. El sistema se llama XYZ, como los ejes del espacio que abarca, y fue definido en el estándar CIE 1931.

Representación 3D del espectro visible dentro del espacio de color XYZ. Dentro del espectro visible estaría contenido dentro de un prisma recto el reducido espacio de color RGB
La elección se basó también en detalles importantes: los valores son siempre positivos, la componente Y representa fielmente la luminancia, es un sistema de coordenadas robusto e independiente del dispositivo de representación (monitor o proyector) y la transformación de las señales RGB al nuevo espacio resulta sencilla. Hay que hacer notar que, aunque no seamos conscientes, trabajamos constantemente en espacios de color transformados que no son el RGB que conocemos. Por ejemplo, la señal de vídeo digital se trabaja en el espacio de color YCbCr. Es más, se utilizan espacios de color transformados para facilitar el almacenamiento, el procesado digital y la optimización del ancho de banda en transmisiones. Como las transformaciones las hacen los equipos de registro o representación, para nosotros es siempre un proceso transparente.
Sin embargo, el hecho de que el nuevo sistema elegido fuera tan utópico y abarcase más allá incluso del espectro visible, era una navaja de doble filo que ocultaba el problema del número de bits necesarios para una correcta visualización. Tuvo que optarse por usar el límite máximo de calidad, por encima del umbral de percepción, y estandarizar el uso de los 12 bits lineales. Además, como mejora al sistema de 12 bits, se aplicó una corrección previa de gamma con índice 2.6, puesto que era la que mejor se adapta a las condiciones de visualización humanas (modulación en función de la luminancia) y que ayudaba a que la codificación de los valores fuera más eficiente. De esta forma, DCI y DC28 del SMPTE quedaron conformes con los resultados dejando incluso espacio para mejoras de calidad futuras. Ahora que sabemos un poco más acerca de las decisiones y de cómo nos afectan, podemos ponernos manos a la obra con nuestros fotogramas.
Volviendo de nuevo al proceso de masterizado, hay que implementar un proceso para transformar los valores R’G’B’ a los X’Y’Z’ finales. La notación marca con una comilla los valores modificados por una corrección gamma no lineal. El proceso constaría de una linealización de los valores a RGB, aplicación de una matriz de mapeado 3×3 para obtener los valores XYZ y aplicar de nuevo la corrección gamma para X’Y’Z’. No nos volvamos locos con la terminología usada, puesto que no tendremos que usar matrices, sino simples operaciones de producto y suma.
Las ecuaciones que rigen la transformación de RGB a XYZ (muy parecidas a las que conocemos del sistema en componentes YUV) se basan en la ponderación de los valores RGB. Esta es la interpretación de la famosa matriz en término de productos y sumas simples:
X = 0.49•R + 0.31•G + 0.20•B
Y = 0.17697•R + 0.81240•G + 0.01063•B
Z = 0.00•R + 0.01•G + 0.99•B
Donde Y, como ya hemos explicado antes, representa la luminancia de forma fiel al sistema triestímulo del ojo humano. A diferencia de otros sistemas, XYZ no pretende mediante este cambio de coordenadas proteger la información, optimizar la codificación de fuente ni reducir el ancho de banda del canal; solo pretende abarcar el máximo de opciones posibles e independizarse de los medios de captación y proyección.

Proceso de conversión de color desde fuentes no lineales al espacio de color establecido por el DCI
Uno de los pasos más discutidos es la linealización de los valores R’G’B’ de los fotogramas. Debemos, para ello, saber la gamma original de nuestro sistema para poder aplicar su función inversa. Si nuestra cámara era HD y su curva gamma era la estándar HDTV -ITU-R BT.709-5 de producción, posiblemente nos sea útil saber que la gamma de esta configuración es 2.2 (en el antiguo PAL se recomendaba el valor 2.8). En el caso de haber trabajado con una modificación de la curva gamma (lo más usual si queríamos obtener un look cine directo en cámara) o con curvas “hypergamma” o “S-log”, lo mejor será realizar unas pruebas previas con varios valores, partiendo centrados en el valor 0.45, aunque seguramente, ningún valor sea óptimo puesto que las curvas manuales (con ajustes de black gamma y/o de knee) y las específicas de determinadas cámaras, como las nombradas anteriormente, no tienen un valor de gamma único en toda la curva sino que son fórmulas complejas difíciles de invertir.
Si la imagen se ha postproducido, el valor gamma a tener en cuenta será el del monitor broadcast de trabajo o el proyector usado para evaluar los resultados, mientras no se haya usado ninguna LUT de previsualización. El tema aquí se simplifica, pues para monitores broadcast HDTV o de ordenador (este valor coincide con el usado en los últimos equipos de Apple y Windows) el valor es el estandarizado para producción en 2.2, mientras que para proyectores DLP suele ser normal el valor 2.6. Esto también es importante para quienes trabajan solo con medios infográficos (CGI), que han aplicado curvas de contraste a sus imágenes para que se visualicen correctamente en el monitor de trabajo. Todos ellos, coloristas e infografistas, deben tener en cuenta una corrección extra de la gamma de entre 1.1 y 1.2 si su trabajo se ha desarrollado con luz ambiente, de forma que se compense el brillo de la imagen para su visualización correcta en salas de cines.
Existen varios métodos y herramientas para convertir de nuestras fuentes RGB al nuevo XYZ. No vamos a entrar a detallar el manejo de cada herramienta porque escapa de la intención de este artículo, pero la propia ayuda de los programas supone una fuente de información valiosa para conseguir con éxito la conversión del espacio de color. Hay que distinguir entre asignar un espacio de color y convertir a un espacio de color. La diferencia está en que cuando asignamos un espacio de color a una imagen, este dato se inserta como metadatos. Sin embargo, cuando convertimos a un espacio de color, estamos efectivamente modificando sus colores al nuevo espacio de trabajo. Existe una excepción a lo anterior: si asignamos un espacio de trabajo y el formato del archivo de destino no acepta espacios de color incrustados (como en el caso particular del DPX), se realiza la conversión de la imagen al nuevo espacio, puesto que éste no se puede almacenar como metadato.
Entre las herramientas más conocidas están, por ejemplo, Adobe PhotoShop y AfterEffects, que tienen entre sus espacios de color el específico propuesto por el DCI llamado “DCDM X’Y’Z’(Gamma 2.6) 5900K (by Adobe)”. Apple, sin embargo, no implementa en sus herramientas Shake y Color la conversión automática (o asistida) a espacio de color. Esto nos obliga a usar en Color los pasos Primary In, Color FX y Primary Out para aplicar, en este orden, la linealización, la mezcla RGB y la no linealidad de gamma final. En Shake usaremos los nodos de Gamma y de ColorX, ajustando también todos los parámetros de forma manual. Esto nos facilita el cambio de parámetros, así como el ajuste fino del proceso de conversión, a diferencia del cambio automático de Adobe donde no disponemos de capacidad de modificar los ajustes preestablecidos (especialmente la gamma de la fuente original). En cambio, la complejidad del proceso aumenta hasta volverse casi un tema de especialista puesto que no se trata de un proceso trivial.
Para superar todos los inconvenientes anteriores y con el ánimo de facilitar el proceso combinando la facilidad de uso, la parametrización personalizada y el cambio a 12bits lineales necesario para cumplir con las especificaciones DCI, se ha desarrollado una herramienta de software libre multiplataforma (para Windows, MAC OS X, Linux…) llamada ImageMagick. Y no es que haga magia, pero después de saber todo lo que hace y lo fácil que es de usar, así nos lo parecerá.
La instalación en Windows es muy fácil. Basta con descargar el ejecutable binario desde la página Web de este proyecto: www.imagemagick.org ¡Gratis y así de fácil! Para MAC OS X se trata de una instalación un poco más complicada y requiere tener instalada la versión 3.1.4 o superior (esto ya dependerá de la versión de nuestro sistema operativo) de XCode que viene en el DVD 2 de instalación de nuestro MAC, o que puede descargarse en http://connect.apple.com/ (hay que registrarse en Apple). Tras esta instalación, y para facilitar el proceso, debemos valernos de la aplicación MacPorts, también basada en software libre y que nos va a permitir instalar en nuestra máquina MAC multitud de programas de forma asistida. Tras la instalación del paquete MacPorts (.pkg) sólo nos queda abrir la aplicación “Terminal” y teclear “sudo port -v selfupdate” sin comillas, pulsar la tecla “enter”, tras lo que deberemos poner nuestra contraseña y volver a pulsar “enter” para terminar la instalación. Ahora ya está nuestro sistema preparado para la instalación de cualquier programa que deseemos entre todos los disponibles. Nosotros de momento solo instalaremos ImageMagick ejecutando en la aplicación “Terminal” y sin las comillas “sudo port install ImageMagick”, igual que antes. El proceso de instalación, que durará unos minutos, debe terminar sin errores. Tras todo esto, queda claro que puede llegar a ser interesante para los usuarios MAC Intel tener una partición Windows en su sistema para ejecutar ciertos programas. Se puede tener esto usando la aplicación Boot Camp que Apple distribuye con todos sus máquinas actuales o bien pueden usarse programas de máquina virtual como VMWare, Parallels, Wine Bottler, etc.
Vamos a dar unas mínimas nociones y la receta para trabajar con ImageMagick. Este programa trabaja a nivel de comandos (como hemos visto antes, con “Terminal” en MAC OS X y con “cmd” en Windows) y en vez de marcar casillas y opciones, debemos escribir con exactitud lo que deseamos que haga para nosotros. Para ello usaremos un comando específico con todos los parámetros. Vamos a ilustrar esto con un ejemplo del comando (debe escribirse entero y como una frase seguida) que ejecuta el proceso completo para todas las imágenes de un directorio. Podremos variar cualquiera de los parámetros a voluntad antes de su ejecución para convertir otro formato de entrada, imágenes de otro directorio, cambiar la gamma inversa o incluso los parámetros de la matriz de color.
En Windows:
FOR %a in (C:\DCP\Imagenes_DPX_-RGB\*.dpx) DO convert %a -type TrueColor -alpha Off -depth 12 -gamma 0.454545 -recolor «0.4123907993 0.3575843394 0.180487884 0.21226390059 0.7151686788 0.0721923154 0.01933081887 0.1191947798 0.9505321522» -gamma 2.6 C:\DCP\Imagenes_TIF-F_XYZ\%~na.tif
Este comando, que debe ejecutarse estando en el directorio que contiene la aplicación “convert.exe” de ImageMagick, convierte todas las imágenes DPX del directorio C:\DC-P\Imagenes_DPX_RGB\ a 12 bits y formato RGB lineal y, posteriormente, a TIFF X’Y’Z’ con gamma 2.6 en el directorio C:\DCP\Imagenes_TIFF-_XYZ\ (que debemos crear antes de usar el comando para que no devuelva un error).
En MAC OS X:
for image in *; do echo $image; convert $image -type TrueColor -alpha Off -depth 12 -gamma 0.454545 -recolor «0.4123907993 0.3575843394 0.180487884 0.21226390059 0.7151686788 0.0721923154 0.01933081887 0.1191947798 0.9505321522» -gamma 2.6 ../Imagenes_TIFF_XYZ/$image.tif; done
Este comando, que debe ejecutarse estando en el directorio que contiene los fotogramas a tratar, convierte todas las imágenes del directorio donde estemos a 12 bits y formato RGB lineal y, posteriormente, a TIFF X’Y’Z’ con gamma 2.6 en el directorio Imagenes_TIFF_XYZ (que debemos crear fuera, pero al mismo nivel, del directorio donde estamos antes de usar el comando para que no devuelva un error).
Entre los detalles de ambos comandos, observar que hemos elegido como gamma inversa de la fuente original el valor 1/2.2 (0.454545) y que la matriz de color es distinta a la indicada como la matriz de conversión básica. No es que sea diferente, sino que hemos aplicado una pequeña corrección de los valores para adecuarnos a nuestro entorno de trabajo real y acercarnos lo máximo posible a lo que puede suceder en proyección. Como lo más normal es que todos nosotros usemos un monitor calibrado durante el trabajo de ajuste de la imagen, a pesar de que su gamut de color sea inferior al del proyector D-Cinema, tendremos que tener en cuenta todos estos detalles para nuestra conversión de color. Tal y como define el anexo A del SMPTE RP 176, si atendemos a las características de nuestro monitor y tenemos además en cuenta los colores primarios y el valor del punto blanco del proyector de referencia, obtendremos la NPM (matriz primaria de conversión normalizada) de RGB a XYZ.
X = 0.4123907993•R + 0.3575843394•G + 0.180487884•B
Y = 0.21226390059•R + 0.7151686788•G + 0.0721923154•B
Z = 0.01933081887•R + 0.1191947798•G + 0.9505321522•B
Si hubiéramos trabajado en un entorno luminoso durante la corrección de color, subjetivamente habríamos creado una imagen más brillante para compensar el exceso de luz ambiente, y esto debemos compensarlo usando un valor entre 0.42 y 0.38 en la linealización de la gamma en vez del valor 0.454545. Lo recomendable, de nuevo, es realizar alguna prueba previa.
A partir de este momento tendremos unas imágenes con un color y contraste diferentes que serán la fuente de nuestro siguiente paso de compresión. No hay que preocuparse por el tono verdoso ni por el exceso de contraste, puesto que lo que está ocurriendo es que el sistema no está interpretando bien los datos del espacio de color de la imagen, de forma que representa RGB. Solo el proyector D-Cinema o alguna herramienta de visionado como easyDCP Player (es de pago) harán una interpretación correcta del color y de la gamma. Podríamos decir, llegados este punto, que tenemos las fuentes (audio y fotogramas) del DCDM terminadas. El siguiente paso será la compresión, que inicia la creación del DCP.
Txt: Gorka Larralde