HomeView All Posts – Whole Post (Page 683)

Meteoplay 3

La televisión autonómica de Aragón presentará sus previsiones meteorológicas con Meteoplay 3, el sistema de generación de mapas y boletines del tiempo de última generación desarrollado por Activa Multimedia. La aplicación permite generar presentaciones fiables, con mapas e infografías de gran detalle, de forma manual o automática.
Meteoplay 3 ofrece la posibilidad de crear mapas animados, con símbolos y gráficos en 3D y planos en movimiento, imágenes de satélites y de radares, además de previsiones y otros datos meteorológicos actualizados en tiempo real. Se trata de un sistema para la creación de gráficos y mapas del tiempo en televisión, fáciles de elaborar por parte de los meteorólogos. Además, incorpora la posibilidad de obtenerlos de forma automática, ya que está basado en la plataforma de publicación automatizada de contenidos Automatic TV.

DiBa 2008

Las empresas tecnológicas Apuntolapospo, Digital Innovation Systems y SM Data colaboran nuevamente por cuarto año consecutivo con el festival DiBa, con la aportación de su servidor de Cine Digital StoreData DECPRO, que controlará las proyecciones de las películas seleccionadas por el festival, y que se exhibirán en los cines Alexandra de Barcelona, realizando, además, la masterización e ingesta en el sistema de los contenidos.
En la edición de 2007 de DiBa, se presentó, en una jornada tecnológica, la primera proyección en nuestro país del formato de Exhibición de Cine Digital JPEG2000. Este año, con la intención de mantener el nivel de esta jornada con primicias tecnológicas, se presentará un proyecto de Producción, Postproducción y Exhibición Estereoscópica, apostando por la inminente revolución de la nueva tecnología 3D, el siguiente paso en la evolución del cine y la TV digital.
Apuntolapospo ha colaborado con el festival DiBa en la grabación y posproducción del primer videoclip en 3D de España a cargo del grupo de rock electrónico Pastora. La realización de este videoclip demuestra que en España existe el nivel tecnológico para afrontar con éxito la complejidad que supone realizar proyectos 3D con la misma calidad técnica que los grandes estudios americanos.
Se programarán dos pases del Videoclip 3D «Me tienes contenta» de Pastora: un pase exclusivo para la prensa el 12 de junio en los Cines Alexandra de Barcelona, que se complementará con proyecciones de trailers de las últimas producciones americanas en 3D e imágenes exclusivas de The Magic Tale, de Jordi Llompart, el primer largo español tridimensional,  y un pase para el público coincidiendo con la fiesta de clausura del Festival DiBa el 15 de junio en el espacio Movistar.
Para todas estas sesiones de cine digital 3D, con los últimos avances en producción estereoscópica, se utilizará el mismo servidor de Cine Digital StoreData DECPRO que se empleará para la proyección de las películas en 2D del festival.
StoreData DECPRO es el servidor de cine digital que se encuentra en cada una de las salas, en el cual se realiza la des-encriptación y descompresión de la información y suministra las señales oportunas al proyector, etapas de potencia de audio y servicios de una sala. Su manejo es siempre remoto. Integra y realiza la función SMS (Screen Management System) en configuración multisala, permitiendo mediante el software y los periféricos adecuados la configuración en modo Single-Screen System Architecture (sistema de sala única según DCI).

EPC
La empresa de alquiler de equipamiento audiovisual EPC ya cuenta con la cámara de cinematografía digital Red One lanzada por Red Digital Cinema. Se han adquirido dos unidades de las que una ya está disponible en alquiler y la segunda llegará en breve a las instalaciones de EPC. Junto con la cámara Red One se alquilan también la pantalla Red LCD, y el Red Electronic Viewfinder, el visor electrónico que forma parte de la línea de accesorios de desarrollo propio de Red.
La Red One graba en formato RAW a 4K, con la máxima calidad, sobre disco duro, entre otras opciones de almacenamiento. La velocidad de grabación va desde 1fps a 120fps, aunque para llegar a los 120fps hay que trabajar en 2K. También utiliza tarjetas Red One tamaño compact flash, de 8 GB de capacidad. Incluye el programa Red Alert para que los archivos grabados puedan leerse y exportarse a DPX, Tif o a Quick Time. Y también, entre otros, el plug-in Red Code con el que se abren en Quick Time los proxis (imágenes de baja resolución del archivo 4K original, generados en 2K, 1K y 512 MB), para facilitar una edición off-line.
En la Red One, que usa exclusivamente ópticas de cine de montura PL, destaca su sensor CMOS de 12 megapixels, Mysterium, que trabaja a 4K, con una resolución de 4520×2540 píxeles, desarrollado por Red Digital Cinema. Sus dimensiones de 24,4mm x 13,7mm equivalen al tamaño Super 35mm, lo que da una profundidad de campo idéntica a las cámaras de 35mm.
Este equipo se suma al stock de cámaras para producción cinematográfica de alta definición de EPC como la Genesis de Panavision, que la empresa alquila en exclusiva en España, la Varicam de Panasonic o la Sony F950.

Samy Keghida

Quantel anuncia el nombramiento de Samy Keghida como Vicepresidente de Ventas para el Sur de Europa, el Oriente Próximo y África (SEMEA -según las siglas en inglés). Samy desarrollará sus funciones desde las oficinas de Quantel Francia, ubicadas a las afueras de Paris, y estará encargado de coordinar y apoyar los equipos de venta en diversos países: Francia, Italia, España, Portugal y Turquía, los países de Oriente Próximo, incluyendo  Arabia Saudita, Kuwait, Qatar, los Emiratos Árabes Unidos, y Dubai. También será responsable de África, incluyendo países con fuertes mercados emergentes como Marruecos, Senegal, Costa de Marfil, Camerún, Kenya y Sudáfrica.
Keghida fue Director de Ventas (SEMEA) de Harris Broadcast-Encoda Systems, SGT además de Senior Vicepresidente de Marketing y Ventas mundiales de e-VOD, a cargo principalmente de la gestión comercial de los equipos de venta para soluciones broadcast y software a televisiones clave. Se graduó en HEI Paris y tiene un Doctorado en Relaciones Internacionales, Estrategia y Diplomacia, además de un Master en Administración de Empresas Internacionales. Domina un gran número de idiomas entre los que se encuentran el inglés, francés, árabe, español, italiano, portugués y japonés.

XELTEC

XELTEC anuncia que Televisión Española, ha seleccionado los sistemas de visualización simultánea y multipantallas de Evertz, propuestos específicamente por la compañía XELTEC, como la solución idónea para el visionado y control de todas las señales de vídeo en sus instalaciones del Control Central Olímpico y los estudios que ya están montando en las diferentes sedes deportivas.
La solución propuesta por XELTEC permite la visualización y control de hasta 136 señales de vídeo en formatos digitales HD y SD, así como cualquier señal analógica, con hasta 16 salidas múltiples totalmente personalizables.
Los sistemas MVP integran tarjetas independientes para la gestión de las entradas y las salidas de vídeo, son modulares, extraíbles frontalmente y en caliente, y con redundancia en su alimentación. En estas instalaciones de TVE para los Juegos Olímpicos, los sistemas se complementan con sus paneles de control que permiten la selección directa de sus configuraciones. Asimismo el sistema está dotado del software de monitorado y control de dispositivos Evertz VISTALINK PRO, que permite la gestión integral del equipamiento de manera centralizada y remota.

estereoscopía

La tecnología 3D o estereoscopía se considera el siguiente paso en la evolución del cine y de la televisión digital. Al otro lado del Atlántico se observan movimientos importantes en pro de esta forma de ver cine. En el último festival de Sundance el grupo U2 presentó un espectacular concierto en 3D, y directores como James Cameron, Steven Spielberg, o George Lucas están comenzando a producir material estereoscópico. Sin duda, el rodaje del videoclip de Pastora nos sitúa a la misma altura que los grandes estudios americanos. A esta tendencia se están sumando también diferentes fabricantes como Samsung o Philips, que ya están presentando prototipos de TV 3D autoestereoscópicos que no necesitan de las gafas polarizadas para las tres dimensiones.
Son tres las empresas que se han involucrado en este proyecto. Cada una cubre un tramo en todo el proceso del trabajo, desde la captación hasta la difusión final.

Telefónica I+D

Telefónica I+D ha desarrollado una plataforma de VOD 3D compatible con Imagenio, que tiene dos características clave, la primera es que es compatible con los estándares IPTV a nivel de infraestructura, codificación, etc. Y la segunda que se ha integrado con un terminal estereoscópico, que le permite al usuario percibir la sensación 3D sin la necesidad de usar gafas u otros aparatos accesorios. Para crear este prototipo de plataforma el trabajo de investigación se ha centrado en tres áreas fundamentales como son la creación de contenidos, la codificación, y la visualización del usuario.
–    Creación: La manera tradicional para conseguir contenidos 3D es la utilización de pares de cámaras. Telefonica I+D está investigando técnicas que por una parte permitan obtener herramientas para generar vídeo en 3D a partir de los contenidos 2D que están disponibles en la actualidad.
–    Codificación, y distribución: Dentro de este proyecto se está trabajando en técnicas que permiten aprovechar la redundancia espacial que existe entre las vistas esteoroscópicas, codificando solo una vista junto con información adicional que facilita la síntesis de la segunda vista a partir de la primera. Esta técnica permite codificar contenidos en 3D con un ancho de banda superior en un 15% tan solo del requerido para contenidos 2D.
–    Visualización: El display utilizado para el proyecto es un televisor estereoscópico de Philips basado en tecnología lenticular, que dispone de diferentes posiciones para disfrutar de la sensación 3D. La ventaja de esta tecnología es clara, no es necesario utilizar gafas polarizadas ni ningún tipo de complemento adicional. También es necesario que exista una interactuación entre el usuario y el contenido para controlar su reproducción.

Apuntolapospo

Apuntolapospo es un estudio de postproducción audiovisual con una clara vocación I+D, que ha desarrollado un workflow dentro de un entono tapeless. A este flujo se la va a incorporar tecnología para producciones estereoscópicas en alta resolución 4K. Y es que la postproducción de este tipo de material para gran formato obliga a mover grandes cantidades de datos, de hecho un solo fotograma estereoscópico contiene 12 veces más píxeles que un fotograma de HD. Por eso la metodología de trabajo requiere un diseño de minimización de los datos almacenados y del movimiento de los mismos, basado en la optimización de la gestión de los metadatos.
Dentro de esta propuesta se ha diseñado un sistema de captación basado en dos modelos, uno ligero que permite su instalación en cabezas calientes y steadycams, y otro de mayores prestaciones. A su vez se ha desarrollado una aplicación de control y cálculo estereoscópico, y una metodología de postproducción que permite técnicamente unir el origen con el destino, con la que se puede aportar toda la creatividad y códigos de lenguaje que necesita un proyecto de este tipo.

Ovide B.S.

En esta edición de DiBa Ovide B.S. colaboró en las áreas «Hacer cine Digital en DiBa», y «Ver cine digital en DiBa». Dentro del proyecto de la producción del videoclip en 3D, Ovide ha puesto a disposición del proyecto la Arriflex D-21 de Arri, además de todo el equipo accesorio necesario. De esta cámara y de esta grabación hemos hablado con Sergi Maudet.
¿Cuál es vuestra función en el proyecto?
Nos han juntado a tres empresas cada una hemos puesto lo máximo en tecnología que teníamos disponible. En nuestro caso hemos aportado la  cámara con sus accesorios y el monitorado. Hemos apostado por probar la nuevas D-21 de Arri, que es una evolución de la D-20. Esta cámara muy nueva, de hecho las que tenemos nosotros son de las primeras unidades que se han distribuido a nivel mundial, y nos han llegado la semana pasada, este es su primer rodaje. Esta cámara graba en 2K, y tiene 10 stops de latitud lo que se acerca ya mucho al negativo de 35 que está en unos 11 stops aunque sí que se pueden sacar más de 2k a ese negativo. Aunque la realidad es que cuando se trabaja en digital, el 90% de las producciones a nivel mundial lo hace en 2k, y cuando no se trabaja en digital la proyección no llega ni en broma a 2k. Estamos hablando de una tecnología muy similar a 35 mm,  muy puntera. La cámara en sí trabaja en 2K 4:4:4 y el soporte de grabación que estamos utilizando en este caso es un VTR HDCAM SR de Sony en modo HQ, aunque podríamos usar otros soportes.
¿Como grabadores de estado sólido?
De momento no, las cámaras nos han llegado hace poco y no hemos podido trastear demasiado. Estamos estudiando la opción de grabar en disco duro pero dispara bastante los costes, así que nos estamos planteando qué sistema vamos a traer para este tipo de producciones, y cuando compensa traerlo. La tecnología siempre está pero hay que ver si el mercado lo acepta o no.
¿Qué tipo de ópticas puede usar la cámara?
Usa montura PL,  estamos usando ópticas Ultra Prime de Arri, y puede usar lo que quieras con montura PL como  Master Prime. Tiene un solo sensor de un tamaño super 35.  Toda la parte frontal de la cámara es una Arri 435 de cine, incluso los esmerilados que usa son los de la 435, a la que se le ha añadido un respaldo digital que no se puede desmontar. La primera idea cuando salieron al mercado los primeros prototipos era cambiar solo el chasis, lo cual era una ventaja para todos los propietarios de 435 pero al final descartaron esa op-ción. Realmente es el respaldo digital lo que la convierte en la D-21, el cuerpo es el de la 435. De hecho tenemos montados los accesorios de la 435 Xtream para sincronizar obturadores.
Cuéntanos un poco como es una grabación 3D.
Hay que grabar con dos cámaras, y los dos centros ópticos deben de tener la misma separación que nuestros ojos. El problema que hay con la gran mayoría de cámaras del mercado, hablando de cámaras de alto nivel, es que las ópticas acostumbran a ser bastante gruesas y no se pueden juntar lo suficiente por lo que tendríamos que inclinarlas, pero entonces el 3D no sería tan real como debería ser. El sistema que se ha desarrollado para este proyecto funciona con un juego de espejos, de forma que a nivel óptico las cámaras están cada una en su posición. Esto también nos permite moverlas de forma independiente en cuanto a altura, angulación, etc. Podemos obtener un paralelismo total, además este sistema está diseñado de forma que toda la cabeza está motorizada y se puede conseguir, por ejemplo, paliar uno de los problemas principales que te encuentras en este tipo de grabaciones. El sistema visual humano va ajustando la angulación de los ojos dependiendo de cuál es la distancia a la que estamos mirando. Eso se traduce en que al hacer una captación para 3D resulta muy difícil mover cosas en distancia, por ejemplo hacer un cambio de foco o un zoom es muy complicado porque al fin y al cabo estamos engañando al cerebro, que es el que realmente construye las tres dimensiones. Cuando la imagen que estás captando tiene un pequeño fallo, y no coincide con lo que vería un ojo real el cerebro no entiende lo que está pasando y desmonta el 3D de golpe. En este caso la gracia está en que el sistema pueda ajustarse y seguir cosas, podamos cambiar la angulación sin perder paralelismos etc. Y la gran novedad es que podemos hacer zoom, esto se consigue sincronizando el motor del zoom con la angulación de las cámaras junto con el foco, es una virguería técnica. Se ha desarrollado un sistema que controla todos los motores de las cámaras, excepto el diafragma que en un principio no se toca.
¿Qué mejoras incorpora la D21 respecto a la D20?
La D20 era una buena cámara en cuanto a economía, visor óptico, y profundidad de campo que nos igualaba prácticamente al 35mm pero tenía problemas importantes de latitud y ruido en alta sensibilidad. Han mejorado mucho ambas cosas, y nos hemos ido a 10 stops totalmente utilizables y 2K de grabación. Si comparamos con la Red por ejemplo, vemos que la Red da 4K y la D21 2K, pero la Red no da salida sin compresión aunque el sistema de compresión que utiliza es fabuloso. Red dice que su cámara tiene 11 stops y 1/3 de latitud, aunque realmente si lo pruebas con una carta de contraste puedes ver todos los chips perfectamente, el problema es que los dos stocks y 1/3 más bajos son inutilizables por temas de ruido. Es decir, tú puedes ver la textura, pero esa una textura es extraordinariamente ruidosa. Realmente está muy bien la cámara, de hecho si intentases levantar toda esa latitud en otra cámara, lo que verías es ruido y punto, en este caso lo que ves es textura con mucho ruido. Si realmente en el plano se te ha ido la mano y necesitas sacarlo lo vas a poder sacar, con mucho ruido pero lo vas a poder sacar. En cuanto a la diferencia con el 35, el negativo llega a 11 stops pero son imposibles de ver. Realmente intentar recuperar 11 stops de una imagen son casos extraordinariamente extremos.  Ya estamos en ese punto en el que decidir si vamos a rodar en negativo o en digital, no es cuestión de calidad de imagen. Podemos hablar de facilidad de trabajo, de precios de alquiler, de si nos gusta más una textura que otras, etc. Porque uno de los problemas es que el negativo tiene grano, y estamos muy acostumbrados a él. Entrando otra vez en psicología, el ojo de la gente que está habituado al grano busca esa textura cuando está viendo una proyección.  Pero cuando esa proyección es 100% digital en cuanto a captación, posproducción, y proyección el resultado es espectacular. Es una imagen totalmente transparente, perfecta. De hecho para la gente que estamos acostumbrados a ver el cine de siempre con grano, es tan pura, que nos cuesta asimilar un poco lo que estamos viendo. Para las nuevas generaciones va a resultar espectacular, es un poco lo que ha pasado con la fotografía digital, y la fotografía fotoquímica. Nos ha costado, pero ya estamos todos acostumbrados a ver fotografía digital. Estamos en ese punto en el que podemos hablar de otros temas accesorios pero en el plano tecnológico ya podemos decir que a efectos prácticos ambos conceptos  están muy parejos. El negativo sigue teniendo alguna ventaja, por ejemplo se le pueden llegar a sacar 6K pero eso significa un negativo perfectamente expuesto, en perfectas condiciones, perfectamente revelado, y perfectamente escaneado. Realmente es un caso casi utópico. Creo que estamos en el mismo escenario que se encontró la fotografía hace 5 o 6 años. A partir de ahora ya viene el tema de sensaciones, presupuestos, manías etc. Ya se ve el camino y el digital está apretando muy fuerte. Igual que en proyección, el digital está aplastando a la proyección en 35, sobre todo por la versatilidad, el hecho de decidir 30 segundos antes lo que vas a ver proyectar no tiene precio. Nos encontramos en un punto de inflexión. Todo va a cambiar.

TVmovil

¿Qué es la televisión en el móvil?
La televisión es uno de los inventos del siglo XX que más éxito ha tenido, y forma parte activa de nuestro tiempo de ocio. En Estados Unidos, el tiempo medio dedicado por persona a ver la televisión es de 4.5 horas por día (estudio de  Nielsen Media Research 2005).
En los últimos años, debido a la disminución de los precios de las pantallas de televisión y a la omnipresencia de la misma, el número de televisores en el hogar ha aumentado y la «necesidad» de tener siempre acceso a una televisión a lo largo del día es superior.
Además de las innovaciones en la calidad y colorido de las imágenes, actualmente existen múltiples medios de distribuir la televisión hasta los usuarios finales, incluyendo cable, satélite y alta definición. Cada una de estas tecnologías ha incrementado la popularidad de la televisión y añadido nuevos contenidos. El siguiente paso es el envío de la señal digital en difusión (broadcast) a los dispositivos móviles.
La televisión en movilidad combina así dos de los productos más vendidos de la historia, la televisión y los móviles. La televisión en el móvil consiste en una adaptación de la televisión digital terrestre (TDT) para poder ser recibida en nuestros teléfonos móviles u otros dispositivos portátiles como PDAs o receptores en vehículos.

Diferencias entre streaming 3G y la verdadera televisión en el móvil

Actualmente, a través de nuestro teléfono 3G podemos visualizar en streaming ciertos canales de televisión, que es lo que la mayoría de la población entiende por televisión en el móvil. Esta tecnología no está preparada para llegar masivamente a todos los ciudadanos con la calidad y el precio requerido.
En primer lugar, la solución no es escalable. Cada streaming es enviado en unicast a cada uno de los usuarios que desean visualizarlo, y si todos los usuarios desean acceder al mismo contenido al mismo tiempo, por ejemplo un partido de fútbol, la red podría sufrir problemas de funcionamiento. Y es que los requerimientos de la red se multiplican por el número de usuarios concurrentes.
En segundo lugar, el precio del servicio es elevado porque cada usuario que visualiza un canal, representa un coste a nivel de red del operador. Actualmente el streaming 3G se cobra en función del consumo, de modo que los usuarios no saben realmente cuánto están gastando hasta que reciben la factura a final de mes.
Por último, los contenidos son relativamente escasos, como así lo son los usuarios y los beneficios obtenidos por los operadores móviles mediante este servicio.
Existen también soluciones basadas en streaming multicast enviado a través de la red 3G, que si bien es cierto que permiten alcanzar un mayor número de usuarios con menos recursos, siendo por tanto más eficiente que las soluciones unicast, es una solución todavía bastante costosa en cuanto a consumo de ancho de banda.
Mobile TV o la verdadera televisión en el móvil consiste en una solución más próxima a la televisión tradicional como todos la conocemos. La transmisión de la señal de vídeo se realiza en broadcast, llegando a todos los usuarios independientemente de si lo visualizan o no. La escalabilidad y la calidad de las imágenes hacen que esta solución sea la única que puede ser implementada para el envío masivo de la televisión a dispositivos móviles. Es por ello que emplea una señal radioeléctrica distinta de la señal de red de móviles, de modo que únicamente los dispositivos equipados con receptor de televisión en movilidad podrán visualizar los canales disponibles. El mismo contenido puede ser recibido por todos los usuarios sin impactar la red del operador.
Adicionalmente, la interactividad se obtiene a través del canal de retorno mediante 3G, de modo que es posible votar a nuestro cantante favorito, comprar películas, realizar el pago para VOD (Video On Demand), o participar en encuestas.
Aunque la televisión en el móvil mediante broadcast es claramente la solución óptima para alcanzar al máximo de usuarios, esto no quiere decir que los streamings en 3G, tanto unicast como multicast, vayan a desaparecer. De hecho, las tres tecnologías podrán coexistir, siendo empleada la solución broadcast para canales de amplio interés, la solución de streaming multicast para canales secundarios y la solución streaming unicast para programas específicos con un bajo nivel de visualización.

¿Qué estándares existen?

Tal y como ha ocurrido en múltiples ocasiones durante el último siglo en el mundo de las telecomunicaciones, existen distintos intereses económicos y políticos que provocan que exista más de un estándar para satisfacer los requerimientos de una tecnología.
La televisión en el móvil no es una excepción. A pesar de la existencia de casi una decena de estándares, se espera que en el futuro sólo se implementen redes comerciales de forma masiva mediante el uso de entre 3 y 5 de estos formatos.
Los estándares existentes son los siguientes:
–    DVB-H (Digital Video Broadcast – Handheld): se trata del estándar europeo que más se ha implantado comercialmente, como en algunos países de Europa (en Italia existen 1 millón de abonados) y en Asia (Vietnam, Filipinas y Singapur). Ade-más, se han llevado a cabo numerosos ensayos por todo el mundo. DVB-H es una adaptación del estándar DVB-T de la televisión digital terrestre, con ciertas optimizaciones para transmisión a dispositivos en movimiento.
–    DVB-SH (Digital Video Broadcasting – Satellite services to Handhelds): se trata de una evolución del estándar DVB-H, con la posibilidad adicional de recibir simultáneamente en el dispositivo móvil la señal proveniente de satélite y la señal terrestre. De este modo se asegura la recepción en lugares alejados de las grandes ciudades, mediante una baja inversión.
–    ISDB-T (Integrated Servi-ces Digital Broadcast – Terrestrial): es el estándar de la televisión digital en Japón, que incluye un modo para permitir la recepción en dispositivos móviles. El servicio comercial está disponible desde hace 2 años, con un nú-mero de abonados de más de 8 millones.
–    DAB-IP (Digital Audio Broadcast – IP): el estándar para la transmisión digital de audio (DAB) ha sido adaptado para permitir la transmisión de datos IP para la televisión en el móvil. El problema de esta tecnología es su limitación en cuanto al ancho de banda utilizable (1.5 MHz),  y por tanto el número de canales transmitidos.
–    DMB (Digital Media Broadcast): es una evolución del estándar DAB para la transmisión de audio digital. Originaria-mente se trataba de una transmisión broadcast por satélite, S-DMB, que se emplea actualmente en una red comercial en Corea (más de 2 millones de abonados), y que posteriormente evolucionó hacia transmisión terrestre, T-DMB, existente en Corea como servicio gratuito (4 millones de usuarios).
–    CMMB (China Mobile Multimedia Broadcasting): se basa en la tecnología STiMi (Multi-Service Infrastructure) y combina transmisores terrestres y satélite. Es el estándar Chino, pero también está siendo adoptado en otros países como en los Emiratos Árabes Unidos. El lanzamiento del servicio comercial en China está previsto en Agosto de 2008 coincidiendo con las Olimpiadas.
–    Mobile ATSC: a partir del estándar Americano de televisión digital, ATSC, se están actualmente desarrollando dos evoluciones de dicho estándar:
MPH (Mobile Portable Handheld): impulsado por LG y Harris.
A-VSB (Advanced-VSB): impulsado por Samsung y Rohde & Schwarz.
–    MediaFLO (Media For-ward Link Only): esta tecnología es la única tecnología propietaria, y ha sido desarrollada por la em-presa norteamericana Qualcomm. Existe una red comercial en los Estados Unidos, con decenas de miles de abonados.

DVB-H: El estándar Europeo

Viviane Reding, comisaria europea de telecomunicaciones, anunció a mediados de 2007 su apoyo al estándar DVB-H para su implantación en Europa, y así permitir beneficiarse a los países europeos de la economía de escala que produce la implantación en Europa de un solo estándar, y asimismo beneficiar a la gran cantidad de empresas europeas que desarrollan productos compatibles DVB-H.
Como se indicaba anteriormente, DVB-H es una adaptación del estándar DVB-T para la difusión de la televisión digital (TDT). Aunque DVB-T podría ser empleado para la difusión de la televisión en el móvil, existen una serie de necesidades que requieren un estándar distinto:
–    El consumo del teléfono móvil debe ser muy bajo (< 100 mW).
–    La red debe operar en células SFN (Single-Frequency Network).
·    El receptor debe operar con únicamente una antena.
–    La recepción de la señal debe asegurarse en condiciones donde el dispositivo se desplaza a alta velocidad (vehículos).
Como consecuencia, los siguientes aspectos técnicos diferenciales fueron añadidos a DVB-T, surgiendo el nuevo estándar DVB-H:
–    Time Slicing: consiste en enviar los canales en ráfagas en vez de en modo continuo en el dominio del tiempo. Esto permite que el receptor DVB-H del teléfono móvil se desconecte mientras no esté recibiendo la ráfaga correspondiente al canal visualizado. Gracias a este mecanismo, se puede ahorrar hasta un 90% de batería.
–    FEC: dado el tamaño reducido de las antenas de los dispositivos móviles, se diseñó un mecanismo avanzado de corrección de errores llamado MPE-FEC (Multi Protocol Encaptulation – Forward Error Correction) que proporciona una sólida protección ante errores. Las redes DVB-H operan en IP, desde los codificadores hasta la visualización de los canales en el teléfono móvil. MPE-FEC consiste en añadir codificación Reed Solomon adicional para proteger los datagramas IP.
–    Modo 4K: la transmisión de la señal radioeléctrica se realiza, al igual que en DVB-T, empleando OFDM (Orthogonal frequency-division multiplexing). En DVB-H, para añadir flexibilidad en el diseño de redes, se añadió el modo 4k, que proporciona un total de 4096 portadoras, y presenta un compromiso entre calidad de recepción en movimiento (efecto Doppler) y el tamaño de la célula SFN. Es una solución intermedia entre las adoptadas en DVB-T, 2k (buena recepción a altas velocidades, tamaño pequeño de célula) y 8k (mala recepción a altas velocidades, tamaño grande de célula).
En cuanto a la calidad de las imágenes ofrecidas por DVB-H, esta depende más de los parámetros de codificación (resolución, tramas por segundo), que de las características del estándar. Sin embargo, a mayor calidad mayor será el consumo de batería, con lo que en las redes comerciales se están empleando codificaciones MPEG4 de entre 250 a 350 kbps y unos 12 fps.
El tiempo requerido para cambiar de canal (zapping time) es mayor que en la TDT, y puede llegar a ser de entre 2 y 4 segundos. Existen otros estándares que emplean técnicas para minimizar este retardo, pero todavía no han sido totalmente probadas en redes comerciales.
Los equipos necesarios para el funcionamiento básico de una red DVB-H son los siguientes:
–    Codificador: codifica la señal de audio y vídeo en MPEG4, y envía el streaming multicast a través de la red IP.
–    Encriptadores: dado que la mayoría de las redes comerciales ofrecen la televisión en el móvil como un servicio de pago, se requiere emplear sistemas de encriptación que permiten a los abonados visualizar únicamente el contenido al que se han suscrito.
–    ESG (Electronic Service Guide): se genera a nivel central, y permite a los teléfonos móviles visualizar un menú con los canales disponibles e información adicional sobre cada canal.
–    IPE (IP Encapsulator): es la parte central de la red. Recibe todos los streaming multicast de diferentes canales codificados, de los encriptadores y del ESG, y a su salida proporciona el flujo DVB-H (mediante un interfaz IP o ASI), incluyendo mecanismos como el time slicing y añadiendo MPE-FEC.
–    IPE Manager: permite la configuración de todos los IPEs de una red de forma centralizada y la gestión de alarmas.
–    Modulador: modula la señal que proviene del IPE, para poder ser transmitida en el espectro radioeléctrico definido para servicios DVB-H.
–    SMS (Subscriber Management System): consiste en el sistema complejo de detección del estado de suscripción de los abonados. La comunicación entre el teléfono móvil y este sistema se realiza habitualmente mediante 3G.

Modelo de negocio

La facturación de este servicio no se realiza por minuto, como se viene realizando hasta ahora en tecnología de streaming 3G, sino una tarifa plana que oscila entre 5€ y 20€ mensuales. Adicional-mente, existen canales de pago y video bajo demanda, de forma similar a la televisión por cable o por satélite. La interactividad intrínseca a los teléfonos móviles permite desde votar nuestro cantante favorito simplemente con pulsar una tecla, ver un partido de fútbol, y al mismo tiempo leer las noticias más importantes que están ocurriendo en nuestra ciudad.
Adicionalmente, los ingresos generados por los anuncios pueden justificar un modelo gratuito de televisión en el móvil, como es el caso de Corea (en una de las dos redes existentes).
Los principales actores que están impulsando el triunfo de la televisión en el móvil son los siguientes:
–    Operadores de redes de móviles (MNO: Mobile Network Operator): son el interfaz con los usuarios finales. En la gran mayoría de las redes se trata de un servicio extra de pago mensual, que junto con los servicios interactivos que acompañarán a la televisión en el móvil, como votos por SMS, aumentarán sus ingresos medios por usuario (ARPU). Además, el hecho de ofrecer servicios punteros en tecnología les añadirá una ventaja competitiva con respecto a los demás operadores móviles.
–    Operadores de red de televisión (Broadcaster o DCO – DataCast Operator): son los operadores tradicionales de cada país, como Abertis Telecom en España. A pesar de que no suelen ofrecer servicios de móviles, no desean renunciar a servicios de difusión de televisión, aunque los equipos receptores sean teléfonos móviles. Es por ello por lo que en muchos países son estos operadores los que más interés tienen en implementar redes de televisión en móvil, cuyos servicios van a vender posteriormente a los diferentes operadores móviles, que son los que gestionarán el parque de abonados.
–    Cadenas de televisión: mediante la televisión en el móvil disponen de un nuevo medio para llegar a los telespectadores, de modo que sus ingresos por publicidad o por derechos serán mayores. Además, existen varios picos de visualización de la televisión en el móvil a lo largo del día, al contrario que la televisión tradicional donde el pico se sitúa en torno a las 21h. Por último, disponen de la posibilidad de ofrecer contenido específico para la televisión en el móvil, específico para la región/ciudad/calle en la que un móvil se encuentre en un momento dado o específico para cierto grupo de usuarios.

Estimaciones sobre el mercado de la televisión en el móvil

–    Algunos estudios indicaban que alcanzaríamos los 100 millones de usuarios de televisión en el móvil en 2010. Sin embargo, estas estimaciones se han corregido a la baja debido a que las circunstancias particulares de cada país con respecto al modelo de negocio y al espectro radioeléctrico han provocado retardos en la implantación del servicio comercial. En países como España y Francia se estimaba que el servicio entraría en fase comercial a finales de 2007, actualmente ese escenario se sitúa en 2010.
–    En cuanto al tamaño del mercado de la televisión en el móvil, se estima que será de 4.4 billones de Euros en 2011 en Asia, Europa Occidental y Norte América.
–    Los modelos de servicio de pago serán dominantes, generando el 90% de los ingresos en 2011. El resto de los ingresos será mediante publicidad y servicios adicionales.
–    El mayor crecimiento se producirá en Estados Unidos, siendo de un 350% entre 2008 y 2010.
–    La televisión en el móvil generará más ingresos que la suma de los ingresos generados por la música y los juegos en este dispositivo.
–    En Europa, la televisión en el móvil representará un 27 % del total de suscripciones de pago a televisión (cable, satélite, etc).

Desafíos de la televisión en el móvil

–    Un obstáculo clave en la implantación de redes comerciales es la escasez de espectro radioeléctrico y la regulación requerida para dedicar parte del espectro a la televisión en el móvil.
–    La banda de frecuencia ideal es UHF pero no está disponible en todos los países. Otras bandas a mayor frecuencia, como las bandas L y S están disponibles en muchos países, pero requieren una mayor densidad de la red de transmisión, incrementando así el coste de la misma.
–    El modelo de negocio puede llegar a ser muy complicado, ya que requiere que los ingresos sean compartidos entre el operador móvil, el operador de la red y los proveedores de contenidos.
–    La difusión de canales y contenidos locales a cada región e incluso a cada ciudad es imprescindible, aunque la mayoría de las redes comerciales han optado por no ofrecer esta posibilidad en una primera etapa, para disminuir el coste de la red.

¿Cuándo dispondremos de un servicio comercial en España?

Desde hace 2 años existen empresas como Abertis Telecom y Axión que están realizando pruebas y disponen de redes para uso experimental, a la espera de obtener una banda de frecuencias para la emisión de este tipo de servicios.
Sin embargo, en febrero de 2008, durante la feria de los móviles de Barcelona (MWC: Mobile World Con-gress), el Ministerio de Industria informó que el concurso de asignación de frecuencias iba a ser aplazado. Parece probable que hasta 2010, coincidiendo con el apagón analógico, no existirá en España el servicio de televisión en el móvil.
Los operadores móviles están interesados en la televisión en el móvil, y han colaborado activamente en las pruebas y demostraciones realizadas por Abertis Telecom y Axión. Algunos de los resultados obtenidos en las pruebas con usuarios son los siguientes:
–    El 55 % de los usuarios de prueba estarían dispuestos a pagar por el servicio.
–    Entre el 75 % y el 80 % de los usuarios de prueba recomendarían el servicio a su familia y amigos.
–    El contenido que más interesa a los españoles son noticias y series.
El 58 % de los usuarios de prueba indican que es necesaria la existencia de contenido adaptado/específico para la televisión en el móvil.
Estos resultados se han obtenido en los pilotos realizados en distintas ciudades españolas, como Madrid, Barcelona, Sevilla y Toledo, con más de 800 usuarios de prueba.

Conclusión

Técnicamente se ha demostrado por todo el mundo que la televisión en el móvil es posible. El problema es la definición del modelo de negocio en cada país, y la asignación de frecuencias por parte de los gobiernos. Estas trabas han ocasionado el retardo de su implantación por todo el mundo, pero tarde o temprano la televisión en el móvil llegará de forma masiva a todos los países.

Texto: Iñigo López

Transcodificación

El rápido crecimiento de la banda ancha, a la cual accedían 300 millones de hogares del mundo a finales de 2007, ha favorecido la proliferación de sitios con contenidos audiovisuales y la diversificación del mercado del entretenimiento online. El número de websites que ofrecen vídeo no deja de crecer. Las majors del entretenimiento apuestan por la distribución digital de sus contenidos como medio para construir relaciones más cercanas con los usuarios y los contenidos audiovisuales se «embeben» cada vez más a menudo en blogs y redes sociales.
De hecho, el consumo de vídeo online está teniendo un impacto creciente en la forma de ver televisión. Según datos ofrecidos por ComScore, en diciembre 2007, los internautas americanos visionaron 10.000 millones de vídeos en la red. Por supuesto, hay que tener en cuenta que en ese momento las series y shows de más éxito estaban parados a causa de la huelga de guionistas que puso en jaque a la industria durante más de tres meses. Pero no por eso las cifras dejan de ser menos impresionantes.
El ocio audiovisual ya no es lo que era. Y, por descontado, ya no está sólo en el salón. La posibilidad de reproducir contenidos multimedia en diferentes dispositivos, sean o no portátiles, abre nuevas vías en el mercado del entretenimiento. Sin embargo, también plantea nuevos retos que hay que poder encarar. Uno de los más importantes es el transcoding, es decir, el proceso que permite convertir el formato, bitrate y/o resolución de un archivo multimedia a otro.
Ser capaz de producir y servir vídeos en múltiples formatos para diferentes plataformas o de transformar varios formatos en uno solo, comprensible para la mayoría de los consumidores, es esencial para la evolución del mercado multimedia online. Si bien es cierto que existen soluciones «caseras» que realizan ciertas funciones de transcodificación, las empresas de media y los portales especializados demandan soluciones profesionales, que tengan la suficiente escalabilidad para satisfacer sus necesidades y que, además, estén cubiertas en el ámbito de las patentes.

El mercado

Según un estudio realizado a mediados de 2007 por The Pew Internet & Life American Project, el 57% de los usuarios adultos de internet ven o descargan vídeos alguna vez. Sin embargo, este porcentaje se incrementa de forma espectacular cuando hay conexión de banda ancha. Así, el 74% de los usuarios con conexiones rápidas tanto en el trabajo como en casa ven y descargan vídeo habitualmente. El informe también resalta la naturaleza social y viral del vídeo online. El 57% de los usuarios afirma mandar enlaces de vídeo a sus amigos, mientras que el 75% confiesa ver vídeos a partir de los links que les mandan otros.
Este comportamiento favorece el desarrollo de lo que los teóricos de la red llaman The Long Tail, concepto acuñado por Chris Anderson en octubre de 2004 en el Wired Magazine para explicar que el futuro de los negocios en internet está en vender «menos de más».
En este contexto, los proveedores de contenidos buscan rentabilizar su negocio difundiendo sus productos en cuantas más plataformas mejor, aunque éstas tengan pocos usuarios. La cuestión está en hacer que «la cola» (tail) sea cada vez más larga para poder hacerse con un trozo más grande de la jugosa tarta publicitaria de la red, que en 2010 superará los 54.000 millones de euros.
Pero en este proceso se encuentran con un escollo difícil de sortear, que es ser capaces de ofrecer los contenidos en la multitud de formatos que requiere el mercado para poder satisfacer al mayor número de usuarios posible.

Formatos: vídeo a todas horas y en todas partes

Las plataformas de vídeo online como YouTube, DailyMotion o Metacafe han provocado la explosión de contenidos generados por los usuarios (UGC), que se suben a la red en multitud de formatos (por ejemplo, .avi, .mov, real, OGG…) y que hay que «traducir» a otros formatos (.flv, .wmv…) para que sean vistos por la mayoría de internautas independientemente del sistema operativo que utilicen.
A este fenómeno de participación colectiva se suma además la disponibilidad de cada vez más dispositivos que permiten reproducir contenidos multimedia en diferentes lugares, adaptándose a la movilidad creciente de los usuarios. Éstos cada vez tienen menos tiempo y quieren aprovecharlo al máximo. Buscan tener acceso directo al contenido que más les interesa para consumirlo cuando lo desean, donde quieren y de la manera que prefieren. Por ejemplo, en la oficina pueden utilizar el ordenador para visionar vídeos online, pero en el trayecto para volver a casa pueden querer seguir viendo el mismo contenido pero descargado en su iPod o reproductor MP4, en su iPhone o teléfono móvil e incluso en una Play Station Portable (PSP). Lo mismo ocurre en diferentes «tiempos muertos» del día en los que los consumidores pueden echar mano de sus dispositivos portátiles.
Así pues, las ventanas para reproducir un mismo contenido se multiplican, y a la vez, se incrementa el número de formatos en los que éste tiene que estar disponible.
Las cadenas de televisión norteamericanas ya explotan de forma intensiva la rentabilidad de los contenidos multiplataforma ofreciendo la mayoría de sus programas de Primetime en streaming. En España, tanto las cadenas privadas (Telecinco, Antena 3, Cuatro, la Sexta) como las públicas (TVE, TV3…) empiezan a apostar por la multidifusión de sus contenidos.
Además, el móvil, ese aparato que ya nos llevamos a todas partes, también despunta como dispositivo multimedia con capacidad para aunar la clásica función de comunicación con el entretenimiento más sofisticado. El desarrollo de la tecnología 3G o lo que es lo mismo de la banda ancha para móvil (UMTS/HSDPA) le ha dado un nuevo impulso que, a la vez, plantea nuevos retos. Una vez más, la multiplicidad de formatos que requiere la diversidad de terminales existentes dificulta el proceso de publicación de contenidos.
En este escenario, ¿cuál es la forma más eficiente de hacer frente a la variedad de formatos? ¿Qué formatos, códecs, resoluciones y calidades utilizar para satisfacer al mayor número de usuarios? ¿De qué manera conseguir que el proceso, además, sea rentable? La respuesta es: recurriendo al transcoding.

¿Pero, qué es el transcoding?

El transcoding o transcodificación es el proceso por el cual se convierte un archivo multimedia de un formato de transmisión a otro usando diferentes algoritmos. Es una operación absolutamente necesaria para reproducir contenidos audiovisuales en diferentes plataformas o a diferentes calidades para poder satisfacer el mayor número de usuarios. Es, por lo tanto, una parte integral del mercado de los contenidos de vídeo.
El proceso de transcodificación permite tanto la conversión de muchos formatos a uno solo, como en el caso de las plataformas de contenidos generados por el usuario (YouTube y otros), como la transformación de un solo formato a muchos. Éste es el caso de la difusión multiplataforma antes mencionada. En última instancia, también se puede dar el caso de la conversión de muchos formatos a otros muchos, por ejemplo con diferentes calidades.
El proceso implica descodificar y descomprimir un archivo para volver a codificarlo luego en el formato elegido. Pero la variedad de códecs, es decir de algoritmos de compresión-descompresión, disponibles, complica el proceso.  El formato de Microsoft Windows Media Video (WMV) y VC-1 es uno de los más conocidos, pero cada vez se usan más H.264, DivX, On2 VP6 y Sorenson Spark. Además, hay que tener en cuenta la evolución de  Flash, cuya version 9 soporta H.264 y alta definición (HD), así como la aparición de Silverlight, de Microsoft, y la omnipresencia del iTunes de Apple.
A la dificultad de los formatos, hay que añadir el hecho de que los proveedores quieren ofrecer contenido en diferentes calidades dependiendo de si tiene que ser descargado o no y de la velocidad de las redes. En función del uso que se le vaya a dar y de lo potente que sea su sindicación (redistribución a otras plataformas), un vídeo puede transcodificarse docenas de veces.

La transcodificación, clave de la ubicuidad de los contenidos

Las soluciones «caseras» que existen en internet, permiten desarrollar este proceso, pero sólo desde los formatos más habituales y para volúmenes pequeños de contenidos. Son soluciones para salir del paso que tampoco permiten la gestión de colas cuando se acumulan archivos que transcodificar ni el balanceo de cargas para escoger el servidor idóneo desde el que realizar la transcodificación.
Por el contrario el transcoding profesional asegura una priorización correcta de los archivos a transcodificar y una repartición óptima de las cargas del servidor o servidores utilizados, de manera que el proceso no queda comprometido en ningún momento. Además, una solución profesional ofrece escalabilidad, de manera que puede satisfacer la demanda del cliente a medida que sus contenidos crecen. De la misma forma puede ofrecer un producto cerrado de transcodificación tipo software o los servicios de una Red de Distribución de Contenidos (CDN, en inglés), o incluso la combinación de las dos cosas en función de las necesidades del cliente.
En este sentido, es importante distinguir los proveedores dedicados principalmente a la distribución de contenidos en red que han ensamblado diferentes tecnologías para ofrecer este servicio dentro de su portafolio, de los proveedores que cuentan con una plataforma pensada y orientada desde el principio para el streaming y el tratamiento de ficheros multimedia.
De la misma forma, es recomendable asegurarse de que la solución contratada cuenta con todas las patentes necesarias. Como en todo, existen atajos, pero al final, se acaban pagando.

Nueva dimensión

Los medios, que mueven un volumen considerable de archivos, necesitan pues soluciones eficientes y económicas de transcoding que les permitan multiplicar la difusión de sus contenidos. Esta nueva necesidad abre un mercado importante para este tipo de soluciones. Y más teniendo en cuenta las predicciones de crecimiento de los contenidos audiovisuales online que podrían llegar a abarcar los 7.800 Terabytes por día en unos tres años.
Algunas empresas españolas como el diario ADN o el portal de ocio ZED ya ofrecen sus contenidos para varios dispositivos. El mayor reto, sin embargo, se encuentra en el mundo del móvil, donde la variedad de terminales complica aún más, si cabe, el proceso de transcodificación.
Según la International Association for the Wireless Telecommunications Industry (CTIA), en América se usan más de 700 tipos diferentes de terminales móviles lo que representa una enorme dificultad para las compañías de media que tienen que adaptar los vídeos a las diferentes pantallas. También hay que tener en cuenta la calidad del audio, por supuesto. Las grandes compañías han desarrollado reproductores multimedia para móvil y poco a poco se van imponiendo códecs como WMV, ASF, AAC y 3GPP, pero el proceso de transcoding sigue requiriendo servicios profesionales que puedan asegurar su funcionalidad.

Complejidad de las redes

Otro factor a tener en cuenta en la experiencia audiovisual online es la complejidad de las redes. Está claro que la velocidad de conexión es clave para disfrutar del multimedia  online. Cuanta menos banda ancha, más problemas para ver según qué vídeos correctamente. Eso hace que muchas compañías tiendan a la baja resolución para así bajar el peso de los archivos y atraer a una audiencia mayor. Sin embargo, al mismo tiempo, los programas de televisión buscan la mayor calidad. Este tira y afloja aumenta en buena medida las transacciones o procesos de transcoding múltiples.
Desde el punto de vista del móvil pasa lo mismo. Cada compañía tiene su infraestructura para la emisión de vídeo. Algunas redes soportan tecnologías 3G (UMTS o HSDPA) que pueden proporcionar una buena experiencia de vídeo. Pero la mayoría de usuarios tiene terminales GPRS que ofrecen menos calidad. Además, en España la red 3G no tiene cobertura total, por lo cual siempre hay cuellos de botella en los que hay que confiar en la red GSM.
Las experiencias de streaming de vídeo en móviles deberían de adaptarse a las condiciones cambiantes de las redes, lo cual implica que el frame rate del vídeo sea capaz de adaptarse a los imperativos de las redes.

Conclusión

Los expertos lo tienen claro. El transcoding es el reto más importante que los proveedores de contenido tienen ahora mismo sobre la mesa si quieren aprovechar al máximo el potencial económico del crecimiento del vídeo online. El éxito de la multidifusión de sus productos depende en gran medida de la correcta elección de una plataforma de transcoding profesional que les proporcione un servicio eficaz, flexible y seguro con capacidad suficiente para dar respuesta a sus necesidades.