HomeDivulgaciónAoIP I: los beneficios

AoIP I: los beneficios

AoIP I

Debido a sus características diferenciales respecto al vídeo, necesidad de menor ancho de banda y mayor facilidad para el tratamiento digital, el audio fue lo primero que se migró al entrono IP dentro del audiovisual. Aunque hace ya más de veinte años de ello, aún plantea muchas dudas a la hora de implementar un flujo de trabajo de AoIP, sobre todo si se proviene de un entorno lineal, incluso analógico. Hagamos un repaso de lo que es y qué implica el audio sobre IP (AoIP).

Dentro del audiovisual muchos, entre los que me incluyo, opinan que el audio no es la otra mitad de lo que hacemos, sino que es mucho más importante que el vídeo. Un fallo puntual en el vídeo es menos crítico a ojos del espectador, o una pérdida de calidad de este, que en el audio. Prueba de ello es la calidad de la mayoría de las “videoentrevistas” que colman los programas informativos de este último año. La imagen es más que cuestionable, mientras que el audio es bastante mejor, comparándolo con el plató.

Bien es cierto que es más fácil proveer de equipamiento de calidad en el audio que en el vídeo. Basta con un buen micrófono conectado al ordenador y bien colocado: los previos auto configurables y los algoritmos de reducción de ruido y optimización hacen el resto más que bien. En la imagen ya es otro cantar. Una buena cámara, un buen encuadre, iluminación… Es comprensible que no se llegue a los mismos estándares al tener que cuidar todos estos factores desde casa.

Señal de audio
Profundidad de bits: 16 bits
Frecuencia de muestreo: 48 KHz
Ancho de banda: 16 * 48.000 = 768.000 bits/sec (750 Kbits/s, menos de 1 Mbps)

Ethernet 1 Gbps (con un 80% de ocupación)
Canales de audio en Ethernet: 800.000.000 / 768.000 = 1.048 canales por enlace (Equivalente a más de 32 cables MADI)

Cuando hablamos de audio sobre IP, la analogía es la misma. Es más fácil, en parte técnicamente y en parte por la experiencia previa que fabricantes y profesionales tienen en este ámbito, que la imagen. Sin embargo, existen complicaciones. Podemos tener señales de audio con diferentes frecuencias de muestreo y bits de definición, y está asumido que debemos poder usarlas indistintamente. Llegar a ello no es baladí y requiere de cierta experiencia y conocimientos.

En TM Broadcast vamos a bordar el mundo del AoIP en una trilogía de artículos, para no hacerlo muy pesado, que repasarán los beneficios, sus aplicaciones prácticas y la gestión de redes AoIP en entornos de producción.

Aumentando la complejidad

El primer punto en el que comienza a aumentarse la complejidad en audio es el número de canales. La imagen es una. Sin embargo, canales de audio son, al menos, dos. De ahí, hasta 16 canales o incluso más. MADI fue una de las primeras tecnologías que surgieron para transferir múltiplos canales de audio, hasta 64, sobre un único cable; digitalmente, por supuesto. Este se basa en una multiplexación por división de tiempo, lo que hace necesario equipamiento específico para embeber y desembeber dichos canales.

Algo similar ocurre en SDI. La tecnología es capaz de transportar múltiples canales de audio, 16 en este caso, dentro de la trama de transporte. En este caso, tenemos una limitación mayor: el audio siempre tiene que ir junto con la imagen, no pueden separarse para transportarse. De nuevo, equipamiento específico es necesario para agregar y separar dichos canales, tratarlos, routearlos, enviarlos y recibirlos, lo que limita la operatividad y aumenta los costes.

Operación asíncrona

El IP soluciona parte de estos problemas, ya que es mucho más flexible y escalable que el MADI, SDI, AES o estándares similares de audio digital “tradicionales”. Aunque básicamente utiliza también multiplexación por división de tiempo, esta se realiza de manera asíncrona, permitiendo insertar y extraer información de la trama de transporte de una manera más sencilla.

Esto resulta en uno de los mayores beneficios que el IP trae al mundo del audio, y es que es prácticamente agnóstico respecto al hardware utilizado para transportar la información y señales. Si bien es cierto que casi todo el mundo utiliza tecnología Ethernet para transportar tramas de datos IP, pueden usarse otros protocolos permitiendo aún menores costes y más interoperabilidad. Es lógico usar Ethernet para transportar señales IP en entornos de producción. Primero, porque su ancho de banda actual lo permite sin necesidad de irnos a protocolos más exclusivos y por ende costosos; segundo, porque lleva más de 30 años ahí, con la confianza y fiabilidad que eso le otorga.

Datos bidireccionales

Otro de los aspectos que nos trae la adopción del IP en el audio es que, por un mismo medio físico, podemos transmitir señales en ambos sentidos sin una mayor complejidad técnica ni mayor infraestructura. Esto es un cambio de paradigma muy importante para el mundo broadcast, acostumbrado a pensar en señales unidireccionales únicamente.

No solo permite intercambiar señales de audio entre dos puntos en ambos sentidos, lo cual es la aplicación directa de disponer de información bidireccional, sino que permite controlar el origen desde el destino y viceversa. No pensemos solo en controlar remotamente equipos (por ejemplo, mutear un micrófono desde la unidad móvil), sino en permitir al destino detectar las señales que el origen le está enviado para adaptarse de manera transparente o adaptar el origen a las necesidades o características de la red.

Esto soluciona uno de los grandes problemas introducidos con la comunicación asíncrona y que el MADI, SDI o AES no tenían: la interoperabilidad. En sistema de comunicación síncronos, las especificaciones de las señales están definidas y cerradas. Sin embargo, en sistemas asíncronos esto no tiene por qué ser así. Podemos tener señales con especificaciones técnicas diferentes navegando por la misma red sin diferenciarlas. El que el origen y el destino de estas señales, incluso la propia red, puedan comunicarse les permite adaptarse a esta variedad de señales solventado esta interoperabilidad de un plumazo.

Audio over IP

Mejor flexibilidad

Como comentamos justo antes, el tener sistemas síncronos cerrados nos garantizan una interoperabilidad a cambio de sacrificar mucha flexibilidad. Tanto la capacidad de los equipos, la red, la infraestructura en general, como la configuración y especificaciones técnicas de las señales, tienen que ser definidas y cerradas con anterioridad… y ser las mismas en todo el sistema. ¿Y qué ocurre ante un imprevisto, un error de configuración o de un equipo? ¿Cómo prever cualquier casuística que pueda ocurrir y cómo solucionarla? Una respuesta: sobredimensionando. Así era como hasta ahora estábamos seguros de poder lidiar con cualquier señal ante cualquier situación. Evidentemente, esto es costoso en cualquiera de sus términos.

En IP, el receptor de una señal no tiene porqué saber cómo le va a llegar dicha señal, ni siquiera cuantas señales va a recibir ni en qué orden: simplemente escucha y se adapta a lo que le llega. Para ello, es necesaria cierta inteligencia y la anteriormente mencionada bidireccionalidad para comunicarse con el origen y “ponerse de acuerdo”. Estoy simplificando mucho, lo sé, pero fundamentalmente es correcto.

No solo esto, sino que una única señal puede ser enviada a múltiples destinos sin incrementar el ancho de banda utilizado: multicast. Esto aporta otra capa de flexibilidad que, unida con el aumento de interoperabilidad y la capacidad de comunicación bidireccional, ofrece una plétora de posibilidades sobre la que hay que pararse a reflexionar.

¿Y el reloj?

Uno de los fundamentales dentro de cualquier entorno broadcast son las señales de referencia. Todos los equipos tienen que funcionar guiados por la misma señal de referencia, ya que todos son síncronos. Todos deben operar siguiendo el mismo patrón, sea el que sea. En el entorno del audio, estas señales de referencia se denominan relojes. Tanto en MADI como en AES o SDI, existe un reloj maestro que marca la pauta de muestreo a todos los equipos, permitiendo interconectarse para intercambiar señales sin pérdidas.

Una sola muestra perdida de una señal de audio es claramente perceptible para el común de los mortales con lo que esto es crítico. Pero antes ya hemos comentado que en el mundo IP las comunicaciones son asíncronas, con lo que no es necesaria la existencia de estos relojes. ¿Os imagináis un reloj al que tuvieran que conectarse todos los equipos del mundo que se conectan a Internet para poder hablar entre ellos? Impensable, ¿verdad? Pues lo mismo ocurre en AoIP: no hacen falta.

En cualquier caso, cierto nivel de sincronización es necesario, pero esta se genera dentro de la propia red de manera autónoma. Inicialmente se usó RTP (Real Time Protocol) para sincronizar la red, y más adelante se adoptó PTP (Precision Time Protocol). En este último caso, no es necesario el uso de un generador de reloj específico, sino que cualquier equipo generador de señal dentro de la red puede actuar como generador de PTP simplificando la operativa y permitiendo tener redundancia, ya que cualquier otro generador de un stream de audio puede ser el PTP máster.

 

Sincronizando “varios” relojes

Es decir, no hay reloj, pero si hay varios relojes. Vaya lio, ¿no? Bueno, parece algo complejo, pero realmente es más sencillo de lo que parece y, sobre todo, mucho más operativo. Es cierto que no hay un reloj maestro, sino múltiples relojes corriendo sobre la misma red y esto es algo que hay que solucionar, pero todo está inventado ya. La solución se llama buffer.

Aunque se asume que, gracias al PTP, tanto el emisor como el receptor están sincronizados, se permiten ciertas anomalías en la red provocadas por otras señales que no controlamos o por cambios en la infraestructura durante la transmisión de las señales. Para ello, se implementan ciertos “colchones” de seguridad que guardan la información que llega antes de recrear el audio en sí para permitir corregir errores, reordenar paquetes minimizando las pérdidas y permitiendo cierta asincronía.

El único problema es que esto aumenta el tiempo en el que las señales son procesadas. Si se tiene que guardar parte de la señal en una memoria antes de ser regenerada, esto aumenta el tiempo de proceso, es evidente. Sin embargo, debido a la gran capacidad de la red y la alta velocidad de muestreo que se utiliza en audio, 48 Khz equivale a una muestra cada 0.02 milisegundos. Hay que guardar muchas muestras para que el delay de estos buffers sea un problema. Tan solo en largas distancias o redes muy saturadas, el tamaño necesario de los buffers puede resultar en delays notables afectando a la señal, pero es algo ya muy raro.

Conclusiones

En esta primera parte de artículos sobre AoIP hemos tratado los beneficios que esta tecnología nos trae, y ciertos problemas con sus respectivas soluciones. Mayor interoperabilidad, capacidad de transmisión de información y flexibilidad son sus tres mayores ventajas. No obstante, hay ciertos inconvenientes a solucionar, como la fiabilidad de la red o su complejidad.

La gran experiencia de los fabricantes de equipamientos IP y su uso en otras industrias permite disponer de mejor equipamiento a menos costes, algo siempre para tener en cuenta.
En la segunda aparte de esta trilogía sorbe AoIP ahondaremos en soluciones prácticas de AoIP en entornos de producción, para después pasar a abordar en la tercera entrega la gestión de este tipo de redes y su seguridad.

 

Por Yeray Alfageme, Service Manager Olympic Channel

ETIQUETAS:
“El Desafío” (A
Juan Ignacio Cabrera