HomeDivulgaciónAudio para operadores de vídeo (I)

Audio para operadores de vídeo (I)

n23_19

Comienzo esta serie de artículos haciendo una reflexión sobre qué pasa por la mente de un editor de vídeo cuando se plantea utilizar audio en su proyecto. Posiblemente, después de invertir un buen  rato pensando sobre el asunto, llegaría a la conclusión de que no piensa en el audio. Algunos directamente habrán llegado a esta misma conclusión sin dudarlo porque, prácticamente el 100% de los operadores de vídeo importan el audio sin contar con ningún factor previo, arrastrando el contenido sobre la línea de tiempo y aplicando de manera sistemática un ajuste de normalización de audio.

TXT: MrScramble

Para la gran mayoría, de nada sirven conceptos tan sumamente importantes como rango dinámico, RMS, resolución de muestreo, fase, difusión y una larga lista de conceptos altamente importantes y que se obvian por desconocimiento. Luego llega el tiempo de las lamentaciones cuando un spot o documental nos ha sido devuelto de emisión porque el locutor al emitir el audio en mono  desaparecía o la pregunta de ¿por qué la música suena totalmente distinta cuando editábamos en sala a cuando la escuchamos emitida?
El audio es el gran desconocido y la parte en la que menos nos fijamos en la producción, sin embargo es uno de los pilares de nuestro trabajo. Pensemos por un momento cómo sería cualquier pieza audiovisual sin registro ni contenido de audio. Por el contrario la imagen es el gran protagonista, cuando editamos somos capaces de interpretarla en un monitor de onda o saber si la croma satura o si hay un giro en el HUE en un vectorscopio. Sabemos perfectamente controlar todos estos factores y actuar corrigiéndolos si detectamos cualquier error en la señal.
No pasa lo mismo con el audio, con él tenemos unos vúmetros/picómetros que de nada nos sirven pues no sabemos interpretarlos, ni siquiera sabemos la diferencia entre lectura pico y lectura promediada y ni de qué hablar sobre cómo hacer un registro de una locución. Si tenemos que realizar una toma de imagen no solo sabemos hacer un balance de blancos sino que manejamos la matriz para virar a tonos fríos o cálidos, controlamos la profundidad de campo, etc., pero cuando se trata de grabar una locución agarramos el primer micro que vemos sin saber de qué tipo es y cuáles son sus características, lo conectamos y ya está. Bueno, algunos llegan a saber que si no suena es porque hay que darle alimentación phantom al micro en algunos casos.
El objetivo de esta serie de artículos es que, a su término, seáis capaces de manipular con la misma destreza y conocimiento tanto el vídeo como el audio.

Breve historia del registro sonoro

Los primeros registros sonoros datan de mediados de 1857, realizados con el fonoautógrafo inventado por el Francés León Scott de Martinville. Una década después, Thomas Alva Edison, realizó otro fonógrafo al que se le atribuyó el ser el primer dispositivo en grabar y reproducir sonido, que utilizaba ondas sonoras transformadas en vibraciones mecánicas mediante un transductor mecánico-acústico. Poste-riormente al fonógrafo se han ido inventado otros dispositivos que han usado el mismo principio de conversión de los que solo el gramófono, de Emile Berliner, hizo sombra al fonógrafo de Edison. Con él la CBS puso punto de partida a la sonorización de películas.
Hasta nuestros tiempos podemos decir que hemos vivido tres etapas en lo que a registro de audio respecta. Iniciamos andadura con el fonoautógrafo, luego vino el registro magnético en cinta cuyos principios fueron establecidos por Oberlin Smith en 1888 y plasmados por Valdemar Poulsen en 1896 creando el Telegráfono. Estos  inventos  fueron  evolucionando a lo largo del siglo XX pasando por diferentes tipos de soportes en los que el audio quedaba registrado, siendo el más usado y que quedó instaurado como estándar la cinta magnética, que aún hoy se sigue utilizando tanto en grabaciones de audio como de vídeo y datos. En la década de los 70 se da paso a la introducción de un nuevo invento, la grabación de audio digital. Actualmente conviven audio Analógico y Digital.

¿Qué es el audio?

El sonido, en física, es la propagación en forma de ondas elásticas a través de un fluido (u otro medio elástico) que esté generando el movimiento vibratorio de un cuerpo. El sonido consiste en ondas sonoras que hacen oscilar las moléculas mediante la presión del aire, estas son convertidas en ondas mecánicas en el oído humano y percibidas e interpretadas por el cerebro. La propagación del sonido es similar en los fluidos, en donde el sonido toma forma de fluctuaciones de presión. En los cuerpos sólidos es distinto pues la propagación del sonido involucra variaciones del estado tensional del medio.
El primer punto que quiero aclarar es que el sonido, como se deduce de esta definición, no se desplaza sino que se propaga. Centrándonos en el medio en el que nosotros oímos, diríamos que el sonido se propaga en el aire y su velocidad en el es de 331,4 m/s a 0º de temperatura ambiente y 0 metros de altitud.
No os asustéis con estas definiciones, solo quiero llegar a unas conclusiones que nos llevarán a comprender los conceptos más importantes y que lo podáis entender mejor.
Os prometo no emplear más de las necesarias.

¿Cómo se propaga el sonido?

El sonido se propaga de manera omnidireccional y se desvanece acorde a la ley cuadrática inversa o ley de la inversa del cuadrado. En ella se demuestra que el sonido decrece en intensidad con el cuadrado de la distancia al centro donde se origina. Este precepto físico solo se cumple de manera exacta en ambientes controlados como cámaras anecoicas o en el desierto (campo abierto) en donde el sonido no encuentra obstáculo en donde ser reflejado o rebotado. Sin embargo en una ciudad, en un cuarto o en cualquier otro lugar, el sonido va a encontrar superficies que harán de reflectores donde rebotará y cambiará de dirección produciendo distintos fenómenos físicos acústicos comúnmente conocidos como eco, reverberación, reflexiones tempranas y produciendo giros en la fase.

¿Amplitud o volumen?

Podríamos decir que las dos acepciones se refieren a lo mismo, o sea, son sinónimos. Para entender que es la amplitud del sonido debemos de ahondar un poco más en qué ocurre cuando se produce el sonido.
Ya sabemos que cuando un cuerpo vibra las ondas se desplazan moviendo las moléculas del aire, pero cuando las moléculas se mueven se produce un efecto de movimiento atrás adelante, causando compresión y rarefacción de la presión. Se llama onda a un movimiento completo o ciclo de compresión rarefacción. La distancia entre el valor máximo de compresión y el máximo de rarefacción se denomina amplitud. La unidad de medida es el decibelio db.
Para entender este concepto mejor vamos a establecer una correspondencia con una acción real. Si lanzamos una piedra al agua producirá unas ondas que se alejarán del punto de impacto donde la velocidad con la que  se desplazan sería la longitud de onda y el tamaño y altura la amplitud.

Frecuencia

La velocidad a la que vibran las moléculas del aire se denomina frecuencia (ƒ) y es medida en ciclos por segundo (cps) o más comúnmente conocidos como Hertz (Hz). Cuanto más lento vibran más grave es el sonido y por lo contrario cuanto más rápida es la vibración más agudo resulta.

Velocidad

La velocidad del sonido se conoce como su velocidad (v) y está determinado por el medio en el que viaja. La velocidad en el aire hemos dicho que es: v=331,4 sec a 0º pero debemos saber que por cada grado de temperatura que aumenta, la velocidad se incrementa en 0,6 metros.

Longitud de onda

La distancia que recorre a través del aire (o cualquier otro materia) en un ciclo completo se denomina longitud de onda y se representa con el símbolo «l» (lambda). Podemos conocer la longitud de onda dándonos la frecuencia del sonido y la velocidad a la que se propaga.

Phase (fase del sonido)

La naturaleza repetitiva de las ondas de audio permiten ser divididas en intervalos iguales y medidas en grados teniendo en cuenta que 360º sería un ciclo completo. Ondas con la misma frecuencia que comiencen en el mismo tiempo diremos que están fase. Aquellas que comienzan en un tiempo distinto están «fuera de fase». Cuando dos ondas «en fase» se suman producen que la amplitud resultante aumente, por lo tanto el volumen sube. Añadiendo dos ondas «fuera de fase» producirá que la amplitud  resultante disminuya, el volumen se atenuará y habrá una pérdida en la coloración del sonido. En el caso de que la cancelación fuera total el sonido desaparecería. Entendemos como coloración del sonido la diferencia entre frecuencias agudas (1 khz a 20 khz) y graves (1 khz a 20 hz). La fase es una medida de tiempo expresada en grados.
Si una habitación tiene problemas acústicos de fase presentes, probablemente tendremos como resultado que ciertas frecuencias sean más audibles y otras desaparezcan. Esto hará que a pesar de estar usando unos altavoces lineales la resultante sea una respuesta de frecuencias no lineal, falseando completamente nuestra escucha. Por eso es muy importante que si vamos a mezclar audio en una sala esté acondicionada acústicamente o de nada servirá que tengamos unos buenos altavoces. No solo en la acústica vamos a encontrar problemas de fase, también en el proceso de grabación y mezcla del sonido puede ser alterada y modificada de forma constructiva o destructiva provocando por el mismo orden que el audio se incremente o pueda incluso llegar a desaparecer pues un giro de 180º sobre una onda provocaría una cancelación total del audio.
Os propongo un ejercicio fácil que demostrará lo hablado. En cualquier aplicación de audio como Logic, Protools, Cubase, Soundtrack, etc. Importar un archivo de audio y lo colocáis en la línea de tiempo. Ajustar su nivel en el canal a 0db. Hecho esto duplicáis el canal y audio. Como ambas señales son idénticas y comienzan a la vez (señales en fase) lo que ocurrirá es que la señal en nuestra salida master se habrá incrementado en +3db. Ahora seleccionamos el canal duplicado y en el menú DSP  (suele aparecer bajo este nombre o Audiosuite en Protools) elegimos la función invertir. Esto lo que hace es que gira o invierte la fase 180º. Ahora las señales comienzan desincronizadas (fuera de fase) y lo que ocurrirá es que si ambas suenan a 0db en sendos canales, una cancelará a la otra produciendo que el audio desaparezca. Cuando esto ocurra bajar gradualmente uno de los canales y veréis como la señal va apareciendo progresivamente.
Durante los distintos artículos que compondrán este tema haremos hincapié repetidas veces sobre la fase pues es uno de los pilares del audio. Es fundamental que asimilemos estos conceptos básicos  para entender todo lo que continúa.

Captación sonora

En la grabación del audio imitamos el proceso de generación y percepción del sonido sustituyendo al oído humano por un transductor o micrófono. El micrófono es un transductor electroacústico y su función es la de transformar las vibraciones generadas por la presión acústica ejercida sobre su cápsula por las ondas sonoras en energía eléctrica. La energía eléctrica obtenida de este proceso podrá ser posteriormente registrada magnéticamente, ópticamente o digitalizada mediante un proceso de conversión.
Estos ocho puntos definen los conceptos fundamentales del audio y su conocimiento nos abre las puertas a su aprendizaje. Solo hemos definido los conceptos en su esencia porque no vamos a desarrollar entornos acústicos ni construir dispositivos sino simplemente operar o manipular con audio. Esta pequeña parte teórica es de obligado aprendizaje.
La captación sonora actualmente, tanto en un entorno de edición no lineal como sobre un magnetoscopio, se realiza en formato digital. Solo en formatos analógicos, (Betacam Sp, Betamax, Vhs, Hi8) grabamos el audio de modo análogo y estos están casi en desuso. En cualquiera de estos sistemas se nos permite realizar la grabación de audio en formato multipista y para saber realizarlo debemos de tener en cuenta varios puntos que nos permitirán obtener un buen registro independientemente del formato elegido.
El punto más importante a tener en cuenta en la grabación del sonido es el rango dinámico y entendemos por rango dinámico el margen entre la parte más alta y baja (ruido de fondo) medido en decibelios. Directamente asociado a este concepto es el factor «relación señal-ruido».
En la grabación analógica cuando grabamos una señal en un soporte proveniente de un transductor, bien sea un micrófono, una guitarra eléctrica o un sintetizador, realizamos una inscripción magnética(en la que las ondas eléctricas actuales del transductor son convertidas a fluctuación electromagnética que modula a una señal eléctrica), o mecánica cuando las ondas son grabadas como ondas de sonido gráficas en un fonógrafo (en el que un estilete hace surcos helicoidales sobre un cilindro de fonógrafo). En ambos casos nos encontramos que el rango dinámico es determinante.
Si medimos el ruido en un soporte de grabación en vacío (sin señal), tanto en cinta magnética como en un fonógrafo o en un negativo (óptico), comprobaremos que el ruido residual no sólo puede ser mensurable sino que  puede llegar a ser audible. Esto hace que pasajes de sonido muy tenues no sean claramente grabados porque quedarán enmascarados o modulados por la señal. Esta es una de las carencias o desventajas de la grabación analógica. Por el contrario cuando sobrecargamos la señal nos permite exceder en un margen amplio el límite de grabación o headroom (+4dbu) generando un sonido de distorsión característico. La grabación analógica se denomina así porque permanece análoga a la fuente de señal original es decir, si observáramos la señal acústica original esta sería equivalente a la señal resultante independientemente del tipo que fuera (magnético, óptico o mecánico).
Al digitalizar una señal eléctrica ésta pasa a formar grupos de ceros y unos (valores discretos) que ya no tienen forma sino que son una sucesión de ceros y unos que no guardan relación ni tienen nada que ver con la señal original aunque puedan llegar a reproducirla. En el audio digital, a diferencia del analógico, nos encontramos que no tiene ruido residual y en vacío, carente de señal, no se escucha más que el ruido generado por los conversores digitales permitiendo grabar pasajes sumamente tenues con total fidelidad. Sin embargo si excedemos el valor límite de grabación (0db full scale) la señal distorsionaría (drop) y quedaría inservible, sin margen de error alguno, a diferencia de lo que sucede en una grabación analógica. Podemos decir que en digital no existe posibilidad de distorsión.
En el proceso de conversión hay dos factores importantísimos que desarrollaremos en un futuro, resolución de grabación (medido en bits) y frecuencia de muestreo (medido en hercios)
Hasta aquí llegamos en esta primera entrega, en la próxima conoceremos el proceso de digitalización y los factores más importantes, tipos de micrófonos, compresores, ecualizadores y unidades de efectos.

SAPEC con Canal Sur
Sony Profesional pre
Rate This Article: