25 septiembre 2010

remasterizando grabaciones orquestales

archivado en: Análisis Audio Música

Por favor, escucha con atención el siguiente audio: es un fragmento de la grabación que vamos a remasterizar.

Clip de audio: Es necesario tener Adobe Flash Player (versión 9 o superior) para reproducir este clip de audio. Descargue la versión más reciente aquí. También necesita tener activado Javascript en su navegador.

Acabas de disfrutar del principio del Concerto Grosso para Cuarteto de Cuerda y Orquesta, compuesto en 1958 por el compositor avilesino Julián Orbón, en la versión realizada por el Cuarteto Latinoamericano y la Orquesta Sinfónica Simón Bolívar de Venezuela dirigida por Eduardo Mata.

No sólo estamos hablando, por tanto, de una interpretación de primer orden, sino también de una grabación de excepcional calidad realizada en 1993 por la que quizás es una de las mejores compañías especializadas en la mal llamada música clásica: Dorian Recordings.

El propósito de este artículo es doble: por una parte, comentar algunas tendencias en grabación de sonido, con sus virtudes y defectos. Por otra, explicar como en algunos casos concretos de grabaciones orquestales podemos adaptar estas a un propósito muy distinto del original.


Existen dos tendencias opuestas a la hora de grabar música, cada una de ellas asociadas a dos estilos muy distintos como puedan ser el pop y la música orquestal.

Desde los años 80, a pesar de los crecientes y cada vez más baratos medios técnicos, la grabación de música pop se caracteriza por las llamadas loudness wars, que no son más que una absurda tendencia a hacer que la música suene cada vez más alta a costa de perder su dinámica; hasta el punto de que hoy en día cualquier canción de la radio suena con el mismo volumen —ensordecedor— de principio a fin.

Dentro de la música orquestal la tendencia es justo la contraria: respetar en lo posible la experiencia original de escucha. Esto sin duda es bueno, pues de este modo se garantiza que la experiencia sea lo más fiel posible, lo más parecido a estar en una sala de conciertos. Sin embargo esta filosofía tiene su lado negativo, ya que condiciona el uso de aparatos reproductores de alta fidelidad a un volumen adecuado y en un ambiente completamente silencioso.

¿Por qué es así? porque precisamente la fidelidad a la dinámica, el respeto a las secciones musicales que suenan a volúmenes muy diversos, provoca que este tipo de grabaciones no se puedan escuchar en ambientes como pueda ser el interior de un coche, lugar que como un gran ingenierio de sonido definió, es el peor lugar donde se puede escuchar música. Más aún, existe un adagio que asegura que si una grabación suena bien en un coche, probablemente suena bien en cualquier otra parte.

La compañía Dorian Recordings, responsable de esta producción del Concerto Grosso, sigue una curiosa política a la hora de grabar sus discos: hace uso exclusivo de dos micrófonos digitales de altísima calidad (que cuestan lo que usted y yo ganamos en varios meses) cuya señal no es posteriormente procesada de ningún modo… y que además están situados en el centro de la sala de conciertos donde se ejecuta la interpretación. Esto, como ya he explicado, es en aras a simular, dentro de lo posible, la experiencia de un oyente que se encontrara en la misma sala durante la grabación.

No obstante, ésta sólo se puede apreciar correctamente en un ambiente perfectamente controlado como el ya descrito. No se puede escuchar bien en un coche, como mencioné antes, o con unos auriculares mientras caminamos por la calle.

Así que voy a proceder a explicar como, mediante el uso de herramientas informáticas relativamente sencillas u otras equivalentes, podremos modificar cualquier grabación original, exquisita, delicada, para convertirla en una especie de grabación todoterreno susceptible de ser escuchada en cualquier ambiente. Y como no, pondré de ejemplo la pieza que hemos tenido ocasión de escuchar al principio del artículo.

Por otra parte, y esto es preferencia personal, voy a explicar también como mover esa grabación de su pretendida ubicación original, que es el patio de butacas, para ubicarla, virtualmente, en el puesto del director de orquesta, el personaje que, en teoría, es el que mejor la escucha.


Este primer gráfico, realizado con un magnífico programa llamado Har-Bal, refleja el espectro acumulado de la grabación original. En él la línea amarilla representa la magnitud de los picos presentes a cada frecuencia, y la línea verde la potencia RMS (root mean square), que no es más que la raíz de la media del cuadrado de la onda en cada frecuencia. Esta línea verde es muy importante pues es análoga a la intensidad real percibida por el oído.

Debería llamarnos la atención la horizontalidad de ambas lineas en el rango de 150 a 2000Hz: ahí se recoge la mayor parte de la información musical, y en ese sentido la grabación es absolutamente impecable.

Sin embargo, vemos que la caída de ambas líneas a partir de 2000Hz es exagerada. Es decir, falta tanto el brillo de algunos instrumentos, como los violines y los vientos-metal, como la sensación de estar ahí, de directo, que se expresa siempre por encima de los 10000Hz. Esto es por el hecho de que el aire suele absorber esas frecuencias en el momento que estamos a cierta distancia de la fuente de sonido, lo que es lógico si asumimos que los micrófonos se encontraban en el medio de la sala, a muchos metros de la orquesta.

Por otra parte, en la zona de los bajos vemos una caída también espectacular y una gran distancia, con respecto al resto de la gráfica, entre ambas líneas, lo que es especialmente notorio en el pico que se encuentra justo debajo de los 50Hz y que corresponde al timbal de la percusión, muy presente a lo largo de toda la obra. Este aumento de la distancia entre el valor pico y el valor RMS lo encontraremos siempre en instrumentos pinzados y percutidos, precisamente por la altura del “golpe” inicial.

Debo decir en este momento que, personalmente, considero el Concerto Grosso de Orbón absolutamente espectacular, brillante, vibrante; incluso, permitiéndome ser poético, con sabor a jungla. Y por eso la he elegido. Porque es una pena que esa información sonora, el brillo, el aire, se pierda. Así que procederemos a, entre comillas, “arreglarla”.


El primer paso será subir los agudos para así, virtualmente, acercarnos a la orquesta y situarnos en el puesto del director. Eliminaremos, por así decirlo, el aire intermedio.

El siguiente será nivelar la línea verde de tal modo que quede como en la gráfica siguiente: perfectamente nivelada, en el primer tramo, a -40dB, para luego efectuar una caída suave a partir de la zona de 1000 hasta los 10000Hz, donde rozará los -50dB. Esto es para que a la hora de comprimir, que será nuestro siguiente paso, situemos el umbral de compresión precisamente a partir de esa línea y así acercar/aplastar la línea amarilla de picos hasta dejarla más o menos paralela a la verde.

Esa caída suave en las frecuencias agudas, una vieja regla en masterización, impide que la música sea tan brillante que resulte desagradable a lo largo de un tiempo. Todas las buenas producciones la tienen, aunque en función de la mezcla la pendiente puede ser mayor o menor: en ese sentido no existe una regla fija.


Las siguientes capturas muestran los valores que he asignado al compresor multibanda Izotope Ozone, con el que la música será comprimida para aplastar esos picos. A mucha gente no le parece bien la compresión de la música orquestal. Yo creo, no obstante, que una compresión bien hecha siempre hace que la música suene mejor y se distingan mejor muchos detalles.




Como se puede ver, he puesto una gran pendiente, de factor 2:1, a partir del umbral de compresión, que en el caso de cada banda se aproxima al de la posición de la línea verde, la intensidad RMS, del espectro anterior. He tenido especial cuidado en los parámetros de ataque y liberación de los compresores, que son de unos 5ms y 100ms respectivamente, para evitar que la música “bombée” y también para añadir cierto punch, suavísimo, al ataque de los instrumentos.

Por otra parte hay que tener mucho cuidado en la señal de salida, que he bajado unos 12dB respecto a la de entrada, de tal manera que no se produzcan cortes de los picos. Y diréis ¿y por qué subio 18dB cada banda para luego bajar 12dB a la salida? ¿No sería mejor tocar nada y limitarse a normalizar la salida? Ya, pero es que de este modo hacia -60db puedo ver la puerta de ruido adicional que añado con una pendiente también 2:1 (en realidad, inversa a la de la compresión) para minimizar el ruido en las partes más débiles.

Adicionalmente he separado progresivamente los canales izquierdo y derecho de las frecuencias altas, como se refleja en el gráfico anterior: esto es porque el director percibe los instrumentos más separados que el oyente. Y también he juntado los canales en las bajas frecuencias para que suenen en mono. La información estéreo en este rango no suele aportar nada y de este modo los altavoces, que siempre pasan dificultades con los graves, trabajan al unísono apoyándose mútuamente.


Llegados a este punto, tras la compresión, apetece tirarse a maximizar la mezcla. Pero no lo voy a hacer sin antes comprobar como ha afectado la compresión a la ecualización. Esto hay que hacerlo siempre, aún a pesar del argumento de que demasiado proceso se acaba cargando el resultado. Véase lo que ha pasado:

En primer lugar, la suave pendiente de los agudos se ha aplanado un poco. Esto no suele ser bueno porque la que ya expliqué del cansancio de los oídos. Así que habrá que corregirlo.

Por otra parte, a la izquierda tenemos todavía parte importante del pico del bombo. A la hora de la verdad, a no ser que tengamos un subwoofer estupendo y nos guste la sensación de aire en el estómago, podemos desdeñar todo lo que esté por debajo de 50Hz porque pocos parlantes pueden reproducirlos y todo lo que esté en esta zona no hace más que añadir volumen a la mezcla… volumen que no oiremos y que además se restará a las bandas audibles. Por eso me lo cargo.

Tras ecualizar convenientemente eliminando los subbajos y bajando ligeramente los agudos obtendremos esta pequeña maravilla de espectro, muy parecido a los que conseguía Alan Parsons a base de puro oído:


Ya sólo queda el proceso de maximización. La onda final sólo tiene dos picos puntuales demasiado intensos y una zona central bastante prominente. De todos modos no se debe respetar mucho esa zona porque en el caso de esta pieza concreta es bastante estridente de por sí (consiste en la orquesta entera “llamando a la puerta” de manera obstinada) y el corte de esos picos apenas se notará.

Así que ajustando el maximizador (suelo usar el L2 Ultramaximizer de la increíble casa Waves) con los parámetros siguientes…

…obtenemos esto:

Comparando la onda de la grabación original con el resultado final se ve claramente el profundo efecto que ha tenido la compresión sobre las zonas de menor volumen; pero también como la dinámica de la grabación a grandes rasgos se conserva.

La grabación ahora no sólo es mucho más brillante y envolvente, en parte por la intención de desplazarnos virtualmente de la posición de oyente a la de director de orquesta: la intensidad total de la pieza se ha elevado de -28RMS de potencia media hasta -20RMS. Estos 8dB de diferencia implican casi el doble de volumen percibido. ¡Ya podemos escucharla en cualquier parte!

Por supuesto, no voy a acabar el artículo sin poner un audio que muestre, alternando, las diferencias entre la pieza original y el remaster realizado:

Clip de audio: Es necesario tener Adobe Flash Player (versión 9 o superior) para reproducir este clip de audio. Descargue la versión más reciente aquí. También necesita tener activado Javascript en su navegador.

  • RSS
  • Facebook
  • Meneame
  • Twitter
  • MySpace
  • Digg
  • del.icio.us
  • BarraPunto
  • Bitacoras.com
  • Slashdot
  • StumbleUpon
  • Technorati
  • Wikio
  • Google Bookmarks
archivado en: Análisis Audio Música

29 mayo 2009

psicoacústica: ER

archivado en: Audio

Siguiendo con la serie dedica a los viciosos del audio, hoy toca hablar de los ER o early reflections.

En el anterior artículo, dedicado a las funciones HRTF, hablé de diversos elementos que contribuyen a la localización del sonido. Sin embargo, la cosa no acaba ahí.

Todos sabemos que los murciélagos y otros bichos utilizan técnicas de localización mediante el uso de ecos, cosa que a los humanos nos resulta sorprendente. Sin embargo, nosotros también lo utilizamos aunque con bastante menos resolución. Si nos ponemos a hablar a medida que andamos por una casa, notaremos que, según en que zona estemos (pasillo, cocina, baño, salón) nuestro propio sonido cambia sutilmente. De hecho, si nos llevaran con los ojos vendados a una habitación, simplemente haciendo un chasquido de lengua podríamos hacernos una idea de su tamaño y del material de las paredes. ¿Cómo ocurre esto y cómo se puede aprovechar en nuestras mezclas para darles espacialidad?

EARLY REFLECTIONS

Se puede traducir literalmente como “reflexiones tempranas” pero prefiero llamarlos “primeros ecos”.

Todo sonido que se produce en un recinto cerrado se refleja en las paredes, el suelo, el techo, muebles, etc… Así, cuando estamos en un entorno cerrado no hay nada que se pueda considerar un sonido aislado: Cualquier sonido emitido es siempre acompañado por un sinnúmero de ecos muy apretados que no podemos distinguir por separado, pero juntos le sirven al cerebro para comprobar, ya no el origen del sonido (bastaría con HRTF para ello), sino su posición dentro del entorno y el entorno mismo.

Hablamos de primeros ecos porque, a su vez, esos ecos vuelven a rebotar muchas veces, difuminándose de manera progresiva. Es lo que se llama reverberación. La reverberación, que será tratada en otro artículo, contribuye muy poco a la localización del sonido.

LA CAGADA DEL TÉCNICO DE SONIDO PRINCIPIANTE…

Todos-todos-todos los que nos dedicamos a esto cometimos el mismo error a la hora de mezclar nuestro primer tema. Ponemos un instrumento a la izquierda, otro a la derecha, otro en el centro, le damos un reverb distinto a cada pista y tira millas. Suena “bonito” (los reverbs son bonitos, que narices) pero suena mal: plano, confuso, etc… Rara vez queda bien, y sólo suele ocurrir en ciertos estilos de música ambient.

La reverberación en sonido es el equivalente al desenfoque en imagen.

…Y LA SOLUCIÓN: EFECTO HAAS

Se llama así por el apellido del hombre que lo inventó/descubrió. Básicamente se explica de la siguiente manera: cuando un sonido tiene un eco que le sigue con una diferencia de tiempo inferior a 25-30 milisegundos, a nivel psicoacústico el sonido se percibe NO como dos, sino como uno solo con mayor volumen y mucho más direccional (es decir, parece venir de una dirección concreta) que el mismo sonido sin eco.

Pensando un poco, y siguiendo la regla de 1 pie = 1 ms, podemos concluir que ese eco equivale al reflejo del sonido original, pero que ha venido por otra ruta más larga. Concretamente, 25 ms = 25 pies = (más o menos) 8 metros. Si nos situamos en la pared de una cocina con paredes de azulejo y hablamos, el sonido percibido (¡que suena a “cocina”!) viene a ser prácticamente la onda original con un delay como el que acabo de describir. Luego mostraré los cálculos que lo demuestran.

Aunque ya habrá tiempo de profundizar en ello, el hecho de que la cocina sea de azulejos asegura una alta reflectividad: el sonido rebota prácticamente intacto. En una pared de moqueta gran parte de las frecuencias son absorbidas y la cualidad del eco es muy distinta. Un delay digital sencillo no suele tocar las frecuencias del sonido rebotado y se limita a reproducir el original con un poco de retraso. Es por eso que es muy fácil conseguir el efecto de una habitación con azulejos con filtros sencillos.

Como dije antes, Haas se produce con ecos inferiores a 25-30ms. El eco de váter, fácilmente reconocible, es un efecto Haas que ronda los 10ms.

¿Y ESTO COMO SE APLICA?

Arranca tu secuenciador, mete unas pistas que tengan el mínimo de reverberación o eco (los buenos samplers por defecto no meten nada de eso), ajusta el panning, ajusta el volumen y prueba a reproducirlo. Suena bien, pero plano y sin vida. Los instrumentos parecen estar entre los altavoces… y si alguno suena bajito, detrás de ellos y gracias.

Si ahora mismo no puedes arrancar el secuenciador, no pasa nada. He aquí un audio de ejemplo, que hace uso de unas pistas de mi tema Eos Chasma.

Clip de audio: Es necesario tener Adobe Flash Player (versión 9 o superior) para reproducir este clip de audio. Descargue la versión más reciente aquí. También necesita tener activado Javascript en su navegador.

Tenemos una cantante, un guitarra y un batería. Vamos a situarlos imaginariamente enfrente de nosotros en una habitación: la cantante está a 1 metros, el guitarra a 2 y el bateria a 4 metros, pegado a la pared que está a 5 metros de nosotros. Ignoramos las paredes de los lados y calculamos:

La cantante está a 1 metro. Eso significa que el sonido directo de su voz tarda 3ms en llegar a nosotros. Sin embargo, parte de la voz rebota en la pared de atrás. Si la cantante está a 1 metro y la pared a 5, ese ER (sí, es un ER) recorre 4 metros hasta la pared y otros 5 de vuelta para llegar a nosotros. 9 metros de ruta significan 27ms. Con lo que la diferencia entre los sonidos es de 27-3=24ms.

Para el guitarra: El directo tarda 2*3=6ms. El rebotado, 3 metros de la guitarra a la pared y otros 5 de vuelta: (3+5)*3=24ms. 24-6 nos da 18ms de retraso.

Para la batería: es el que más lejos está: el sonido directo tarda 4*3=12ms en llegar. El primer ER (1+5)*3=18ms. Su eco correspondiente será de 18-12=6ms.

Ahora metemos a cada instrumento el delay correspondiente. La intensidad de estos varía, claro: el delay de la cantante será mucho más bajo que el sonido original, pues recorre mucha distancia. Sin embargo, el sonido directo de la batería y su reflejo tendrán casi el mismo volumen.

Prueba a poner un delay a la cantante de 24ms al 20% de volumen, otro de 18ms al guitarra con el 50% de volumen y el de 6ms al batería al 80%.

Reproduce y flipa.

Clip de audio: Es necesario tener Adobe Flash Player (versión 9 o superior) para reproducir este clip de audio. Descargue la versión más reciente aquí. También necesita tener activado Javascript en su navegador.

Ahora la cantante parece estar justo delante tuyo, la guitarra en otro plano mucho más atrás y el batería bastante lejos. ¡¡¡Esto ocurre independientemente del volumen de cada uno, tan poderoso es el efecto Haas!!!

Sin embargo, al usar delays digitales que no hacen el filtrado de frecuencias que se produce al rebotar contra un material real, comprobarás que aunque el sonido ha ganado en profundidad, suena todo un poquito a váter. Es lo que pasa con las canciones de ABBA. Si te fijas, el peculiar sonido de ABBA tiene mucho que ver con la aplicación de este efecto en sus mezclas.

En este ejemplo también hemos sobresimplificado: hemos ignorado la existencia de más paredes, de segundos ecos… pero no deja de ser MUY efectivo. Existen plugins muy sofisticados que permiten situar al instrumento en un espacio virtual, calculan los milisegundos por nosotros y emulan el material de las paredes. Están bien pero sólo para cuando queremos algo muy realista. Para pop, un delay normalito está de sobra. Y si es analógico o emula analógico, el pequeño coloreado de los ecos le añadirá calidez.

En otro artículo hablaré de la reverberación y completaré mucha información que no he metido en este. Pero con esto ya tienes para practicar y entender. De nada.

  • RSS
  • Facebook
  • Meneame
  • Twitter
  • MySpace
  • Digg
  • del.icio.us
  • BarraPunto
  • Bitacoras.com
  • Slashdot
  • StumbleUpon
  • Technorati
  • Wikio
  • Google Bookmarks
archivado en: Audio

19 abril 2009

psicoacústica: HRTF

archivado en: Audio

[Este post es técnico y dirigido a viciosos del audio. Aún así, como el lector promedio de este blog es una persona con inquietudes animo a echarle un vistazo.]

A la hora de situar un sonido en el espacio hay que tener muchos factores en cuenta: volumen, ecualización, los primeros ecos (en lenguaje técnico ER, early reflections), la reverberación… y lo que nuestras orejas hacen con ese sonido. De esto último va este artículo.

La mayor parte de la gente va por la vida, feliz ella, pensando que las orejas no funcionan más que como una especie de embudos que atrapan el sonido y lo concentran en el agujerito del oído. Básicamente, que en caso de perder una oreja las únicas consecuencias serían tener que usar lentillas por narices, un pequeño problema estético a lo van gogh… y que por ese oido oiría un poco más bajo; nada que no se pueda solucionar apoyando una cuchara detrás del oído simulando un pabellón auditivo. Craso error.

Ahora veremos lo que hacen de verdad la orejas.

La cuestión para el técnico de sonido es que cuando se hace una mezcla convencional de audio, aparte de los recursos ya citados (ecualización, ER, reverberación) que afectan sobretodo a la distancia dónde está situada la fuente de sonido, la única opción que tenemos para indicar el ángulo del que viene el sonido es, a primera vista, el panning, o sea: que se oiga más por un altavoz que otro. Si se oye más por el derecho, es que el sonido viene por ahí y se acabó.

Haciendo esto sin utilizar otros recursos da como resultado un sonido bastante plano en el que realmente es fácil distinguir los instrumentos a lo bruto, pero en el que si cerramos los ojos, veremos que el sonido parece venir sólamente de la línea entre altavoces. Y si los altavoces tienen una colocación, ejem, un poco sui generis, entonces conseguimos una especie de sindiós donde cualquier parecido con la realidad es pura coincidencia. Pero asumo que están bien colocados o que el oyente utiliza auriculares.

Ahora bien… ¿qué más factores influyen aparte de la diferencia de volumen entre altavoces?

EL RETRASO DEL SONIDO ENTRE OÍDOS

Quizás el más importante sea el hecho de que entre las orejas existe una distancia algo menor que un palmo. El que haya una cabeza por el medio también influye: pero eso lo dejamos para luego. Siguiendo la regla anglosajona que dice que el sonido viaja 1 pie en 1 milisegundo, eso significa que cuando un sonido nos llega de la derecha, llega al oído derecho ANTES que al izquierdo… y la diferencia, siguiendo un cálculo sencillo, es menor de 1ms ya que la distancia entre oídos es menor que 1 pie.

Aplicando trigonometría y conociendo la velocidad del sonido para deducir los tiempos, sería genial disponer de un filtro digital que permitiera controlar retrasos del orden de microsegundos para poder ajustar co precisión la posición angular de un sonido concreto. La buena noticia para los aficionados a la producción digital de audio es que existe un plugin VST gratuito, el Panature, que permite controlar los retrasos inter-oído con esa precisión. Simplemente probando a añadir este retraso se pueden conseguir resultados espectaculares.

La fórmula es muy sencilla de calcular, mas aún si aproximamos que la distancia al sonido es mayor que la existente entre las orejas:

formularetrasooidos

Tomando angulo=0 para el frente, positivo para los sonidos a la izquierda y negativo para los situados a la derecha (utilizando siempre el sistema internacional) nos dará el resultado en segundos, aunque será mejor expresarlo en microsegundos. Obviamente pueden salir valores negativos: porque el valor es respecto al oído derecho.

Si por ejemplo tomamos un sonido a la derecha, con ángulo = -90º, distancia entre oídos = 15cm y velocidad del sonido = 330m/s obtendremos -321 microsegundos. Eso significa que llegará al oído derecho 321 microsegundos antes que al izquierdo. Para valores positivos, significa que llega primero al oído izquierdo.

Hay que tener en cuenta que el abuso de este recurso es muy utilizado, a veces insconcientemente, cuando para dar mayor espacialidad a las mezclas se retrasa el sonido entre altavoces con valores mayores a 1ms. En ese caso se obtiene un sonido muy abierto pero desgraciadamente irreal. Cuando no me preocupo del verismo en una producción suelo hacerlo con las camas de teclado o cuerdas más distantes para situarlas en cualquier lugar menos con el resto de intrumentos.

EL FILTRADO DE FRECUENCIAS POR LA CABEZA Y LAS OREJAS

Pero la diferencia de tiempos no es el único parámetro que influye. El hecho de que haya una cabeza en medio de las orejas sigue siendo, para muchos, una desgracia. Sin embargo, el lector y yo, orgullosos de tener cabeza, lo aprovechamos a nuestro favor.

Si un sonido llega de la derecha, llega prácticamente directo al agujero del oído de ese mismo lado. Menos de 1ms más tarde llegará al otro oído PERO… tras rodear la cabeza. En este caso al oído izquierdo le llegan muchos menos agudos que al derecho. La diferencia en la ecualización entre los sonidos que percibe cada oído también aporta información al cerebro.

Y si la cabeza tiene esa influencia, el papel de las orejas como tales es fun-da-men-tal. Todos los repliegues raros que tenemos en las orejas funcionan como filtros notch (o sea que eliminan bandas concretas) cuya eficacia y parámetros dependen del ángulo en el que llega el sonido: y no sólo el ángulo izquierda-derecha (azimut); también el de arriba-abajo (elevación).

Llegados a este punto invito al lector a que chasquée los dedos mientras los mueve de un lado a otro de la cabeza. Hay una diferencia, sutil pero apreciable, en el chasquido mientras la mano se mueve. Si cerramos los ojos, percibiremos muy claramente la situación espacial del chasquido. Si los abrimos y nos concentramos (nos tapamos un oído), nos daremos cuenta de que en realidad lo que más cambia es la ecualización del sonido, aunque de una manera terriblemente difícil de concretar.

Arriba y abajo también funciona: se aprecia claramente que si se pone la mano más arriba de la cabeza el sonido se percibe algo más agudo que si se pone a la altura del pecho. Este es un viejo truco utilizado durante décadas por los grandes mezcladores para elevar o bajar físicamente un instrumento, por cierto.

Y ESTO CÓMO SE APLICA

A principios de los 80 un zoquete genial, Hugo Zuccarelli, inventó una técnica de grabación que llamó holophonics. Esta técnica, que básicamente no es muy distinta a la grabación binaural con maniquíes, consiste en la colocación de dos micrófonos en una cabeza de maniquí con orejas. De este modo es el propio maniquí el que hace el trabajo de filtrar los sonidos que le llegan facilitando el trabajo del montador de audio.

Los resultados son espectaculares. Pero ojo, para que esta técnica funcione correctamente es necesario oir las grabaciones con buenos auriculares. Los altavoces tienden a interferirse mútuamente estropeando bastante la sensación. Esta interferencia se puede compensar bastante, de todos modos, mediante el uso de filtros digitales siempre que los altavoces estén bien colocados.

Antes de seguir: Lo de zoquete lo digo porque el tal Zuccarelli insistía/insiste en que el efecto era debido a que los humanos emitimos rayos acústicos por las orejas que interfieren con el sonido percibido. Sin comentarios.

HÁGALO VD. MISMO

Ahora, si no tenemos un sofisticado equipo con maniquí ¿a qué podemos recurrir en nuestras mezclas para simular lo que nos hacen las orejas?.

Para ello existen las funciones HRTF (Head Related Transfer Function). Son funciones matemáticas que recibiendo 2 canales de audio y parámetros de distancia, ángulos de azimut y elevación pueden imitar el trabajo de nuestras orejas. En algunos casos incluso calcula efecto doppler. Obviamente son un invento relativamente reciente que proviene del análisis de grabaciones binaurales; como las del maniquí que hablé hace un momento.

Existen varias HRTF desarrolladas y son empleadas por diversos sistemas de audio y plugins. Quizás las más famosas sean las elaboradas a principios de los 90 en el MIT con el maniquí llamado KEMAR (Knowles Electronic Manikin for Acoustic Research).

A la hora de la verdad, si somos de los que nos gusta experimentar, podemos usar los siguientes plugins HRTF de software (hay más, pero estos son los que más conozco) en cualquier programa de edición de onda que los admita.

  • prosoniq ambisone. De pago, algo cutrongo, sin automatización y entrada mono. Aun así, bastante efectivo en resultados. Controla azimut, velocidad de giro, elevación y permite seleccionar calidad y el peculiar modo wide field.
  • mda roundpan. Muy similar al anterior, pero en feo. También con entrada mono. Sólamente tiene elevación y velocidad de giro, pero controlable de modo mucho más preciso que con el ambisone. Además, a diferencia de este, es automatizable.
  • wavearts panorama. Mucho más sofisticado y caro, admite entrada estéro y permite, aunque no me gusta mucho ni el cómo ni el interfaz, calcular también ER y reverberación. Estos conceptos los dejaré para otro artículo.

Personalmente tengo costumbre de utilizar estos conocimientos de psicoacústica en mis mezclas. Por ejemplo, en mi tema Eos Chasma uso y abuso del filtro mda roundpan, desde las campanitas del principio hasta las camas que están durante todo el tema girando alrededor a distintas velocidades. Obviamente se detecta mejor con cascos.

Por último: no todo el mundo tiene las mismas orerjas y no todo el mundo percibe igual las mismas funciones HRTF. Aquí se puede escuchar el mismo sonido moviéndose alrededor de la cabeza utilizando multitud de HRTFs distintos.

  • RSS
  • Facebook
  • Meneame
  • Twitter
  • MySpace
  • Digg
  • del.icio.us
  • BarraPunto
  • Bitacoras.com
  • Slashdot
  • StumbleUpon
  • Technorati
  • Wikio
  • Google Bookmarks
archivado en: Audio
índice   cranf.net   wordnadapress
1