19 abril 2009

psicoacústica: HRTF

archivado en: Audio

[Este post es técnico y dirigido a viciosos del audio. Aún así, como el lector promedio de este blog es una persona con inquietudes animo a echarle un vistazo.]

A la hora de situar un sonido en el espacio hay que tener muchos factores en cuenta: volumen, ecualización, los primeros ecos (en lenguaje técnico ER, early reflections), la reverberación… y lo que nuestras orejas hacen con ese sonido. De esto último va este artículo.

La mayor parte de la gente va por la vida, feliz ella, pensando que las orejas no funcionan más que como una especie de embudos que atrapan el sonido y lo concentran en el agujerito del oído. Básicamente, que en caso de perder una oreja las únicas consecuencias serían tener que usar lentillas por narices, un pequeño problema estético a lo van gogh… y que por ese oido oiría un poco más bajo; nada que no se pueda solucionar apoyando una cuchara detrás del oído simulando un pabellón auditivo. Craso error.

Ahora veremos lo que hacen de verdad la orejas.

La cuestión para el técnico de sonido es que cuando se hace una mezcla convencional de audio, aparte de los recursos ya citados (ecualización, ER, reverberación) que afectan sobretodo a la distancia dónde está situada la fuente de sonido, la única opción que tenemos para indicar el ángulo del que viene el sonido es, a primera vista, el panning, o sea: que se oiga más por un altavoz que otro. Si se oye más por el derecho, es que el sonido viene por ahí y se acabó.

Haciendo esto sin utilizar otros recursos da como resultado un sonido bastante plano en el que realmente es fácil distinguir los instrumentos a lo bruto, pero en el que si cerramos los ojos, veremos que el sonido parece venir sólamente de la línea entre altavoces. Y si los altavoces tienen una colocación, ejem, un poco sui generis, entonces conseguimos una especie de sindiós donde cualquier parecido con la realidad es pura coincidencia. Pero asumo que están bien colocados o que el oyente utiliza auriculares.

Ahora bien… ¿qué más factores influyen aparte de la diferencia de volumen entre altavoces?

EL RETRASO DEL SONIDO ENTRE OÍDOS

Quizás el más importante sea el hecho de que entre las orejas existe una distancia algo menor que un palmo. El que haya una cabeza por el medio también influye: pero eso lo dejamos para luego. Siguiendo la regla anglosajona que dice que el sonido viaja 1 pie en 1 milisegundo, eso significa que cuando un sonido nos llega de la derecha, llega al oído derecho ANTES que al izquierdo… y la diferencia, siguiendo un cálculo sencillo, es menor de 1ms ya que la distancia entre oídos es menor que 1 pie.

Aplicando trigonometría y conociendo la velocidad del sonido para deducir los tiempos, sería genial disponer de un filtro digital que permitiera controlar retrasos del orden de microsegundos para poder ajustar co precisión la posición angular de un sonido concreto. La buena noticia para los aficionados a la producción digital de audio es que existe un plugin VST gratuito, el Panature, que permite controlar los retrasos inter-oído con esa precisión. Simplemente probando a añadir este retraso se pueden conseguir resultados espectaculares.

La fórmula es muy sencilla de calcular, mas aún si aproximamos que la distancia al sonido es mayor que la existente entre las orejas:

formularetrasooidos

Tomando angulo=0 para el frente, positivo para los sonidos a la izquierda y negativo para los situados a la derecha (utilizando siempre el sistema internacional) nos dará el resultado en segundos, aunque será mejor expresarlo en microsegundos. Obviamente pueden salir valores negativos: porque el valor es respecto al oído derecho.

Si por ejemplo tomamos un sonido a la derecha, con ángulo = -90º, distancia entre oídos = 15cm y velocidad del sonido = 330m/s obtendremos -321 microsegundos. Eso significa que llegará al oído derecho 321 microsegundos antes que al izquierdo. Para valores positivos, significa que llega primero al oído izquierdo.

Hay que tener en cuenta que el abuso de este recurso es muy utilizado, a veces insconcientemente, cuando para dar mayor espacialidad a las mezclas se retrasa el sonido entre altavoces con valores mayores a 1ms. En ese caso se obtiene un sonido muy abierto pero desgraciadamente irreal. Cuando no me preocupo del verismo en una producción suelo hacerlo con las camas de teclado o cuerdas más distantes para situarlas en cualquier lugar menos con el resto de intrumentos.

EL FILTRADO DE FRECUENCIAS POR LA CABEZA Y LAS OREJAS

Pero la diferencia de tiempos no es el único parámetro que influye. El hecho de que haya una cabeza en medio de las orejas sigue siendo, para muchos, una desgracia. Sin embargo, el lector y yo, orgullosos de tener cabeza, lo aprovechamos a nuestro favor.

Si un sonido llega de la derecha, llega prácticamente directo al agujero del oído de ese mismo lado. Menos de 1ms más tarde llegará al otro oído PERO… tras rodear la cabeza. En este caso al oído izquierdo le llegan muchos menos agudos que al derecho. La diferencia en la ecualización entre los sonidos que percibe cada oído también aporta información al cerebro.

Y si la cabeza tiene esa influencia, el papel de las orejas como tales es fun-da-men-tal. Todos los repliegues raros que tenemos en las orejas funcionan como filtros notch (o sea que eliminan bandas concretas) cuya eficacia y parámetros dependen del ángulo en el que llega el sonido: y no sólo el ángulo izquierda-derecha (azimut); también el de arriba-abajo (elevación).

Llegados a este punto invito al lector a que chasquée los dedos mientras los mueve de un lado a otro de la cabeza. Hay una diferencia, sutil pero apreciable, en el chasquido mientras la mano se mueve. Si cerramos los ojos, percibiremos muy claramente la situación espacial del chasquido. Si los abrimos y nos concentramos (nos tapamos un oído), nos daremos cuenta de que en realidad lo que más cambia es la ecualización del sonido, aunque de una manera terriblemente difícil de concretar.

Arriba y abajo también funciona: se aprecia claramente que si se pone la mano más arriba de la cabeza el sonido se percibe algo más agudo que si se pone a la altura del pecho. Este es un viejo truco utilizado durante décadas por los grandes mezcladores para elevar o bajar físicamente un instrumento, por cierto.

Y ESTO CÓMO SE APLICA

A principios de los 80 un zoquete genial, Hugo Zuccarelli, inventó una técnica de grabación que llamó holophonics. Esta técnica, que básicamente no es muy distinta a la grabación binaural con maniquíes, consiste en la colocación de dos micrófonos en una cabeza de maniquí con orejas. De este modo es el propio maniquí el que hace el trabajo de filtrar los sonidos que le llegan facilitando el trabajo del montador de audio.

Los resultados son espectaculares. Pero ojo, para que esta técnica funcione correctamente es necesario oir las grabaciones con buenos auriculares. Los altavoces tienden a interferirse mútuamente estropeando bastante la sensación. Esta interferencia se puede compensar bastante, de todos modos, mediante el uso de filtros digitales siempre que los altavoces estén bien colocados.

Antes de seguir: Lo de zoquete lo digo porque el tal Zuccarelli insistía/insiste en que el efecto era debido a que los humanos emitimos rayos acústicos por las orejas que interfieren con el sonido percibido. Sin comentarios.

HÁGALO VD. MISMO

Ahora, si no tenemos un sofisticado equipo con maniquí ¿a qué podemos recurrir en nuestras mezclas para simular lo que nos hacen las orejas?.

Para ello existen las funciones HRTF (Head Related Transfer Function). Son funciones matemáticas que recibiendo 2 canales de audio y parámetros de distancia, ángulos de azimut y elevación pueden imitar el trabajo de nuestras orejas. En algunos casos incluso calcula efecto doppler. Obviamente son un invento relativamente reciente que proviene del análisis de grabaciones binaurales; como las del maniquí que hablé hace un momento.

Existen varias HRTF desarrolladas y son empleadas por diversos sistemas de audio y plugins. Quizás las más famosas sean las elaboradas a principios de los 90 en el MIT con el maniquí llamado KEMAR (Knowles Electronic Manikin for Acoustic Research).

A la hora de la verdad, si somos de los que nos gusta experimentar, podemos usar los siguientes plugins HRTF de software (hay más, pero estos son los que más conozco) en cualquier programa de edición de onda que los admita.

  • prosoniq ambisone. De pago, algo cutrongo, sin automatización y entrada mono. Aun así, bastante efectivo en resultados. Controla azimut, velocidad de giro, elevación y permite seleccionar calidad y el peculiar modo wide field.
  • mda roundpan. Muy similar al anterior, pero en feo. También con entrada mono. Sólamente tiene elevación y velocidad de giro, pero controlable de modo mucho más preciso que con el ambisone. Además, a diferencia de este, es automatizable.
  • wavearts panorama. Mucho más sofisticado y caro, admite entrada estéro y permite, aunque no me gusta mucho ni el cómo ni el interfaz, calcular también ER y reverberación. Estos conceptos los dejaré para otro artículo.

Personalmente tengo costumbre de utilizar estos conocimientos de psicoacústica en mis mezclas. Por ejemplo, en mi tema Eos Chasma uso y abuso del filtro mda roundpan, desde las campanitas del principio hasta las camas que están durante todo el tema girando alrededor a distintas velocidades. Obviamente se detecta mejor con cascos.

Por último: no todo el mundo tiene las mismas orerjas y no todo el mundo percibe igual las mismas funciones HRTF. Aquí se puede escuchar el mismo sonido moviéndose alrededor de la cabeza utilizando multitud de HRTFs distintos.

  • RSS
  • Facebook
  • Meneame
  • Twitter
  • MySpace
  • Digg
  • del.icio.us
  • BarraPunto
  • Bitacoras.com
  • Slashdot
  • StumbleUpon
  • Technorati
  • Wikio
  • Google Bookmarks
archivado en: Audio

13 comentarios

Ir al formulario  RSS de estos comentarios Trackback URL

En el agua el sonido viaja 5 veces mas rapido que en el aire. Un buen experimento para los lectores buzos consiste en intentar averiguar el origen de un sonido (hay unos sonajeros o maracas para que los guias de buceo llamen la atencion, y una especie de bocinas a aire llamadas comunmente patos, muy adecuadas para hacer pruebecitas) emitido en el agua.

Comment by Zor — 19 abril 2009 @ 22:56

Claro, debajo del agua tiene que ser una puñeta localizar el sonido mediante el retraso interauricular, ya que al ser menor de 1/5 de milisegundo casi todo se debe situar aparentemente al frente.

Comment by voet — 20 abril 2009 @ 9:35

Lo peor es el efecto doppler. Pon que hay una moto de agua haciendo que viene desde 100 metros nuestra izquierda. A medida que se aproxima el efecto doppler indica al cerebro que “algo” esta acercandose, pero al no existir casi retraso el sonido parece que viene de frente (de la perpendicular al plano de la cabeza). Lo raruno es que a medida que giras la cabeza, el sonido parece provenir siempre de donde estas mirando. A todo el mundo le desconcierta muchisimo este efecto hasta que aprendes un poco como funciona y como reaccionar ante él.

Comment by Zor — 20 abril 2009 @ 12:06

Claro, a eso me refería con lo de estar aparentemente al frente debido al retraso. Los sonidos, vengan de donde vengan, serán situados por el cerebro en un ángulo de unos 10-15º justo enfrente de los ojos.

De todos modos el doppler debería ser mucho menor que en el aire también. Se debería percibir pero también 5 veces menos. Es decir, que una moto de agua aproximándose a 50km/h sonaría como un coche en una carretera que pasara a 10, ¿no?

Comment by voet — 20 abril 2009 @ 12:13

Exacto, exacto!!! Cada vez que se aproxima algo realmente (porque muchas veces esta pasando a una distancia considerable y ademas de forma tangente, y aun asi parece que se acerca) parece que se acerca infinitamente. Es otra de las sensaciones rarunas. El efecto doppler que no acaba nunca. Ademas cuando viene una moto de agua suele parecer que se acrca un buque de 700 toneladas.

Comment by Zor — 21 abril 2009 @ 17:10

La verdad es que no te entiendo muy bien cuando hablas del efecto doppler. Realmente no tiene nada que ver con lo que estoy contando del retraso entre oídos.

Se me ha ocurrido un invento, una especie de trompetillas para submarinistas que compensan la diferencia de tiempos separando 5 veces la distancia entre orejas. Los buzos ¿soléis llevar los oídos tapados, en contacto con el agua…? ansío una respuesta.

Comment by voet — 21 abril 2009 @ 18:09

Depende de lo friolero que seas y la temperatura del agua, llevarás la cabeza al descubierto o con una capucha de neopreno. Pero eso de las trompetillas no me parece muy práctico…. salvo para comunicarse con las langostas chocando las “antenas”, quizá?

Comment by maria — 23 abril 2009 @ 16:52

bueno, ya verás cómo es el invento… lo que no me has dicho es si llevando el traje de neopreno las orejas están en contacto con el agua o no.

Comment by voet — 23 abril 2009 @ 17:09

Si te pones dos esponjas húmedas rezumantes sobre las orejas, están las orejas en contacto con el agua…? Supongo que dudas de si la capucha cubre las orejas y, sí, sí que lo hace (piensa en agua helada entrando en tus oídos… y entenderás el por qué ;-) ) Pero hay una solución “fácil”: perforar el neopreno dejando un hueco (lo más ajustado posible) que se adapte a las trompetillas :-D

Comment by maria — 23 abril 2009 @ 23:01

¡bien! es que parte del diseño dependía de eso. futuro post prometido sobre acústica y buceo.

Comment by voet — 23 abril 2009 @ 23:18

Estaré al tanto :-)

Comment by maria — 23 abril 2009 @ 23:41

Panature ya no está disponible, ¿sabeis de otro plug de delay que puedas pomer microsegundos?
gacias por la ayuda

Comment by ale — 1 febrero 2011 @ 17:29

“voxengo audio delay” te permite, si no me equivoco, poner hasta centésimas de ms. pero yo usaría algún plugin más elaborado, tipo a los que menciono.

Comment by voet — 1 febrero 2011 @ 19:44

Deja un comentario



índice   cranf.net   wordnadapress