25 mayo 2009

sand.cranf.net

archivado en: Java Proyectos

Como avisé en este post, estos días tenía el glob poco activo porque andaba entretenido programando un nuevo proyecto web.

Este fin de semana lo acabé. Y tras unas pequeñas pruebas con usuarios, ya está lo bastante maduro como para hacerlo público.

Prefiero no explicar mucho. Simplemente jueguen generando paisajes con http://sand.cranf.net.

arena

PS: Si por algún motivo tenéis problemas, es que no tenéis instalada la máquina virtual de java en la versión 1.6 (también conocida como java 6 a secas).

  • RSS
  • Facebook
  • Meneame
  • Twitter
  • MySpace
  • Digg
  • del.icio.us
  • BarraPunto
  • Bitacoras.com
  • Slashdot
  • StumbleUpon
  • Technorati
  • Wikio
  • Google Bookmarks
archivado en: Java Proyectos

4 mayo 2009

infobrebaje

archivado en: Programación Recetas

¿Informático, eh? Cuantas noches seguidas programando como un campeón. Pues para tí, nada como Infobrebaje, elixir de los valientes.

INGREDIENTES

Para una persona·noche de programación salvaje…

  • 1 botella de cocacola o pepsi de 2 litros CON cafeína
  • Café negro
  • 1 tubo de goma de 1 metro

PROCEDIMIENTO

Si tienes una cafetera italiana simplemente prepara un café hasta arriba. En caso de tener una cafetera de goteo, llénala solamente hasta la mitad de agua y pon algo más de café de lo habitual. La textura final del lixiviado (¡toma ya!) obtenido ha de ser parecida a la del fuel del Prestís.

Enfría el café en la nevera (y no en el congelador) hasta que esté a una temperatura parecida a la de la bebida de cola. ¿Por qué?:

  1. Si metes el café casi hirviendo en el congelador lo más probable es que te cargues la nevera.
  2. A la hora de hacer la mezcla, si el café está caliente lo que obtendrás será algo parecido a una fiesta de la espuma, pero en warro.

Ahora, bébete una cantidad de cola equivalente a la de café obtenido y vierte este último en el hueco dejado en la botella. NO agites la botella.

Pon la botella al lado de la CPU, inserta la goma en el interior, tocando el fondo, y pon el otro extremo (de la goma, no del fondo) en la boca. Ya estás preparado para programar hasta altas horas de la madrugada. Incluso de la del día siguiente.

NO me hago responsable de los efectos de la ingestión de Infobrebaje. Reclamaciones al maestro armero. Conozco un caso de un informático que parecía que tenía el baile de San Vito y no paraba de decir “joé que sueño tengo”.

Si empiezas a confundir lenguajes mientras estás programando (a mí me pasa mucho con el “alert” de javascript y el “trace” de actionscript) acuéstate. Feliz debugging.

  • RSS
  • Facebook
  • Meneame
  • Twitter
  • MySpace
  • Digg
  • del.icio.us
  • BarraPunto
  • Bitacoras.com
  • Slashdot
  • StumbleUpon
  • Technorati
  • Wikio
  • Google Bookmarks
archivado en: Programación Recetas

19 abril 2009

psicoacústica: HRTF

archivado en: Audio

[Este post es técnico y dirigido a viciosos del audio. Aún así, como el lector promedio de este blog es una persona con inquietudes animo a echarle un vistazo.]

A la hora de situar un sonido en el espacio hay que tener muchos factores en cuenta: volumen, ecualización, los primeros ecos (en lenguaje técnico ER, early reflections), la reverberación… y lo que nuestras orejas hacen con ese sonido. De esto último va este artículo.

La mayor parte de la gente va por la vida, feliz ella, pensando que las orejas no funcionan más que como una especie de embudos que atrapan el sonido y lo concentran en el agujerito del oído. Básicamente, que en caso de perder una oreja las únicas consecuencias serían tener que usar lentillas por narices, un pequeño problema estético a lo van gogh… y que por ese oido oiría un poco más bajo; nada que no se pueda solucionar apoyando una cuchara detrás del oído simulando un pabellón auditivo. Craso error.

Ahora veremos lo que hacen de verdad la orejas.

La cuestión para el técnico de sonido es que cuando se hace una mezcla convencional de audio, aparte de los recursos ya citados (ecualización, ER, reverberación) que afectan sobretodo a la distancia dónde está situada la fuente de sonido, la única opción que tenemos para indicar el ángulo del que viene el sonido es, a primera vista, el panning, o sea: que se oiga más por un altavoz que otro. Si se oye más por el derecho, es que el sonido viene por ahí y se acabó.

Haciendo esto sin utilizar otros recursos da como resultado un sonido bastante plano en el que realmente es fácil distinguir los instrumentos a lo bruto, pero en el que si cerramos los ojos, veremos que el sonido parece venir sólamente de la línea entre altavoces. Y si los altavoces tienen una colocación, ejem, un poco sui generis, entonces conseguimos una especie de sindiós donde cualquier parecido con la realidad es pura coincidencia. Pero asumo que están bien colocados o que el oyente utiliza auriculares.

Ahora bien… ¿qué más factores influyen aparte de la diferencia de volumen entre altavoces?

EL RETRASO DEL SONIDO ENTRE OÍDOS

Quizás el más importante sea el hecho de que entre las orejas existe una distancia algo menor que un palmo. El que haya una cabeza por el medio también influye: pero eso lo dejamos para luego. Siguiendo la regla anglosajona que dice que el sonido viaja 1 pie en 1 milisegundo, eso significa que cuando un sonido nos llega de la derecha, llega al oído derecho ANTES que al izquierdo… y la diferencia, siguiendo un cálculo sencillo, es menor de 1ms ya que la distancia entre oídos es menor que 1 pie.

Aplicando trigonometría y conociendo la velocidad del sonido para deducir los tiempos, sería genial disponer de un filtro digital que permitiera controlar retrasos del orden de microsegundos para poder ajustar co precisión la posición angular de un sonido concreto. La buena noticia para los aficionados a la producción digital de audio es que existe un plugin VST gratuito, el Panature, que permite controlar los retrasos inter-oído con esa precisión. Simplemente probando a añadir este retraso se pueden conseguir resultados espectaculares.

La fórmula es muy sencilla de calcular, mas aún si aproximamos que la distancia al sonido es mayor que la existente entre las orejas:

formularetrasooidos

Tomando angulo=0 para el frente, positivo para los sonidos a la izquierda y negativo para los situados a la derecha (utilizando siempre el sistema internacional) nos dará el resultado en segundos, aunque será mejor expresarlo en microsegundos. Obviamente pueden salir valores negativos: porque el valor es respecto al oído derecho.

Si por ejemplo tomamos un sonido a la derecha, con ángulo = -90º, distancia entre oídos = 15cm y velocidad del sonido = 330m/s obtendremos -321 microsegundos. Eso significa que llegará al oído derecho 321 microsegundos antes que al izquierdo. Para valores positivos, significa que llega primero al oído izquierdo.

Hay que tener en cuenta que el abuso de este recurso es muy utilizado, a veces insconcientemente, cuando para dar mayor espacialidad a las mezclas se retrasa el sonido entre altavoces con valores mayores a 1ms. En ese caso se obtiene un sonido muy abierto pero desgraciadamente irreal. Cuando no me preocupo del verismo en una producción suelo hacerlo con las camas de teclado o cuerdas más distantes para situarlas en cualquier lugar menos con el resto de intrumentos.

EL FILTRADO DE FRECUENCIAS POR LA CABEZA Y LAS OREJAS

Pero la diferencia de tiempos no es el único parámetro que influye. El hecho de que haya una cabeza en medio de las orejas sigue siendo, para muchos, una desgracia. Sin embargo, el lector y yo, orgullosos de tener cabeza, lo aprovechamos a nuestro favor.

Si un sonido llega de la derecha, llega prácticamente directo al agujero del oído de ese mismo lado. Menos de 1ms más tarde llegará al otro oído PERO… tras rodear la cabeza. En este caso al oído izquierdo le llegan muchos menos agudos que al derecho. La diferencia en la ecualización entre los sonidos que percibe cada oído también aporta información al cerebro.

Y si la cabeza tiene esa influencia, el papel de las orejas como tales es fun-da-men-tal. Todos los repliegues raros que tenemos en las orejas funcionan como filtros notch (o sea que eliminan bandas concretas) cuya eficacia y parámetros dependen del ángulo en el que llega el sonido: y no sólo el ángulo izquierda-derecha (azimut); también el de arriba-abajo (elevación).

Llegados a este punto invito al lector a que chasquée los dedos mientras los mueve de un lado a otro de la cabeza. Hay una diferencia, sutil pero apreciable, en el chasquido mientras la mano se mueve. Si cerramos los ojos, percibiremos muy claramente la situación espacial del chasquido. Si los abrimos y nos concentramos (nos tapamos un oído), nos daremos cuenta de que en realidad lo que más cambia es la ecualización del sonido, aunque de una manera terriblemente difícil de concretar.

Arriba y abajo también funciona: se aprecia claramente que si se pone la mano más arriba de la cabeza el sonido se percibe algo más agudo que si se pone a la altura del pecho. Este es un viejo truco utilizado durante décadas por los grandes mezcladores para elevar o bajar físicamente un instrumento, por cierto.

Y ESTO CÓMO SE APLICA

A principios de los 80 un zoquete genial, Hugo Zuccarelli, inventó una técnica de grabación que llamó holophonics. Esta técnica, que básicamente no es muy distinta a la grabación binaural con maniquíes, consiste en la colocación de dos micrófonos en una cabeza de maniquí con orejas. De este modo es el propio maniquí el que hace el trabajo de filtrar los sonidos que le llegan facilitando el trabajo del montador de audio.

Los resultados son espectaculares. Pero ojo, para que esta técnica funcione correctamente es necesario oir las grabaciones con buenos auriculares. Los altavoces tienden a interferirse mútuamente estropeando bastante la sensación. Esta interferencia se puede compensar bastante, de todos modos, mediante el uso de filtros digitales siempre que los altavoces estén bien colocados.

Antes de seguir: Lo de zoquete lo digo porque el tal Zuccarelli insistía/insiste en que el efecto era debido a que los humanos emitimos rayos acústicos por las orejas que interfieren con el sonido percibido. Sin comentarios.

HÁGALO VD. MISMO

Ahora, si no tenemos un sofisticado equipo con maniquí ¿a qué podemos recurrir en nuestras mezclas para simular lo que nos hacen las orejas?.

Para ello existen las funciones HRTF (Head Related Transfer Function). Son funciones matemáticas que recibiendo 2 canales de audio y parámetros de distancia, ángulos de azimut y elevación pueden imitar el trabajo de nuestras orejas. En algunos casos incluso calcula efecto doppler. Obviamente son un invento relativamente reciente que proviene del análisis de grabaciones binaurales; como las del maniquí que hablé hace un momento.

Existen varias HRTF desarrolladas y son empleadas por diversos sistemas de audio y plugins. Quizás las más famosas sean las elaboradas a principios de los 90 en el MIT con el maniquí llamado KEMAR (Knowles Electronic Manikin for Acoustic Research).

A la hora de la verdad, si somos de los que nos gusta experimentar, podemos usar los siguientes plugins HRTF de software (hay más, pero estos son los que más conozco) en cualquier programa de edición de onda que los admita.

  • prosoniq ambisone. De pago, algo cutrongo, sin automatización y entrada mono. Aun así, bastante efectivo en resultados. Controla azimut, velocidad de giro, elevación y permite seleccionar calidad y el peculiar modo wide field.
  • mda roundpan. Muy similar al anterior, pero en feo. También con entrada mono. Sólamente tiene elevación y velocidad de giro, pero controlable de modo mucho más preciso que con el ambisone. Además, a diferencia de este, es automatizable.
  • wavearts panorama. Mucho más sofisticado y caro, admite entrada estéro y permite, aunque no me gusta mucho ni el cómo ni el interfaz, calcular también ER y reverberación. Estos conceptos los dejaré para otro artículo.

Personalmente tengo costumbre de utilizar estos conocimientos de psicoacústica en mis mezclas. Por ejemplo, en mi tema Eos Chasma uso y abuso del filtro mda roundpan, desde las campanitas del principio hasta las camas que están durante todo el tema girando alrededor a distintas velocidades. Obviamente se detecta mejor con cascos.

Por último: no todo el mundo tiene las mismas orerjas y no todo el mundo percibe igual las mismas funciones HRTF. Aquí se puede escuchar el mismo sonido moviéndose alrededor de la cabeza utilizando multitud de HRTFs distintos.

  • RSS
  • Facebook
  • Meneame
  • Twitter
  • MySpace
  • Digg
  • del.icio.us
  • BarraPunto
  • Bitacoras.com
  • Slashdot
  • StumbleUpon
  • Technorati
  • Wikio
  • Google Bookmarks
archivado en: Audio
índice   cranf.net   wordnadapress
12