12 abril 2011

una gráfica para meditar

  • RSS
  • Facebook
  • Meneame
  • Twitter
  • MySpace
  • Digg
  • del.icio.us
  • BarraPunto
  • Bitacoras.com
  • Slashdot
  • StumbleUpon
  • Technorati
  • Wikio
  • Google Bookmarks

26 febrero 2011

coprobox plus

Antes de ayer estrené mi flamante, brand-new COPROBOX, caja-invento para guardar periféricos (en este caso discos duros externos) sobre la que escribí hace un par de días.

Como mi temperamento es perfeccionista, en vez de fumarme un puro tras las breves pruebas de temperatura (en las que pude comprobar que a pleno rendimiento, apenas se elevaba la temperatura interior 2º cada 10 minutos) continué investigando el comportamiento térmico de la caja con pruebas más exhaustivas.

La primera bofetada la recibí midiendo la temperatura del aire del interior de la caja con los discos encendidos sin actividad. Véase la siguiente gráfica, que refleja la diferencia con respecto a la temperatura ambiente:

Como podéis ver, durante la primera media hora la temperatura ascendió al ritmo esperado, y tras pasar 30 minutos pegó un salto considerable, que al principio achaqué a un mal uso, por mi parte, del termómetro de precisión que estaba utilizando. Tras pasarme 5 minutos comprobando y recomprobando las medidas, por precaución apaqué toda la electrónica del interior de la caja para observar, horrorizado, que ni así la temperatura bajaba. A los 75 minutos del experimento abrí parcialmente la caja y sólo entonces la temperatura descendió.


Los/las que hayáis leído el artículo anterior diréis: pero animal, cómo haces la caja de madera, por mucho tratamiento ignífugo que tenga. Debo decir que razón no falta, pero una caja metálica tampoco es una solución ideal. Hay que tener en cuenta que en cualquiera de los casos el calor difunde por radiación, principalmente, y que este tipo de difusión es lenta. Aprovecho para enarbolar un principio a considerar siempre que hablemos de refrigeración de PCs y similares.

El transporte de materia, para disipar calor, siempre es más efectivo que el de energía.

Los metales suelen ser excelentes conductores del calor, y es por un motivo muy sencillo: porque la materia, cierto tipo de materia, se mueve libremente en su interior: en este caso, los electrones. Sustancias como el plástico o la madera tienen sus electrones bien fijados y siempre son peores conductores del calor. Asimismo, un gas también suele ser buen conductor térmico por el hecho de que sus partículas —de nuevo materia— se mueven con total libertad, aunque con ciertos matices que no se deben ignorar; o si no los cristales dobles para aislar térmicamente no tendrían sentido.

Es por eso que los mejores disipadores para CPU no se suelen limitar, como antiguamente, a un abanico o apilamiento de superficies de cobre o aluminio, sino que en su interior contienen un líquido a temperatura ambiente que, al elevarse unos grados, se convierte en gas. De ese modo el transporte de calor se convierte en transporte de materia que recircula de un extremo a otro del disipador.

un disipador pasivo (o sea, sin ventilador) sonic tower, basado en el principio que acabo de describir, montado en mi anterior CPU. circa 2008.

Pero esto no significa que una caja de metal sea un excelente medio para la disipación de un PC: y es por el hecho de que tiene que haber una buena transferencia de energía entre el gas caliente del interior de la caja y las propias paredes de esta. Ese es el motivo de que la publicidad de las cajas PC de aluminio por la excusa de la refrigeración sea bastante engañosa. No sólo no disipa mucho mejor que el acero, sino que suelen ser bastante menos robustas y, en algunos casos, vibrar excesivamente por el traqueteo mecánico en el interior del ordenador, lo que se conoce como aluminium hum.

Respecto a la transferencia de gas, basta con hacerse una pregunta: Si el gas transporta muy bien el calor porque la materia se mueve libremente, ¿por qué las ventanas las hacen dobles con aire en medio?

La respuesta es doble: 1) los gases son muy poco densos, con lo que el transporte de materia-energía neto requiere que se haga a gran velocidad mediante el uso de un ventilador o de diferencias de presión relativamente intensas. Y 2) la geometría del sistema debe ser tal que el aire pueda circular con facilidad.

Los cristales dobles efectivos tienen todos una particularidad: la distancia entre cristales es de sólo unos milímetros. De este modo, es casi imposible que se formen corrientes de convección. Vecinos que ingenuamente ponen ventanas dobles, una en cada borde del alféizar, consiguen cierto aislamiento acústico, pero no térmico, ya que en el palmo de espacio entre las ventanas se forman corrientes que transportan el calor.

foto de hace unos años de cuando estaba obsesionado con la temperatura y el silencio. sí, es mi casa. mola, ¿eh? circa 2006.

¿Y qué fue lo que ocurrió en mi magnífica COPROBOX? Pues que al principio se formó una pequeña diferencia de temperatura entre la parte inferior y superior que favorecía la lenta salida de aire caliente por los agujeros de la parte superior. Esto era lo esperado. El problema es que llegado cierto punto en el que todo el aire alcanzó una temperatura similar, se formaron turbulencias, de tal modo que el flujo de aire pasó de ser más o menos dirigido a ser caótico. De ahí el principio número dos:

Evita las turbulencias.

El lector/a ingenuo pensará: joer, pon un ventilador y ya está.

Pero es que no basta con poner un ventilador, ya que este se debe colocar de modo adecuado. Poner un ventilador de hecho puede disminuir o aumentar la turbulencia; y eso sin contar con el propio calor que genera el motor del ventilador. Así que el anterior principio se debe formular así:

Evita las turbulencias extrayendo el aire de la caja, no introduciéndolo.

Cuando soplamos por una pajita dentro de un vaso, se forman un montón de burbujas muy divertidas. En realidad, lo que estamos viendo es la formación de turbulencias violentas en el líquido. Si por el contrario chupamos de la pajita no sólo no salen burbujas, sino que favorecemos lo que se denomina un flujo laminar, por el cual las partículas del líquido tienden a moverse siguiendo trayectorias uniformes.

Mucha gente que monta ordenadores e intenta refrigerarlos bien tiene la costumbre de poner un montón de ventiladores, unos extrayendo aire caliente y otros introduciendo aire frío. Esto es un ERROR, ya que es más efectivo SIEMPRE extraer el aire.

En todo caso, esta estrategia sólo tiene sentido cuando queremos que el aire se mueva con más intensidad en ciertos componentes, y esa es la razón de que el propio chip de la CPU tenga un potente chorro de aire encima. Pero eso no tiene que ver en realidad con sacar o meter el aire de la caja, sino con favorecer el intercambio de calor en ese componente concreto.

Aun así, siempre que haya más ventiladores sacando que metiendo no estaremos metiendo mucho la pata. Y si el chorro de aire frío va directo, canalizado, a la CPU u otros componentes generadores de mucho calor, entonces sí lo estamos haciendo bien. Pero un ventilador que mete aire hacia dentro porquesí, sin estar orientado a un componente concreto, de poco sirve.

En definitiva, nos interesa siempre crear presión negativa, dentro de la caja, de tal modo que el aire caliente salga como un gran chorro dirigido y el aire frío entre a través de ranuras y agujeros estrategicamente colocados.


Toda esta parrafadísima es para justificar por qué acabé añadiendo un pequeño ventilador a la parte trasera de mi espléndida COPROBOX y así convertirla en la COPROBOX PLUS. Por supuesto, extrayendo el aire, no introduciéndolo.

si leer el artículo anterior os dió pereza, aquí repito la foto que puse en él del insigne cacharro de mi invención.

No tuve necesidad de gasta un euro para hacerlo, aparte del esfuerzo de hacer el agujero (y malograr ligeramente la estética de mi preciosa caja, aunque tal como está colocada no se ve) ya que utilicé un ventilador de CPU de 8cm que saqué de un ordenador viejo y un viejo cargador de NOKIA como fuente de alimentación. La manera de conectarlo, empalmando cables y vigilando la polaridad, es tan elemental que no me voy a molestar ni en esquematizarlo.

El ventilador funciona a 12V, y el cargador (esto puede variar) de 5V. Con esto me aseguro un flujo de aire constante sin forzar el ventilador, de modo que no haga demasiado ruido. Esto es porque un ventilador de estos, cuando recibe 12V, suele girar a unas 2500rpm. Con 5V, se reduce a menos de 1500rpm. Y así mete menos bulla que el propio ordenador, con lo que ni se oye.

Monitorizando la temperatura de los discos duros externos mediante software, obtuve esta gráfica de temperatura absoluta en relación al tiempo ANTES de montar el ventilador, y con los discos inactivos:

Como se puede ver, el ascenso de temperatura es bastante considerable; pero lo peor es que tras apagarlos a los 30 minutos de conectarlos, una hora después todavía estaban relativamente calientes. La diferencia entre ambos discos es debida a que son de casas distintas y a que uno está debajo del otro. Aunque existe hueco entre ellos, esto hace que el inferior se caliente más.

Una vez instalado el ventilador, repetí las medidas, obteniendo esta gráfica (en clarito, la gráfica anterior para que se compare mejor):

Se puede ver que la temperatura tope es ahora unos grados menor. Pero lo importante es la bajada de temperatura, mucho más rápida, tras apagar los discos duros dejando el ventilador de la caja encendido, que funciona siempre que la regleta esté conectada.

Y no veáis lo que mola poner la mano sobre la caja y notarla fresquita.


La moraleja es:

Vigila la temperatura de tus discos duros.

La vida útil de un disco duro depende enormemente de la temperatura a la que suelen trabajar, y NUNCA deberíais dejar que superara los 40º de manera permanente.

Aun tengo por hacer una comparativa exhaustiva de software de monitorización de temperatura de discos duros, así que voy a dejar la recomendación para un futuro artículo. Espero que toda esta información os haya sido útil.

  • RSS
  • Facebook
  • Meneame
  • Twitter
  • MySpace
  • Digg
  • del.icio.us
  • BarraPunto
  • Bitacoras.com
  • Slashdot
  • StumbleUpon
  • Technorati
  • Wikio
  • Google Bookmarks

25 septiembre 2010

remasterizando grabaciones orquestales

archivado en: Análisis Audio Música

Por favor, escucha con atención el siguiente audio: es un fragmento de la grabación que vamos a remasterizar.

Clip de audio: Es necesario tener Adobe Flash Player (versión 9 o superior) para reproducir este clip de audio. Descargue la versión más reciente aquí. También necesita tener activado Javascript en su navegador.

Acabas de disfrutar del principio del Concerto Grosso para Cuarteto de Cuerda y Orquesta, compuesto en 1958 por el compositor avilesino Julián Orbón, en la versión realizada por el Cuarteto Latinoamericano y la Orquesta Sinfónica Simón Bolívar de Venezuela dirigida por Eduardo Mata.

No sólo estamos hablando, por tanto, de una interpretación de primer orden, sino también de una grabación de excepcional calidad realizada en 1993 por la que quizás es una de las mejores compañías especializadas en la mal llamada música clásica: Dorian Recordings.

El propósito de este artículo es doble: por una parte, comentar algunas tendencias en grabación de sonido, con sus virtudes y defectos. Por otra, explicar como en algunos casos concretos de grabaciones orquestales podemos adaptar estas a un propósito muy distinto del original.


Existen dos tendencias opuestas a la hora de grabar música, cada una de ellas asociadas a dos estilos muy distintos como puedan ser el pop y la música orquestal.

Desde los años 80, a pesar de los crecientes y cada vez más baratos medios técnicos, la grabación de música pop se caracteriza por las llamadas loudness wars, que no son más que una absurda tendencia a hacer que la música suene cada vez más alta a costa de perder su dinámica; hasta el punto de que hoy en día cualquier canción de la radio suena con el mismo volumen —ensordecedor— de principio a fin.

Dentro de la música orquestal la tendencia es justo la contraria: respetar en lo posible la experiencia original de escucha. Esto sin duda es bueno, pues de este modo se garantiza que la experiencia sea lo más fiel posible, lo más parecido a estar en una sala de conciertos. Sin embargo esta filosofía tiene su lado negativo, ya que condiciona el uso de aparatos reproductores de alta fidelidad a un volumen adecuado y en un ambiente completamente silencioso.

¿Por qué es así? porque precisamente la fidelidad a la dinámica, el respeto a las secciones musicales que suenan a volúmenes muy diversos, provoca que este tipo de grabaciones no se puedan escuchar en ambientes como pueda ser el interior de un coche, lugar que como un gran ingenierio de sonido definió, es el peor lugar donde se puede escuchar música. Más aún, existe un adagio que asegura que si una grabación suena bien en un coche, probablemente suena bien en cualquier otra parte.

La compañía Dorian Recordings, responsable de esta producción del Concerto Grosso, sigue una curiosa política a la hora de grabar sus discos: hace uso exclusivo de dos micrófonos digitales de altísima calidad (que cuestan lo que usted y yo ganamos en varios meses) cuya señal no es posteriormente procesada de ningún modo… y que además están situados en el centro de la sala de conciertos donde se ejecuta la interpretación. Esto, como ya he explicado, es en aras a simular, dentro de lo posible, la experiencia de un oyente que se encontrara en la misma sala durante la grabación.

No obstante, ésta sólo se puede apreciar correctamente en un ambiente perfectamente controlado como el ya descrito. No se puede escuchar bien en un coche, como mencioné antes, o con unos auriculares mientras caminamos por la calle.

Así que voy a proceder a explicar como, mediante el uso de herramientas informáticas relativamente sencillas u otras equivalentes, podremos modificar cualquier grabación original, exquisita, delicada, para convertirla en una especie de grabación todoterreno susceptible de ser escuchada en cualquier ambiente. Y como no, pondré de ejemplo la pieza que hemos tenido ocasión de escuchar al principio del artículo.

Por otra parte, y esto es preferencia personal, voy a explicar también como mover esa grabación de su pretendida ubicación original, que es el patio de butacas, para ubicarla, virtualmente, en el puesto del director de orquesta, el personaje que, en teoría, es el que mejor la escucha.


Este primer gráfico, realizado con un magnífico programa llamado Har-Bal, refleja el espectro acumulado de la grabación original. En él la línea amarilla representa la magnitud de los picos presentes a cada frecuencia, y la línea verde la potencia RMS (root mean square), que no es más que la raíz de la media del cuadrado de la onda en cada frecuencia. Esta línea verde es muy importante pues es análoga a la intensidad real percibida por el oído.

Debería llamarnos la atención la horizontalidad de ambas lineas en el rango de 150 a 2000Hz: ahí se recoge la mayor parte de la información musical, y en ese sentido la grabación es absolutamente impecable.

Sin embargo, vemos que la caída de ambas líneas a partir de 2000Hz es exagerada. Es decir, falta tanto el brillo de algunos instrumentos, como los violines y los vientos-metal, como la sensación de estar ahí, de directo, que se expresa siempre por encima de los 10000Hz. Esto es por el hecho de que el aire suele absorber esas frecuencias en el momento que estamos a cierta distancia de la fuente de sonido, lo que es lógico si asumimos que los micrófonos se encontraban en el medio de la sala, a muchos metros de la orquesta.

Por otra parte, en la zona de los bajos vemos una caída también espectacular y una gran distancia, con respecto al resto de la gráfica, entre ambas líneas, lo que es especialmente notorio en el pico que se encuentra justo debajo de los 50Hz y que corresponde al timbal de la percusión, muy presente a lo largo de toda la obra. Este aumento de la distancia entre el valor pico y el valor RMS lo encontraremos siempre en instrumentos pinzados y percutidos, precisamente por la altura del “golpe” inicial.

Debo decir en este momento que, personalmente, considero el Concerto Grosso de Orbón absolutamente espectacular, brillante, vibrante; incluso, permitiéndome ser poético, con sabor a jungla. Y por eso la he elegido. Porque es una pena que esa información sonora, el brillo, el aire, se pierda. Así que procederemos a, entre comillas, “arreglarla”.


El primer paso será subir los agudos para así, virtualmente, acercarnos a la orquesta y situarnos en el puesto del director. Eliminaremos, por así decirlo, el aire intermedio.

El siguiente será nivelar la línea verde de tal modo que quede como en la gráfica siguiente: perfectamente nivelada, en el primer tramo, a -40dB, para luego efectuar una caída suave a partir de la zona de 1000 hasta los 10000Hz, donde rozará los -50dB. Esto es para que a la hora de comprimir, que será nuestro siguiente paso, situemos el umbral de compresión precisamente a partir de esa línea y así acercar/aplastar la línea amarilla de picos hasta dejarla más o menos paralela a la verde.

Esa caída suave en las frecuencias agudas, una vieja regla en masterización, impide que la música sea tan brillante que resulte desagradable a lo largo de un tiempo. Todas las buenas producciones la tienen, aunque en función de la mezcla la pendiente puede ser mayor o menor: en ese sentido no existe una regla fija.


Las siguientes capturas muestran los valores que he asignado al compresor multibanda Izotope Ozone, con el que la música será comprimida para aplastar esos picos. A mucha gente no le parece bien la compresión de la música orquestal. Yo creo, no obstante, que una compresión bien hecha siempre hace que la música suene mejor y se distingan mejor muchos detalles.




Como se puede ver, he puesto una gran pendiente, de factor 2:1, a partir del umbral de compresión, que en el caso de cada banda se aproxima al de la posición de la línea verde, la intensidad RMS, del espectro anterior. He tenido especial cuidado en los parámetros de ataque y liberación de los compresores, que son de unos 5ms y 100ms respectivamente, para evitar que la música “bombée” y también para añadir cierto punch, suavísimo, al ataque de los instrumentos.

Por otra parte hay que tener mucho cuidado en la señal de salida, que he bajado unos 12dB respecto a la de entrada, de tal manera que no se produzcan cortes de los picos. Y diréis ¿y por qué subio 18dB cada banda para luego bajar 12dB a la salida? ¿No sería mejor tocar nada y limitarse a normalizar la salida? Ya, pero es que de este modo hacia -60db puedo ver la puerta de ruido adicional que añado con una pendiente también 2:1 (en realidad, inversa a la de la compresión) para minimizar el ruido en las partes más débiles.

Adicionalmente he separado progresivamente los canales izquierdo y derecho de las frecuencias altas, como se refleja en el gráfico anterior: esto es porque el director percibe los instrumentos más separados que el oyente. Y también he juntado los canales en las bajas frecuencias para que suenen en mono. La información estéreo en este rango no suele aportar nada y de este modo los altavoces, que siempre pasan dificultades con los graves, trabajan al unísono apoyándose mútuamente.


Llegados a este punto, tras la compresión, apetece tirarse a maximizar la mezcla. Pero no lo voy a hacer sin antes comprobar como ha afectado la compresión a la ecualización. Esto hay que hacerlo siempre, aún a pesar del argumento de que demasiado proceso se acaba cargando el resultado. Véase lo que ha pasado:

En primer lugar, la suave pendiente de los agudos se ha aplanado un poco. Esto no suele ser bueno porque la que ya expliqué del cansancio de los oídos. Así que habrá que corregirlo.

Por otra parte, a la izquierda tenemos todavía parte importante del pico del bombo. A la hora de la verdad, a no ser que tengamos un subwoofer estupendo y nos guste la sensación de aire en el estómago, podemos desdeñar todo lo que esté por debajo de 50Hz porque pocos parlantes pueden reproducirlos y todo lo que esté en esta zona no hace más que añadir volumen a la mezcla… volumen que no oiremos y que además se restará a las bandas audibles. Por eso me lo cargo.

Tras ecualizar convenientemente eliminando los subbajos y bajando ligeramente los agudos obtendremos esta pequeña maravilla de espectro, muy parecido a los que conseguía Alan Parsons a base de puro oído:


Ya sólo queda el proceso de maximización. La onda final sólo tiene dos picos puntuales demasiado intensos y una zona central bastante prominente. De todos modos no se debe respetar mucho esa zona porque en el caso de esta pieza concreta es bastante estridente de por sí (consiste en la orquesta entera “llamando a la puerta” de manera obstinada) y el corte de esos picos apenas se notará.

Así que ajustando el maximizador (suelo usar el L2 Ultramaximizer de la increíble casa Waves) con los parámetros siguientes…

…obtenemos esto:

Comparando la onda de la grabación original con el resultado final se ve claramente el profundo efecto que ha tenido la compresión sobre las zonas de menor volumen; pero también como la dinámica de la grabación a grandes rasgos se conserva.

La grabación ahora no sólo es mucho más brillante y envolvente, en parte por la intención de desplazarnos virtualmente de la posición de oyente a la de director de orquesta: la intensidad total de la pieza se ha elevado de -28RMS de potencia media hasta -20RMS. Estos 8dB de diferencia implican casi el doble de volumen percibido. ¡Ya podemos escucharla en cualquier parte!

Por supuesto, no voy a acabar el artículo sin poner un audio que muestre, alternando, las diferencias entre la pieza original y el remaster realizado:

Clip de audio: Es necesario tener Adobe Flash Player (versión 9 o superior) para reproducir este clip de audio. Descargue la versión más reciente aquí. También necesita tener activado Javascript en su navegador.

  • RSS
  • Facebook
  • Meneame
  • Twitter
  • MySpace
  • Digg
  • del.icio.us
  • BarraPunto
  • Bitacoras.com
  • Slashdot
  • StumbleUpon
  • Technorati
  • Wikio
  • Google Bookmarks
archivado en: Análisis Audio Música
índice   cranf.net   wordnadapress
1