lunes, 27 de mayo de 2013

Armando un Home Studio - parte 2


- Micrófonos y preamplificadores. Lo lógico es comenzar comprando micrófonos versátiles y durables, que nos puedan servir para captura de muchos instrumentos y que no se rompan fácilmente. Históricamente (y aún continúa siendo así) los que rankean en esta categoría son primero el Shure SM58 y en segundo lugar el SM57.

Después podemos ir comprando micrófonos más específicos para lo que querramos grabar. Un condenser (sea de diafragma chico o grande) nunca está de más.

Como siempre, no conviene comprar algo muy económico pero poco confiable en cuanto a calidad y durabilidad; en ese caso es preferible esperar y comprar algo decente. Todas la marcas tienen algún modelo con mejor relación calidad-precio que el resto de su línea, no le tengan miedo a marcas como Behringer, se pueden llevar gratas sorpresas.


(c) Shure


  - Procesadores externos. Para la gran mayoría de usuarios de home studio éste es un terreno inexpugnable. Es cierto que los avances en software y plugins volvieron mucho menos relevante el hardware (sobre todo el económico), porque muchos plugins suenan realmente muy parecidos a sus versiones en hardware originales.

Donde sigue siendo fundamental el outboard es en conversiones AD-DA y clocks. La diferencia de utilizar un master clock externo comparado con el interno de una interfaz común, es abismal. Ésa suele ser la primer inversión en mejoras de outboard.


- Patchera. Hoy en un día el uso de una pachera tradicional carece de sentido porque casi no se usa outboard (procesadores externos) en un entorno de estudio casero. Incluso varios fabricantes (MOTU, RME, Antelope, etc) incluyen con sus placas de sonido un software host para ruteo y mezcla de entradas y salidas. Lo que antes se hacía exteriormente enchufando y desenchufando cables ahora se puede hacer con unos clicks, cambiando inputs, outputs, busses y ruteos sin tocar un solo cable.


(c) RME Audio


- Cables. Si te estás yendo de presupuesto, pensar que podés compensar comprando cables muy económicos es un GRAN error. No hablo de esos mitos de audiófilo, de esos cables dignos de la NASA: hablo de comprar cables apenas mejor que los comunes. No de precios exorbitantes, pero sí de buena calidad, con buenas soldaduras, flexibles y durables.

Un cable que cuesta un 15% menos que otro, pero dura la mitad de tiempo, no es barato sino caro. Abstenernos de hacer malas compras va a ayudarnos a mejorar nuestro setup con menos dinero.

Siempre sirve tener todo tipo de cables, ordenados y etiquetados según el largo. A veces un mismo conector se usa tanto para audio digital como analógico, por eso es importante rotular bien los cables y evitar confusiones.


- Accesorios. A medida que vamos invirtiendo más y más horas diarias en el estudio nos vamos dando cuenta qué es lo que nos falta para trabajar de manera más fluida. Todo lo que nos facilita el flujo de trabajo, nos deja más tiempo para trabajar más creativamente nuestro audio, nuestra música. Un mouse o un trackball, sumado a un conocimiento de shortcuts, puede ser cómodo, peor cuando probamos con alguna ayuda extra no se vuelve atrás.

Quizá esa ayuda puede ser un controlador MIDI. O una superficie de control con muchos faders. O una con botones programables. Por suerte hay infinidad de opciones hoy en día, y es realmente recomendable hacer ese upgrade.


(c) Septic Studio

- Comodidad. No tiene que ver necesariamente con sonido ni con música, pero crear y trabajar en un ambiente comfortable es mucho más grato, ameno y nos acerca a mejores resultados.

Ayudan mucho a eso, por ej: sillas cómodas; una iluminación que sea estática ni blanca neutral; colores plácidos en paredes; y hasta cierto "desorden ordenado" que nos transmita calidez y no la frialdad de una oficina.

jueves, 16 de mayo de 2013

Armando un Home Studio - parte 1


En los últimos años los estudios "hogareños" (categoría muy amplia que cubre desde una PC vieja con virus y usada por toda la familia, hasta el garage de Dave Grohl donde grabó el último disco de Foo Fighters) han tenido una expansión notable, en parte gracias a los avances en tecnología, y en parte por razones de mercado y economía de los estudios comerciales. A todo músico que tiene una compu en su casa le interesa dar el siguiente paso: empezar a darle mejor uso a esa compu, sea para componer, grabar demos, ensayos, o discos enteros.

(c) myhomestyle.org

Por supuesto que la configuración necesaria cambia según el uso que se le vaya a dar: un locutor no pretende ni necesita lo mismo que un compositor que trabaja mucho con MIDI y sintetizadores, pero aquí va una guía para equivocarse lo menos posible.

1 - Entorno. De nada sirve tener los mejores equipos del mundo si el ruido (acústico o eléctrico) está presente. Comprarse un micrófono de muchos miles de dólares lo único que hará es captar con más claridad esos ruidos, y en definitiva vas a volver a grabar con un SM58 de 120 dólares.

Entonces el primer análisis para hacer es donde se está armando. ¿La instalación eléctrica es moderna? ¿Puesta a tierra? ¿Es un edificio que tiene alguna antena de radiofrecuencia? ¿Celulares? ¿Tu vecino es una fábrica con máquinas que hacen ruido constantemente? En cualquiera de esos casos, el talón de Aquiles de tu home studio siempre va a estar en el entorno, y no en el equipamiento. Para ver soluciones caseras de acústica pueden ver este post (click aquí).

2 - Monitoreo. No hacen falta los mejores monitores del mundo para hacer buena música. Lo ideal es empezar con un sistema de monitoreo que uno conozca bien, desde hace mucho tiempo. Conocer cómo suena cada instrumento en ese sistema, qué le falta, qué le sobra. Si exagera cierta banda de frecuencias se puede trabajar igual pero sabiendo que esa exageración va a estar presente y no debe ser compensada en la mezcla porque sino cuando se escucha en otro sistema que no tenga esa "exageración" va  a tener un bache de nivel en esas frecuencias. Es importante recordar que si hay un bache pronunciado en algunas frecuencias (por mala acústica o deficiencias de monitoreo), eso no se puede compensar con ningún ecualizador. No se puede recrear algo que no se sabe de qué manera "no existe", por así decirlo.


También hablamos un poco de monitoreo en otro post (hacer click aquí).


Como en el home studio se supone que la posición de escucha va a ser de una sola persona (o dos como mucho), la ubicación ideal es formando un triángulo equilátero con vértices en la cabeza del escucha y los 2 monitores (ángulos de 60º). La altura debería ser con el tweeter (parlante de agudos) cercano o coincidiendo en nivel con las orejas. A medida que bajamos en frecuencia, los graves son menos direccionales, por lo que no es tan crítica su ubicación.


(c) garnishmusicproduction.com

Siempre sirve tener dos sistemas de monitoreo (uno más grande y de mejor calidad, y otro más pequeño y económico destinado a tener una mejor idea de cómo se escucharía en un estéreo hogareño). También es recomendable tener un par de auriculares a mano, para otra perspectiva de escucha (muchas gente escucha de esa manera hoy en día); para prestar atención a algunos detalles que quizá monitores hogareños o de baja gama no muestren con mucha precisión; para corregir ediciones, limpiar ruidos, etc.


3 - Computadora. Cualquier computadora moderna sirve para grabar, sea con sistema operativo Linux, OS X o Windows.  Si trabajás en Windows es muy recomendable destinar una partición separada, con una copia aparte del sistema operativo, diferente al del uso general de la máquina. Esa partición debe estar configurada especialmente para audio, desactivando desde el BIOS todo lo que sea innecesario (internet, etc.).

Si se va a grabar en alta resolución, en muchas pistas simultáneas, o se va a trabajar con bancos de samples pesados (hay softs que usan 50 o 60 gigas nada más que de eso) es conveniente utilizar un disco rígido dedicado, que no sea el mismo de arranque del sistema operativo. Eso libra de tareas pesadas a nuestro disco de audio y nos deja usar el 100% de sus recursos para audio.

4 - Interfaz. Acá, de nuevo, depende mucho del uso que le demos. ¿Cuántos inputs necesitamos? ¿Cantidad de preamplificadores? ¿Necesito que la interfaz procese audio o dejamos ese trabajo para la RAM de la computadora? Nunca es recomendable comprar marcas sin respaldo, sin drivers estables y actualizados, sin trayectoria constante en el rubro, porque así como aparecen desaparecen, y una placa sin drivers (sobre todo si la usamos en Windows) se vuelve obsoleta instantáneamente, no permitiendo actualizaciones de hard y soft, y perdiendo mucho valor de reventa.



(c) RME Audio



5 - Software. Ya cubrimos este tema anteriormente (hacer click aquí). Hay que conocer mínimamente las fortalezas y debilidades de cada software y con eso ver si es lo que necesitamos o no. Por ejemplo, si vas a trabajar mucho con Midi no tengas como mejor objetivo usar Pro Tools, hay muchos otros softs más convenientes para eso.

(sigue en el próximo post...)

jueves, 28 de marzo de 2013

ABC: Acústica Básica y Casera


La acústica es un ciencia muy compleja y bastante moderna. Si bien casi todos sus principios se conocen hace mucho tiempo, los materiales, teorías y métodos de medición cambian frecuentemente, lo que la vuelve muy dinámica. Esto no pretende ser un curso de acústica así que vamos a ver conceptos básicos solamente, que nos permitan entender e identificar básicamente los problemas de un recinto (en este caso, nuestro home studio).

La manera de lidiar con un problema acústico es justamente con Acústica. No es recomendable usar un ecualizador para corregir respuesta en frecuencia en un recinto por tres motivos: 1) distorsiona, 2) introduce rotación de fase, y 3) es limitado su uso ya que no puede agregar energía que no existe, ni atenuar lo suficiente sin consecuencias cuando hay un exceso en alguna frecuencia.

Tener en cuenta que todos los parámetros que vamos a mencionar varían según la frecuencia, es decir, no son uniformes a lo largo del espectro. En general estos valores se analizan por octava.

Si una onda de sonido choca con una pared, parte de su energía será absorbida, otra parte reflejada, y otra parte la atravesará. Cuando choca con un objeto de menor tamaño, llamamos refracción a la especie de curva que toma alrededor de ese objeto.

La capacidad de un material de absorber energía de esa onda se conoce mediante el coeficiente de absorción. Se obtiene como cociente entre el porcentual de la energía incidente reflejada (respecto de la original) por 100. Si una superficie absorbiera el 100% de la energía de una onda, decimos que tiene coeficiente = cero. El ejemplo opuesto sería el de una ventana abierta, que al no reflejar nada de la energía es un absorbente ideal (coeficiente = 1). Conociendo el coeficiente de absorción, se puede creer que el resto de ese porcentual es la energía reflejada por esa superficie.

La idea de aislamiento es que la energía no sea transmitida más allá de la pared. Por eso algunos elementos absorbentes son útiles para este objetivo, pero no siempre en así.
P.D.: aislación es una palabra que no existe.

También puede pasar que la onda de sonido choque contra un elemento que la haga reflejarse en múltiples direcciones. Esa redistribución de energía se llama difusión y tiene muchísimos beneficios. La escucha se hace más pareja (y más agradable) en más ubicaciones del recinto, ya que la energía se reparte de forma más o menos coherente en muchas direcciones, en lugar de salir reflejada con el mismo ángulo que tenía al incidir. Además ayuda a corregir resonancias y fallas temporales.

El tiempo de reverberación se mide con diversos métodos, siendo el más común el RT60. Se denomina así a la cantidad de tiempo que tarda una fuente, luego de dejar de emitir energía, en decaer 60 dB. Con ello podemos tener una idea de si un recinto es más "vivo" o "apagado" que otro, también tener idea de su calidez, etc. Un detalle más: la palabra reverberancia no existe, es una mala traducción que no debe ser usada en español.

La ubicación ideal de los monitores (estéreo) es formando un triángulo equilátero con vértices en la cabeza del escucha y los 2 monitores (ángulos de 60º). Llamamos sweet spot ("punto ideal", zona óptima") al punto focal donde mejor se puede apreciar la escucha, donde menos afectan los problemas acústicos del entorno. En un monitoreo estéreo es el punto donde se halla el vértice de dicho triángulo. En un monitoreo surround es el punto focal entre los cuatro o más monitores (excluyendo al LFE -sub- y al central). No confundir con el sweet spot de un instrumento musical (donde la fuente emite el sonido más útil para su microfoneo).

(c) UAudio.com


Tenemos entonces un recinto donde hay una fuente de emisión sonora (en el caso de nuestro home studio/control room, los monitores). El espacio donde el sonido proviene casi únicamente de los monitores (sin reflexiones) se conoce como campo libre. Luego comienza el campo reverberante, donde el sonido proviene aleatoriamente de las reflexiones del recinto (y no directamente de la fuente). El punto donde se tiene por igual a ambos campos se conoce como distancia crítica.

Todo recinto tiene frecuencias de resonancias propias, inevitablemente, que se conocen como modos de resonancia ("ondas estacionarias", "eigenmodos"). Se trata de frecuencias de espectro donde la acumulación de energía es más alta debido a la construcción misma. Acumulan energía y se apagan más lentamente que sus frecuencias vecinas, lo que resulta muy molesta a la escucha. Haciendo click aquí pueden ver una animación muy gráfica de cómo funcionan.

Soluciones caseras. Un aspecto interesante de la acústica es que no hace falta mucho dinero para resolver problemas. Por supuesto que para construcciones complejas, el nivel de conocimiento y cálculo necesario implica un gran presupuesto, pero con elementos que uno tiene a mano puede resolver problemas básicos.

- Si se está en la etapa de construcción, mi primer consejo sería que contraten a un profesional especializado. Si por presupuesto no es una opción, recurran a libros. Hay muchísimo material disponible y fácil de entender. Evitar construcciones cuadradas, con paredes iguales y enfrentadas, con muchos ángulos rectos.

- Caminar por un lugar dando aplausos no sirve de mucho, dado que el estímulo y el punto de escucha son el mismo. Lo ideal es tener estímulos de energía impulsiva en diferentes puntos simultáneos, con diferentes puntos de escucha (micrófonos) simultáneos.

- Lamento informar que la hueveras no sirven para casi nada. Muchos estudios de materiales demostraron que en lo poco que sirven, tienen el mismo efecto absorbente que casi cualquier material.

- A la hora de absorber, son muy útiles los cortinados pesados, de tela densa, con muchos pliegues. Lo mismo con las alfombras: no sólo sirven como estética sino también para atenuar reflexiones.

- Construir un panel acústico de lana de vidrio y con un buen terminado estético es muy sencillo y bastante económico. Pueden usar esta guía por ejemplo:


- Para contruir difusores hay mucho material en libros y en la web. Los que son hábiles con la madera pueden construir un difusor en MDF sin problemas, y sino encargarlo a su carpintero amigo.

- Si tenés una biblioteca a tu espalda, reordenar los libros de forma que no estén todos en forma pareja y similar (que no parezca una pared plana) puede ayudar a que actúe como un difusor...uno muy primitivo, pero que ayuda.

- La ubicación ideal de las trampas de graves es en las esquinas de la habitación, ya que todos los modos tienen un pico o nodo allí.

Finale. Por último, a los amigos lectores que tengan la oportunidad de pasar por el Teatro Colón les recomiendo sin duda que vayan a ver alguna función y disfruten de uno de los mejores teatros líricos de este planeta. Es un verdadero placer, y los argentinos o turistas que vengan de visita no deben dejar de escuchar alguna orquesta desde cualquier ubicación: una de sus mayores virtudes es que en Paraíso se escucha muy bien, a diferencia de otro teatros que son muy agradables para escuchar desde los asientos caros, pero con desastrosos resultados en ubicaciones más económicas.

jueves, 21 de marzo de 2013

Intercambio de sesiones de Pro Tools entre diferentes estudios


Hace unos días unos amigos me pidieron que abra las sesiones de las canciones de su nuevo disco para preparar unas pistas para disparar en vivo.  Nunca vi un desorden como el que encontramos en ese disco rígido. Todas carpetas mezcladas, archivos .wav sueltos por todas partes, sesiones de Pro Tools con regiones (clips) que llamaban a archivos de audio que no estaban, archivos de audio con el mismo nombre en diferentes canciones, y otros que tenía nombre de una canción pero pertenecían a otra. Con ese caos me acordé que hace algunos años me llegó una guía para intercambio de sesiones de Pro Tools de la Producers & Engineers Wing de The Recording Academy (quien entrega los GRAMMY). Como una especie de "guía del buen colega". Entonces me dispuse a traducirla y aquí está, para compartirla con colegas, amigos, músicos y técnicos.

Operación básica
- chequear que la fecha y hora de la computadora sea la correcta
- siempre etiquetar los tracks de audio antes de grabar, y en caso de no haberlo hecho renombrar el archivo del track (no sólo la región) apenas finalizada la grabación
- hacer todas las aclaraciones posibles sobre las tomas en la sección de comentarios de cada track
- siempre etiquetar los buses internos, inputs, outputs e inserts en el setup de I/O
- etiquetar los inputs auxiliares con el nombre del outboard utilizado y documentar los seteos en la sección de comentarios

Limpieza
- borrar ruidos y elementos no deseados de los tracks
- chequear que todas las ediciones y punchs estén limpias de clicks y pops, agregando crossfades cuando sea necesario
- consolidar los tracks en audio comenzando desde el principio de la sesión
- borrar (ocultar y dejar inactivos) todos los tracks que no sean necesarios para la próxima sesión
- borrar todas las playlists que no sean necesarias para la próxima sesión
- quitar todos los archivos de audio que no sean utilizados antes de cerrar la sesión

Organización
- ordenar los tracks de manera que tengan sentido para el usuario (por ej. batería, percusión, bajo, guitarras, etc)
- mantener las vueltas de los inputs auxiliares de las submezclas al lado de los tracks de origen
- ubicar la vuelta de los efectos y buses de mezcla preferentemente a la derecha y abajo, opcionalmente a la izquierda y arriba
- dejar cualquier track opcional a la vista pero inactivo, muteado y claramente etiquetado en los comentarios
- desactivar, mutear, ocultar y en general mover abajo y al extremo derecho los tracks residuales que no vayan a ser usados pero sirvan de referencia
- mantener todos los tracks que vayan a ser usados en la próxima sesión a la vista y preferentemente arriba a la izquierda
- dejar los comentarios a la vista para que el próximo ingeniero los vea cuando abra la sesión

Sesión Maestra
- denominamos así a la sesión en la que se va a usar principalemente durante la pre-producción, grabación y overdubbing. Todos los tracks grabados, editados o procesados en otras sesiones deben ser transferidos a esta sesión, que es donde deberían estar todos los tracks necesarios para la mezcla final. Debe haber una sola sesión Maestra.
- debería ser llamada Titulo_Cancion-Master
- se recomienda el formato WAV para compatibilidad con todas las DAWS
- se recomienda indicar la compatibilidad Mac/PC (al crear la sesión) para mejorar el intercambio entre todos los sistemas Pro Tools
- grabar el archivo de sesión en una jerarquía en el disco rígido donde sea fácil de encontrar para cualquier operador en el futuro
- crear un mapa de tempo en el track conductor
- crear marcadores de memory location según los arreglos de la canción
- siempre grabar o crear un track de audio del click y mantenerlo al tope del orden de los tracks (mostrado u oculto)
- incluir tonalidad e información de modulaciones en "Get info..."

Sesión Esclava
- debería ser llamada Titulo_Cancion-Slave
- considerar el sistema que la va recibir para que pueda abrirla sin problemas
- crear una sesión esclava desde una sesión maestra que fue limpiada de elementos innecesarios facilita el proceso de conservar algunos items muy importantes: el tempo map, el track de audio del click (o en su defecto, el plugin de click) ubicado en la parte superior (a la vista u oculto), los marcadores de memory location, tonalidad y modulación en "Get Info...", tiempo de comienzo, frame rate, y los tracks necesarios en caso de overdub.

- al devolver la sesión esclava, debería ser llamada con el título de la canción, una descripción de su uso, y la palabra Source (por ej.: Titulo_Cancion-Ld Vox Source), y debería guardarse en la carpeta de sesiones originales

Sesión de Mezcla

- debería ser llamado con el título de la canción y la palabra Mix (por ej.: Titulo_Cancion-Mix)
- las mezclas en borrador deberían bajarse en un par de tracks al tope de la sesión y su nombre debería incluir el título de la canción y la fecha
- si se usa automatización de volumen para fade-in o fade-out de regiones, debería reemplazarse por fade-ins y fad-outs como audio
- se deberían mutear las regiones en lugar de utilizar automatización de muteo en los audio tracks
- dejar cualquier automatización que el productor deseee y anunciarla claramente en los comentarios del track
- contactar al ing. de mezcla en caso de duda sobre borrar o no alguna automatización
- antes de enviar la sesión a quien la vaya a mezclar, revisar una vez más: ubicación de los tracks, flys, comps, etiquetado bien claro del vocal líder, etiquetado de los tracks que fueron afinados además dejando una versión original sin afinar
- los tracks con plugins esenciales deberían ser bajados a otro track, etiquetando claramente cuál es la copia sin plugins
- dejar sólo los plugins esenciales que quiere el productor y eliminar el resto

Manejo de archivos y almacenamiento
- cuando se envía una sesión a otro estudio debe haber un sólo archivo de sesión a la vista en la carpeta principal del tema
- los archivos adicionales deberían ser ubicados en otra subcarpeta para evitar confusiones
- para mantener las sesiones organizadas recomendamos usar los siguientes nombres: "Old sessions" (para las sesiones que no sean la actual), "Source sessions" (para los tracks de origen que hayan sido eliminados), "MIDI files" (tempo maps, MIDI sequence files, etc), "Rough mixes" (bounces en borrador), "Final mixes" (bounces definitivos).

Quizá al comienzo es difícil cumplir todas las líneas de esta guía, pero si adoptamos el hábito va a ayudar a todos los que trabajamos en esto.

viernes, 8 de marzo de 2013

Bits y Muestreo: Entendiendo el audio digital (Parte 2)

(continúa del post anterior)

Ahora que ya entendimos cómo es el proceso básico de conversión A/D, un poco más sobre esto:

Valores aceptados. Sabemos que la cantidad de bits representa el rango dinámico de la señal, así que con una señal en 24 bits  alcanza y sobra, teniendo en cuenta que nos permitiría trabajar teóricamente con 144 dB (pasando el umbral del dolor del oído humano). Por otro lado, la frecuencia de muestreo comenzó con 44.1 kHz acorde al teorema de Nyquist-Shannon, que decía que una señal analógica puede ser representada en un medio digital teniendo como límite de frecuencia superior a la mitad de la frecuencia de muestreo (si queremos digitalizar una señal analógica hasta una frecuencia f, debemos utilizar una frecuencia de muestreo superior a 2f, o sea, por lo menos 2f+1). Dado que por convención se estableció que un ser humano joven y sano escucha hasta 20kHz, y teniendo en cuenta la naturaleza de los filtros pasa bajos involucrados en la conversión, se decidió por una frecuencia de muestreo de 44.1 kHz para el CD. Con la masividad del CD, eso se convirtió en standard.

Los ceros no suman. El audio una vez que se convierte de analógico (señal de un micrófono) a digital (al entrar a la computadora) queda "traducido" bajo estos dos parámetros (la cantidad de bits y la sampling rate). Si, por ejemplo, tenemos un audio grabado en 16 bits,  y luego dentro de la compu lo reconvertimos a 24 bits, el procesamiento no puede inventar información que no existió al momento de la conversión. O sea, esos 8 bits agregados posteriormente no van a hacer que suene mejor, ni más fuerte, ni con mayor definición.

¿Entonces qué significa cuando un software se publicita "32 bits punto flotante"? Esas palabras hablan de la capacidad de cálculo de un software, no de la conversión. Cada vez que uno aplica un proceso de cálculo digital, se produce cierta degradación (aunque sea ínfima) en la señal. Si repetimos muchos procesos (y cuando hablo de muchos, es una MUY importante cantidad de plugins, o seteos muy extremos en los plugins, dithering, renders/consolidates, etc) esa degradación se puede llegar a notar como un mínimo ruido inducido por redondeos o truncamiento en los cálculos. Esos 32 bits son fáciles de confundir por el usuario común, pero en realidad es algo de lo que el 95 % de los usuarios jamás notará ni sacará provecho. Esos 32 bits de punto flotante NO cambian la calidad del audio por sí mismos, sino que evitarían una sutil degradación cuando se llega a una cantidad de cálculos extrema en los archivos de audio generados posteriormente, producto del procesamiento dentro de una computadora.

Mejoras en la vida real. Entonces tenemos un beneficio que no va a aprovechar la gran mayoría de los consumidores, ¿y tiene alguna desventaja? Bueno, el peso de un archivo de 32 bits vs. el mismo en 24 bits es un 50% mayor. Es decir, una sesión en 24 bits de 20 gigas va a pesar 30 gigas nada más que por el extra de trabajar con archivos de 32 bits. Y si lo comparamos con los de 16 bits, es el doble de tamaño de archivo. A su vez necesita de discos rígidos más rápidos, y buses de datos con mejor transmisión para que no se sature al aumentar la cantidad de datos suministrados.

Frecuencias de muestreo superiores. Con las sampling rates sucede algo parecido pero no tanto, porque estas diferencias son más fáciles de percibir. Sabemos que el CD Audio es 16 bits, 44.1 kHz. También que en audio para imagen, por una cuestión de sincronismo, se trabaja en 48 kHz. ¿Y entonces para qué vamos a usar frecuencias superiores como 88.2, 96, 176.4 y 192 kHz, e incluso 352.8 y 384 kHz? Hay muchísimo debate sobre este punto.

Lo que nos quieren vender algunos fabricantes de tecnología es "mayor sample rate = mejor calidad de sonido", y esto no es del todo cierto. En definitiva la diferencia la hace la calidad del conversor, de la electrónica, de la fabricación. Un buen conversor trabajando a 48 kHz va a sonar mejor que un conversor mediocre trabajando a 192 kHz.

Sí, es cierto, ya fue comprobado por experimentos y mediciones científicas -y no sólo por fanatismo de audiófilos- que hay muchos instrumentos que vibran por arriba del rango audible. Y también es cierto que estas señales en alta frecuencia producen intermodulaciones sobre otras que sí están en nuestro rango audible. Pero para que esa diferencia sea notable, tiene que mantenerse la cadena de elementos que trabajen en ese rango: una fuente (instrumento) que emita en ese rango, un transductor (micrófono) que capte ese rango, y lo mismo con el preamplificador, conversor, entorno acústico, etc. Si se cumple todo eso, recién ahí valdrá la pena la discusión.

Downsampling. Antes de empezar una sesión / grabación / conversión, se decide la frecuencia de muestreo en la que se trabajará, principalmente teniendo en cuenta el formato final de la obra. ¿Por qué? Porque también se producirán errores en el cálculo final del audio, una vez que se transporta desde la sample rate "de sesión" hasta la sample rate "final" (la que va a ser usada en el producto comercial: 44.1 kHz si es CD, 48 kHz si es para video, etc). Para minimizar esa degradación producto de esa conversión final, llamada "downsampling", muchas veces se elige una sample rate de sesión que es múltiplo de la final, de manera que no haya cálculos de redondeo involucrados sino que directamente se descarte una de cada dos muestras y haya menos manoseo numérico de ese audio digital. Por ejemplo: si se sabe que el formato final es 44.1 kHz (CD), se puede trabajar en 88.2 kHz o 176.4 kHz; si por el contrario estamos haciendo un trabajo para imagen en 48 kHz, se puede trabajar en 96 kHz o en 192 kHz.

viernes, 1 de marzo de 2013

Bits y Muestreo: Entendiendo el audio digital (Parte 1)


Antes que nada definamos una diferencia: Sonido es el fenómeno físico, es la diferencia de presión que se propaga en un medio (en gran parte de los casos, el aire) cuya vibración entra en el rango audible del ser humano (por convención entre 20 Hz y 20 kHz); Audio es el registro, transmisión o proceso electrónico de ese fenómeno físico. Hablamos de audio analógico cuando ese fenómeno se representa con formas de onda análogas a la presión en el medio (aire). Y hablamos de audio digital cuando es representado por una sucesión de 1s y 0s.

Una diferencia importante entre analógico y digital es que dentro del dominio analógico la cantidad de "pasos intermedios", de variaciones entre dos puntos de una señal, es infinito. Mientras que en el audio digital se trata de una representación discreta de esos valores, de cantidad limitada.

Mucho se ha hablado y se va a seguir hablando de la fidelidad de esa representación, porque cuando uno digitaliza un sonido lo que hace es intentar representar con la mayor exactitud posible PERO en pasos discretos un fenómeno contínuo, por lo que es inevitable que en ese traspaso algo se va a perder. En todo caso lo que se intenta es que se pierda lo menos posible, lo menos significativo, lo menos identificatorio. De ahí vienen las infinitas discusiones entre los "fundamentalistas" de uno y otro lado.

Como sucede con toda la tecnología, con el paso del tiempo mejora la calidad y se abaratan los costos, logrando que los precios de un conversor A/D (de analógico a digital) sean mucho menores que años atrás.  La tecnología digital, lógicamente, cada vez suena mejor y tiene mayor capacidad de procesamiento.

Ese conjunto de "unos" y "ceros" intenta ser la mejor aproximación posible de lo que sucedió en la realidad, del fenómeno físico del sonido y de cómo interpreta el oído humano (y el cerebro) ese fenómeno.

Entonces, ¿cómo comparamos o medimos los conversores? Comencemos por intentar alejarnos un poco de la subjetividad. La mejor manera es enfocarnos en dos parámetros de la conversión: la cantidad de bits (bit depth) y la frecuencia de muestreo (sampling rate). Para tener una noción aproximada de qué representa cada una:




(c) opinosonido.blogspot.com
click en la imagen para agrandar

El conversor, entonces, parte esa línea infinita para poder transformarla en pasos discretos. Por cada segundo de sonido toma X cantidad de muestras, que determinan un período de muestreo. Entonces la frecuencia de muestreo es 1/X (la inversa del período de muestreo). Por ejemplo: si la frecuencia de muestreo es de 44.100 Hz significa que por cada segundo el conversor toma 44.100 muestras. En nuestro gráfico, significa que entre el punto "A" y el punto "B" se tomaron 44.100 muestras, espaciadas por igual en el tiempo, dentro de ese segundo.

Y cada una de esas muestras tiene una amplitud, una determinada "altura" en la onda. La cantidad de valores posibles de cada muestra está definida por el número de bits. Si la cantidad de bits es 16, entonces los valores posibles de cada muestra son 216 (65.536 valores posibles -rayas rojas en nuestro gráfico-). Ese número nos da el rango dinámico teórico que puede procesar un conversor. A mayor cantidad de bits, mayor rango dinámico.

Se ve muy fácil que teóricamente, más bits y mayor frecuencia de muestreo implicaría una mejor representación de la onda. Pero eso no significa mayor calidad ni que sea más agradable a nuestro oído, por ejemplo: un conversor 16 bits 44.1 kHz puede sonar mejor que otro 24 bits 48 kHz. La cantidad de bits y la frecuencia de muestreo sólo son indicaciones de cómo interpretar esa cadena de 1s y 0s, pero no necesariamente implican una mejor calidad de audio. Eso está definido por otras variables, como el diseño, la calidad de fabricación, la estabilidad del clock y otros factores.

(continúa en el próximo post)

miércoles, 6 de febrero de 2013

¿Cuál es el mejor software multitrack?

¿Pro Tools, Nuendo, Cubase, Logic, Digital Performer, Reaper, Sonar, Sequoia, Pyramix, Ardour, Audacity, Mixcraft o StudioOne? Por lejos, la pregunta que más me hacen los músicos, ¿necesito comprar un Pro Tools para sonar profesional? ¿por qué todos los profesionales usan Pro Tools?




 Bueno, la verdad es que hay algo muy importante que se llama marketing. Es cierto que diferentes softwares tienen diferentes capacidades de procesamiento, redondeo de cálculos, y quizá hasta niveles de headroom. Pero habiéndose hecho muchísimos experimentos y pruebas ciegas (ABX), jamás se encontraron pruebas concluyentes que un software "suene" mejor que otro (ahora me acuerdo de un colega a quien admiro mucho que decía "los software no suenan"). Las mínimas diferencias que hay en el cálculo digital de las señales dentro de un software no se demostraron relevantes para el oído humano. Por eso me podemos pensar que los softwares no influyen en el sonido sino que son sólo herramientas. El activo más importante que tiene una mezcla no es el serrucho, sino el carpintero. Aclarado esto, hay que reconocer virtudes y gustos personales.


 


Gusto personal. Sí, Pro Tools me parece una excelente plataforma, ya estoy muy acostumbrado a su uso y sus shortcuts y puedo editar con los ojos cerrados; probé absolutamente todos los otros multipistas y con ninguno me sentí tan cómodo a la hora de editar y mezclar. Pero eso no significa que le aporte ningún agregado a la mezcla que no salga de la persona que lo maneja. Además Pro Tools se ha convertido hace varios años ya en un estándar en estudios y esto permite llevar y traer trabajos entre diferentes estudios con relativa facilidad. Como contrapartida hay que reconocer que el hardware de Digidesign/Avid nunca se destacó por su relación calidad-precio, sus sistemas siempre fueron muy quisquillosos con compatibilidades y trabajosos para tener configuraciones estables, su implementación MIDI dejaba mucho que desear, y hasta hace poco eran sistemas totalmente cerrados de hardware/software donde tenían un mercado cautivo (actitud que debieron corregir porque advirtieron que los clientes se iban habia otros sistemas).



 
Hay que evitar los espejitos de colores. Mucha gente, sobre todo la que no trabaja en esto, asocia la frase "Pro Tools" con "profesional". Nada más alejado de la realidad. Profesional es el ser humano que está atrás de la grabación/mezcla, y no si utiliza una u otra herramienta. Y más aún siendo que, como dijimos arriba, el hardware del fabricante de Pro Tools dista mucho de ser el mejor del mercado. Que cada uno use el que lo haga feliz, le guste y con el que trabaje cómodo. Pero no creamos que usar determinado producto nos hace profesionales.