Radio Albayzín

miércoles, 25 de enero de 2017

Sonido para Cine, por Charly Schmukler.

Sonido para Cine, por Charly Schmukler.


Charly Schmukler explica el desarrollo sonoro que conlleva un largometraje, desde el rodaje hasta el print master de la copia estándar; formas de trabajo en cada área, el equipamiento tecnológico usado en cada una de ellas, cómo transcurre el flujo de trabajo de sonido respecto al de imagen, el sonido directo, el montaje de sonido, mezclas, Dolby y print master y cómo se relacionan en todo momento estos procesos con el resto de los procedimientos de imagen.

De su filmografía destacan cinco películas y 26 capítulos para tv con el director Alex de la Iglesia. También trabaja con Julio MedemBenicio del ToroGerardo HerreroJuan Carlos TabíoCarlos SauraMarcelo PiñeyroAlvaro Fernández ArmeroGerardo VeraSebastián BorenszteinTrần Anh Hùng y Roberto Santiago entre otros. En proyectos de televisión con Isabel CoixetAchero Mañas, María Ripoll, Miguel Bardem y Manuel Palacios. En producción musical trabaja como ingeniero en la grabación de bandas sonoras de diversos largometrajes. Desde 1999 ha participado en más de 50 anuncios publicitarios y 46 documentales. Ha sido nominado en dos oportunidades para los Premios Goya al mejor sonido y en 2011 obtiene el premio Gamelab al mejor sonido por el videojuego Castlevania: Lords of Shadow (Konami International) En 2014 es galardonado con el Premio Goya de la Academia de Cine al Mejor Sonido por Las Brujas de Zugarramurdi del director Alex de la Iglesia.
Actualmente es director de la empresa Cinetik Servicios Audiovisuales, colaborador de la revista On Off, profesor en el SAE y de la ECAM, miembro de la SGAE, de la AIE y de la Academia de las Artes y las Ciencias Cinematográficas de España.





































sábado, 14 de enero de 2017

Cómo se hizo el sonido de los sables de luz y otros efectos de Star Wars.

Cómo se hizo el sonido de los sables de luz y otros efectos de Star Wars.

Luke y Vader

A mediados de los 70, cuando comenzó la producción de Star Wars, los medios tecnológicos eran mucho más limitados que ahora. Para obtener los efectos de sonido que marcarían a varias generaciones de cinéfilos, fue necesario exprimir los recursos disponibles, pero sobre todo, el ingenio.
Partiendo de unos fragmentos de entrevista al genial diseñador de sonido Ben Burtt, publicados en el canal oficial de Star Wars en Youtube, hacemos un pequeño recorrido por los efectos más populares. Sirva esta recopilación como pequeño homenaje a Carrie Fisher, fallecida hoy a los 60 años de edad.

Los sables de luz

El icónico sonido de las espadas láser de Star Wars fue el primer trabajo de Burtt para la saga, y a la vez, su efecto favorito. Ese inquietante murmullo eléctrico simplemente apareció en su cabeza, "inspirado por los dibujos conceptuales de Ralph McQuarrie". 
En aquella época, Burtt era todavía un estudiante de la USC y trabajaba como proyeccionista de cine. Se encargaba de un viejo proyector de 35 mm con motor de enclavamiento que emitía un zumbido cuando estaba inactivo; Burtt lo grabó, y esa fue la base del sonido de los sables de luz.
Pero necesitaba algo más para conseguir el efecto final, y lo encontró accidentalmente: mientras pasaba al lado de un aparato de televisión con un micrófono en la mano, el micro captó la transmisión y produjo un peculiar sonido que encantó a Burtt. Acabó combinándolo con el del motor, completando así el sonido del sable que todos conocemos.
¿Y el sonido de los sables blandiéndose? Fue el resultado de mover un micrófono delante de un altavoz que emitía esos mismos zumbidos. Se puede ver al propio Burtt practicando esta técnica en un pasaje de El Imperio Contraataca, en el minuto 3:19 de este vídeo:

Chewbacca

El guión de Star Wars no era muy específico en cuanto a la voz de los wookies; tenía que ser "un lenguaje inteligente, alienígena, pero no reconocible", lo cual dejaba un enorme margen para la imaginación.
En uno de los primeros encuentros de Burtt con George Lucas, el director sugirió que los gruñidos de un oso podrían encajar con lo que se buscaba. Así, durante todo un año, Burtt recopiló rugidos y gruñidos de osos, junto con sonidos de leones, morsas y otros muchos animales.
Extrayendo pequeños trozos de cada grabación, Burtt pudo identificar sonidos que reflejaban diversas emociones. Solo faltaba adaptarlos al movimiento de los labios del personaje, construyendo palabras y frases coherentes con sus distintos estados de ánimo; así nació la voz de Chewie.

R2-D2

La "voz" de R2-D2 fue la más difícil de concebir. Además de ser una máquina que se comunicaba y actuaba junto con actores de carne y hueso, no tenía una cara que reflejase emociones, y tampoco iba a hablar inglés. Era todo un reto: la conexión emocional con el público se basaría casi enteramente en el sonido.
Los tests de voz iniciales carecían de "calidad humana", en palabras de Burtt. Por este motivo, tras mucha prueba y error, él mismo se puso a imitar los sonidos un niño pequeño, que eran capaces de transmitir emociones sin articular palabras, manteniendo el componente humano —precisamente lo que se buscaba—.
La solución para RD-D2 consistió en combinar sonidos electrónicos y humanos. Burtt mezcló su propia voz con los sonidos de un sintetizador —concretamente, un ARP 2600—, y el pequeño robot se metió nuestros corazones en el bolsillo.

Explosiones

Burtt es un apasionado de los sonidos de explosiones y armas, y les dedicó mucho tiempo en la producción de Star Wars, buscando "el mayor efecto visceral posible". Sin embargo, no es fácil conseguir estos efectos: las explosiones reales son poderosas, breves y repentinas, pero no generan el cuerpo de sonido que uno podría esperar en el cine.
Persiguiendo ese sonido explosivo ideal, Burtt recorrió bases militares grabando tanques e impactos de misiles, perdiendo algunos micrófonos en su empeño. Al parecer, a día de hoy sigue buscando "la explosión definitiva".

Darth Vader

El guión original de Star Wars se refiere a Darth Vader como "un extraño ser oscuro, con un sistema de soporte vital". Burtt creó gran cantidad de efectos de sonido para Vader, como el latido de su corazón, ruidos mecánicos que acompañaban su movimiento, y muchos otros. Sin embargo, resultaron ser demasiados, y prescindieron de casi todos ellos en el montaje final.
El sonido superviviente fue el de sus pulmones mecánicos, quizá uno de los efectos de sonido más reconocibles de la ciencia ficción y del cine en general.

AT-T

Los vehículos acorazados AT-T, conocidos también como walkers, fueron todo un divertimento para Burtt, tras el arduo trabajo con las voces. Lo que buscaba en esta ocasión era transmitir sensaciones de masa y peso a través del sonido —aunque en realidad, los AT-T eran pequeñas miniaturas animadas—.
El sonido de los AT-T proviene de una máquina industrial de estampado metálico para piezas de acero, y se grabó directamente en la fábrica. Burtt cogió estos sonidos y los dispuso de una forma rítmica, acompañando al pesado andar de estas fascinantes máquinas.
Para conseguir el sonido de las articulaciones de sus rodillas, no se complicó tanto: grabó la tapa de un contenedor de basura abriéndose y cerrándose.
Artículo publicado en www.hispasonic.com
https://www.hispasonic.com/reportajes/como-hizo-sonido-sables-luz-otros-efectos-star-wars/42504

Cómo sonar bien en un festival sin prueba de sonido

Cómo sonar bien en un festival sin prueba de sonido

Prueba de sonido de Walk this moon
Haré una exposición de las cosas que siempre me han funcionado y que son cosas que siempre les cuento a mis alumnos cuando imparto un curso sobre sonido en directo. Hagamos la lista de los deberes:
  • Conocer muy bien el repertorio a mezclar (escuchar los discos publicados de la banda o el artista).
  • Conocer bien la dinámica de cada músico (escuchar y analizar con detalle al grupo o artista en el local de ensayo).
  • Elaborar un rider técnico sencillo y flexible. Una microfonía estándar te creará menos quebraderos de cabeza y tus sesiones (almacenadas en tu pendrive) serán mucho más compatibles de un festival a otro (en cuanto a ajustes de ganancia se refiere y a ecualizaciones que hayamos empleado).
Así que vayamos al lío.
En primer lugar deberemos conocer muy bien todas las canciones del grupo o artista que vayamos a mezclar. Como un músico más, tendremos memorizados cada uno de los detalles de todos los arreglos de cada canción, para poder anticiparnos a los acontecimientos —pues somos la "automatización en tiempo real" de cada una de las mezclas a realizar—.
Nosotros en directo, a diferencia del trabajo que podamos realizar en el estudio, sólo tenemos una oportunidad de mezclar bien cada canción, pues trabajamos en riguroso directo (en tiempo real), así que debemos anticiparnos a cada uno de los arreglos. Para ello debemos conocer muy bien cuándo van a ir viniendo cada uno de los detalles a destacar, como pudieran ser los coros, los solos o los feels de guitarras, teclados o los metales, y terminar de controlar manualmente asimismo las partes más comprometidas de una línea vocal solista, como suelen ser las partes más graves (sin mucha proyección vocal) o por el contrario las partes más chillonas y estridentes (con demasiada proyección), ya que un exceso de compresión en la voz le restará magia y naturalidad a este gran protagonista, por lo que supliremos esas variaciones dinámicas con un poquito de riding fader en tiempo real.
Por último, es muy interesante memorizar y programar los efectos especiales o más llamativos de las producciones discográficas del artista o grupo con el que estemos, como pueda ser algún eco característico a tempo o alguna reverb muy especifica de algún instrumento o de la propia voz.

Los festivales y las pruebas de sonido

Habría que distinguir muy claramente entre:
1. Un simple chequeo de líneas con auriculares y con el PA cerrado.
2. Un breve soundcheck de 20' con el PA abierto, que nos dará una oportunidad mayor de comprobar la respuesta global del sistema de PA y por tanto de anticipar por dónde irán los tiros de cara a la realización de nuestra mezcla.
En el segundo de los casos explicaré lo que me gusta hacer para amortizar lo mejor posible el poco tiempo de que disponemos.
Este tiempo lo emplearemos para revisar el ajuste del sistema. Normalmente los sistemas suelen tener una respuesta bastante equilibrada, pues se nota la correcta labor formativa de los diferentes cursos de ajuste de sistemas que tenemos a nuestra disposición en la actualidad. Estos cursos hacen una gran labor a este nivel, pero incluso contando con un buen software de ajuste, todo en esta vida es del todo reinterpretable y lo cierto es que me encuentro una gran disparidad de criterios a la hora de ajustar un sistema, sobre todo en la parte más baja del espectro, donde a veces veo sistemas muy pasados de vueltas en ese rango de las dos primeras octavas.
Soluciones posibles: tenemos al menos dos soluciones para tener un buen balance de un modo muy rápido.
1. Si nos dejan chequear el sistema de PA, podemos insertar un eq de 1/3 de octava o un buen paramétrico en el master de nuestro mezclador (bien sea analógico o digital) y así poder retocar el balance del sistema de una forma rápida hasta obtener una respuesta del todo equilibrada (flat). Esto según mi punto de vista tiene sus ventajas; para ello deberemos contar con algún tipo de referencia musical, como una muy buena selección de canciones con un buen equilibrio tímbrico. Si usáis algún reproductor portátil, deberá estar libre de eq de ningún tipo: esto es válido tanto para el reproductor como para los canales del mezclador donde lo conectemos, para poder juzgar el PA de un modo totalmente objetivo.
Sé que en el aspecto del ajuste hay todo un abanico de criterios, pero mi responsabilidad como ingeniero de sonido de un grupo o artista no sólo se circunscribe a la mezcla del sistema de PA; también e indirectamente soy responsable de la mezcla que una TV o emisora de radio pudiera tomar de mi mesa de mezclas, y como es obvio, sonar con un muy buen balance tanto en radio como en TV son puntos a favor para la banda y para nosotros como profesionales del sonido. No es lo mismo sonar mal que bien en los medios de difusión, pues puede suponer una buena o mala prensa para la banda. En este sentido, las grandes giras internacionales llevan una unidad móvil para cubrir los medios informativos con una mezcla dedicada realizada normalmente por un ingeniero extra (que de paso suele grabar todos los conciertos, y que a veces se ponen a la venta de inmediato), pero ese es otro nivel. Volviendo a la cruda realidad, para poder cumplir con mis expectativas trato de hacer una muy buena mezcla compatible con todo, por lo que suelo preferir un sistema de PA full range y no con los subs aparte.
Si tengo un sistema de PA pasado de graves, la mezcla como es muy lógico quedará corta en graves, pues mi bombo y mi bajo quedarán en un plano mucho mas débil por el exceso de respuesta en graves. Por tanto, una respuesta totalmente plana es vital por este y por otro motivo aún mayor: puedo conseguir un buen nivel de SPL sin temor al feedback.
Por otro lado, aclarar un concepto que considero muy controvertido: para los que temen el exceso de nivel de presión sonora, puedo garantizar que es mucho más molesto y dañino para el sistema auditivo un PA a 95 dB SPL con un 2% de THD, que un PA a 105 dB SPL con una THD menor del 0.1 %, como es el caso de sólo 5 o 6 marcas de PA a nivel mundial.
Una respuesta plana y un sistema libre de distorsión es vital para hacer bien nuestro trabajo. Prestad especial atención a las frecuencias entre 3 y 5 k y sus correspondientes armónicos, pues la mayoría de equipos mediocres son muy duros por esta zona del espectro y eso es muy molesto y perjudicial para nuestra salud auditiva. Además, el nivel a manejar no debería sobrepasar nunca los 100 dB SPL de promedio en la escala de ponderación A trabajando como mucho una hora y media. 
Tened también en cuenta que las drogas en general alteran nuestra tolerancia al exceso de SPL y en algunos casos modifican la respuesta en frecuencia del que las consume; eso repercutirá en una mezcla desbalanceada en frecuencia y un tanto estridente en muchos casos. No mezcléis bajo los efectos de ninguna sustancia, pues no seréis nada objetivos. Para mí es muy importante poder confiar en lo que espero oír y en lo que me debe llegar de cada micrófono. Eso sólo lo puedo tener claro con un equipo transparente y limpio como un cristal, así que nosotros no podemos estar menos "limpios" para hacer un buen trabajo.
2. Otra posibilidad —y es uno de mis trucos favoritos—, teniendo en cuenta que sólo suele haber dos instrumentos prioritariamente en la parte del espectro más baja (bombo y bajo), es tomar la señal doblemente en ambos instrumentos, con dos micros en el caso del bombo y la señal de línea más el micro en el caso del bajo. Trabajando con filtros HPF y LPF podremos disponer de un bombo y un bajo en "dos vías", donde podremos corregir la respuesta en graves en un segundo de tiempo. Mi récord personal en sonar bien en un festival con la sesión cargada de otro concierto, y sin prueba de sonido (solo line check) ha sido en el segundo número dos del concierto (segundo golpe de bombo), gracias a esta técnica que habitualmente utilizo.
Walk this moon en San Diego
Walk this moon en San Diego
Anna Lee

La toma de sonido y su verdadera importancia

Desde el año 1986 soy lo que podríamos definir como un técnico de guante blanco (vamos, que a día de hoy mi trabajo no implica montar nada). Aún así siempre he sido muy riguroso con la toma de sonido, pues la correcta colocación de los micrófonos y su correcta selección, sin duda es el gran secreto para sonar bien en directo y en estudio, así que siempre superviso y coloco los micros personalmente sin miedo a que se me caigan los anillos y lo hago justo antes del chequeo de líneas (line check) o en la prueba, y de nuevo reviso todo minutos antes del comienzo del concierto.
Por ejemplo, un micro que se mueva porque el pie no esté bien fijado se convierte en un sonido cambiante que es difícil de controlar. La posición de los micros es el otro aspecto: 5 cm de distancia de donde lo dejaste en la prueba en un cono o en un parche, o 15º de diferencia en el ángulo de ataque del micro hacen una gran diferencia respecto al sonido que tenías en la prueba, así que para mí atacar con el ángulo adecuado es parte de la ecualización y por supuesto parte fundamental de una mezcla con más dinámica. Con una buena toma no hará falta usar ecualización de ningún tipo, salvo algún filtro o alguna señal imposible (voz deficiente o un instrumento malo).
Esto me da mucha ventaja y me hace ser muy rápido en la peor de las circunstancias —algo muy habitual en casi todos los festivales, donde ya casi nadie prueba a día de hoy—. Por lo tanto, para favorecer la producción técnica y dar en la diana nunca pido una microfonía imposible, me adapto a los estándares del mercado para "triunfar" siempre.

Los pilares de la mezcla pensando en una prueba del todo útil

Cuando pruebo me gusta hacer una prueba del mundo real, por lo que nunca pruebo un bombo solo o una caja sola durante minutos (incluso aunque disponga de mucho tiempo). Los músicos tocan de una manera y prueban de otra, (salvo contadas excepciones); así es como reduzco algunas variables, por eso hago que el batería toque una base sencilla mientras yo voy haciendo mi trabajo, y tras ello voy sumando músicos hasta concluir mi mezcla de base.
Un consejo: si tienes un cantante que emite poco, prueba su voz primero y deja el micro abierto. Así no tendrás sorpresas de cambio tímbrico general, pues por el micro de la voz se colaran muchas cosas del escenario que estarán en el concierto. Lo mismo si el baterista canta (primero prueba su voz y deja el micro abierto).
Si solo puedo chequear líneas, entonces mantengo el principio de igual sonoridad (igual que memorizamos un rostro, un olor o un sabor, podemos memorizar un volumen promedio). Cuando tomo ganancias sólo soy muy riguroso con cuatro instrumentos respecto al perfecto nivel de referencia; estos son los que yo llamo los pilares de la mezcla y para mí son: el bombo, la caja, el bajo y la voz.  Estos ajusto milimétricamente al nivel de referencia y luego los empasto por igual sonoridad entre sí (este truco es mío). El resto de canales simplemente los abro en base a la ganancia de lo que realmente necesito escuchar en mi mezcla; a veces los niveles de estos otros canales pueden estar muy por debajo del nivel de referencia eléctrica (0 dB Vu en mesas analógicas) o de la referencia en el entorno digital (-18 dB FS), por lo que mi mezcla partirá por lo general de una posición de todos los faders donde quedarán todos en el valor unidad (0 dB). Este nivel en los faders es muy necesario para que cuando apoyemos un solo de guitarra por ejemplo, sepamos dónde debemos dejar de nuevo el fader tras apoyar dicho instrumento.
Otro aspecto clave es la organización de los subgrupos y los VCA's, pero esa es ya otra historia que puede que cuente otro día.

Artículo publicado en www.hispasonic.com por Michel Martín
https://www.hispasonic.com/tutoriales/como-sonar-bien-festival-sin-prueba-sonido/42206

COMO SONAR BIEN EN UNA SALA PEQUEÑA

COMO SONAR BIEN EN UNA SALA PEQUEÑA
Considero que los técnicos norteamericanos definen muy bien en qué consiste la profesión del técnico de sonido en directo. Ellos llaman a este trabajo Sound Reinforcement (Refuerzo de Sonido) frente a los británicos, que lo describen como Live Sound (Sonido en Vivo), así que personalmente creo que un refuerzo de sonido es lo que realmente debería ser el trabajo a realizar, al menos en un recinto de unas dimensiones reducidas. Esta idea también nos vale para hacer monitores incluso en un escenario al aire libre (pues sigue siendo un espacio de unas dimensiones acotadas y en general ciertamente reducidas).
Lo primero creo que es asumir el concepto de lo que es un buen balance acústico. Una banda debe sonar bien balanceada ella sola; esto quiere decir que, por ejemplo, hay instrumentos como la batería acústica cuyo volumen y balance dependen directamente del propio músico. 
Un baterista podrá tocar más fuerte o más flojo, pero deberá tocar balanceado: debe asumir que su instrumento suena tan bien como lo sea su propia mezcla acústica, y que esta depende directamente de la intensidad con la que se toque cada uno de los elementos. 
Como el oído humano no es plano en su respuesta en frecuencia (no responde con la misma sensibilidad a todas las frecuencias), el balance lo consigue el propio músico jugando con la sonoridad dentro del espectro y con la intensidad con la que golpee los diferentes elementos de su batería. 
Pongo un ejemplo: supongamos que tenemos un set de bateria que cuenta con cuatro toms (timbales): uno medio agudo, otro medio, otro medio grave, y un último grave,
(12", 14", 16" y 18"). Si se les golpea con la misma fuerza mecánica, los más graves se oirán con menos potencia acustica o sonoridad (volumen); ahora bien, si de verdad se tiene en cuenta el balance acústico para que todos los timbales suenen igual de potentes, en realidad el músico tendrá que golpear sutilmente con diferentes intensidades, para así equilibrar lo que nos demuestran las curvas de igual sonoridad de Fletcher y Munson.

Lo mismo ocurrirá con su set de platos o con el balance que debería haber entre el bombo, la caja y el hi-hat. Como es obvio todo se puede compensar técnicamente, o eligiendo elementos que tengan más equilibrio entre sí, o poniendo un micro a cada elemento y amplificando cada uno por separado para ir corrigiendo las intensidades con diferentes ganancias de entrada. De hecho, el efecto de proximidad de un micro cardioide nos ayudará a compensar estos desequilibrios tímbricos en la más baja frecuencia. Digamos que en este caso no hay mal que por bien no venga. 
Bien, ahora asumamos que nuestro batería se sabe mezclar a sí mismo de un modo acústico y que no vive obsesionado con el volumen. Mejor siempre calidad que cantidad; en una sala pequeña no se suele microfonear una batería al completo: a veces solo bombo, caja y algún que otro timbal, si fuera necesario incluso compartiendo micro (uno para dos timbales aéreos por ejemplo). 
He de decir también, en honor a la verdad, que un sonido acústico puede sonar feo por defecto de intensidad o por exceso, ya que si se golpea débilmente, el sonido es pobre en armónicos, y si se golpea muy fuerte, el sonido suena bruto y comprimido, como sin matices. Hay que buscar una pegada en función del timbre que consideremos que realmente nos suena bonito (también hay que confiar en la amplificación, que para eso se inventó), por lo que hay baterías (instrumento), apropiadas para cada estilo musical y circunstancias, así como diversos tipos de parche. Hay parches que responden mucho mejor a diferentes dinámicas, como son los parches rugosos Ambassador de Remo, u otros como los de aceite, que son más secos y "rockeros" y tienen menos muchos matices en su respuesta dinámica, por poner un par de ejemplos. 
Encontrar tu sonido como baterista a veces es una cuestión de años y años de probar muchas combinaciones (dejaros seducir siempre por lo que os digan vuestros oídos musicales), por lo que en la medida de lo posible hay que ir probando muchas todo tipo de opciones (platos, parches, tamaños, tensiones de parche...), y eso que no quiero entrar en el mundo de las baquetas o de las mazas de los bombos, porque nos da como para escribir un libro. 
Micros de batería
Volvamos al lío: el volumen global de la batería dependerá por lo tanto de la intensidad en la pegada del baterista. ¿Tiene mucho sentido golpear dejándose la vida en ello como si no existieran sistemas de PA en la tierra en pleno siglo XXI? Pues lo cierto es que no: un productor o un ingeniero de sonido prefiere un baterista constante en términos de intensidad, o que module su pegada de un modo totalmente musical para acentuar algunos pasajes o detalles de una canción. Tocar "fuerte" no te hace mejor baterista; tocar balanceado y controlando la dinámica según las diferentes partes de la canción sí. 
Ahora que ya "tenemos" un baterista que piensa como un buen músico (que hace una buena labor como mezclador acústico) y que ya no piensa como un atleta, ahora ya sí que podemos dar el siguiente paso. 
Os recuerdo que estamos en un escenario pequeño, así que debemos adecuar el volumen de los amplificadores de las guitarras, el bajo y los teclados si los hubiese (Leslie o Fender Rhodes) en base a esta referencia del instrumento acústico llamado batería, pues no tiene volumen regulable como un amplificador. 
Probablemente la banda ya suene empastada aún sin un solo monitor funcionando y el sistema de PA cerrado. Esto simplificará mucho las necesidades de las mezclas en el escenario en cuanto a monitorización, pues si ya sonamos a pelo, sólo debemos plantearnos qué es lo que realmente nos falta por amplificar. En este caso es muy simple: serán los instrumentos que carecen de amplificadores, como sintetizadores, cajas de ritmos, samplers... y las omnipresentes voces.
Cuanto menos volumen haga falta arriba del escenario, menos sonido saldrá del mismo y más control de la mezcla va a poder ejercer el técnico de sala. 
Supongamos de nuevo que al guitarrista se le va un poco la cabeza con el volumen de su ampli y pone su Marshall al 8. Esto obligará sin querer a un cambio de volumen del resto de la banda y puede que el baterista toque mucho más duro, algo que derivará en toda una serie de problemas. Puede que de este modo nuestro baterista se agote físicamente mucho antes, por lo que difícilmente llegará con esa pegada al final del concierto, a no ser que recurra al dopaje (cosa muy poco recomendable). Esto desbalanceará la mezcla acústica de la banda a lo largo del concierto, lo que obligará al técnico a retocar la mezcla constantemente dentro y fuera del escenario. 
Solución: empecemos a tomar como referencia ese instrumento acústico llamado batería y ajustemos nuestros amplis en consonancia. Amplificar sólo una voz o un teclado en los monitores y poco más es más simple que tener que hacer mezclas complejas y muchas veces del todo surrealistas. 
Una guitarra atronadora puede hacer que un baterista necesite bombo y caja "extra" en un escenario pequeño porque no oye bien su instrumento, pues queda enmascarado por una guitarra con exceso de presión sonora. Esto a la larga sólo nos traerá problemas; por ejemplo: puedo garantizar que el técnico de la sala no tiene un fader milagroso que baje el volumen de una guitarra que se oye a 12 km a la redonda (por lo que ya puedes tocar bien, porque será lo único que se oiga en toda la sala). Por otro lado, tocar más alto acrecentará las posibilidades de llegar a una sordera prematura de todos los miembros de la banda a corto/medio plazo, además de que, como es obvio, impide que el técnico que mezcla para el público tenga opciones de hacer sonar a tu grupo decentemente bien, pues se complica el balance de planos con una PA normalmente acorde a las dimensiones del pequeño recinto o sala. 
Señores músicos: si un técnico te pide que bajes tu volumen es para que tu banda suene bien de cara al público. El mejor aliado de un músico será siempre un técnico; si desprecias sus sugerencias, estarás tirando piedras contra tu propio tejado. Si tú como músico no quieres que tu banda suene bien (porque no te dejas aconsejar), ¿por qué lo va a querer un técnico que te acaba de conocer?
Siempre hay un motivo para todo: si no suenas bien, habrás perdido la oportunidad de conquistar a parte de tu público. El directo es la prueba del algodón de los artistas y bandas, pues salvo el playback, no hay trampa ni cartón, así que no desperdicies la oportunidad de hacer las cosas bien. 
Piensen con las orejas, pónganse en el lugar del público y asuman para quién hacemos música.

Artículo publicado en www.hispasonic.com por Michel Martín
https://www.hispasonic.com/tutoriales/como-sonar-bien-sala-pequena/42189

jueves, 12 de enero de 2017

Desmontando mitos sobre la reverb orquestal

Desmontando mitos sobre la reverb orquestal

Lo prometido es deuda: llegó el post de la reverb orquestal. Básicamente lo que voy a contar son los cuatro principios básicos de cualquier reverb, explicar las reflexiones tempranas y la cola —ER y tail, que es donde más lío hay, creo— y poner un par de ejemplos de cómo usar la reverb siguiendo mi ya mítico principio de menos es más.

Quede claro también desde el principio: al hacer un mockup orquestal, la reverb, en general, se utiliza para crear la ilusión de un espacio real. Es decir, nos permite engañar al oído para que este crea que la música está interpretada en una sala de conciertos real. En muy pocos casos la usamos para ser super creativos y extraterrestres con ella. No es como en pop-rock o electrónica, géneros en los que la reverb es un efecto creativo del copón. Por lo tanto, todo lo que viene a continuación creo que es aplicable sólo a música orquestal. En pop-rock no hay ninguna necesidad de “ubicar todos los instrumentos en la misma sala”, para nada. La batería puede tener una reverb muy densa con una cola corta para que la caja destaque sin emborronar la mezcla, la voz puede tener una cola de reverb larguísima porque queda más bonito, y un largo etcétera. No creo que a nadie mezclando pop-rock se le ocurra intentar ubicar la batería y la voz en el mismo espacio virtual, salvo que quiera dar la sensación de una grabación en vivo.

Bueno, al lío.

Lo primero de todo, y para que quede claro: la reverb en temas orquestales no es complicada, compleja, esotérica, ni nada de eso. No hace falta hacer tablas de excel para medir la respuesta de una sala frente a otra, ni hacer cálculos de reflexiones tempranas dependiendo de si nuestras paredes imaginarias están hechas de cemento, madera, o ladrillo mirando fotos y consultando planos secretos germano-orientales de Teldex.

Olvidaros de todo ese rollo. ¿Por qué? Pues por tres razones fundamentales:

1) Muchas librerías ya están grabadas con el ambiente incluido en los samples, cosa que hace 10 años no ocurría. El estándar hoy día es grabar las librerías en estudios o salas reales, por lo que ya tienen ambiente en los propios samples. Todas las muestras tienen incluidas las reflexiones tempranas en la grabación, incluso VSL o cualquier otra librería seca como la mojama, lo único que en estas las ERs son tan bajas y cortas que precisamente son ellas que nos transmiten la sensación de que no tienen nada de reverb. Nos dan la sensación de tener al violinista tocando al lado de nuestra cara.

2) No es lo mismo usar la reverb en instrumentos reales (de orquesta o no) que en samples. Los samples son por definición artificiales, y por mucho que nos volvamos locos intentando que "todo esté en la misma sala", esto es un absurdo filosófico. Un sample es una imagen de un instrumento grabado en una sala concreta. Una reverb por convolución (las más usadas para “posicionar”) es una imagen de la respuesta de una sala concreta diferente. Que nos volvamos locos con la reverb para intentar que samples que se han grabado en sitios diferentes parezcan estar en la misma sala es inútil. Podemos acercarnos a engañar al oído para que todo suene bien, pero los planos secretos de Teldex no nos añaden ningún valor. Cero.

3) El punto más importante: la reverb no la perciben nuestros oídos como una fórmula matemática. La reverb es una percepción, y engaña al oído miles de veces. De eso se trata precisamente, de crear una ilusión para el oyente. Y nuestro oído es perfectamente capaz de aguantar y tragar diferentes ERs y diferentes colas para varios sonidos, depende de lo creativos que queramos ser (como lo que comentaba más arriba del pop-rock).


REFLEXIONES TEMPRANAS vs COLA (ER vs TAIL)

En orquestales esto es un poco la madre del cordero… aunque no son las únicas dos cosas que nos permiten dar sensación de espacio real a nuestro mockup.

En un mockup orquestal que utilice samples, a menos que se use una solución espacial total tipo MIR de VSL o SPAT (nótese que dejo fuera a VSS) hay 4 controles fundamentales que se puede usar para dar información al oyente sobre el espacio. Y ojo, que los dos primeros se suelen obviar.

1) El volumen. Aunque parezca de cajón, sonidos más cerca sonarán más fuertes, y sonidos más lejanos sonarán con menos volumen. Subir o bajar el volumen acerca o aleja un sonido. Así de fácil.

2) El panorama. Otro de cajón (salvo que estemos haciendo una mezcla en 5.1 o 7.1). Mueve el sonido de izquierda a derecha.

3) Reflexiones tempranas (ERs). El menos comprendido y el que más males ha traído al mundo. Las reflexiones tempranas dan información al oído acerca de la distancia a la que está la fuente de sonido, siempre que esa fuente esté en un espacio cerrado.

Digo esto último porque muchas veces en grabaciones en las que se busca un sonido de verdad amplio, a veces las ERs son contraproducentes, a que lo último que querríamos en esa situación es dar la sensación de que nuestros músicos están encerrados en un espacio. Hay muchas grabaciones con orquestas reales en las que se ubica a la orquesta en el centro de una sala para evitar en la medida de lo posible que los micros capten las ERs. Las ERs son las que hacen que cantar en nuestro cuarto de baño sea mucho mejor que en nuestro salón con alfombras y cortinas. Las paredes del baño son mucho más reflectantes y le dan esa cualidad diferente a nuestra voz. Haced la prueba ;)

4) La cola de la reverb (tail). Es el espacio general de la sala, lo que habitualmente se entiende como reverb por cualquier persona.

Vamos con un ejemplo chorra, a mi estilo. Si estás en una sala de conciertos y alguien se pone a tocar el clarinete a un metro justo delante de ti, percibirás perfectamente que estás en una sala de conciertos y no en un cuarto de baño. Escuchas el sonido de la sala además del sonido de un señor muy cerca tocando el clarinete. Lo que escuchas es el sonido directo (la fuente del sonido, paneado al centro porque está frente a ti) y la sala (la cola de la reverb), pero no vas a escuchar las reflexiones tempranas porque el señor está a un metro con el clarinete.

Imagina que el señor se aleja de ti diez metros y se pone un poco a la izquierda de ti. Además de darle un abrazo y darle las gracias, lo que escuchas es que el sonido tiene algo menos volumen (está más lejos), es algo más difuso (está más lejos), y está un poco a la izquierda (panorama). Así que escuchas el sonido directo, la sala un poquito más que antes, y el panorama.

¿Qué es lo que pasaría si en lugar de un señor es un sample de clarinete? Pues que al alejarse 10 metros, a pesar de oír la señal directa y la sala, si no tiene ERs el sonido será raro, porque será un sonido aún muy cercano en lugar de a diez metros, pero tendrá una cola y un volumen como si estuviera a 10 metros. Vamos, raro para nuestro cerebro.

Y cuanto más se aleje de ti el señor con el clarinete, así irán cambiando las ERs y la percepción del sonido. Esto es importante SÓLO con instrumentos de verdad muy secos, tipo VSL o LASS. Repito: sólo en esos casos. Si usas librerías que se han grabado con diferentes posiciones de micro, todas ellas ya tienen incorporadas las ERs y la cola de la sala en mayor o menor medida.

El micro close tendrá ERs y un pelín de cola, el decca tree ERs y algo más de cola, y micros ambient o far tendrán tanto ERs como cola. Todo ello además de la señal directa, claro está.

Por eso, si se usan librerías con diferentes posiciones de micro, no hace falta volverse loco con los ERs en nuestro plugin de reverb. Olvidaros de eso, una vez más. Nada de planos de Teldex ni cálculos sobre la reflexión de los materiales.

Esto es importante porque, salvo que usemos librerías con ambiente de un único desarrollador (todo Spitfire, todo Cinesamples o todo OT, por ejemplo), que se han grabado normalmente en el mismo espacio usando la misma técnica, cada librería que usemos se habrá grabado en un espacio y con unas técnicas diferentes. Este es uno de los motivos por los que no creo en el layering, así en general.

Si usamos librerías de diferentes desarrolladores, lo más probable es que tengamos que encajarlas jugando con la reverb. Sobre todo si usamos librerías muy secas tipo LASS, VSL o Sample Modeling, jugar con los parámetros de las ER sera imprescindible para encajarlas con librerías grabadas con ambiente. Si usamos librerías con ambiente, lo normal es que no necesitemos ERs por separado para nada. Luego con los ejemplos se verá una mezcla de todo.

En resumen, para simular que nuestras librerías están en un espacio real, lo normal es usar dos reverbs, una para las ERs y otra para la cola, y eso lo puedes complicar hasta morir jugando con el predelay, la difusión, y otro millón de cosas. MIR, SPAT y en menor medida VSS (básicamente porque funciona mucho peor, la verdad) lo que hacen es encargarse de calcular las ERs y algo del predelay de los instrumentos dependiendo del lugar y distancia a los que los ubiques. Por eso todas estas soluciones de espacio aún necesitan una reverb para la cola.

Sin embargo, la solución más sencilla que al menos yo he encontrado es la que exponía arriba.
4 variables: volumen, panorama, un canal FX de envío para ERs (profundidad), y un canal FX de envío para la Cola de la reverb (o un inserto en el master output para la cola). Si las librerías tienen ambiente “cocinado”, olvidaros de los ERs. No vais más que a liar la perdiz, la mezcla, y volveros locos.


¿CÓMO FUNCIONA UNA REVERB DIGITAL, SEA POR CONVOLUCIÓN O ALGORÍTMICA?

No voy a entrar en las diferencias entre los dos tipos, que eso está muy trillado. Buscad en Google. Para principiantes, sí que hay una cosa que es importante tener en mente.

Independientemente del tipo de reverb, cualquier reverb digital funciona con cálculos matemáticos que intentan imitar el comportamiento del sonido en la naturaleza. Es importante mantener esto en mente porque los parámetros de la reverb están relacionados, y unos afectan a los otros. Nos liamos con los parámetros de la reverb (normalmente sin saber qué son, yo el primero), y nos complicamos la vida una barbaridad. Por eso mi recomendación es usar de primeras los presets. Así tal cual. No hace falta reinventar la rueda ni arreglar algo que no está roto. El preset se puede usar de punto de partida y después ajustar cosas.


LOS CÁLCULOS

Vamos a ponernos técnicos aquí :-)

El predelay, los ERs y la Tail están relacionados en el tiempo. El predelay en una reverb digital es el tiempo que transcurre entre la fuente de sonido y el momento en que escuchas la respuesta de la sala a esa señal. Esa respuesta de la sala tiene dos partes, la primera que siempre son las ERs y después la cola de la reverb, que no es más que la suma de todas las reflexiones que se producen en todas las superficies a lo largo del tiempo hasta que se desvanece, y que es lo que todo el mundo llama “la reverb”.

En la naturaleza, predelay-ERs-Tail siempre van unidos, son indisolubles. En un plugin de reverb podemos trabajar con cada parte más o menos por separado, dentro de los límites técnicos del plugin que estemos usando.

Así que, el predelay es la suma del tiempo que tarda el sonido en llegar a las superficies de la sala, más el tiempo en que los “rebotes” de la sala llegan a nuestros oídos. Ojo aquí, que llega la parte anti-intuitiva.

Es relevante darse cuenta de el sonido no llega al mismo tiempo a todas las superficies que componen una sala (paredes, techo, público). Y que no todas las superficies reflejan el sonido igual (baño vs salón). Además, dependiendo de dónde estés situado el la sala, tampoco te llegaran todas las reflexiones por igual (aunque esto último da igual, porque en una mezcla vamos a presuponer siempre que el oyente está en el mismo sitio, claro, sino sería imposible, sería una Gioconda sonora que te siguiera con los ojos :-) ).

Por este motivo en la naturaleza las reflexiones tempranas solo contienen los reflejos de determinadas superficies y no de toda la sala: sólo contienen las reflexiones de las superficies que primero responden a la fuente de sonido. Por este motivo también se consigue profundidad en la mezcla con un delay (tipo slapback), aunque no voy a entrar en eso, entre otras cosas porque para orquestales es complicarse la vida. Las ERs dan la información al cerebro acerca del tamaño de la sala y la posición de la fuente. NO la cola. Acordaos del clarinetista coñazo del principio.

PERO en una sala grande (como la que intentamos simular), cuando la fuente está a bastante distancia de nosotros, no hay distinción audible entre las ERs y la cola, todo nos llega por igual con un intervalo tan pequeño entre sí que es indistinguible. Este es uno de los fallos habituales de volverse locos con ERs y colas; cuando los ERs son audibles, nuestro cerebro interpreta que el sonido está más cerca, mientras que si no son audibles, nuestro cerebro interpreta que el sonido está más lejos. Si queremos dar sensación de sala de cámara, obra maravillas, pero si queremos dar sensación de sala (lo más habitual), mucha presencia de ERs junto con la cola es contraproducente.

Este es un ejemplo gráfico muy bueno de esto que digo: http://www.syntheticwave.de/ITDG.htm

Así que, incluso trabajando con instrumentos más secos, pienso que es mucho mejor eliminar los ERs o usarlos muy, muy cautelosamente, si lo que se quiere es simular un espacio grande.

Es mejor jugar con el predelay para dar sensación del tamaño de la sala que con la cola o las ERs, es mejor no usar ERs en los sonidos que queramos poner “lejos”, es mejor dejar una única cola para todo (y si acaso combinar dos cuidadosamente para darle más movimiento a la reverb, aunque yo casi nunca lo hago, menos es más).


EJEMPLOS

He hecho un minutillo de música (está regular programada, no me toquéis las narices :-) (para escuchar los ejemplos desde el navegador, id al final de este post).

Ejemplo 1
Aunque he usado diferentes librerías con ambiente (Spitfire y Orchestral Tools, sobre todo), de primeras no he puesto nada de reverb de ninguna clase, y estoy usando los micros close, que son los más secos. Además, no he paneado nada, y aunque tienen cierto paneo natural porque están grabadas en posición, se puede mejorar. El volumen está tal cual sin tocar nada del master volume. Vamos, lo mínimo de lo mínimo:

Ejemplo 2
Siguiendo mi filosofía, lo siguiente que he hecho es panear un poco más para dar más espacio L y R, y jugar con los micros de cuerdas y metales (Spitfire) para darles el ambiente sin tener que hacer nada más. Aquí el mismo ejemplo usando simplemente las posiciones de micro de metales y cuerdas, modificando volúmenes y con más panorama:

Ejemplo 3
Todavía no he tocado ninguna reverb en absoluto. Aunque las maderas tienen ambiente cocinado (Berlin WW), no están exactamente donde deberían estar en función de dónde están las cuerdas y los metales, a mi oído. Ahora sí voy a añadir un envío de reverb a las maderas para darles un poquito más de espacio. La trompeta además es Cinebrass y no Spitfire, y tampoco me suena bien del todo, así para esta versión voy a ver si arreglo un poco mejor la posición de micros. Nada de reverb, voy a ver si puedo hacerla más parecida a los demás metales.

Como las maderas ya tienen ERs incluidos en la grabación, en el envío de reverb NO pongo ERs. Sólo tail. Si añadiese ERs estoy mezclando los ERs de dos salas: la de Teldex, en este caso, y la “ficticia” que crea la reverb. No me aporta nada y voy a ensuciar. Simplemente les añado un pelín de cola brillante. EQ para quitar graves y un poco de agudos a la reverb, y he subido el predelay de mi reverb para dejarlo más limpio a mi oído. Y ya está.

Ejemplo 4
Y por rematar, me apetece ponerle una reverb larga en el master. He puesto una reverb algorítmica larga y con algo más de presencia de lo que suelo hacer. También he subido el predelay para que no oscurezca tanto el sonido a pesar de ponerla más WET de lo normal en mi. Lo he exagerado un pelín para que se vea la diferencia en el mp3, que se come un huevo de frecuencias altas. De hecho en el mp3 que vais a oir no se nota demasiado, ahora que en el proyecto o en WAV os garantizo que sí ;)

De hecho, al añadir la reverb al master, me he dado cuenta de que había añadido un poco de micro Ambient a las cuerdas que en realidad me sobra, así que la he quitado y de paso ahorro RAM.

Y ya está. He tardado en total unos 25 minutos, de los cuales 20 han sido retocando los volúmenes y panoramas y escogiendo las posiciones de micro. 5 minutos tuneando un poco un preset de Revelation (que es la reverb por convolución básica que viene con cualquier cubase), y 2 minutos tuneando un poco la reverb algorítmica (más que nada porque es la primera vez que la uso – RC48 de NI, nada del otro mundo).


RESUMEN PARA VAGOS

En mi plantilla, en resumen, tengo dos canales FX para usar como envíos a la pista y una reverb como inserto en el master:

1) Reverb por convolución para jugar con los ERs si es necesario. Si la librería tiene posiciones de micro diferentes, nada de nada normalmente. Si hay que empastar dos librerías diferentes, como en mi ejemplo, un poquito.

2) Reverb Algorítmica por si quiero poner la tail por familias de instrumentos. Normalmente sólo la uso si voy a exportar en stems, si no, al master para sacar una sola mezcla estéreo.

3) Reverb algorítmica para darle una tail larga como inserto en el master.

Y punto pelota. Menos es más. De hecho se pueden usar dos reverb por convolución o dos algorítmicas, lo que os suene mejor.

Por supuesto, los ejemplos están sin masterizar ni ecualizar bien ni nada, nada más tiene un pelín de EQ en las cuerdas que están en mi plantilla, y un limitador suave en el master. El WAV es lo que ahora cogería y le daría una vuelta si me pongo serio, serio :)


EXTRA: PARÁMETROS BÁSICOS DE LA REVERB

Breve explicación de qué son los parámetros más importantes que suele haber en las reverbs más habituales. Nota: la reverb en la naturaleza no funciona como un plugin, por lo que la separación entre ER y predelay, por ejemplo, en la naturaleza no se da. Ni tampoco se da separación entre ER y cola, ya que estamos.
En cualquier caso, y brevemente (leed el manual de vuestro plugin de reverb, leñe) :-)

Room size

Básicamente alarga o acorta la duración de las ondas que están dando vueltas por la sala virtual. Cuanto mayor la sala, normalmente más largas son las ondas y tardan más en desvanecerse. Esto es lo normal, pero ojo, en la naturaleza a veces no porque los rebotes y duración de las ondas dependen de los materiales donde reboten las ondas – rollo cantar en el cuarto de baño en lugar del salón: en el baño, aunque siendo más pequeño que el salón, hay más reverb y tarda más tiempo en desvanecerse porque las paredes suelen ser de cerámica, que es una superficie muy reflectante.

Decay time

Determina la duración de las reflexiones. Cuanto mayor el tiempo de desvanecimiento, pues más larga la reverb.
El decay y el tamaño de la sala suelen ir de la mano, ojo al toquetearlo ;) Un tamaño de sala muy grande con un decay muy corto quedaría raro. Pero haced pruebas y comprobadlo por vosotros mismos.

Damping

Si el sonido va rebotando en superficies duras y muy reflectantes, las reflexiones de la cola serán más definidas y más brillantes. Si rebotan en superficies blandas, la reverb va perdiendo frecuencias agudas con cada rebote. El sonido será más cálido en una sala con paredes de Madera o cortinas o una alfombra que en una sala de cemento o con mucho cristal. Una vez más, baño frente a salón. El damping lo que hace es acortar la reverb en frecuencias determinadas para simular las diferentes superficies.

Difussion

Controla en qué medida las ERs se van suavizando en el tiempo. Una difusión alta trata de imitar superficies irregulares o salas con obstáculos, lo cual produce un sonido más suave, con más color. Una difusión baja imita una superficie más regular y sin obstáculos, y da un sonido más brillante.

Básicamente se trata de intentar simular lo que ocurre en la naturaleza con las superficies absorbentes o reflectantes de un espacio.

Density

Controla el número de reflexiones discretas en un espacio y el intervalo de tiempo en que se producen. Una densidad alta produce un sonido más rico y con colas más naturales, mientras que una densidad baja produce una reverb más “delgada” y además la cola puede hacer flutter, que es bastante antinatural. O sea, densidad media o alta para orquestales.

Pre-delay

Otro de las parámetros básicos que casi nadie explica bien (ni yo tampoco lo voy a hacer, seguro). :-)

Hasta que un sonido golpea las superficies de una sala y empieza a provocar reflexiones pasan unos milisegundos. Es decir, cuanto mayor la sala, más tiempo pasa entre la fuente del sonido y las paredes, por lo que cuanto más pre-delay, más sensación de espacio grande, y cuanto menos, más sensación de espacio pequeño.

Subir un poquito el predelay de la reverb si la pieza suena un poco “guarra” ayuda a que se escuche mejor la fuente, sin perder la reverb. Ojo que si nos pasamos suena muy raro. Investigad.

Nivel de ERs vs Tail

Muchas reverbs permiten ajustar el nivel de las ERs frente a las colas. Y es una herramienta muy buena para el posicionamiento atrás-adelante. En mi ejemplo, Revelation de cubase lo tiene, y es muy útil.
Artículo publicado en www.hispasonic.com
   https://www.hispasonic.com/foros/desmontando-mitos-sobre-reverb-orquestal/503781