Radio Albayzín

sábado, 19 de noviembre de 2016

Guía de diseño sonoro : Seis procesos para modular efectos sonoros

Guía de diseño sonoro : Seis procesos para modular efectos sonoros.


Como ya hemos hablado en repetidas ocasiones, el diseño sonoro no es mera exageración de procesos. Si bien hay momentos donde se necesitarán abundantes transformaciones y efectos, es claro que entre más simple, mejor, entre menos necesidad de saturar los sonidos y conservarlos más crudos y naturales, mejor. Esto, sin embargo, no quiere decir que no debamos atender a los procesos y las transformaciones, sino más bien saber cuando es el momento adecuado para ello.
Tras explorar procesos esenciales y también algunas herramientas menos comunes pero de gran importancia a la hora de diseñar sonido para medios audiovisuales, procesar efectos sonoros, etc,  nos movemos a otra serie de efectos que completarían nuestra caja de herramientas para el tratamiento de sonidos. Se trata de aquellos efectos de modulación, los cuales nos permiten retorcer el espectro, modificar de diversas formas la frecuencia, repetir sonidos, entre otros, encontrando aquí algunos ya clásicos como un delay o un flanger/chorus, pero incluyendo también otros un tanto más específicos.
Todos estos efectos de modulación no deben entenderse en sus formas más radicales, aunque dado el caso, así deberán utilizarse. Sin embargo, hay que pensarlos desde lo sutil, como si se tratara de un plato que estamos cocinando y estas herramientas fueran ingredientes que con un poco ya pueden cambiar radicalmente el sabor de todo el plato, o que solo se han de integrar a ciertos elementos y no a la totalidad de partes del plato entero. Pensemos en ello como herramientas para generar un poco de movimiento, de sabor, decolor, de textura. Su utilidad no depende por ello de los efectos extremos que puedan generar sino de alteraciones más delicadas que pueden quizás solo integrarse a una capa de la totalidad de un sonido.
Como ya es habitual, no nos enfocaremos en marcas –aunque pueden sugerirse algunas– sino que orientaremos la lista a los efectos en cuanto tal, dado que así podemos exponer a grandes rasgos los procesos en cuestión y dejamos la elección de plugins, marcas y tipos de efecto a discreción de cada quien.

1. Repetir y retrasar los sonidos

Es probablemente uno de los más conocidos efectos del audio: repetir la señal, retrasar los sonidos, jugar con sus ecos y repeticiones. El famoso efecto de “delay”, en sus tantas formas, es un recurso invaluable para el diseño sonoro, incluyendo desde sutiles delays para generar ciertos efectos en relación a la imagen, hasta extramas transformaciones en los sonidos gracias al juego con múltiples líneas de retraso y/o repetición en los delay multi-tap.
En el diseño sonoro el delay, como con el resto de efectos, dependerá de la emoción buscada, de determinadas intenciones narrativas. Exageración, entonación, ficción, tensión; son muchos los efectos psicológicos para los que el delay puede aportar. Por ello conviene no depender un único delay, o de ser así, tener uno que permita versatilidad. Por lo general puede bastar con dos, aunque son tantos los tipos, que conviene explorarlos ampliamente.
Hay delays granulares tipo soundhack bubbler o SoundToys Crystallizer que pueden ser útiles para efectos de mayor alteración del sonido ya que incluyen cierta modulación de pitch y corte de los sonidos al repetirlos o retrasarlos. Otros ofrecen un mayor control del ritmo de repetición y la forma como responden los rebotes en el tiempo y el paneo, como SoundToys EchoboyD16 Sigmund o Waves SuperTap, por mencionar algunos, ya que son bastantes las opciones. 
Algunas veces el delay se aplica sobre conjuntos de sonidos, aunque por lo general es bastante útil en capas individuales, para generar repeticiones más genuinas que lo que se puede lograr mediante copiar y pegar, para alterar levemente los sonidos al repetir la señal con ciertos efectos como modulación o cambio de pitch, o para simplemente llenar un poco cierta capa que necesite más actividad o material en el tiempo. Los delays siempre serán pura sorpresa y pueden caber en muchos contextos. Algunas veces sirve incluso usarlos aunque no se crea necesario, puesto que aportan elementos inimaginables.

2. Alterar la señal retrasada o duplicada

Otro clásico del procesamiento de sonido es el efecto de duplicar la señal y retrasar una de las líneas para agregar cierta modulación y generar efectos interesantes en la fase y la forma como se pueden entrecruzar las frecuencias de determinado material. Para ello es sumamente útil tener siempre a la mano un buen chorus/flanger que ofrezca versatilidad y control sobre sus parámetros, aunque es claro que en algunas ocasiones bastará con algún efecto más simple.
Aunque estos efectos pueden utilizarse de formas extremas para generar cambios radicales en el sonido, su uso sutil es más conveniente, o al menos más común. Sutilmente aplicados, estos efectos permiten a cada capa obtener cierto movimiento interesante, logrando una variación especial dentro del resto de capas que le permite acoplarse de una mejor forma.
Es útil tener en cuenta que las capas juegan tanto con el espacio que cada una tiene, como con el hecho de que se enmascaran e integran unas a otras, se unen como piezas de un rompecabezas, por tanto a la hora de sumarlas, conviene jugar con cambios sutiles que puedan aplicarse, logrando así otros efectos y formas de integración más interesantes que quizás con un ecualizador no se logran.
Las opciones dependerán además de los efectos específicos que se utilicen y la necesidad de la obra, donde puede utilizarse el flanging para generar una voz de un robot o simplemente para darle una apariencia líquida a cierto sonido. Hay además plugins que ofrecen opciones más dedicadas de modulación en este sentido, como Enigma de Waves, conocida joya, oPhaseMistress de SoundToys que incluye una sección dedicada a editar la forma de onda de modulación o el ritmo de repetición.
Estos efectos ya introducen otras vías creativas que llaman a la exploración dedicada, a la hora de crear whooshes, de darle movimiento a ciertas capas, de aligerar ciertos ataques, de generar efectos de transición o transporte, entre tantos otros. Son por ello de gran utilidad cuando se necesita darle algún toque de irrealidad a lo real.

3. Modular el espectro

Relacionado con el último encontramos procesos de modulación dedicada del espectro, dentro de los cuales incluimos varios procesos que bien podrían asumirse de forma independiente: modulación de frecuencia (FM o vibrato), modulación de amplitud (AM o tremolo), modulación de paneo. El factor “modulación” se ejerce sobre el tiempo, alterando desde allí los parámetros mencionados, logrando así una infinidad de efectos que podrían parecer exclusivos de la ciencia ficción pero que en realidad tienen muchas posibilidades para cualquier tipo de situaciones.
Sus efectos pueden ser también sutiles, para generar cambios delicados en la frecuencia, para realzar elementos de una capa en determinado momento, para controlar la frecuencia sin tener que recurrir a cambios de pitch, e incluso para reemplazar los filtros en ciertas ocasiones. Estos moduladores pueden bien ser envolventes que transforman los sonidos, como ocurre con GRM Warp, por ejemplo, el cual puede transformar los componentes de frecuencia de una forma realmente radical, como lo es toda su suite de modulación espectral.
https://vimeo.com/25006065 
En general un plugin de filtro que cuente con opciones amplias de modulación puede ser bastante útil, tipo Volcano de FabFilter. Otras formas muy populares se logran porsecuenciadores por pasos o por los infalibles LFOs en torno a la frecuencia o la amplitud, como ocurre con MondoMod, un plugin un tanto olvidado por Waves pero que ha encontrado un hogar en la caja de herramientas de una buena cantidad diseñadores de sonido y en este caso nos sirve de ejemplo perfecto para los efectos mencionados, salvo que en su caso se trata de la posibilidad de integrarlos mediante un LFO que controla sus modificaciones. Para paneo solo ya está muy bien, aunque el factor LFO, presente en otros plugins de este tipo, es bastante útil, tanto para utilizarlo en ondas extensas como en rápidos barridos que modulan y distorsionan sonidos para alterar un poco sus constituyentes.

4. Granular y reagrupar partes

Aunque un tanto más extremo que los anteriores, no podríamos dejar de incluirlo. La granulación es hoy un proceso fundamental que nos permite cortar un sonido en varias partes que conservan elementos del timbre original, para reagruparlas de diversas formas o tratar con microsonidos que componen los objetos sonoros mayores. Es algo así como trocear un sonido y revolver los pequeños pedazos, con factores interesantes en medio del proceso, como la posibilidad de controlar el pitch de los pedazos, articularlos en diferentes cantidades, controlar la separación de un trozo a otro, etc.
Estos “trozos” se conocen como granos, los cuales vienen a ser formas atómicas o pulverizadas de los sonidos que nos permiten jugar al extremo con la morfología, pudiendo también agregar movimiento y variación sutiles, pero ante todo transformando de formas radicales la textura, modulando la envolvente al tiempo que se transforman radicalmente otros elementos del timbre como la frecuencia y el tiempo. Estos dos últimos son los dos ejes de la granulación: por un lado cortar el sonido en pequeñas piezas dentro de las bandas de frecuencia, y por otro, cortarlos en el tiempo, en milisegundos. 
Para labores de fantasía, ficción y situaciones alteradas, este tipo de efectos cae obviamente bien, aunque, como los anteriores, tiene funciones interesantes para controlar una capa individual o para sonidos más crudos donde la alteración no sea muy evidente. La granulación en este sentido puede verse como la oportunidad de controlar la forma y el contenido de los sonidos desde una única perspectiva, pudiendo modularlos de múltiples maneras, para lo cual, aunque hay efectos particulares, es más interesante utilizar samplers dedicados a esta función, como el Alchemy de LogicForm de Native InstrumentsThe Mangle de Sound Guru,entre otros.
Todos estos tienen en común el tratamiento directo sobre la envolvente, pudiendo granularla para variar profundamente su estructura, de tal forma que podamos generar capas o combinar sonidos dentro de estos, controlando una serie de factores que incluyen amplias opciones de modulación, bastante útil cuando se trata de generar sonidos que quizás no deben ser muy fieles a lo real y pueden ir más lejos en sus alteraciones. Puede jugarse con estos para crear fondos un poco más surreales, para darle algo especial a cierto movimiento o simplemente para crear situaciones donde se requieran transmutaciones extremas entre materiales, personajes, conceptos, etc.

5. Aprovechar moduladores externos

Hay una serie de efectos bastante útiles que funcionan desde variación MIDI, esto es, no afectando directamente la señal de audio sino los parámetros MIDI dentro del DAW. Son muy interesantes porque permiten agregarle opciones de modulación a los demás plugins, pudiendo ir más allá de la automatización de parámetros para acercarnos a la modulación detallada de estos. Tanto para plugins que ya tengan opciones de modulación, como para aquellos que no cuentan ni con el más simple LFO, estos efectos se vuelven realmente útiles.
Aplicarlos en todo siempre será interesante, desde un ecualizador hasta una distorsión. Utilizarlos permite expandir el movimiento generado en ciertos efectos y los cambios que se ejercen sobre el tiempo en los mismos. Por lo general, su forma más básica es como un LFO, similar al LFO de MaxforLive que permite modular cualquier parámetro de Live. Sin embargo, hay opciones con más funciones, como el modulador MIDI integrado de Logic o uno de los más avanzados del mercado: MIDIshaper de CableGuys, que sirve como un complejo motor de modulación con cuatro LFOs y cuatro envolventes que permiten controlar mediante MIDI todo tipo de parámetros, incluso de instrumentos externos.

6. Multiefectos

Otra utilidad a tener presente es el uso de multi-efectos, donde suelen integrarse varios o todos los anteriormente mencionados. Aunque podría no parecer así, entre los diseñadores de sonido es popular el uso de multi-efectos orientados originalmente para guitarra, bajo, tintes, etc, esto es porque ofrecen opciones todo-en-uno más ligeras e inmediatas, además capaces de alojar presets y combinaciones.
Aunque herramientas como Waves GTR tienen su fama, una de las más interesantes en este sentido es Guitar Rig de Native Instruments, ya que no solo ofrece amplias opciones de efectos a combinar, sino que cuenta con módulos dedicados a funciones de control de movimiento, modulación, integración de parámetros por macros, entre otras funciones.
Esto como ejemplo de lo que puede buscarse en un multi-efectos para diseño sonoro, que en el caso de Guitar Rig sirve como una avanzada suite de transformación, pero es claro que a la hora de multi-efectos el panorama se abre bastante, como en opciones más complejas tipoReaktor de NI. En todo caso lo importante es quizás considerar la posibilidad de simplificar múltiples procesos dentro de uno solo.
Artículo publicado en www.hispasonic.com por Miguel Isaza
http://www.hispasonic.com/tutoriales/guia-diseno-sonoro-10-seis-procesos-para-modular-efectos-sonoros/42426

Adobe VoCo, el "photoshop del audio" que agrega y cambia palabras de cualquier voz grabada

Adobe VoCo, el "photoshop del audio" que agrega y cambia palabras de cualquier voz grabada

Si nos detenemos a analizar las posibilidades de edición de audio, en muchos sentidos ya contamos con herramientas equivalentes a lo que sería Photoshop para fotografías pero en términos de audio, pudiendo retocar, modificar, combinar, filtrar y procesar de muchas maneras el material de audio. Sin embargo, aún queda un largo trecho cuando se trata de procesos de resíntesis de material que sean suficientemente fieles a las muestras crudas.
En su reciente conferencia MAX, la gente de Adobe, responsable de piezas populares de software como Photoshop, Illustrator y Audition, ha presentado lo que consideran un “photoshop para audio”, al menos en términos de la grabación de voces, como comentó el desarrollador Zeyu Jin en la presentación del llamado proyecto VoCo, un algoritmo que, sin afirmar si llegará a estar disponible comercialmente, presentó con algunos ejemplos interesantes.

Se trata de un agregado de Adobe Audition desarrollado por miembros del equipo de investigación de la compañía y la Universidad de Princeton. El software se basa en un sistema de resíntesis que permite editar y agregar palabras a un determinado discurso, pudiendo (re)sintetizar la voz registrada. En la presentación por ejemplo, se puede apreciar como en una frase donde dice “besó a sus perros y su mujer” intercambia los sustantivos desde texto, luego agrega la palabra “jordan” en vez de “mujer” y posteriormente agrega material que no incluye la grabación, “tres veces”.
Aunque en el comunicado oficial de Adobe se habla de la posibilidad de “cambiar o insertar una o varias palabras en grabaciones de doblaje, diálogo y narración” debido a errores o cambios necesarios, es claro que una tecnología de estas puede tener muchos usos, algunos de ellos quizás no muy benéficos cuando se trata de asuntos políticos, material de evidencia, entre otros, para los cuales no es de extrañar que ya existan tecnologías similares. De hecho en su presentación se menciona que ha sido más fácil lograr el algoritmo que hacer que el sistema tenga una especie de función de marca de agua de tal forma que se detecte cuando fue hecho así, en caso de que pueda caer en manos equivocadas.
Sin embargo, más allá de nuestras conspiraciones y los interrogantes éticos que de un software así puedan desprenderse, es importante destacar lo mucho que se acerca el algoritmo a la síntesis de una voz tan similar a la identificada en el discurso. Para ello, según comentan los de Adobe, es necesario tener al menos 20 minutos de grabación de una voz, de tal forma que se pueda analizar el material lo suficiente como para recrearla en otras palabras.
Como el mismo Zeyu Jin comentó en la conferencia, su idea es generar en el audio una revolución similar a la que causaron con Photoshop en términos de la fotografía. No se sabe si VoCo es apenas el comienzo de otras herramientas similares, pero es claro que tienen al menos algo de interés en el audio, por lo que será cuestión de tiempo conocer lo que se traen entre manos. Por lo pronto, no se tiene más información sobre VoCo.

Artículo publicado en www.hispasonic.com por Miguel Isaza
http://www.hispasonic.com/noticias/adobe-voco-photoshop-audio-agrega-cambia-palabras-cualquier-voz-grabada/42403

Alva Noto y Ryuichi Sakamoto esculpiendo calma entre sonido y arquitectura


Alva Noto y Ryuichi Sakamoto esculpiendo calma entre sonido y arquitectura


Aún cuando el mundo parece sacudirse de un lado a otro, la escucha puede permanecer en un territorio que reclama la tranquilidad innata de la vida hallada en la música, aquella referida al sonido en su más pura y abierta posibilidad, demostrando que aunque lo sonoro puede formarse de estridentes resonancias, saturados discursos y tonos confusos, es ante todo un llamado constante a la calma, la atención y la disposición a buscar aquello que se oye sutilmente, aún entre tantos susurros que parecen escucharse.
La contemplación es una rareza necesaria en nuestros días, y las artes sonoras, desde hace milenios, han sido formas fidedignas de contemplar, aquietarse y atender al entorno en su desnudez. Esto es quizás porque el silencio es base del proceso de la escucha y la representación del sonido, pero también porque la quietud, la atención y la permanencia temporal en el acto de escuchar son elementos que condicionan radicalmente una experiencia sonora. Aunque habrá ocasiones para cantar o bailar, hay muchas formas de la creación sonora que están creadas para callar, detenerse y ser conscientes no de determinados elementos externos al sonido, sino de sus fibras más íntimas.
Es por ello que la experimentación musical y el arte sonoro en general no solo beben del tiempo, sino que diseñan el espacio. Esto es porque, por un lado, son conscientes de la estrecha relación entre la forma del sonido y el espacio sonoro, donde factores como la reverberación de un lugar inciden en la morfología y viceversa. En los comienzos de la música concreta y electroacústica, por ejemplo, ya era muy presente la idea de cómo el espacio afectaba los sonidos mismos y cómo estos no se ubicaban dentro de un espacio sino que se moldeaban con las características del mismo en su interacción resonante.
De esta manera, los sonidos no se ubican, no pertenencen a un lugar, no están dentro de un recinto, sino que los recintos son parte del sonido mismo. Es fácil comprobar esto con un efecto de reverb: en ningún momento crea un espacio donde habitan sonidos, sino que al aplicarlo, altera los sonidos, agregando ecos, rebotes, alteraciones armónicas, etc, para así conseguir una ilusión espacial, que no es otra cosa que variación morfológica sobre las texturas y objetos sonros.
Esto se torna interesante, sin embargo, cuando nos adentramos en la relación que existe por ende entre arquitectura y composición sonora, donde los espacios no solo afectan lo que se interpreta sino que el espacio mismo se valora como instrumento, siendo responsable de aquello que se construye sonoramente, como bien enseñó Alvin Lucier.
De esta forma el artista está llamado a tomar el espacio como insumo sonoro y no como mero valor agregado o receptáculo de sonidos, resultando esto en una interesante consciencia sobre lo que sucede entre los ecos que rebotan con la materia y la forma como lo espacial dispone la composición y la escucha, generando espacios habitables en la vibración acústica que a su vez se extienden hasta las más sutiles formas del espacio, inaudibles, propias del sentimiento.
Un ejemplo reciente de esta interesante exploración contemplativa del entorno es el performance de un dúo que expresa la finura de lo clásico y lo contemporáneo intersectados, en este caso juntos en un espacio capaz de representar la armonía arquiectónica en su simpleza más honda. Hablamos de Alva Noto y Ryuichi Sakamoto y su reciente acto en vivo en el icónico espacio Glass House, residencia del famoso arquitecto estadounidense Philip Johnson. Escuchemos:
https://vimeo.com/191205737 

Este dúo, conocido por asombrosos performances audiovisuales, bellos diálogos de piano y electrónica, ejerce acá una impecable declaración de riqueza sonora que no cae en la saturación, yéndose a una zona aún más contemplativa que conserva el minimalismo particular de sus composiciones, pero se abre a corrientes sonoras más diluidas y suaves, donde se puede apreciar una profunda y delicada experimentación sonora que, además de reunir un variopinto conjunto de instrumentos donde se hallan cuencos de cuarzo, sintetizadores analógicos, ensembles de Reaktor o resonancias metálicas, se extiende como un profundo juego en el espacio.
Este juego con el espacio es supremamente interesante, particularmente cuando se trata del ambient, para el que Sakamoto claramente no está sólo, como bien lo demostró en su Boiler Room junto a uno de los grandes del ambient contemporáneo, Taylor Deupree. Y es que si con algo juega el ambient es con la idea de la atmósfera y la posibilidad de disponer el sonido y el espacio en paralelo para crear no tanto lugares físicos, como estados emocionales, mentales, de formas más abiertas donde la escucha es respiración entre las ondas.

En lo particular del performance, esta forma de esculpir el espacio se refleja tanto en los sonidos elegidos y cómo en la manera en que la reverberación del lugar afecta los procesos de la composición, pero además se escucha en el crujir de las estructuras arquitectónicas en sí, cuando Sakamoto, posterior a una detenida observación del espacio, se dispone a frotar las paredes de vidrio, resultando en barridos que parecieran brotar de uno de los sintes presentes. Estos elementos al combinarse resultan en un viaje meditativo entre gotas de lluvia que se cuelan en la composición, orquestadas a la par de el sol, que al caer se filtra en las observaciones de los artistas, quienes reflejan en suma una maravilla electroacústica donde instrumentos y edificiación son una misma red resonante que se teje en un espaciotiempo onírico, abierto, digno de una escucha que es madre, a la vez, de la calma y el movimiento.
Artículo publicado en www.hispasonic.com por Miguel Isaza    http://www.hispasonic.com/blogs/alva-noto-ryuichi-sakamoto-esculpiendo-calma-entre-sonido-arquitectura/42417

lunes, 7 de noviembre de 2016

Guía de diseño sonoro: Ocho procesos elementales

Guía de diseño sonoro: Ocho procesos elementales

Es un tanto curioso que a la hora de hablar de los procesos esenciales en el diseño sonoro, se crea a menudo que son requeridas complejas cadenas de plugins, y que estos deben ser avanzados, recién lanzados al mercado ayer y colmados de la más compleja cantidad de controles y opciones de manipulación sonora. Así como conviene en muchos casos evitar los plugins, es importante saber que el diseño sonoro no consiste en la mera síntesis y transformación compleja de sonidos. Muchas veces, pero muchas, basta con el montaje, con la combinación de capas de sonidos crudos o la alteración básica de los mismos.
Esta idea de lo básico es engañosa, dado que algunas veces creemos que básico significa decir que no hace mucho, que no es avanzado y no sirve. Sin embargo, como ya hemos hablado, el proceso fundamental en el diseño sonoro es psicológico, es un cambio de contexto de los sonidos y un juego con la narrativa y el ritmo desde lo sonoro. En el mundo del diseño sonoro lo básico es una meta, es ideal porque por lo general implica naturalidad en la construcción sonora. Esto es importante porque no podemos olvidar que el diseño sonoro no es mera fabricación de sonido, sino fabricación de historias y emociones, estados y sensaciones, a partir del sonido. Aquí lo sonoro es medio, no el objetivo de trabajo en sí.
En este orden de ideas, los efectos, procesos, herramientas y diversas etapas de diseño de determinada secuencia o material sonoro, deberán estar sometidos a la valoración psicológica, estética, poética, narrativa, temporal, espacial, material, etc, las cuales se decantan según la historia, según la abstracción mental, el estado emocional buscado, los parámetros visuales, el ritmo de la escena, los pilares de dirección, entre otros elementos que se ponen en juego en un proceso audiovisual. Por ello las etapas dejan de ser básicos y pasan a ser esenciales, fundamentales, en tanto ancladas a procesos específicos de transformación.
Aunque es común transformar sonidos al azar, jugando con procesos aleatorios y experimentando a expensas de lo que pueda resultar, realmente a la hora de crear muchas veces estaremos preguntándonos no simplemente "qué plugin debo usar aquí para obtener x sonido" sino más bien "cómo la historia/escena/personaje/emoción/noción de este momento se plantea de x forma, entonces necesito un sonido de x forma y por ello puedo utilizar quizás x efectos/plugins/combinaciones". En otras palabras, el diseño sonoro bebe mucho de la intención y el mensaje de aquello para lo que el sonido es vehículo, de la proporción y el ritmo, del contraste constante entre lo que se ve y lo que no, lo que se dice y lo que no, lo que se siente en un momento u otro. Esto es quizás un principio básico del cine: el movimiento.
Dependiendo de la obra habrá libertad para la abstracción salvaje y la transformación abierta del sonido, e incluso habrá momentos donde todo lo demás en la obra, gire en torno a la manera como suena determinado elemento, o bien habrá efectos sonoros que se requieran sin tanta carga emocional o narrativa, quedando más libres para el diseñador. Sea cual sea el caso, no conviene nunca comenzar combinando plugins raros en cadenas infinitas ni tratando de forzar una herramienta para obtener algo mediante un proceso de alta complejidad técnica. Siempre es más conveniente partir de sonidos ya grabados, en lo posible por uno mismo, escuchados por uno mismo, recordados. Esto es importante porque conocer nuestra librería se convierte en nuestra galería de posibilidades a la hora de considerar determinados materiales sonoros y sus vías de contextualización en la obra. Conforme vamos haciendo esta identificación conviene plantearnos la posibilidad de la alteración, combinación y organización de sonido, para lo siempre es conveniente recurrir no a plugins exorbitantes ni ideas muy elevadas, sino a lo básico, que puede ser muchas veces más acertado y trascendental, más fiel a lo que necesita la escena y más capaz de conservar la mencionada naturalidad de los sonidos.
Cuando hablamos de procesos fundamentales es claro que podríamos pensar en la reverb, el delay, la modulación (phaser, flanger, etc), pero estos son un tanto más complejos y especiales que aquellos realmente básicos, que se usan cientos y cientos de veces en una sesión. Ya daremos a estos efectos de repetición, eco, modulación, etc su espacio. Por ahora nos concentramos en procesos más elementales de edición.
Cabe resaltar que estos procesos no suelen ubicarse en el rack de plugins disponible en una pista, por varias razones: se necesitan cadenas de estos para cada muestra de sonido agregada al secuenciador, por tanto implicaría demasiado uso de CPU. Por otro lado, son efectos que conviene más utilizar de forma destructiva, esto es, sin poder luego alterar sus parámetros y transformando totalmente la fuente de sonido. Además, si estos efectos se aplicaran a una pista entera, incidirían sobre todos los efectos sonoros que se agreguen en esa pista, volviéndose inmanejable una sesión donde haya que automatizar 10 ecualizadores de una pista para que se enciendan en determinados sonidos. La otra opción sería tener una pista por cada efecto sonoro pero eso sería incontrolable.
Por ello conviene aplicar estos efectos de forma directa, procesando las muestras mismas. Ejemplo de ello son los efectos AudioSuite de Pro Tools, populares entre los diseñadores de sonido, aunque en muchos DAWs hay procesos similares. Basta muchas veces con crear una cadena de plugins y exportarla en el lugar (bounce in place). Así no estaremos cargando con cadenas extensas de efectos y además trataremos los sonidos siempre de forma más cruda. Se continúan utilizando plugins sobre toda una pista también, pero es menos común a la hora de crear efectos sonoros. Esto quizás sea un tanto cuestión de gustos, sin embargo es más práctico ya que refleja la idea de la escultura de una forma más directa: se esculpen sonidos, se moldean, destruyendo y acomodando lo necesario, como tallando madera con un cincel.
En muchos casos conviene tener una cadena donde se integren todos los procesos. Según el DAW esto varía, pero en general muchos tienen la opción de guardar cadenas de presets, que pueden servir para economizar tiempo y procesar rápidamente determinados sonidos. De nuevo: esto conviene hacerlo de forma destructiva, procesando el audio que entra al DAW. Veamos un ejemplo de este procesado rápido en Soundminer de la mano del diseñador sonoro Charles Deenen, conocido por su trabajo en videojuegos, en especial en la saga Need for Speed:
ENLACE DEL VIDEO EN VIMEO:
https://vimeo.com/9435791
La elección de marcas y plugins es algo realmente muy personal, así que no nos detendremos en esos detalles y más bien abordaremos en general ocho de los que podríamos considerar procesos elementales para el diseño sonoro:
1. ¡Capas, capas, capas! Ya lo hemos dicho en la segunda entrega pero no hace falta recordarlo: el diseño sonoro es en gran parte un arte de combinación de sonidos, de capas de los mismos, donde identificamos rangos de frecuencia, de envolvente, de organización. Este es quizás el proceso fundamental y está presente desde los comienzos de la banda sonora. Cortar, pegar, multiplicar, duplicar, crear silencios dentro de las capas, alternar el orden, etc. Muchas veces es más útil pensar en qué capas combinar que en cual ecualizador o proceso x o y realizar. Es útil recordar que las capas funcionan como piezas de un rompecabezas, donde cada una puede servir para realzar determinado elemento de un sonido construido. En este sentido, muchas veces, en vez de buscar cómo realzar los agudos de determinado sonido, conviene quizás dejarlo intacto y en vez de un filtro o un ecualizador, se agrega alguna capa con un sonido que contenga ese material de frecuencias, o esa textura o ataque, etc.    Podríamos pensar que el proceso fundamental del diseño sonoro siempre ha sido la idea de combinar los sonidos, de alternarlos. Es una forma de pintar en el tiempo, de esculpirlo, en la idea de Tarkovski. Se trata de gestar un organismo, más que una estructura; esto es, los procesos son para darle vida a sonidos que interactuan, los cuales a su vez le dan vida a los elementos que se sonorizan, en tanto se relacionan de diversas formas, gestan emociones e ideas, dialogan, combaten, se entrelazan, en última instancia funcionando como una red, integral, donde cada elemento tiene su lugar.
Para la creación de capas necesitamos intimidad con la escena, con los personajes, con el director. Necesitamos meternos en la mente del uno y del otro, adivinar su sonido. Es una constante sinestesia, un juego con la expresión y el sentimiento. Por ejemplo, muchas veces un personaje, que debe cargar determinada emoción sonoramente, no realiza movimientos suficientes para evocar este efecto. Sin embargo, las capas no necesariamente se piensan para este, en vez de ello pensándose para el ambiente de fondo o sonidos que lo rodean, los cuales pueden estar impregnados de esta emoción a narrar. De esta forma es como se debe pensar el sonido de la película, entrelazando los elementos disponibles, desde los personajes hasta los entornos, pasando por secuencias, cortes, momentos.

2. Reversa

Invertir el sentido de reproducción de un sonido puede ser muchas veces más efectivo que procesarlo excesivamente o dedicarse a buscar otros. El proceso de reversa es bien conocido y quizás uno de los más básicos. Su magia radica en la posibilidad de jugar con el ritmo y la enlovente, permitiendo generar otras texturas en los sonidos y sus interacciones. Es común su uso por ejemplo para la entrada de algún elemento o el enlace a un whoosh o un corte, similar a efectos utilizados en la producción de música electrónica.
Es importante tener en cuenta que este proceso puede ser útil no solo para sonidos crudos, sino para algunos ya procesados, como sonidos que tengan ya algo de delay, modulación o reverb. Hay por ejemplo un efecto popular llamado “backwards reverb” o reverb en reversa, donde se procesa determinado material con reverberación y luego se aplica reversa al resultado. Posteriormente se pueden combinar ambos, obteniendo un efecto similar al que algunas veces se utiliza cuando, por ejemplo, una voz viene a la mente de un personaje o se escuchan sonidos y voces fantasma.

3. Variación de pitch

De todos los procesos que se le aplican al sonido, la variación de pitch es quizás de los más elementales. Aunque parece tan simple como un mero fader, es un efecto radical, incluso bastante usado desde los métodos de reproducción mecánicos. Disminuir o aumentar el pitch de los sonidos se convierte en una forma de exploración de territorios completamente desconocidos ya que por lo general son muchas las formas que un sonido puede adoptar en otras tonalidades, algunas veces acercándose más a lo buscado y otras simplemente transformandose, distorsionandose y alterando todo su contenido armónico.
De hecho se vuelve un ejercicio interesante en la escucha, ya que el diseñador va acostumbrándose a imaginar diversos estratos de pitch, los sonidos que escucha y graba. Igual sucede con los demás efectos básicos: nos comenzamos a preguntar por su transformación y a identificarla desde la escucha misma, suponiendo lo que podría obtenerse si determinado sonido se reprodujera en otro pitch o preguntándonos por aquello que necesitamos combinar con cierto sonido en determinado pitch. Algunas veces, por ejemplo, puede ser más interesante aumentarle el pitch a algún sonido, que ecualizarla en busca de agudos. Igual con los graves, con los que de hecho sucede mucho. Cuando se trabaja para cine, por ejemplo, para llenar el LFE o canal de bajas frecuencias (el .1 del sistema 5.1 o 7.1) se suelen utilizar sonidos inimaginables, que en pitch disminuido, ofrece frecuencias bastante interesantes con las que trabajar.
Para este proceso conviene tener en cuenta que hay procesos destructivos como el clásico Pitch 'n Time de Serato, los AudioSuite de Pro Tools que se aplican estrictamente sobre el material, y otros menos destructivos, tipo soundhack +pitch, los cuales alteran el material sin procesar la fuente sonora, solo mediante una cadena. Caben aquí también efectos más avanzados para modulación de pitch y claro está, los efectos de estiramiento y compresión de tiempo, que por lo general van acompañados de la manipulación de pitch.

4. Estiramiento y compresión en el tiempo

Conocido comunmente por su nombre en inglés, timestretching es un proceso que consiste en estirar o comprimir determinada muestra en el tiempo. Puede realizarse conservando en la medida de lo posible el pitch, pero por lo general van ambos de la mano, implicando el cambio de pitch, un estiramiento en el tiempo y el aumento de pitch una compresión en el tiempo. Sin entrar en una explicación técnica profunda, hemos de tener en cuenta que este proceso de variación de tiempo-pitch es la razón por la cual muchos diseñadores y librerías comerciales prefieren sonidos grabados a 192kHz, dado que entre mayor frecuencia de muestreo, más se podrán estirar y alterar los sonidos sin encontrar artefactos en la señal o destruir el sonido, en sentido de cambiarlo sin utilidad.
Este proceso es de los más fascinantes. Muchas veces combinado con las capas, suele bastar. De hecho cuando se piensa en los contenidos de las capas uno puede dirigirse al asunto en plan de averiguar no solo “qué sonido me sirve para cubrir determinada necesidad de frecuencias o textura” sino “que sonido podría comprimir o estirar para lograr x proceso o sensación”. Algunas veces un sonido puede no funcionar como se busca, y con una alteración de tiempo y pitch puede cambiar rotundamente y aportar lo necesario.

De hecho este proceso cada vez se ha ido haciendo más práctico, en tanto aplicaciones de manejo de librería lo manejan integrado, como en Soundminer, donde los sonidos pueden salir al DAW con el pitch procesado, o pueden pre-escucharse en la librería con el pitch alterado por defecto, en tiempo real. Esta, junto con la posibilidad de aplicar cadenas de plugins mencionada anteriormente, son algunas de las razones por las que es tan popular este organizador de librería. Aunque también los DAW integran poderosas herramientas de este tipo, como el Elastic Audio de Pro Tools o las posibilidades de automatización de pitch y tiempo que tiene Reaper, un DAW que poco a poco se ha ido ganando el afecto de los diseñadores de sonido.

5. Sampleo

Cabe incluir en los procesos fundamentales al sampler, no solo porque desde sus comienzos, con el Synclavier por ejemplo, ha estado presente en el proceso del diseñador de sonido, sino porque reúne los cuatro elementos antes descritos, además de muchas otras posibilidades encontradas en los poderosos samplers de hoy, los cuales incluyen modulación, programación, multo-efectos y posibilidades de detalle en la interpretación bastante interesantes.
El sampler puede alterar pitch, tiempo, procesar material mediante efectos, combinar varias capas, entre muchas otras funciones, pero sin duda alguna su preferencia en el mundo del diseño sonoro radica en la idea de interpretación, esto es, la posibilidad de “tocar” los sonidos como si de un instrumento musical se tratara. Esto permite mayor expresión y posibilidades interesantes a la hora de jugar con los sonidos en la línea de tiempo, en muchos casos siguiendo parámetros del video, como si de un artista foley se tratara.
El sampler a elegir es realmente cuestión de gustos, desde uno básico y rápido como Samplr de iOS, pasando por herramientas únicas como Iris de iZotope que permite avanzado sampleo desde selección y combinación espectral, hasta samplers más avanzados y complejos como Kontakt de NI, que permite un nivel de personalización inigualable mediante la programación de procesos y la combinación de diversos módulos y funciones integradas.

6. Realce y atenuación de frecuencias

Para muchos acá no será nada nuevo mencionar un ecualizador o filtro entre los efectos esenciales del procesamiento de la señal sonora. Sin embargo, es tan básico que muchas veces se da por sentado, incluso se olvida, se deja abandonado como si se tratara un asunto más de los ingenieros de mezcla o los encargados de otras etapas de la creación de una secuencia de efectos sonoros, una determinada atmósfera, etc.
Pues bien, los ecualizadores son de los efectos más interesantes y radicales para tratar efectos sonoros, dado que permiten una gran variedad de procesos que pueden en muchos casos ser utilizados de formas más radicales que aquellas a las que estamos acostumbrados en la producción musical o la mezcla de determinados contenidos. Esto es porque el ecualizador es un cincel para el diseñador sonoro, es una de sus herramientas más importantes: permite el realce de frecuencias de determinado material y a su vez atenuar o incluso cortar completamente contenido de algunos elementos. Aquí los ecualizadores no son tanto para retocar como para alterar radicalmente.
Puede sonar muy básico pero es importantísimo, entenderlo no solo como un mero proceso sobre las frecuencias, sino en el orden de cómo esos procesos de frecuencias alteran lo buscado en determinada escena. Muchas veces no hay por qué deshacerse de un sonido que no se sienta que funcione, sino simplemente filtrarlo en ciertas frecuencias. Igual con las capas, donde a menudo se trata de identificar aquello que cada capa aporta en términos de todo el espectro de frecuencias, por tanto se cortan en algunos sonidos y se conservan en otros. Es por ello que la ecualización debe pensarse en cualquier etapa de la secuencia de procesos: entre capas, al variar pitch, al alterar el tiempo, etc. En el caso de lo que mencionábamos del LFE, por ejemplo, muchas veces se puede jugar con variar tiempo+pitch en un sonido y filtrarlo posteriormente para solo obtener sus material en graves, logrando efectos bastante interesantes. 
Por lo general muchos diseñadores de sonido prefieren ecualizadores y filtros que tengan algo de calor y no sean tan lineales o limpios. Dependerá de lo que requiera la obra, claro está, pero suele ser recibido algo de suciedad y calor. Ecualizadores que emulen circuitos analógicos o cuyos valores de filtro sean flexibles y extremos; también sirven filtros tipo FilterFreak de SoundToys que cuentan con algo de modulación y movimiento para los nodos y modos de filtro, además de herramientas de saturación agregadas.

7. Moldeado de armónicos, saturación, dinámica

Estos últimos son bastante interesantes a la hora de gestar capas o de procesar todo un conjunto de sonidos: los saturados, las herramientas de agregado de armónicos, distorsiones, alteradores de sample rate y bits, entre otros. Esto es porque muchas veces lo que un sonido necesita es simplemente más fuerza, calor, más peso. Si bien esto se puede obtener en cierta medida mediante filtros y ecualizadores, estos suelen trabajar con los elementos armónicos de la señal ya dada, en cambio un saturador o herramienta de agregado de armónicos puede aportar mayor contenido, servir más para “engordar” o “calentar” la señal.
Para ello es útil el equipo analógico, claro está, pero este es poco práctico a la hora de procesar muchos sonidos en rangos de tiempo tan cortos como los que a menudo maneja la industria audiovisual. Hay incluso diseñadores que tienen una cadena casi fija por la cual pasan todos los sonidos antes de ingresarlos al DAW, de tal forma que ya se trabaje con elementos que ofrezcan mayor riqueza armónica. Estos procesos suelen estar acompañados por algún limitador (muchas veces multi-banda) que además de saturar, realce determinados sonidos, lo cual es de hecho una de las claves para obtener un sonido con cuerpo y mayor agarre a la hora de combinar capas. A menudo, quienes comienzan a diseñar, eligen buenos sonidos, sincronizan correctamente el material e incluso lo combinan de formas interesantes, pero muchas veces se siente flaco, débil y frío, dado que, no solo no está adecuadamente mezclado, sino que desde la etapa del diseño ya estaba así.
Para ello conviene tener uno o dos plugins de saturador/limitador confiables, al punto de usarlos muchas veces ciegamente, en bloque, procesando cientos de sonidos a través de ellos para probar qué resulta. Uno muy utilizado, que ejemplifica el procesador ideal para dicha tarea es Vintage Warmer, un plugin de PSPaudioware pensado principalmente para mastering pero con una capacidad extrema a la hora de “calentar” sonidos y reforzar su peso. Basta con incluirlo por ejemplo en la salida de Soundminer o algún administrador de librería para que los sonidos lleguen al DAW con mayor fuerza, aunque claro, esto hay que saberlo controlar.

8. Convolución

Por último, no podía faltar la idea de la convolución, de la que ya hemos hablado anteriormente y que es sumamente útil a la hora de tratar sonidos y de llevarlos a determinados contextos y nociones dentro de una obra. Tanto si un personaje necesita estar en una sala determinada, como si una voz debe sonar como si estuviera en el teléfono o si simplemente se quiere alterar determinado material para experimentar cómo sería si se reprodujera dentro de otro, la consolación es fundamental.
Esto incluye por ende efectos para adecuación a sala, como reverb por convolución tipo Altiverb de Audio Ease, pero también simuladores de amplis y altavoces como FutzBox de McDSP, o ya casos más completos donde se cuenta incluso con juguetes, una amplia variedad de teléfonos, entornos, medios, etc, como es el caso de Speakerphone, sin duda un favorito en la industria. Encuentras más información sobre convolución en este artículo.

Artículo publicado por Miguel Isaza en www.hispasonic.com  http://www.hispasonic.com/tutoriales/guia-diseno-sonoro-9-ocho-procesos-elementales/42395

¿Por qué una señal comprimida suena más alto?



¿Por qué una señal comprimida suena más alto?

¿Qué sucede realmente con el volumen de una señal de audio cuando se comprime? En el presente artículo vamos a explicar porqué cuando se comprime una señal de audio se tiene la sensación de que se ha elevado su volumen.
Lo primero que se ha de considerar es la diferencia entre el margen dinámico de la señal y el volumen de esta. El margen dinámico establece la distancia entre el nivel máximo de señal y el nivel mínimo o ruido que encontramos en cualquier señal de audio. El volumen está relacionado con el nivel medio de la señal, el valor RMS, que viene determinado por el nivel de la señal, el contenido en frecuencia y la duración de esta.
Margen dinámico señal
Existen diferentes tipos de compresores: lineal, de ganancia constante, bilineal, multibanda... Vamos a centrarnos en el funcionamiento de los dos primeros.

Compresor lineal

Compresor
Si atendemos a la definición de la función que realiza un compresor lineal, esta nos dice que aplicará amplificación sobre las señales de entrada que se encuentren con un valor por debajo de un valor determinado denominado umbral (threshold), y aplicará atenuación sobre señales de entrada que se encuentren por encima de dicho valor umbral. Es fácil interpretar que los niveles máximo y mínimo de señal estarán más cerca tras el proceso de compresión, por lo tanto se reduce el margen dinámico en una proporción igual a la relación de compresión (también conocida como ratio).
Entonces, si la dinámica es menor... ¿por qué suena más alto? La respuesta es simple: cuando queremos elevar el volumen de una señal, estamos condicionados por sus picos; de ese modo, para que la señal no sature, apuramos hasta el nivel máximo del margen dinámico, ocupando incluso el valor de sobrecarga, y ajustamos el valor medio final de la señal en función de esos transitorios de señal que nos marcan el valor máximo de la misma.
Compresión
Sound Advice on Compressors, Limiters, Expanders and Gates, Bill Gibson, Ed. ProAudio Press.
Al aplicar una compresión lineal, la dinámica se reduce, y también lo hace en la misma proporción la distancia entre el valor máximo de señal marcado por esos valores transitorios y el valor medio de programa. Es en este momento cuando podemos elevar toda la señal de audio, volviendo a ajustar el valor máximo de señal al techo dinámico del sistema, y estaremos aplicando también una elevación del nivel medio del programa, es decir, del volumen, que ahora al estar más cerca del techo dinámico, tiene un valor más alto.

Compresor de ganancia constante

Con este otro tipo de compresor, el procesado sobre la dinámica de la señal de sonido es algo diferente. Estos compresores tienen dos zonas de actuación bien diferenciadas:
  • La primera de ellas es la que procesa las señales con nivel de entrada inferior al valor umbral, a las que se le aplica una amplificación de igual valor para todas ellas, denominada ganancia de compresión.
  • La segunda es la que procesa las señales con nivel de entrada superior al valor umbral, aplicándoles la relación de compresión establecida. En esta zona encontramos el punto de rotación, que es el valor para el cual el compresor presenta ganancia unidad, es decir, la recta que determina la relación de compresión se cruza aquí con la recta que representa la ganancia unidad del sistema. En esta zona el compresor aplicará amplificación sobre los valores que estén por debajo del punto de rotación (recordemos que están por encima del umbral) y atenuación sobre los valores que estén por encima del punto de rotación. 
Compresor de audio
Resulta un caso muy habitual el mostrado en la siguiente figura, en la que el valor de ganancia de compresión es 0 dB, haciendo coincidir esta zona con la recta de ganancia unidad del sistema. 
Compresor
De este modo sólo se procesa, se comprime (reduciendo la dinámica) la señal de audio que se encuentra por encima del valor umbral, reduciéndose la dinámica en la parte regulada por los picos, por las zonas de alto nivel de señal, que no nos dejaban elevar el nivel medio de programa, ya que estos picos estaban ocupando la zona de sobrecarga del sistema. Una vez que se han reducido los transitorios ya es posible elevar de forma efectiva el nivel medio de programa, tal y como puede verse en la figura. 
Sound Advice on Compressors, Limiters, Expanders and Gates, Bill Gibson, Ed. ProAudio Press.
En los dos casos vistos del compresor de ganancia constante se reduce la distancia en dinámica existente desde el valor más elevado de la señal de audio (valor de pico) al valor medio (valor RMS) de la misma, lo que permite que podamos ajustar la señal al techo dinámico del sistema elevando el valor medio de programa, lo que hace que escuchemos la señal con un volumen mayor.

Artículo publicado por Elena García en www.hispasonic.com
http://www.hispasonic.com/tutoriales/senal-comprimida-suena-mas-alto/42401