Radio Albayzín

domingo, 28 de junio de 2015

Filtros peine en sonido: causas y soluciones

Filtros peine en sonido: causas y soluciones.


Vamos a intentar explicar el filtro peine y lo que puede hacer una sola reflexión acústica de una manera sencilla. Supongamos un monitor de estudio perfecto; si reproducimos por él un impulso perfecto, lo reproducirá tal cual. Esta es la forma de onda de un impulso:
Los impulsos tienen una serie de propiedades, entre las que figura que tienen todas las frecuencias a la vez (en fase). Podemos ver que es cierto analizando nuestro impulso:
Vamos a suponer que ponemos nuestro monitor perfecto en una sala totalmente anecoicasalvo la pared detrás nuestra, que es totalmente reflectante y está a algo menos de 2 metros. El resultado va a ser una onda reflejada con la misma forma del impulso y un retardo de 10 ms. Algo así:
Bueno, pues si nuestra onda incidente era plana y la reflejada es plana porque es igual ¿Cuál es el espectro de la resultante? Mucha gente diría que plana con +3 dB pero el analizador dice esto:
Está bien puesto el nombre de filtro peine: a 50 Hz tengo un valle muy profundo y a 100 Hz tengo +6 dB. ¿Por qué ocurre esto? Recordando que el pulso contiene todas las frecuencias, vamos a copiar dos senos de 50 Hz y otros dos de 100 Hz con un retraso de 10 ms:
Como puede observarse, la onda de 50 Hz está desfasada 180º y por tanto al sumarse se destruyen, mientras que la de 100 Hz está en fase y se multiplica por 2. A lo largo de todo el espectro se alternarán zonas con interferencias destructivas y constructivas.
¿Y qué ocurre si intentamos ecualizar un valle? Usamos un paramétrico con casi +15 dB a 50 Hz y lo aplicamos.
En el análisis FFT se ve una pequeña mejora, pero no todo lo grande que debería notarse. La razón es que aumentamos la ganancia del primer impulso, pero también la del segundo impulso, que vuelve a producir la cancelación.
No es recomendable ecualizar estos valles porque hacemos trabajar al equipo a niveles mucho más altos, produciendo distorsiones y arriesgándonos a romper algo para conseguir muy poco.
Este tipo de problemas debe solucionarse evitando que ocurran, no ecualizando a posteriori.
Artículo publicado en www.hispasonic.com

Uso y abuso de los efectos en directo

Uso y abuso de los efectos en directo.

Mesa de directo
Reconozco que una buena parte de una buena mezcla reside en el hecho de saber elegir y usar bien los efectos (reverbs y delays). Con ellos mejoramos enormemente el sentido tridimensional de la mezcla que, en concordancia al volumen y al resto de procesados de dinámica (compresores, básicamente), permite colocar en diferentes planos los diferentes instrumentos que participan en un concierto. El segundo objetivo es la mejora de ciertos sonidos, en particular las voces y parte de la batería (caja, toms y ambientes). Así, divido en dos los objetivos que pretendemos conseguir utilizando este tipo de efectos: posición psico-física y modificación del sonido original. Como veremos más tarde, es posible que a una misma fuente le aplique ambos retos. 
Mediante el potenciómetro del panorama tenemos la fácil oportunidad de colocar un sonido hacia un lado u otro. Esto ya genera un espacio sonoro distinto a tenerlo todo en el medio, consiguiendo mejorar la escucha por parte del espectador. Aunque aquí no trataremos el efecto Haas o el hecho de trabajar con una PA para grandes audiencias, “moviendo” un sonido a derecha o izquierda conseguimos relajar la parte central y, si coincide lo escuchado con lo visto, el espectador lo tiene fácil a la hora de identificar procedencias y actores (o músicos en nuestro caso). Pero ¿cómo conseguimos alejar o acercar un sonido?
Muchos responderían que con volumen. Ciertamente, modificando el volumen conseguimos cierta percepción que un sonido está más lejos o más cerca. Pero antes de atacar la reverb y después de leer los artículos sobre psicoacústica, deberíamos responder: con la ecualización. Probadlo cuando tengáis oportunidad. Modificando sólo las frecuencias más bajas pero también las más altas de un bombo conseguimos que se acerque más o menos al espectador, incluso manteniendo en liza un nivel de presión sonora dado. ¿Que porqué? Pues preguntadle a Fletcher o a Munson
En un escenario normal existe suficiente distancia entre dos fuentes sonoras como para que un espectador situado algo cerca de él sea capaz de colocar a ciegas cada instrumento. Si como espectadores nos colocamos en el centro y a apenas un par de metros del cantante por delante, cerrando los ojos, no sólo seremos capaces de saber a qué lado está un ampli de otro, sino incluso acertar con mayor o menor precisión la distancia que existe entre ti y el batería (que suele estar en el centro pero más atrasado). Aún así, nosotros microfoneamos a apenas centímetros de cada elemento sonoro, lo que —junto a la alta velocidad de la corriente y/o datos digitales— dilapida esta sensación. Así, el mismo sujeto colocado delante de una PA en estéreo corriente podrá identificar la disposición en un eje (derecha o izquierda) pero habrá perdido toda sensación de profundidad. Es decir, habremos “comprimido” la profundidad de los sonidos. Por ello, la ecualización se convierte no sólo en un elemento de identificación y producción sonora sino, además, en un elemento de disposición sonora en profundidad. Pero no suele ser suficiente, por lo que utilizaremos el archiconocido truco de la reverberación.
La adición de una reverberación a una fuente sonora debe entenderse, primero, como la posibilidad de poder colocar un sonido en un espacio tridimensional. Esto, que muchos damos por supuesto, sólo tiene sentido cuando tenemos en mente el resto de elementos sonoros. La primera aplicación de una reverb consistirá en “colocar” los sonidos, pero teniendo en mente el resto de sonidos. ¿Qué sentido tiene colocar una caja a, pongamos, 10 metros del sonido más adelante si luego colocamos los toms a tomar pol culo y las guitarras a sólo medio metro del punto de referencia? A no ser que sea exactamente ese el objetivo, la confusión sonora será evidente (es decir, la fatiga auditiva). Una misma reverb es suficiente para este cometido, y aunque parece muy fácil (y lo es), el resultado es tremendamente bueno. Menos es más. Como iniciación, basta con saber elegir el mejor efecto (empezad con una room o una hall corta) y enviarle casi a modo proporcional los sonidos en función de su distancia al punto de referencia (normalmente la voz principal): cuanto más envío de reverb, más lejos. Recordad: el objetivo no es modificar los sonidos, sino colocarlos en un espacio tridimensional.
Podemos (y casi debemos) utilizar las reverbs para conseguir otros efectos más dramáticos. Vale la pena, por ejemplo y experiencia, trabajar un rato con la caja de la batería. Su sonido natural casi nunca es reproducido con exactitud con un micro y el procesado necesario. ¿Por qué? En verdad sí que lo es, pero es que nadie acerca su oreja y afina y toca la caja teniéndola a apenas 2 cm de ella, sino superando el medio metro en el caso del batería y el metro o más al resto de participantes. ¿Tiene sentido colocar un micro a tan cercana distancia? Lo hacemos por la necesidad de querer obtener sólo el sonido de la caja, pero a cambio necesitaremos modificarlo, por que lo que tenemos es un ataque brutal y una cola mínima. En realidad necesitamos “alejarla” medio metro o más, es decir, aplicando otra vez una reverberación que nos haga pensar que estamos escuchando esa caja en su situación justa. Muchos lo hacen bien y no saben porqué. De hecho, insistir en la ecualización y procesado de la caja sin escuchar los overheads es un gran error (a no ser que tengas las cosas muy claras), puesto que esos overheads ya recibirán gran parte de la energía que la caja emite y la recibirán mucho después que el micro de la caja: los mismos OHs funcionan como reverberaciones naturales. Entonces ¿debemos añadir una reverb a una caja? Bueno, sabiendo la teoría, ya depende de tus oídos y objetivos, aunque mi consejo es que sí.
Esta misma reverb específica para la caja puede convertirse, de golpe, en un efecto puro y duro. Recordad el We Will Rock You de Queen y esa preciosa manía que tenemos de meterle un laaaargo efecto a la caja. Sin duda es un sonido que no existe o que no tiene sentido. ¿Tocó Roger Taylor esa caja en un túnel de hormigón de 100 metros? Es en este momento en que hemos utilizado la reverb para crear un efecto sonoro.
Yamaha SPX990
Puestos a hablar de la caja, uno de mis efectos preferidos para ella es el preset Big Snare de la archiconocida SPX990. Está a caballo de una reverb larga con una precisa gate. Colocar una gate a una reverb tiene sentido cuando los sonidos de la fuente se repiten mucho en el tiempo. A 2 y 4 de un compás durante 5 minutos, son muchas veces. Si le aplicamos una hall con un tiempo de 1,5 segundos, indica que al tercer compás quizá todavía estamos escuchando la cola de la reverb del primer 2, del siguiente 4, del anterior 2 y 4, etc. Los sonidos son formas de onda y éstas se van sumando unas con otras. Es decir, al compás 4 estaremos escuchando más reverb que caja casi y, aunque parezca bonito, estaremos creando un monstruo, o lo que es lo mismo, alejando la caja de su posición original. Al “cerrar” la reverb cada cierto tiempo evitamos que el sistema vaya sumando colas de reverb. 
Hubo una vez que un asistente de PA se quedó de piedra cuando probando el bombo empecé a aplicarle una reverb. Su sorpresa se convirtió en algo curioso al descubrir que funcionaba. Le justifiqué mi decisión, apoyada por el sonido que estaba escuchando, con el hecho que si colocabas un bombo en un túnel de hormigón (el mismo que utilizó Roger Taylor para el We Will Rock You) éste tenía su propia reverb. No hay nada que más me moleste que “escuchar” una batería entera en una posición determinada pero que el bombo comparta espacio sonoro con la voz principal (nuestro punto de referencia). ¿Tiene sentido? Otra cosa diferente es que sea el objetivo.
En una guitarra eléctrica, la adición o sustracción de la reverb nos puede permitir hacer avanzar o retroceder su sonido a discreción. Quizá no hace falta subir el volumen cuando ejecuta ese riff, sino apenas restarle reverb. Además, nos ocurre lo mismo que con la caja de la batería: colocamos los micros demasiado cerca del altavoz. 
A excepción del efecto específico para la caja, hasta el momento he utilizado un único efecto para toda la banda. Lo hago para no concurrir en problemas. Si tenemos la suerte de disponer de 8 procesadores de efectos y nos decidimos a aplicar a cada fuente sonora su propia reverb es muy probable que creemos, otra vez, un monstruo. Los ajustes deben ser los mismos para hacer algo creíble.
Las voces. Oh, las voces. Muchos han utilizado las reverberaciones estridentes y exageradas en las voces para ocultar sus defectos. En este caso, mejor seguir haciéndolo. Amén del efecto de posición (insisto, el mismo para todos), aplicamos más efectos a la voz ya sea para otorgarle mayor inteligibilidad o, simplemente, para dotarla de belleza. Con un buen efecto estéreo podemos “agrandar” la voz hacia los laterales, dejando lo principal en el centro y permitiendo que la atmósfera de la voz salga de manera distinta por L y R, abriendo su imagen sonora tanto como queramos.
Para terminar, haceros pensar en la adición abusiva del delay (ese eco, eco, eco). Está bien como efecto, pero cuesta y mucho encontrar el ajuste perfecto para que esa voz cuadre a la perfección al tempo de la banda (normalmente diferente en cada canción y, además, puede moverse en su interpretación). Es uno de los grandes abusos que detectas fácilmente en un concierto por parte de terceros, por lo que vale la pena trabajarlo bien. Dicho de otro modo: si queda bien y suena bien, perfecto; sino, olvídalo que tampoco pasa nada.
R. SendraEL AUTOR
Con más de 20 años de experiencia en los escenarios, es técnico de sonido especializado en FOH. Trabaja para bandas nacionales e internacionales como técnico de mesa, y es productor técnico para diferentes festivales y grandes eventos. Kinosonik es su estudio de sonido basado en plataforma digital. Le gusta compartir y le encanta aprender.

Artículo publicado www.hispasonic.com

miércoles, 10 de junio de 2015

Jugando con la Psicoacústica

JUGANDO CON LA PSICOACÚSTICA

Memoria acústica

Oído humano
Uno de los campos donde más me he divertido en mis etapas de formación e investigación es, sin duda alguna, en la psicoacústica. Debido a mi naturaleza basada en el entendimiento y en el intentar descomponer el porqué de las cosas, siempre que iba a un concierto y este sonaba mal me resistía a pensar que era por culpa del técnico. A veces, cuando tenía la suerte de conocerlo, sabía de antemano que era casi imposible que esa persona hiciera mal su trabajo, pero había algo en su mezcla que hacía que prefiriera irme a casa en vez de disfrutar del concierto. ¿Cómo podía ser? Lo fácil (y habitual) es dirimir la discusión a la mala praxis del técnico del momento, pero empecé a preguntarme que quizá era yo quien escuchaba mal las cosas. En definitivas cuentas, el resto del público seguía disfrutando del concierto y no parecía estar enojado por esa misma mezcla que a mi me parecía casi horrorosa. ¿Estaría sordo? ¿Qué estaba pasando?
Empiezo esta serie de artículos que se alejan de las vicisitudes técnicas y nos acercan a laimperfección del ser humano. Basados en los conceptos básicos de la psicoacústica, nos ayudarán a resolver algunos de los problemas más habituales a los que nos encontramos en nuestro trabajo y que no hemos sido capaces de resolver. A todo ello, sigo esperando respuesta a uno de los dilemas que publiqué hace ya algunas semanas: ¿cómo es que el ser humano, con sólo dos orejas, es capaz de reconocer si un sonido viene del frente o de detrás?

Escucha más nuestro cerebro que nuestros oídos

Los más veteranos sin duda reconocerán esta habitual anécdota. ¿Os acordáis cuando los teléfonos eran analógicos, a pulsos, y no tenían pantallita alguna? Nos llamaban a casa y el que más cerca estaba del aparato lo recogía con un “dígame” universal. Luego, nuestro cerebro empezaba su catarsis: a partir del “hola” siguiente debía resolver a velocidad de vértigo quién se encontraba al otro lado del aparato. En ambientes familiares nadie se presentaba, como dando por hecho que todo el mundo se reconoce, pero no es así.
Los teléfonos analógicos (e incluso los digitales de hoy en día) utilizan un método de compresión de datos muy eficiente: reducen el ancho de banda en la respuesta de frecuencia para así enviar menos datos. La voz tiene su dominante en frecuencia entre los 2 y 6 kHz, por lo que todo lo que está por debajo y encima es futil si lo que queremos es centrarnos en el mensaje. Bueno, lo es menos para un dato: son esos armónicos superiores e inferiores los que determinan el timbre de cada uno de nosotros. Pero el teléfono los elimina, los dilapida. Así, cuando nos llamaban y el interlocutor nos descubría empezaba a preguntarnos cómo estábamos, si estaban papá o mamá y que se pusieran al interfono… ¡Qué rabia! El del otro lado sabía quien era, pero yo era incapaz de saberlo. Pero de pronto lo reconocías: ¡era el tío José! Y en ese momento, esa voz distante, capada y fuera de lugar, parecía verdaderamente como si fuera emitida por alguien que realmente estaba a tu lado, hablándote a dos centímetros de tu cabeza. Bienvenida psicoacústica. 
En el momento exacto que nuestro cerebro sabe determinar a quién pertenece esa voz, recurre a los recuerdos almacenados para reconstruir todo aquello que no nos llega. A tiempo real, añade todos esos matices que ni tan siquiera el teléfono es capaz de ofrecer, porque los ha eliminado, ofreciéndonos esa sensación de que, realmente, nuestro interlocutor está a nuestro lado.
Bose Acoustimass
Bose, entre otras cosas, fue reconocida por su serie de altavoces Acoustimass. Se basaban en este mismo principio. Fue capaz de ofrecer un sonido contundente y ‘espectacular’ utilizando unos minicubos y un pequeño subwoofer. ¡Sonaba de escándalo! De hecho, las primeras demostraciones de estos sistemas se hacían con trampa: permitían a los espectadores escuchar una pareja de altavoces de tipo columna, de algo más de metro de altura; y cuando estaban convencidos de la calidad de ese equipo, alguien sacaba de dentro de esa caja inherte esos dos minicubos pequeños y dejaba asombrados a los asistentes. Yo compré una pareja de ellos. Los tuve en mi casa durante unos pocos meses: sonaban bien, pero me fatigaban. Bose no inventó la capacidad de un altavoz de baja pulgada para reproducir perfectamente todas las frecuencias del espectro sonoro, sino que jugó hábilmente con nuevas ecualizaciones muy drásticas y otros elementos para conseguir una sensación de respuesta absoluta, pero que dejaba en manos del cerebro la necesidad de reconstruir todos esos sonidos que eran imposibles de reproducir físicamente. Así, tras un largo rato de escucha mi cabeza casi explotaba, cansada de estar recalculando frecuencias y generando a partir de recuerdos sonidos no emitidos. Lo mismo ocurre con los MP3.

A ver con qué pruebas el equipo de sonido

Linn Products es un pequeño, extraño pero prestigioso fabricante de productos de alta fidelidad. Los conocí hará una decena de años y me sorprendieron cuando los visitaba para realizar audiciones de sus equipos de música: nunca me permitieron utilizar mis propios CDs. Con el tiempo no sólo les doy la razón, sino que ahora entiendo el porqué. Estaban tan orgullosos de sus equipos que podían permitirse este arriesgado experimento.
Linn Products Klimax
Basándose en la anterior premisa, sabían que nuestro cerebro sería capaz de reconstruir infinidad de detalles sonoros incluso si las cajas no lo reproducían. Así las cosas, te incitaban a escuchar sus equipos con músicas que no conocieras, justamente, para evitar que lo que no escuchabas fuera reconstruido por tu cerebro. Cuando pruebas un equipo de sonido con una música que conoces de sobra es probable (por no decir seguro) que tu cerebro te engañe, pues además tenemos poco control sobre él. Te hará escuchar graves profundos y controlados donde no hay más que rebomborio acústico o, incluso, añadir colas de reverb donde no las hay. Si en cambio pruebas un equipo con un pasaje musical que no conozcas demasiado estarás obligado a escuchar lo que escuchas: tu cerebro no sabrá si ahí hay una línea de bajo definida, un detalle en agudos a apreciar o si existe inteligibilidad de la palabra. Si escuchas una canción en tu idioma materno es fácil que “reconozcas” palabras enunciadas donde hay barullo; en cambio, si reduces la escucha a un idioma que conozcas pero no sea tu habitual, el simple hecho de reconocer fácilmente palabras hará que estés de acuerdo con la reproducción, justamente, del espectro más crítico para el ser humano y la palabra: entre 2 y 6 kHz.
Aún así, la memoria auditiva o acústica es muy volátil si no está fijada en el recuerdo. El perfil de la voz del tío José permanecerá casi intacto de por vida, pero un ajuste determinado de un compresor para un bombo que nos suene bien puede volatilizarse en cuestión de un par de segundos, mucho antes de poder ajustar de nuevo el compresor. Por ello, muchos fabricantes de software incluyen la opción A-B que nos permite hacer esta comparación rápidamente. Y tenemos que hacerlo ipso-facto: esperar apenas 1 segundo entre dos sonidos a comparar nos inducirá totalmente al engaño.
Antes de terminar este artículo, el primero de una serie (si me lo permitís), recordar otra anécdota tremendamente común: el músico que pide que le subas un poco la guitarra y que de pronto te felicita por ello cuando tu ni siquiera has tocado potenciómetro alguno. Lo mismo nos ocurre a nosotros (como técnicos): la cantidad de ajustes que realizamos al vuelo durante una actuación que no ejercen función alguna pero que, engañados por nuestro cerebro, creemos que son factibles. Para solucionar esto saquemos provecho de lo que hemos dicho justo ahora: si nuestra memoria acústica es volátil al segundo, entre un cambio y la comparación del siguiente hagamos un mini-reset de nuestra percepción sonora. ¿Cómo? Escuchamos el bombo, lo modificamos y acto seguido centramos nuestra atención en la caja… para luego volver a escuchar el bombo, esta vez limpio de recuerdos, para oir lo que realmente suena

Fletcher-Munson

Curvas isofónicas
Fue en 1933 que dos trabajadores de Bell Labs, Harvey Fletcher y Wilden A. Munson, introdujeron por primera vez el concepto de loudness, asentando que, definitivamente, nuestro oído no tenía una respuesta lineal —era incapaz de escuchar todas las frecuencias por igual—. Nuestro oído está diseñado específica y maravillosamente para la inteligibilidad de la comunicación oral, es decir, para tener una respuesta perfecta entre 2 y 6 kHz. Pero tal y como reflejan las famosas curvas isofónicas o de Fletcher-Munson, nos cuesta escuchar los sonidos cuya frecuencia esté fuera de ese alcance, sobre todo las del espectro inferior (y, curiosamente, el pico de 8-9 kHz). No sólo eso, sino que la respuesta es distinta en función del nivel de presión sonora.
Hasta hace pocos años era fácil ver una opción en los equipos de sonido de alta fidelidad domésticos: loudness. Un pequeño conmutador que aumentaba graves y agudos cuando nos decidíamos a reproducir pasajes sonoros a bajos niveles de volumen; si lo manteníamos encendido a niveles de volumen alto la descompensación era evidente (otra cosa es que nos gustase más).
Lo importante de las curvas isofónicas no es sólo ver que no tenemos una respuesta lineal, sino que, además, esta respuesta varía en función del nivel de presión sonora: a menos volumen, menos percepción tenemos de las bandas graves y agudas manteniéndose las medias, una relación que no es para nada lineal cuando modificamos el volumen al alza. ¿Qué quiere decir esto a nivel práctico? Que cuando tenemos una mezcla que nos gusta a un nivel de presión dado, si nos decidimos a subir o bajar el nivel del máster todo se nos descompensará: tenemos que estar preparados.
En realidad, nuestra respuesta es más plana (aunque nunca del todo) cuando el nivel de presión sonora es muy alto. Nuestro oído responde similar a un compresor-limitador en este sentido. Esto indica que si haces una prueba de sonido a un nivel de presión alto (digamos algo muy alto), obtendrás una mezcla compensada a lo que podríamos llamar un estándar lineal. Esa misma mezcla reducida en volumen pecará de falta de agudos y, sobretodo, graves. Hacerlo al revés implica que una mezcla compensada a un nivel determinado de volumen, una vez aumentas la salida del máster, hará que graves y agudos sean más perceptibles. ¿Qué preferimos? ¿Aumentar o disminuir la respuesta subjectiva de las frecuencias?
Para responder lo anterior debemos reconocer cómo responde psicológicamente el ser humano a un exceso de graves y a un exceso de agudos. Curiosamente, un exceso de graves no nos produce el “dolor” que sí notamos en un exceso de agudos. Casi al contrario: las mezclas más efectistas las conseguimos cuando los graves están algo por encima. Pero todos sabemos reconocer que unos agudos demasiado evidentes nos producen entre desagrado y dolor (de hecho suele disparar una “alarma” de peligro). Conociendo esto y teniendo en mente el ejemplo anterior, nuestro objetivo principal sería controlar con absoluta precisión cualquier aumento no deseado de la banda alta de frecuencias (agudos). Justamente por ello, cuando hago mis pruebas de sonido reparo la misma trabajando a un alto nivel de presión sonora, lo que me indicará no sólo la respuesta del equipo (que también es tremendamente importante), sino que en caso de necesidad, al subir de nivel toda la mezcla evitaré esos sonidos estridentes tan poco deseados. A la vez consigo poner en alerta a los productores del evento que, normalmente, corren a control a decirme que me estoy pasando… Háblales ahora de las curvas Fletcher-Munson, de la respuesta psicoacústica y de lo limitado que está el equipo. Pero este es otro tema...
¿Existe alguna manera de compensar las diferencias de percepción en función del nivel de presión sonora? Lo ideal sería un sistema que en función de ese nivel aplicase una corrección, llamémosla, ‘Fletcher-Munson invertida’. El problema de esta solución es que depende del ser humano y, por tanto, de la posición absoluta de cada persona respecto del recinto acústico principal: el público más cerca del escenario (y por ende de la PA) recibirá más graves y agudos —chillones— que el público que esté detrás de la mesa de control. Si compensamos los agudos para los fans, olvidaremos matices importantes en esa banda para la gente que esté a 10 o 20 m de distancia. Supone un problema muy complejo.
Pero sí podemos insertar en la mezcla un compresor multibanda que compense las diferencias de percepción auditiva humana en función del nivel de salida, un compresor de recorrido algorítmico y multibanda que aumente graves y agudos de manera diferenciada según la salida, a la vez que reduce ese aumento (e incluso comprima la banda media) cuando el nivel de salida se acerca al límite. La idea es tremendamente atractiva, pero es complicadísimo de ajustar. Aún así, probadlo, porque la solución es tremendamente más atractiva que la inclusión de un compresor de banda total (algo mucho más habitual hoy en día), aunque pueden complementarse perfectamente.
No todas las consolas disponen de serie de plug-ins de compresión multibanda o no todos tenemos la posibilidad de poder insertar un compresor tipo C4 o C6 de Waves o un MC2000 de McDSP. Pero sí es mucho más fácil, a malas, realizar este ajuste de manera “manual”: insertando en la salida máster un ecualizador paramétrico. Cada vez que modifiquemos el volumen de PA restituiremos las frecuencias que nuestro oído percibe mejor o peor. ¿Con qué ajustes? Echad un vistazo a las curvas isofónicas.
Fijaos bien en las curvas Fletcher-Munson y daos cuenta de las diferencias que existen a niveles de presión dados: pueden ser de hasta 30 dB o más de intensidad. La mejor de las mezclas es aquella que, además de un sonido agradable, ofrece de manera audible detalles armónicos que enriquecen la misma, y eso a veces se consigue con un aumento de 20-30 dB en el espectro superior de la respuesta en frecuencia; aunque, como hemos visto, un exceso en ese punto puede suponer todo lo contrario: un dolor molesto que puede reducir a cenizas nuestro trabajo.
El oído humano y el cerebro tienen sus herramientas ante los desastres de los técnicos. Todos conocemos a alguien a quien los agudos les molestan tremendamente y podríamos concluir que esta persona no sólo tiene el sistema de “alarma” con un umbral muy bajo sino que, además, su cerebro no permite aplicar ese especie de filtro anti-agudos que otros sí tienen. ¿Recordáis cómo empezaba el artículo anterior sobre psicoacústica? Me quejaba de que el sonido de mi compañero técnico era estridente, pero me sorprendía de la capacidad del público en soportarlo. De hecho, si la distorsión (entendiéndola como lo que significa: la reproducción no fiel ni controlada) de los agudos se realiza de manera progresiva, el cerebro compensa la adición con una especie de substracción subjetiva que permite, poco a poco, mantener a raya el nivel de “alarma”. En cambio, para unos oídos frescos la “alarma” salta a la primera.
Volvemos al final del primer artículo: la necesidad del técnico de poder “resetear” de vez en cuando su cerebro para recuperar los umbrales de referencia ‘normales’. Un sistema, cutre pero eficaz, es tan sencillo como taponarse los oídos con los dedos unos 5-10 segundos, pensando, si puedes, en cualquier otra cosa que no sea música. Ya comenté que nuestro cerebro es potente, pero curiosamente no tiene una memoria acústica de corto tiempo. Al volver a escuchar nos será fácil, durante unos pocos segundos, analizar lo que realmente está ocurriendo y, evidentemente, tener la información precisa para corregirlo.

Frecuencias.
Light you up haciendo pruebas de sonido
Light you up haciendo pruebas de sonido
A todos nos ha ocurrido y nos sigue ocurriendo: empiezas las pruebas de sonido con el bombo y, tras 5 minutos de ensayo/error, estás convencido de que ese sonido grave, contundente y de ataque preciso es perfecto. Sigues con la caja, toms, ambientes, etc. Le dices al batería que lo toque todo, como si le fuera la vida, y disfrutas, tras unos pequeños ajustes de la mezcla, de esa batería portentosa y agradecida. Sigues con el bajo, los teclados, las guitarras y las voces. Llegas a un punto, deseado, en que casi vas a pedirles a todos los músicos que toquen un tema, y estás entre la prueba final y ese momento en que quisieras chillar a todo el mundo: “¡esto es lo que soy capaz de hacer!”.
Pero ahí te la pegas. Esos sonidos casi perfectos que has conseguido desaparecen de golpe, ycuando la banda toca junta nada suena como esperabas. El problema no es psicoacústico, sino técnico: has probado sin mantener un rango dinámico adecuado, ejecutando los sonidos a su máximo sin pensar que sólo eran una parte de un todo. Bajas todos los volúmenes, rehaces las dinámicas, la compresión… y aunque eres capaz de sonsacar otra buena mezcla, para nada se acerca a ese ideal que te habías construido poco a poco durante la primera ronda de pruebas.
¿Os acordáis de ese curioso efecto de nuestro cerebro que nos permite “escuchar” rangos enteros cuando en realidad no lo estamos escuchando? ¿Cuando al saber que era el tío José quien nos llamaba por teléfono nos parecía, ahora sí, que estaba hablándonos como si estuviera a un palmo de nosotros? Pues aprovechemos este “(d)efecto” a nuestro favor ante estas situaciones.
El reto no es conseguir el máximo de presión sonora, sino poder ganar o simplemente mantener dinámica ante situaciones complicadas (algo que, sin duda alguna, es el éxito de una buena mezcla) a cambio de no machacar la presión sonora que, dicho sea de paso, suele ser la “solución” para una gran mayoría de técnicos.
Lo peor que le puede suceder a un grupo de versiones es no sonar como sus ídolos. El espectador tiene clara una referencia sonora exacta que habrá escuchado mil y una veces y esperará que el sonido esté lo más cerca posible. En esta situación, la banda, el técnico y el público tienen claros los objetivos sonoros y conseguirlos es, en una buena parte de casos, realmente fácil. Ahí donde no llega el virtuosismo del técnico, del músico o del cantante, llega el recuerdo mental de los sonidos originales, que en cierta manera ayudan a que, de vez en cuando, cierres los ojos y veas tu banda favorita en el escenario, y no esos individuos de los que ni conoces su nombre real. Al contrario, cualquier banda desconocida puede querer un sonido determinado y conseguirlo, pero la falta de referentes sonoros ayuda cualquier impedimento a la hora de no conseguirlos: el espectador no sabrá con qué compararlo. Por lo tanto, sí o sí, recurrirá a “estándares”, tan sencillos como reconocer que hay un bombo, un bajo, unas eléctricas y unas voces con, quizá, un mensaje interesante para escuchar.
Dejando de lado la inteligibilidad de la palabra, cuando el equipo no es capaz de facilitar las cosas al técnico o, incluso, los instrumentos musicales (y su maridaje con los micrófonos, previos, mesa, etc., o incluso músicos) no alcanzan lo deseado, podemos recurrir a este curioso efecto de memoria sonora mental para arañar potencia y respuesta a nuestra mezcla. El ejemplo más claro lo tenemos con el bombo y el bajo. Normalmente, estos dos elementos suelen ir a la vez: el bombo otorga el “golpe” mientras que el bajo ofrece la “nota”. Pero ambos hacen una demanda energética en el espectro grave demasiado contundente, lo que nos puede llevar al desastre. ¿Cómo podemos reducir la demanda energética —y por ende de presión sonora— para mejorar nuestra mezcla dinámica y, a la vez, no eliminar nada?
Hoy en día es fácil encontrarte con compresores con sidechain. Esta función permite el control de la compresión tomando como referencia un elemento externo. Por ejemplo, podemos aplicar al bombo una compresión superior (además de la compresión ‘normal’ que deseemos para este instrumento) en función del nivel de señal del bajo: cuando el bajo esté sonando, comprimiremos todavía más el bombo. Aplicando un tiempo de ataque relativamente largo a esta configuración, el espectador escuchará perfectamente el ataque del bombo, pero luego éste desaparecerá rápidamente a favor de una “cola” de grave con nota, la del bajo. A su vez, si el bajo silencia su nota por lo que sea, la cola del bombo que tengamos preparada —si aún está viva— podrá volver en escena (lo que implica un tiempo de release relativamente corto). Nuestro cerebro tendrá la información suficiente para entender que hay un bombo potente y grave, y aunque desaparezca durante un momento, tendrá la información suficiente como para “restituir” de manera silenciosa lo que realmente no escuchamos.
Sabemos, gracias a Fletcher-Munson, que la respuesta en frecuencia del oído humano está diseñada para la inteligibilidad de la palabra. Ante limitaciones del equipo, lo suyo es mantener “clara” la zona entre 2 y 6 kHz para permitir que el mensaje sea propagado con facilidad. En caso de complicaciones, nos queda reducir el volumen o presencia del resto de elementos que puedan ocupar esa misma zona. Pero podemos probar de nuevo esta solución. Por ejemplo, un hihat de pulgada grande puede molestar la inteligibilidad de la palabra. Podemos hacerle un hueco importante en la zona de 2-6 kHz y “compensar” la ecualización con un agudo más inciso, algo bien comprimido (lo que nos evitaría un sonido estridente). No se escuchará como debería, pero sí ofrecerá información suficiente como para decirle al cerebro del espectador que en realidad ese hihat debería sonar más fuerte en la zona de 2-6 kHz, cosa que seguramente hará, sin que para ello debamos sacrificar la palabra. Tenemos que pensar que la atención del espectador se centrará en otros sonidos, no en la mayoría de ello. Saber discriminar qué es importante de lo que no y tener la habilidad de “mover” y/o engañar el cerebro de quien escucha para mejorar el global de nuestro trabajo.
¿Cuáles son los límites? Ya deberíais saber la respuesta: la fatiga auditiva. Si demandamos mucho a nuestro cerebro en este sentido, a medio plazo empezará a cansarse, fatigarse. Si a eso le añadimos que no estará sentado cómodamente en su sofá y que, seguramente, ya se habrá tomado un par de cervezas, la fatiga no sólo llegará antes, sino que fácilmente ayudará al espectador a desconectarse del concierto. No hay fórmula exacta ni valor científico alguno que defina un rango de “engaño mental acústico”, por lo que lo suyo es el sentido común (y, cómo no, la experiencia).
Muchos técnicos de sonido de PA de renombre utilizan asiduamente estas técnicas, aunque la mayoría de veces no son conscientes de ello. Por eso, muchas bandas noveles o que todavía no consiguen llenar grandes espacios (y, por ende, no son tan reconocidas), suelen contratar este tipo de técnicos en cuanto son capaces de conseguir los mejores resultados sonoros incluso con los peores equipos. Invertir en estas situaciones también es caballo ganador.

Volumen y presión.


Mezclando en directo
Jeff Meyer
Cierro estos artículos sobre la psicoacústica con este sobre volumen y presión, que no es más que un resumen de todo lo contado hasta ahora. Con los tres anteriores he intentado aportar algo en el intento de mejora de nuestras mezclas. Si los recuperamos y los tenemos vivos en la memoria, nos habremos dado cuenta de que siempre terminamos en un mismo punto: nuestro cerebro. Hay dos aspectos críticos a tener en cuenta en él: la memoria acústicay la fatiga auditiva. No sólo eso, sino que ambos aspectos se ven tremendamente modificados mientras el tiempo discurre y que, para evitar sorpresas desagradables (en forma de traición), debemos “resetearlos” más a menudo de lo que hacemos.
Con las curvas de Fletcher-Munson vimos que nuestra capacidad de escucha no sólo no era lineal, sino que era distinta en función del nivel de presión sonora. En el plano horizontal nos dimos cuenta de que, utilizando la memoria acústica (de manera consciente o inconsciente), podíamos escuchar o no sonidos emitidos. Que en cada caso, un exceso o deceso de valores hacía trabajar nuestro cerebro en la búsqueda del sonido perfecto (aunque ‘perfecto’ depende del nivel cultural de cada uno de nosotros, que es otro tema).
La fatiga es nuestro peor enemigo. Hablar de volumen o de presión sonora es hablar de la capacidad del técnico de PA de conseguir que el público se canse antes o un poquito más tarde. El éxito es que el técnico tenga presente siempre ese momento, y el reto (normalmente imposible de conseguir) es que uno no llegue a un nivel de fatiga determinado donde lo único que llegas a hacer es aumentar desastrosamente el volumen.
Todo lo anterior también estoy seguro que muchos lo hemos padecido. Recordad esos momentos en que habéis sido asistentes de mesa. Empieza un concierto y al técnico de turno le dejáis un par de temas para que pula su mezcla. En el tercer tema ya tenemos la licencia para, digamos, criticar constructivamente la mezcla y, ¡qué bien!, reconocemos que está haciendo un buen trabajo. Al sexto o séptimo, ya que llevamos horas trabajando y todo funciona como debería, nos tomamos la libertad de ir a backstage o a la barra más cercana para tomar un pequeño refrigerio, ir al baño o estirar las piernas. Volvemos a control un par de temas después, y esa crítica constructiva que le habíamos otorgado se vuelve negativa de golpe y porrazo. Revisamos el nivel de volumen del equipo y nos damos cuenta que ha subido la mezcla apenas 3 o 6 dB (o una barrita más de los LEDs del máster). Miras al técnico y le preguntas si todo está ok y él te dice que sí, que perfecto… todavía esboza esa sonrisa que le regalaste justo antes de ir al bar y decirle que sonaba bien. ¿Qué está pasando? ¿Le digo que ahora suena como el culo? ¿O he sido yo que he cambiado de golpe mis estándares de audición?
Para las dos últimas preguntas la respuesta es la misma. Sí, ahora ha empezado a sonar peor y sí: tú has cambiado —mejorado— tus estándares de audición. Sin querer has realizado unreseteo acústico mental bastante más profundo de lo que esperabas: aunque hayas ido a por tu agua fresca con una oreja pendiente de la PA, en realidad has pensado en el agua, en conseguir que tus piernas te dirigieran correctamente a un lugar sorteando un numeroso público ajeno a tus necesidades, abrir la nevera, mirar a tus compañeros y saludarlos: te habrás relajado algo de todo tu proceso y, poco a poco, la parte de tu cerebro que se dedicaba a restituir sonidos ha descansado lo suficiente. No así con el técnico de PA que sigue tras la mesa: seguramente sea la persona que en ese momento más “pensaba” en el sonido, en sus elementos, en sus características. Seguía pensando y pensando obligándose a procesar cantidad de datos de manera majestual, pero cansándose cada vez más y más. Si lleva un par de cervezas encima, imagínate. Si existiera una escala de “cansancio mental”, mientras que el técnico de PA ya estaría cerca del 10 (que sería el máximo), al volver a control tu valor habría descendido hasta un 4 o 5. Esa diferencia hace que, sin duda alguna, tu escuches cosas que él ya ni puede escuchar, ni tan siquiera oir. Hace que tú puedas resolver más rápida y naturalmente decisiones que el compañero que está tocando faders no puede ni apreciar. ¿Qué debemos hacer? ¿Le decimos que suena mal? ¿Suena mal?
Desde un punto de vista objetivo, como asistentes de PA, si no existe peligro ni incidencias, no hace falta decir nada. Si queremos ayudar (que siempre está bien), podemos indicarle que, aunque no ha llegado a ningún punto crítico (seguramente estará muy cerca de él), ahora creemos que se le ha ido la pinza un poco con el nivel de volumen y que estaría bien que lo recuperase hacia la baja. Sé que es peligroso, porque muchos técnicos prefieren tener la más grande. Y al revés igual: si somos los técnicos de PA y nuestro asistente nos dice que “suena fuerte”, deberíamos recordar estas líneas y darle la razón.
El técnico de PA debería tener en cuenta estas propiedades psicoacústicas e intentar no llegar a este punto. Servidor, consciente de ello, no sólo intenta mantener la cabeza fría en cada momento (algo que a veces consigo, pero muchas otras no) y buscar que los sonidos se propaguen como quiero, sino que, instintivamente, cada dos o tres temas bajo los niveles de volumen, ni que sea un poquito y aunque crea que no es necesario. Es simplemente un truco, no una norma ni aún menos un proceso magistral.
Un pequeño inciso. No todos los grupos arrastran tanta gente como para que el control de sonido realmente esté en medio de platea. Aunque físicamente esté ahí, como técnico de grupo tienes que ser coherente y saber ver que esa noche la gente que realmente quiere escuchar el concierto apenas ocupa el espacio que hay entre el escenario y control (los que están más allá, si quieren ya se moverán). De hecho, la gran mayoría de veces sonorizarás una banda siendo el “último” del público, el último de la fila: si a control ya está fuerte, ¿cómo lo estará ahí delante?
Las herramientas de medición que hoy tenemos a nuestro alcance nos deberían ayudar a resolver este gran problema. Si a los dos o tres temas de empezar estamos contentos con lo que tenemos, basta con fijar un límite basado en puntos objetivos, como el nivel de presión sonora medido a control, a la par que observamos la respuesta del RTA o del espectrograma. Ellos no nos fallarán. Si ese es nuestro punto de referencia vale la pena mantenerlo, aunque a medio plazo creamos que “podríamos subir más el volumen”. Si aparece esta pregunta en un momento de nuestra mezcla, antes deberíamos dudar de esa necesidad y pensar si realmente lo que nos ocurre es que estamos “cansados”, fatigados. No sólo se sube el volumen moviendo físicamente un fader: la compresión afecta de la misma manera.
Subimos el nivel de volumen a medio repertorio porque creemos que tenemos una necesidad de buscar nuevos sonidos que nos den espectacularidad. Esa necesidad, en realidad, es un efecto (de hecho defecto) de una escucha a niveles altos de presión, donde nuestro sistema auditivo (junto con el proceso cerebral) se protege “comprimiendo” lo que escuchamos. Esta posibilidad de escuchar bien sonidos altos en volumen implica, negativamente, la pérdida de una escucha dinámica. Por eso, instintivamente queremos subir el nivel de volumen, ya que en cierto modo al “comprimir” la escucha hemos subido el nivel de suelo o threshold inferior (pensad en el símil, claro está). Pensamos que al subir, tendremos más dinámica. Y no es así, sino justo lo contrario: al subir más, nos protegeremos más, comprimiremos “mentalmente” más lo que escuchamos. Recordad qué sucede cuando a altos niveles de presión recibimos una ingente cantidad de energía de las altas frecuencias. Y si a todo esto le añadimos el procesado (también de compresión) que realiza nuestro equipo al acercarnos al límite establecido, obtendremos un sonido comprimido, inútil en dinámica y desequilibrado a más no querer.
Ante estas situaciones, entonces, lo único que podemos hacer es ir hacia abajo, hacer justamente lo contrario de lo que pensamos. De manera instintiva, al bajar el volumen, nuestro sistema de protección auditiva se relajará, dejará de comprimir y recuperará una dinámica de escucha mucho mejor. Por eso, las mejores mezclas se consiguen a niveles de presión sonora bajas pero también por eso nos es difícil distinguir si el nivel de presión sonora es el mismo en este caso o cuando está sonando Manowar (el grupo que ostenta el record Guiness de mayor presión sonora en un concierto). Las máquinas dirán que no, que en realidad es una presión muy diferente; pero nuestro cerebro agradecerá el primero de los casos, se fatigará menos y cuando volvamos a control con nuestra agua fresca seremos los primeros en reconocer que sí, que esa mezcla sonaba muy muy bien. Una verdadera lástima ver que una gran mayoría de técnicos prefieran el rojo al placentero verde con picos naranjas.

Artículos publicados en www.hispasonic.com

Pon a prueba tus oidos: ¿puedes distinguir el audio de mayor calidad?

Pon a prueba tus oídos: ¿puedes distinguir el audio de mayor calidad?
Katy Perry
NPR Music, el servicio online de National Public Radio —una red estadounidense que cuenta con 900 estaciones de radio pública—, propone otro de esos experimentos que nos gusta traer a portada de vez en cuando, como ya hicimos con el test de Tidal. Se trata de acertar la versión de mayor calidad de cada una de estas seis canciones:
  • Tom's Diner, de Suzanne Vega
  • Speed of sound, de Coldplay
  • Piano Concerto No. 17, K. 453 (II. Andante), de Mozart
  • There’s A World, de Neil Young
  • Dark Horse, de Katy Perry
  • Tom Ford, de Jay Z
Podrás escuchar tres versiones por canción, y debes indicar la que suena menos comprimida a tus oídos, marcando una de las casillas de la derecha.
¡Prepara tus mejores monitores o auriculares, ponte a prueba y cuéntanos que tal! De este modo, tú mismo responderás a una cuestión que está generando mucho debate: ¿valen la pena los nuevos servicios de streaming con "audio HD" o es puro marketing?.

Artículo publicado en www.hispasonic.com

martes, 9 de junio de 2015

10 Maestros de la fotografía erótica

10 Maestros de la fotografía erótica.


El de la fotografía erótica es un género que se remonta prácticamente hasta la génesis de la propia fotografía. A lo largo de todo este tiempo muchos autores han profundizado en la sensualidad y el erotismo del cuerpo humano -masculino y femenino- de forma más o menos explícita, con sutilidad e insinuación o con el descaro del voyerismo. La gran variedad de enfoques visuales y el contenido de este tipo de imágenes ponen de manifiesto la importancia de la sensualidad en el ser humano.
1
Jeanloup Sieff
Foto: Jeanloup Sieff
Conocido sobre todo por su aportación a la fotografía de moda, Jeanloup Sieff trabajó el desnudo erótico con la misma sutilidad. En toda la obra del francés se reconoce un gusto por las formas, las líneas suaves y los volúmenes expresados mediante el dominio de las luces y las sombras. Incluso en los paisajes.
Su percepción de la belleza formal y del cuerpo femenino evoca una sensualidad que está presente en cada uno de sus desnudos. El erotismo de sus imágenes, lejos de ser obsceno, juega con el fetichismo de las formas, con lo oculto tras una sombra y en ocasiones también con la sencillez y la naturalidad de las poses. La mítica serie de desnudos que hizo a Charlotte Rampling en 1985 demuestra su enorme capacidad para seducir al observador.
2
Rafael Navarro
Foto: Rafael Navarro
El desnudo está presente en gran parte de la obra de Rafael Navarro, que a la postre es uno de los autores más prolíficos y gráficos del panorama español. En las series del zaragozano, además del contenido de las imágenes, también su formato y disposición adquieren importancia. En este sentido el cuerpo humano es el catalizador de proyectos con un alto contenido sensual como “Evasiones”, “Formas”, “Tientos”, “Ellas”, “Parejas” o “La oscura transparencia”.
Los detalles, las líneas curvas, los matices de grises y el contraste son las principales figuras de su lenguaje erótico. A través de la contextualización de las partes del cuerpo humano en “El desafío”, “Hacia la bruma” y en menor medida en “Las formas del cuerpo”, Navarro habla del deseo y la pasión con unas fotografías que conservan todo el potencial poético de su obra.
3
Robert Mapplethorpe
Foto: Robert Mapplethorpe
Es probablemente el fotógrafo de desnudo masculino por excelencia. Su colección de espaldas y torsos son un clásico con el que Robert Mapplethorpe reivindicó el cuerpo del hombre como objeto artístico para la fotografía, ya que de hecho la suya se rige por cánones de belleza clásicos y renacentistas. Si bien en algunos casos la iluminación es importante, el neoyorquino da más importancia a la pose y los detalles de los cuerpos bien moldeados de sus modelos.
Los protagonistas de sus series son hombres jóvenes de aspecto apolíneo provenientes del mundo de la pornografía. Mapplethorpe utilizó el desnudo masculino en gran medida para dar voz al movimiento de gais y lesbianas al que él mismo pertenecía. Dentro de ese contexto debe encuadrarse uno de sus autorretratos más conocidos en el que aparece sodomizándose con un látigo. Una imagen rompedora e irreverente realizada a principios de los años 80.
4
Jan Saudek
Foto: Jan Saudek
La obra de Jan Saudek es una de las más sólidas del género de la fotografía erótica. A lo largo de toda su carrera el artista checo se ha caracterizado por mantener un aspecto visual de connotaciones kitsch y barrocas provenientes del coloreado manual que aplica a sus imágenes. También el contenido de sus fotografías se mantiene fiel a unos patrones en los que el fetichismo y los juegos eróticos son muy explícitos.
Más allá de la gran variedad de mujeres que retrata, de la escenografía y de una estética inquietante, lo que realmente marca el estilo propio de Saudek es la representación que propone en sus fotografías. Cada acto sexual, cada sumisión, cada fetiche, cada alegoría a la muerte y la lujuria son una forma de entender la vida, una representación de sus propias emociones.
5
Helmut Newton
Foto: Helmut Newton
Los desnudos de Helmut Newton tienen dos características primordiales que lo han catapultado a la categoría de gran mito –uno de ellos- de la fotografía de desnudo. Por una parte, la gran carga erótica que desprenden sus instantáneas de modelos semidesnudas. Por otra, esa sensualidad, casi de oficio, que se deja entrever en la actitud desinteresada y con aires de suficiencia de las modelos que posan desnudas.
Newton fue un maestro en el juego de unir el glamour y el lujo a la provocación mediante el uso de la sensualidad en situaciones aparentemente poco apropiadas. Son una marca de la casa las modelos que posan desnudas en suntuosas mansiones, como la sesión que hizo con –de nuevo- Charlotte Rampling en un hotel de Arles en 1973, o la fotografía de una modelo que pasea de noche con un abrigo de pieles que tan solo le cubre el torso.
6
Rita Lino
Foto: Rita Lino
El erotismo es un elemento mucho más cotidiano de lo que reconoce explícitamente la sociedad moderna, y esto es algo que Rita Lino aprovecha para construir una obra. Ella es la protagonista de sus series fotográficas, pero esas imágenes están abiertas a la libre interpretación del espectador: “Soy lo que tú quieres ver. Muestro lo que no soy”, sentencia en su página web. Y la portuguesa se muestra sin pudor ante la cámara.
El resultado es una suerte de diario intenso donde el erotismo manda prácticamente en cada faceta del día a día y se plantea como un elemento recurrente en su vida. Rita Lino juega indistintamente a mostrar e insinuar, hace uso por igual del espacio público y privado, y en su rostro suele adivinarse una cierta apatía. Una obra muy consistente en el plano visual, en la que abundan los tonos fríos, los planos medios, los desenfoques, el flash directo y el uso indiscriminado de formatos variados.
7
Eugène Durieu
Fotografía de Durieu hecha a petición de Delacroix, junto a los esbozos de este. | Foto: Eugène Durieu / Eugène Delacroix
Quizás alguien pueda pensar que es aventurado tildar de eróticos los desnudos de Eugène Durieu, pero no hay que pasar por alto la subjetividad del término, inevitablemente ligado a los cánones de belleza temporales. Y aquí hay que tener en cuenta el contexto histórico, ya que estas imágenes son daguerrotipos de mediados del siglo XIX, con lo que casi se puede considerar al francés como el primer fotógrafo con un trabajo consistente sobre el cuerpo humano desnudo.
Las fotografías de Durieu tienen además una importancia artística capital: muchos de los modelos -masculinos y femeninos- que posaron para él fueron posteriormente pintados por Eugène Delacroix. De hecho, el autor del famoso lienzo “La libertad guiando al pueblo” afirmó en su “Diario” que la fotografía era una bendición para el arte, y no tuvo problemas en admitir que utilizó los daguerrotipos de su amigo para alguna de sus pinturas. Delacroix incluso ayudó en alguna ocasión a Durieu en la iluminación y la preparación de las poses para sus sesiones.
8
Terry Richardson
Foto: Terry Richardson
Aunque la etiqueta de fotografía de moda es la que mejor define la obra de Terry Richardson, es obvio que le queda pequeña. Retratista por excelencia de celebrities, sus imágenes de estilo directo y descuidado, a menudo con un golpe de flash y una escenografía que raya lokitsch, han ayudado a consolidar y a proyectar las carreras de varias modelos.
Pero es su actitud con los personajes que fotografía -sobre todo con las chicas más jóvenes- la que le ha ayudado a ganarse fama y estilo y a labrarse polémicas por igual. Descarado, transgresor, irreverente y provocador, el neoyorquino ha tenido que afrontar varias acusaciones por acoso sexual. Y es que sus sesiones fotográficas han acabado más de una vez con escenas de sexo explícito –algunas de sus imágenes podrían considerarse pornográficas- protagonizadas por él mismo y las modelos.
9
Horst P. Horst
Foto: Horst P. Horst
La elegancia del minimalismo en el mundo de la fotografía de moda tiene en Horst P. Horst a uno de sus primeros exponentes. Y como suele ocurrir con los fotógrafos de moda, sus incursiones en el género del desnudo fueron frecuentes. A lo largo de toda su carrera el alemán realizó varias imágenes con un alto contenido erótico y un estilo que evoca fácilmente al autor de la sensual espalda con corsé de Mainbocher.
Pero fue al inicio de su andadura como fotógrafo, desde finales de los años 30 y hasta principios de los 50, que Horst P. Horst realizó algunas de sus series de desnudos más sensuales. La predominancia de las curvas suaves del cuerpo femenino es un elemento que recuerda al art nouveau, mientras que en sus desnudos masculinos tiende a imágenes más duras y contrastadas, realizadas habitualmente en clave baja. Su serie de odaliscas -que recuerdan las pinturas de Ingres- son posiblemente las más eróticas y elaboradas.
10
Nora Ness
Foto: Nora Ness
Que el fetichismo y el erotismo están íntimamente relacionados es innegable. Tacones de aguja, lencería fina, bisutería y látex son los elementos principales en las fotografías de Nora Ness, que se fotografía a sí misma ante un espejo, lo que incluye cierta dosis de narcisismo e incluso de voyerismo.
Las suyas son unas imágenes muy explícitas. El hecho de ser a la vez fotógrafa y protagonista la convierte en una autora decididamente provocadora. Aunque algunas de sus fotografías dejan poco espacio a la imaginación, su punto de vista femenino deja vía libre a la fantasía del espectador, muchas veces masculino.
Artículo de Iván Sánchez publicado en www.quesabesde.com