1. La función expresiva del sonido
El sonido, relacionado con el lenguaje audiovisual, es un elemento con gran importancia narrativa. Juntamente con la imagen, transmite al receptor sensaciones e información que recibe por doble canal, oída y vista. La función expresiva del sonido se podría resumir en tres funciones: 1. Aumenta la sensación de realidad de una imagen 2. Transmite información. 3. Ayuda a crear ambientes.
Aportaciones del sonido:
– El sonido nos indica lo que debemos mirar
– El sonido puede anticipar algún elemento visual y dirigir hacia él nuestra atención.
– La banda sonora puede aclarar hechos de la imagen, contradecirlos o hacerlos ambiguos.
El sonido y su aplicación en la obra audiovisual ha de ser perfectamente planificado, intentando valorar el máximo de circunstancias acústicas que intervendrán en aquello que se va a grabar.
2. Carácterísticas técnicas del sonido
Primero que todo definiremos que es el sonido: El sonido es la sensación producida por una variación de presión en el aire generado por el movimiento vibratorio de un cuerpo que se propaga en un medio elástico (bien sea gaseoso, líquido o sólido) en forma de ondas. El oído recoge las ondas sonoras del aire gracias a la membrana que se encuentra en el oído externo, y las convierte en ondas mecánicas que, a su vez, son convertidas en ondas eléctricas reconocidas por el cerebro. Para que los humanos podamos percibir un sonido, éste debe estar comprendido entre un rango de audición de entre 20 y 20000 Hz. A esto se le denomina rango de frecuencia audible. Por debajo de este rango tenemos los infrasonidos y por encima los ultrasonidos.
Para que se produzca un sonido son necesarios tres elementos:
-Un cuerpo capaz de vibrar (emisor)
-Un medio elástico por el que puedan desplazarse las vibraciones.
-Un receptor, del tipo que sea (suele ser una membrana)
Un sonido se define por tres variables:
1. Tono:
Es la frecuencia de la onda, es decir, el número de vibraciones por segundo, y se refiere a lo agudo y lo grave del sonido. Se mide en hercios (Hz).
2. Intensidad:
Es la energía que contiene el sonido, depende de la amplitud de la onda y se traduce en el volumen de lo que escuchamos. Se mide en decibelios (dB).
3. Timbre:
Son las frecuencias secundarias, las cuales se llaman armónicos. Gracias a estas, podemos identificar la fuente del sonido y su personalidad, ayudándonos a distinguir el sonido de las voces, de los instrumentos, etc. Esto es gracias a que cada sonido viene acompañado de sus propias frecuencias secundarias.
3. La grabación del sonido
Tipos esenciales de microfonía
Para poder captar y grabar un sonido necesitamos utilizar microfonía. El micrófono es un transductor acústico-eléctrico. Transforma las variaciones de presión del aire (ondas sonoras) en oscilaciones mecánicas para convertirlas en corriente eléctrica. A continuación, se pueden manipular y almacenar sobre algún soporte bien sea en formato analógico o digital. Usamos el micrófono cuando el sonido de una voz o instrumento necesita ser reforzado.
Los micrófonos se distinguen por tres carácterísticas técnicas:
1. Tipo de transductor:
El transductor acústico-mecánico es una membrana llamada diafragma que se mueve según las variaciones de presión. Según el transductor podemos clasificar los micrófonos en dos grupos:
– Micrófono de presión: la respuesta eléctrica depende de las variaciones de presión que recibe de la onda sonora- Micrófonos de gradiente de presión: responde a la diferencia de presión entre dos puntos separados por una distancia muy pequeña.
Desde el punto de vista de su construcción, los transductores más habituales son: micrófonos dinámicos, micrófonos de condensador, micrófono de cinta.
2. Respuesta en frecuencia:
Se refiere a si el nivel de salida o sensibilidad del micro es igual en todas las frecuencias. Encontramos dos tipos: –. Respuesta en frecuencia plana: todas las frecuencias audibles tienen el mismo nivel de salida. Es lo más adecuado cuando el sonido debe ser reproducido sin cambios, como por ejemplo en la grabación de una actuación musical. – Respuesta en frecuencia personalizada: se diseñan para mejorar el sonido de una fuente concreta. Por ejemplo, puede tener un pico de respuesta en el rango de 2-8 kHz para aumentar la inteligibilidad de las voces en directo.3. Su patrón polar/direccionalidad:
refleja la sensibilidad con que es capaz de captar un sonido dependiendo del ángulo, es decir, la calidad con que capta el sonido según la dirección de procedencia. Los diagramas polares se pueden dividir básicamente en tres:
1. Omnidireccionales: Se percibe prácticamente con la misma sensibilidad cualquier sonido independientemente del punto desde donde proceda. Suele usarse para el sonido ambiente.
2. Bidireccionales: Dos direcciones opuestas, en forma de ocho. Presenta una gran sensibilidad en frente y una imagen simétrica en la parte posterior, aunque de los laterales es menos sensible. Se usa para los sonido de entrevista.
3. Unidireccionales: Tienen mayor sensibilidad a los sonidos de frente, estos se pueden subdividir en tres: cardioides («en forma de corazón», perfecto para vocalistas; elimina sonidos que no procedan de la fuente principal, ofreciendo un total aislamiento), supercardioides y hipercardioides (estos ofrecen un diagrama polar «casi ideal», ya que captan algo del sonido que se produce detrás de ellos).
Técnica de colocación del micrófono
Una vez elegido el tipo de micrófono adecuado, según su diagrama polar y su respuesta de frecuencia, hemos de conocer exactamente el sonido que deseamos obtener, en función del emisor o emisores de los sonidos (voz, instrumentos, etc.), la acústica del lugar y los ruidos que puedan existir. El caso más frecuente, la grabación de la voz, requiere de algunas preocupaciones: -El micrófono debe estar a unos 15-30 cm de la boca, cerca pero tampoco demasiado. Si colocamos un micro direccional junto a ella se produce un aumento de las bajas frecuencias que vuelve la voz demasiado grave, opaca. Es el llamado «efecto de proximidad». -De igual manera, son preferibles los micros que se sitúan frente a la boca que los «de corbata». -Conviene hablar directamente hacia el micrófono. Dirigir el micrófono hacia la boca, orientado de abajo arriba o a la inversa, evita los «popeos» producidos por las consonantes plosivas (por ejemplo, las «p» o «t»). Para ello también ayuda la utilización de filtros «anti pops» externos. -Situar el micrófono lejos de las superficies que produzcan reflexiones, como mesas o atriles, que pueden afectar a la calidad del sonido.
4. El registro del sonido
Parámetros de medición del sonido
Las ondas sonoras, al incidir sobre las partículas del aire, se traducen en pequeñas variaciones de presión, que es lo que se mide. A esta medida se le llama «nivel de presión sonora» (NPS). Se suele usar la medida relativa del nivel de presión sonora, NPS, expresada en decibelios (dB). El decibelio expresa relaciones o proporciones entre fuerzas o presiones, voltajes, corrientes… Esta proporción es logarítmica y en el caso del NPS responde a la fórmula: 20 log (Presión/Pre.Ref.)
Pre. Ref. = presión de referncia.
Nivel de línea y nivel de micro
Hay que tener en cuenta que no todas las señales de audio tienen las mismas carácterísticas y no pueden recibir, de entrada, el mismo tratamiento. Hay tres entradas posibles en un canal:
1. Señal de micrófono: en cuanto a su nivel, es la señal más débil (entre -60 y -20 dBu) y es de baja impedancia (600 ohms). Estas señales son amplificadas a un nivel razonable mediante el amplificador de potencia.
2. Nivel de línea: el de una señal de audio utilizada para transmitir las señales analógicas entre los diversos equipos de audio, como reproductores CD y DVD, televisiones, mesas de mezclas e incluso reproductores MP3. Las entradas de línea aceptan señales de media impedancia (entre 1’5 kohms y 5 kohms).
3. Nivel de instrumentos: como guitarras y bajos, que opera a una impedancia más alta (mayor a 10 kohms)
La cadena de grabación
El proceso de grabación de señales sonoras puede tener su origen tanto en fuentes acústicas reales (voz, instrumentos musicales, sonidos ambientales de cualquier tipo) como en señales eléctricas producidas y/o manipuladas electrónicamente.
Captamos las primeras mediante micrófonos, mientras que las segundas podemos tratarlas introduciendo directamente las señales eléctricas (producidas, por ejemplo, en un sintetizador) en una mesa de mezclas. Combinamos, filtramos, ecualizamos, en fin, manipulamos las diversas entradas de la mesa y procedemos a su grabación.
La mesa de mezclas
La mesa de mezclas o mezclador de sonido realiza muchas más funciones que la simple combinación o suma de señales procedentes de distintas fuentes sonoras. Se pueden mencionar una serie de funciones de la mesa de mezclas:
1. Adaptar niveles de entrada (línea, micros de diversas sensibilidades, etc.) e impedancias
2. Ajustar el nivel de entrada (fader) o salida (máster fader) del 0 al 100%
3. Hacer correcciones en frecuencia: ecualizaciones, controles de graves y agudos, presencia, etc
4. Monitorear las señales de entrada y salida
5. Proporcionar «alimentación fantasma» (phantom) a los micros de condensador
6. Ubica cada señal dentro del «encuadre sonoro» de la mezcla estereofónica
6. Los sistemas monofónicos, estereofónicos, Dolby Surround, 5.1 (Dolby Digital) y mp3
Los sistemas de audio monofónicos, estereofónicos, Dolby Surround, 5.1, se diferencian básicamente por la cantidad de pistas de audio que utilizan.
1. Monofónico:
Si solo tiene una pista de audio.2. Estereofónico:
Si tiene dos.3. Multicanal (sonido envolvente):
Dolby Surround: Posee cuatro canales. Posee 6. Suelen contar de altavoces delante, detrás, izquierda, derecha y un subwoofer (o altavoz de graves)Sonido digital y analógico
1. Sonido analógico:
es aquél que se almacena, procesa y reproduce gracias a circuitos electrónicos y otros dispositivos de carácter analógico. Por ej. La cinta magnética (en cassette o en bobina) o el disco de vinilo.
2. Sonido digital:
es el que se almacena, procesa y reproduce en soportes digitales, en forma de datos numéricos. Existen diversos dispositivos de almacenamiento de sonido digital: minidisc, D.A.T., CD-Audio, CD-ROM, DVD, D.C.C., discos duros, disquetes… La captación del sonido por el micrófono es igual que en el caso analógico pero la señal eléctrica que genera es convertida en datos numéricos por un convertidor analógico/digital que se interpone entre el micro y el aparato grabador.
Este proceso de conversión de la señal en datos numéricos se realiza varias veces por segundo y se llama Muestreo Digital del Sonido (sampling). La frecuencia de muestreo se mide en Khz. En los CD-Audio esta frecuencia es de 44,1 Khz. (calidad profesional). De los 20 a los 20.000Hz que escucha el oído humano se multiplica por 2 por ser estéreo. En el ordenador y en los CD-ROM, la frecuencia de muestreo necesaria es menor: 22 Khz es suficiente para música y 11Khz para locución.
La resolución del sonido digital puede ser de 8, 16, 24 o 32 bits. A mayor resolución, mayor espacio ocupa el archivo. Los ordenadores suelen trabajar a 8, 16, 24… Bits de resolución. Siempre son múltiplos de 8.
MP3 es la abreviatura de Motion Picture Experts Group, (grupo de expertos de la película) y es un formato de archivo de sonido que tiene una alta calidad y con un tamaño muy reducido. Un MP3 ocupa la décima parte del espacio de un archivo tradicional.
El truco del MP3 está en la compresión de datos, que reduce el espacio necesario para almacenar la información de audio. Además se utilizan técnicas muy complejas para eliminar algunos sonidos que no se pueden percibir por el oído humano.
7. Relación perceptiva entre la imagen y sonido
En una producción audiovisual intervienen dos tipos de sonido: El sonido diegético y extradiegético.
1. El sonido diegético:
Se refiere a todo sonido cuya fuente está representada en el espacio de la imagen. Sonidos como:
– Voces de los personajes.– Sonidos producidos por objetos dentro de la acción.-Música de instrumentos presentes en la imagen.
2. El sonido extradiegético:
Se refiere a todo sonido cuya fuente no está representada en el espacio de la imagen. Sonidos como:
-Voz del narrador.-Efectos sonoros para dar mayor dramatismo.- Ambientación música; instrumentos ausentes de la escena.
5. Hitos de la grabación del sonido
La grabación del sonido ha pasado por cinco grandes etapas:-La era de la grabación en cilindros, a la cual se le llama arcaica (1877-1902)-La era de la producción de discos manufacturados en masa (1902-1927)-La era del tubo de vacío eléctrico (1927-1952)-La era de la grabación de alta fidelidad realizada con cinta magnética y en equipos de transistores (1952-1977)-La era digital (1977 hasta el presente)
El sonido digital
Como cualquier aplicación de la tecnología digital, el sonido se nos presenta como una representación de la señal correspondiente (en este caso de audio) mediante una codificación binaria (0 y 1). El término sonido o audio digital también se aplica a los sistemas técnicos que nos permiten tratar (grabar, editar y masterizar) digitalmente una señal de audio. Al igual que en el mundo de la imagen, la digitalización del sonido ha supuesto una revolución que ha influido rápidamente en los métodos de trabajo, simplificando, acelerando y abaratando los procesos, a la vez que deja mucha más libertad en la parte creativa. Esto nos permite realizar operaciones que antes eran complejas y repetitivas, como la edición de un estribillo (grabarlo en otra cinta, reproducirlo en el punto exacto y volver a grabarlo, etc.) con unos clics en la línea de tiempo del programa, lo que ahorra tiempo de pruebas y errores y reduce drásticamente los costes de producción.
La adecuación de la música y los sonidos a las intenciones expresivas y comunicativas
Efectos narrativos del sonido
Podemos decir que el sonido y la imagen colaboran en el plano narrativo de tres maneras:
1. Por contraste:
cuando vemos y oímos cosas que se contraponen, de forma que se unen para darnos un significado concreto. Por ejemplo, tenemos la escena de una anciana sonriente en su mecedora, y de repente escuchamos un grito; con la mezcla de estos dos elementos, entendemos que la anciana está muerta.2. Por superposición:
el referente visual coincide con lo que escuchamos, «vemos lo que oímos».3. De manera pasiva:
aparentemente el sonido no tiene que ver con la imagen, aunque esta última puede ser en realidad una forma más sutil de contraste. La letra podría ser que nos de un significado, dando un matiz más discreto. Por ejemplo, cuando aparece un personaje frío como es «Terminator» y ponen de fondo la canción «Bad boy».Funciones narrativas
La música no funciona como añadido meramente decorativo de la narración, interviene en ella, tiene funciones narrativas. La música de una película es un lenguaje, por lo que puede ofrecer información y provocar emociones. Un análisis de los elementos que estructuran el hecho musical nos muestra cómo influye en las emociones del espectador.
1. La melodía:
representa una combinación de sonidos que expresa una idea musical, influyendo de manera directa en la afectividad. Está relacionada con estímulos de placer/desdicha o alegría/tristeza.
2. El ritmo:
representa el orden y la proporción en la música, influye estimulando los estados anímico y físico al ser un elemento de dinamismo. Si es constante sentimos monotonía, y si es cambiante provoca confusión.
3. La armónía:
constituye la estructura musical que sostiene la melodía y el ritmo, vincula su tipo de influencia a si es disonante o consonante. La consonancia se relaciona con estados de serenidad y equilibrio, mientras que la disonancia provoca inquietud y ansiedad.
4. El tono:
propiedad del sonido que permite ordenarlo de graves o agudos, es causa de diversas sensaciones, dependiendo no solo de la naturaleza del instrumento sino también de la armónía, el ritmo y la melodía. Dependiendo del tono del sonido, se pueden percibir distintas sensaciones:
1. Grave: debilidad, pesadez, tranquilidad..
2. Agudo: brillantez, nerviosismo, algo grandioso..
5. La intensidad:
es la potencia acústica. Si es débil genera estímulos de intimidad, serenidad y calma, mientras que si es alta causa molestia y tensión.
4. Tiempo:
Se refiere a la velocidad de ejecución de la música o producción del sonido. Dependiendo de la velocidad del sonido, podemos percibir distintas sensaciones
1. Lenta: monotonía, control, tranquilidad, dignidad,…
2. Rápida: excitación, sensación de celeridad
6. Ataque: Manera en que comienza el sonido. Dependiendo del ataque, conseguiremos un efecto u otro
1. Violento: peligro, violencia, dureza,…
2. Suave: algo previsible, aburrido,…
7. Decaimiento: Final del sonido. Según cómo se termine el sonido, se conseguirá un efecto u otro
1. Brusco: encierro o definición…
2. Pausado: alejamiento, duda, suavidad…Aquí hay que mencionar al «leimotiv», que, en forma de fragmento musical o sonido repetitivo, se identifica con un personaje o situación y que sirve de anuncio para que el espectador prevea lo que va a suceder (recurso típico del cine de suspense o terror). Este recurso lo introdujo el compositor ROMántico Wagner.
El sonido y la continuidad narrativa
De alguna manera, el sonido es el «cemento» que une los sucesivos planos de imagen de un montaje, los diferentes puntos de vista que ofrecemos al espectador. El simple juego de plano-contraplano de una conversación no funcionaría si no tuviese como soporte la continuidad que le da el sonido.
La banda sonora
El concepto de banda sonora abarca todos los sonidos que escuchamos en una obra audiovisual, sea una película, un programa de televisión o incluso un videojuego. Está integrada por varias pistas de sonido que pueden presentarse mezcladas o por separado y que son: los diálogos, los efectos de sonido, la música y el sonido ambiente.
. Diálogo y voces en off:
Las voces (diálogo y voz) forman parte fundamental del relato. La voz tiene la responsabilidad de desarrollar la historia de una forma lógica, pero también la economizan y la hacen más comprensible por norma general. Puede ser: sonido directo, el cual es el grabado en el mismo lugar mientras se filma la secuencia; o doblado, que es el grabado en estudio e incorporado posteriormente a la película.1. Diálogo: El diálogo consiste en la comunicación (verbal o no) de 2 o más personajes en una pieza audiovisual. Aunque también existe el diálogo interno en el cual sólo interviene un personaje. Sucede dentro del plano y es generalmente sincrónico: Se oye al mismo tiempo que sucede.
2. Voz en off: La voz en off o voz superpuesta es una técnica de producción donde se retransmite la voz de un individuo que no está visualmente delante de la cámara durante una producción. Muchas veces es pregrabada y también es de uso común en documentales o reportajes para explicar la información o los acontecimientos.
2. Efectos de sonido:
Generalmente ruidos, son efectos, especialmente onomatopéyicos, de los sucesos de la película. Destacan la acción y buscan que se asemeje a lo cotidiano. Los ruidos y efectos sonoros pueden tener su fuente física en la misma escena, o simplemente no constatar la fuente. Estos últimos se utilizan para provocar determinadas reacciones en el espectador. Otra carácterística importante, es que la utilización de efectos sonoros resulta ser un sustituto de acciones desarrolladas fuera de campo, por ejemplo, mostrar una persona durmiendo en su habitación y a la vez el sonido de una puerta abríéndose, sin ser ésta enfocada. Muchos de los efectos sonoros no son recopilados de su fuente original, sino más bien, producidos artificialmente: Ruidos de vidrios rotos, del agua, del viento, de pasos… Que se encuentran en archivos sonoros, lo que permite ampliar el campo de la realidad. Lo habitual es crearlos o manipularlos en laboratorio para que tengan impacto. La aparición de nuevas tecnologías ha facilitado en gran medida estos procesos
3. Música:
Crea ambientes, sirve de anuncio y anticipa la aparición de un determinado personaje o una situación. Potencia la imagen, y refuerza con gran fuerza la atmósfera, siendo uno de los elementos que mejor acompaña al relato; incluso llega a ser esencial para la historia. Resulta eficaz para dar a conocer situaciones sin explicación verbal. Las funciones de la música son:
1. Función informativa: La letra de una canción, por ejemplo, puede explicar cosas
2. Llamar la atención
3. Dar ritmo a una imagen o sucesión de ellas
4. Funciones expresivas (crea climas emocionales)
El análisis de la música como elemento expresivo puede realizarse desde tres puntos de vista:
1. Música objetiva o diegética:es aquella que adquiere el protagonismo esencial de la historia o de la acción. Oímos lo que vemos, la fuente de la música está presente y juega dramáticamente.
2. Música subjetiva: es la que crea un ambiente emocional en el espectador, apoyando la intención de la narración
3. Música descriptiva: es la que nos hace evocar una situación real concreta: el viento, el fuego, la batalla, el agua que corre, un lugar o una época determinada…
Tanto la subjetiva como la descriptiva entran dentro del terreno extradiegético, que es la música que se encuentra fuera del contexto de la historia, y tienen como objetivo subrayar el carácter expresivo de la imagen.