UNIVERSIDAD COMPLUTENSE DE MADRID FACULTAD DE CIENCIAS DE LA INFORMACIÓN Departamento de Comunicación Audiovisual I TESIS DOCTORAL La función expresiva del sonido en la narración cinematográfica: nuevas tendencias, nuevas técnicas y nuevos recursos MEMORIA PARA OPTAR AL GRADO DE DOCTOR PRESENTADA POR Marco de Gregori Astrici Director Federico García Serrano Madrid, 2018 © Marco de Gregori Astrici, 2017 Facultad de Ciencias de la Información Departamento de Comunicación Audiovisual y Publicidad I La función expresiva del sonido en la narración cinematográfica: nuevas tendencias, nuevas técnicas y nuevos recursos. Tesis Doctoral Marco De Gregori Astrici Director: Federico García Serrano Madrid, 2017
 � � A mis padres Aldo y Erminia � “El mejor truco que el diablo inventó, fue convencer al mundo de que no existe” Kevin Spacey en “Sospechosos Comunes � 1. Resumen 11 Abstract 14 2. Prólogo 17 3. Fundamentos de la Comunicación 26 3.1 Tipos de comunicación 26 3.2. El lenguaje Sonoro 28 3.3 Características 30 4. Material adjunto al presente documento 34 4.1 Nomenclatura de los Archivos de Video 37 4.2 Nomenclatura de los Archivos de Audio 37 4.3 Nomenclatura de los Archivos de películas 38 5. Fundamentos teóricos 38 6. Objeto de la Tesis 51 6.1 Elementos que integran el sonido cinematográfico 52 6.2 Largometrajes objeto de análisis 52 6.3 Software de análisis sonoro 53 6.3.1 Protools 53 6.3.2 Izotope Insight 54 6.4 Análisis físico del Sonido 55 6.5 Análisis emocional - cognitivo del sonido 56 6.5.1 Estructura Cognitiva de las emociones 59 7. Hipótesis de trabajo 60 8. La cultura cinematográfica europea, oriental y norteamericana 61 8.1 El cine europeo 61 8.2 El cine Oriental 81 8.3 El Cine Norteamericano 100 9. Elementos de la banda sonora cinematográfica 121 9.1 La Voz (el diálogo) 121 9.2 Tipos de lenguaje 133 9.2.1. Lenguaje discursivo (monólogos) 133 9.2.2. Diálogo coloquial (giros o jerga de la calle) 136 9.2.3. Lenguaje interno o interior 139 � 9.2.4. Lenguaje escrito (El guión) 142 9.2.5. Lenguaje dialogado cinematográfico 145 9.3 Efectos y Ambientes 180 9.3.1 Análisis de efectos y ambientes 188 9.4 La música 205 10. La Gestalt y el sonido cinematográfico 207 10.1 Ley de Proximidad 210 10.2 Ley de Similaridad 211 10.3 Ley del Completamiento 213 10.4 Ley de Figura Fondo 215 11. Efectos cognitivos producidos por el sonido en el publico 220 11.1 Efecto del Contraste 220 11.2 El Silencio 224 11.3 Ritmo 228 11.4 Intensidad 229 11.5 Timbre 231 11.6 Velocidad 232 11.7 Forma 233 11.8 Organización 235 11.9 La Frecuencia 236 11.10 Cualidad Sonora 238 12. La Música 240 12.1 El lenguaje musical en el cine 240 12.2 Wojciech Kilar 254 12.3 Análisis musical de “Dracula de Bram Stocker” 256 12.3.1 The Beginning 257 12.3.2 Vampire Hunters 261 12.3.3 The Hunters prelude 262 12.3.4 Lucy´s party 263 12.3.5 Love Remembered 265 12.3.6 Absenta 267 12.3.7 The Storm 268 12.3.8 The Green Mist 269 � 12.3.9 The Encounter 271 12.3.10 The Brides 272 12.3.11 Mina-Dracula 275 12.3.12 The Hunter Prelude 276 12.3.13 The Ring of Fire 277 12.3.14 Love Eternal 278 12.4 La banda sonora 279 13. Breve historia del sonido 282 13.1 Thomas A. Edison 282 13.2 Eugene Lauste 287 13.3 Lee De Forest 288 14. El desarrollo de las tecnologías 291 14.1 Equipos de edición 291 14.2 La técnica de post-sincronización: el doblaje 294 14.3 Grabación magnética 296 14.4 La Televisión 298 14.5 Timecode 300 14.6 Formatos de video analógico 301 14.7 Formatos de video digital 302 14.8 Innovación sonora 303 14.9 Plataforma de trabajo de audio digital (DAW) 305 15. Audio Digital 309 15.1 Principios básicos 311 15.1.1 Conversión analógico-digital 311 15.1.2 Filtro pasa-bajos o antialiasing 314 15.1.3 EL Teorema de muestreo o NYQUIST 315 15.1.4 Muestreo (SAMPLING) 317 15.1.5 Sobre-muestreo (Oversampling) 322 15.1.6 Cuantización 323 15.1.7 Precisión de cuantización 325 15.1.8 Dithering 329 16. Física del Sonido 333 16.1 Cualidades del Sonido 339 � 16.1.1 Tono 339 16.1.2 Timbre 342 16.1.3 Intensidad 344 16.1.4 Duración 351 16.1.5 Envolventes 352 16.1.6 Relación entre potencia, intensidad y presión sonora 354 16.1.7 Velocidad del sonido 355 17. Principales efectos digitales aplicables al audio 356 17.1 Compresor 357 17.2 Reverberación 360 17.3 Eco 365 17.4 Ecualización 366 18. Anatomía del oído y percepción sonora 368 18.1 Estructura del oído humano 368 18.1.1 Oído Externo 369 18.1.2 El oído medio 371 18.1.3 El oído Interno 373 18.2 Mecanismo de la Audición 374 18.2.1 Recepción 375 18.2.2 Transmisión 376 18.2.3 Percepción 377 19. Características de la Audición 378 19.1 Sonoridad y curvas isofónicas 380 19.2 Efecto de enmascaramiento 384 19.3 Audición binaural y localización de fuentes de sonido 386 19.3.1 Fuentes Imaginarias de sonido 389 20. Sistema de sonido Surround 393 20.1 Un breve repaso a la historia 393 20.2 DOLBY 397 20.3 La evolución de DOLBY 399 20.4 Tipos de codificación con sonido analógico 404 20.4.1 Sonido Monoaural 404 20.4.2 Sonido estereofónico 405 20.4.3 Sonido cuadrafónico 405 � 20.4.4 Dolby SR (Spectral Recording) 406 20.5 Tipos de codificación con sonido digital. 409 20.5.1 DOLBY SR-D 409 20.5.2 DOLBY AC3 413 20.5.3 DOLBY SURROUND EX 415 20.5.4 DTS 417 20.5.5 SONY SDDS 421 20.5.6 DOLBY ATMOS 423 20.6 THX (Lucas Corporation) 428 21. Post-producción de sonido 430 21.1 La importancia del Sonido 432 21.2 Material de trabajo 440 21.3 Guía de operador 443 21.4 OMF (Open Media FrameWork) 445 21.5 Edición de diálogos 449 21.5.1 Limpieza de diálogos y directo 451 21.6. Técnica de montaje de sonido 459 21.6.1 Diseño de pistas 461 21.7 Edición con plugins de efectos 470 22. La Mezcla de Sonido 477 22.1 Stems 486 23. Utilización de los canales 5.1 500 23.1 Cómo utilizar el canal CENTRAL 500 23.2 Cómo utilizar los canales SURROUND 503 23.3 Limitaciones del canal LFE 503 23.4 Cómo adecuarse a la reproducción en estéreo 505 24. Análisis sonoro cinematográfico 506 24.1 “Deseando Amar” 506 24.2 “Olvidate de mi” 550 24.3 “Lee mis labios” 631 25. Conclusiones 694 25.1 Aspecto Físico (técnico) 700 25.2 Aspecto Emocional 715 �1 26 Apéndice 724 26.1 Apéndice 1 724 26.2 Apéndice 2 726 26.3 Apéndice 3 729 26.4 Apéndice 4 734 26.5 Apéndice 5 737 26.6 Apéndice 6 744 27. Bibliografía 752 28. Publicaciones 757 29. Páginas Web 771 30. Tesis Universitarias 772 31. Recursos Videográficos 772 �1 1. Resumen El sonido, ha sido y será fuente de inspiración, de evocación, de emociones, de historia, de recuerdos, de momentos o situaciones. El oído es uno de los sentidos más importantes que el hombre posee, ya que le permite no solo moverse por el mundo real que le rodea, sino también establecer un mapa de experiencias vitales que van construyendo también la vida emocional y sensorial del propio sujeto. Es por ello, que nuestra existencia no podría entenderse en su totalidad si dejáramos de lado uno de los elementos vitales más interesantes y psicológicamente personales como es el sonido en general, o la música en particular. Este trabajo de investigación, se centra en la importancia que tiene el sonido en si mismo, dentro de un sector profesional que esta profundamente enraizado con la experiencia vital de las personas, sus recueros, y sobre todo con las emociones. Hablamos del cine, como elemento vehiculante de la expresión sonora en general, y de la experiencia en particular que tiene el espectador con la palabra, los diálogos, los ambientes de sonido, los efectos, las músicas, etc. Mi interés se ha centrado en buscar cómo acontece el fenómeno sonoro cinematográfico, es decir, qué forma técnica y narrativa tiene de expresarse en la pantalla de cine, de presentarse al espectador, teniendo en cuenta los avances tecnológicos que el sector audiovisual ha experimentado en los últimos años, como son los nuevos sistemas de reproducción multicanal de sonido, o también denominados de sonido envolvente. Pero la presente investigación, tiene una segunda lectura cuyo objetivo es quizás más interesante o revelador si cabe. No se trata de un mero trabajo de recopilación de medios o materiales, ni solo de enumerar sistemas �1 tecnológicos empleados en el sector del audiovisual , sino fundamentalmente, mi propuesta personal, va mucho más allá, intentando encontrar una posible correlación entre la expresión sonora, la forma en la que se utiliza el sonido dentro del sector cinematográfico y la cultura o idiosincrasia cultural de distintos continentes o naciones donde se hace presente dicha expresión artística. Me referiré en mi trabajo a tres grandes zonas o áreas en las que podríamos organizar la narrativa sonora dentro de la experiencia cinematográfica actual. El sonido en el cine podríamos decir, tiene tres importantes maneras o formas de mostrarse. Esta forma de expresión artística se corresponde precisamente a tres continentes, que han influido en gran medida a enriquecernos culturalmente y a cimentar históricamente el desarrollo del séptimo arte. Estas tres áreas son: el continente de americano (Estados Unidos), el continente Europeo, y el Asiático. Precisamente dentro de ese mundo evocador y emotivo que tiene el cine en general, un protagonista indispensable como elemento transmisor de sentimientos, situaciones, ha sido, y lo seguirá siempre siendo, el propio sonido, en todas sus facetas artísticas dentro del sector audiovisual claro está. Para condensar y sobre todo acotar mi campo de investigación, he querido centrarme en la horquilla de tiempo que va del año 2000 al 2005 aproximadamente. Además me he centrado en analizar únicamente tres películas que corresponden al cine que llamamos independiente o no comercial, para así de esta manera huir un poco de los tópicos del gran cine de masas, cuyo sonido esta fabricado más con el objetivo de impactar físicamente al propio espectador que de llenarle de referencias evocadoras o de aquellas sensaciones sonoras casi subliminales, pero de gran poder emotivo y sensorial. No he querido en ningún momento caer en la ya conocida tendencia a comentar o analizar grandes producciones de Hollywood, de Europa o de Asia. Hacer esto hubiese sido un trabajo demasiado fácil, poco arriesgado y sobre todo poco revelador, ya que mucha literatura se ha escrito ya al respecto de la mano de �1 grandes críticos y técnicos en general. Mi interés y curiosidad más bien se ha centrado en descubrir qué tipo de expresión sonora es la que se utiliza en el cine dentro de estas tres grandes áreas, pero referenciandolo a un cine más personal, de autor, huyendo en todo momento de las macroproducciones, y buceando en un cine eminentemente orientado a un público más reducido y exigente. Los tres títulos que he seleccionado para mi investigación son: “Deseando amar” año 2000. Título original “Fa yeung nin wa” (In the Mood for Love) del director nativo de Hong Kong Wong Kar-Wai. “Lee mis labios” año 2001. Título original “Sur mes leves" del director francés Jaques Audiard. “Olvidate de mi” año 2004. Título original “Eternal Sunshine of the Spotless Mind” del director americano Michel Gondry. La investigación ha permitido analizar el sonido de las secuencias más importantes y significativas, de cada metraje, teniendo en cuenta el posicionamiento de los altavoces de salida multicanal. Este trabajo se ha llevado a cabo con el uso de dos programas importantes: Protools (como editor de audio) y Insight de Izotope como analizador de espectro de la señal sonora a examen. Las conclusiones has sido las siguientes: 1) El cine oriental esta marcado por un sonido más escueto, más limpio y puro, sin prácticamente artificios, y donde el peso específico del sonido lo lleva la voz y la música. Prácticamente los ambientes y efectos de sonido son tan mínimos y suaves que pasarían desapercibidos sino no fuera porque al ser tan reducidos en presencia, cuando se utilizan el público los advierte con mayor facilidad y atención. 2) El sonido norteamericano y europeo, juegan más con la técnica multicanal, pero mientras el sonido europeo resulta más realista, más fiel a la propia realidad que nos �1 rodea, el norteamericano resulta mucho más sobrecogidos, potente e incisivo, convirtiéndose en una realidad aumentada, y sobredimensionada incluso en los efectos o ambientes más aparentemente sencillos y cotidianos. 3) Esta y otras diferencias más permiten deducir, que las tres películas a examen, responden a tres culturas o formas diferenciadas de entender y representar la realidad. 4) Como conclusión final, se recomienda en futuros estudios ampliar el análisis a nuevas producciones cinematográficas, para llegar a conclusiones fundamentadas en estudios sonoros mas extensos e incluso en periodos históricos más dilatados en el tiempo. Abstract Sound has been and will be a source of inspiration, of evocation, of emotions, of history, of memories, of moments or situations. The ear is one of the most important senses that man possesses, as it allows him not only to move around the real world around him, but also to establish a map of vital experiences that are also building the subject's emotional and sensory life. That is why our existence could not be understood in its entirety if we leave aside one of the most interesting and psychologically personal vital elements such as sound in general, or music in particular. This research focuses on the importance of sound in itself, within a professional sector that is deeply rooted in the vital experience of people, their memories, and above all with emotions. We talk about cinema, as a vehicle for the sound expression in general, and for the spectator's particular experience with words, dialogues, sound environments, effects, �1 music, etc. My interest has focused on how the cinematic sound phenomenon happens, that is, what technical and narrative form has to be expressed on the cinema screen, to present itself to the viewer, taking into account the technological advances that the audiovisual sector has experienced in the Recent years, such as new multichannel sound reproduction systems, or also called surround sound systems. But the present research has a second reading whose purpose is perhaps more interesting or revealing if it fits. It is not just a job of collecting media or material, or just listing technological systems used in the audiovisual sector, but fundamentally, my personal proposal, goes much further, trying to find a possible correlation between sound expression, The form in which sound is used within the cinematographic sector and the culture or cultural idiosyncrasy of different continents or nations where this artistic expression is present. I will refer in my work to three large areas or areas in which we could organize the narrative sound within the current film experience. The sound in the cinema we could say, has three important ways or ways of showing itself. This form of artistic expression corresponds precisely to three continents, which have greatly influenced cultural enrichment and to historically cement the development of the seventh art. These three areas are: the continent of American (United States), the European continent, and the Asian. It is precisely within this evocative and emotive world that cinema has in general, an indispensable protagonist as a transmitter element of feelings, situations, has been, and will always be, the sound itself, in all its artistic facets within the audiovisual sector is clear . To condense and, above all, to limit my field of research, I wanted to focus on the time frame that goes from about 2000 to 2005. In addition, I have focused on analyzing only three films that correspond to the cinema that we call independent or non-commercial, in order to thus flee some of the topics of the great cinema of masses, whose sound is manufactured more with the objective of physically impacting the own Spectator to fill it with evocative references or those almost �1 subliminal sound sensations, but of great emotional and sensorial power. I have never wanted to fall into the already well-known tendency to comment or analyze great productions of Hollywood, Europe or Asia. To do this would have been too easy, too risky and above all unobtrusive work, since much literature has already been written about the hand of great critics and technicians in general. My interest and curiosity has rather focused on discovering what type of sound expression is used in the cinema within these three large areas, but referring to a more personal, authorial cinema, fleeing at all times of macroproductions, And diving in a cinema eminently oriented to a smaller audience and demanding. The three titles I have selected for my research are: "Desire to love" year 2000. Original title "Fa yeung nin wa" (In the Mood for Love) by Hong Kong native director Wong Kar-Wai. "Read my lips" year 2001. Original title "South month light" by French director Jaques Audiard. "Forget about me" year 2004. Original title "Eternal Sunshine of the Spotless Mind" by American director Michel Gondry. The research has allowed to analyze the sound of the most important and significant sequences of each footage, taking into account the positioning of multichannel output speakers. This work has been carried out with the use of two important programs: Protools (as audio editor) and Izotop Insight The conclusions were as follows: Eastern cinema is marked by a sound that is simpler, cleaner and cleaner, with virtually no artifice, and where the specific weight of sound is carried by the voice and music. Practically the environments and effects of sound are so minimal and soft that they would �1 go unnoticed but were not because being so reduced in presence, when they are used the public warns them with greater facility and attention. American and European sound play more with multichannel technique, but while the European sound is more realistic, more faithful to the reality that surrounds us, the American is much more overwhelmed, powerful and incisive, becoming an augmented reality, and Oversized even in the most seemingly simple and everyday effects or environments. This and other differences allow to deduce, that the three films under examination, respond to three cultures or different ways of understanding and representing reality. As a final conclusion, it is recommended in future studies to extend the analysis to new cinematographic productions, to arrive at conclusions based on sound studies more extensive and even in historical periods more extended in the time. 2. Prólogo El sonido es un evento físico que afecta a todo ser vivo y que se desarrolla en el espacio y en el tiempo siguiendo unas determinadas reglas y funciones. Entender el sonido significa poder comprender cómo afecta al ser humano, como se desarrolla y que impacto ejerce sobre nuestra conducta. El sonido es un acontecimiento espacio-temporal del que no nos podemos desvincular, ya que acontece a lo largo de nuestra existencia e impregna nuestra �1 conducta, provocando diferentes reacciones y manifestaciones que determinan nuestro pensamiento y evolución. El sonido nos afecta a nivel fisiológico y psicológico. Como ejemplo básico podríamos citar una situación que nos ha acontecido a todos de forma cotidiana y normal, y que es la exposición a fuentes de ruido intensas. Pensemos el caso de las grandes ciudades, donde el trafico y ruido ambiente es elevado. El entramado de sonidos y ruidos intensos que allí acontecen, no solo pueden provocarnos una disminución de la capacidad auditiva, sino también, y dependiendo de la intensidad a la exposición de la fuente de ruido, la perdida de audición. A su vez, esta situación, si se prolonga en el tiempo, puede provocar no solo efectos físicos, sino también efectos psicológicos, ya que nuestro comportamiento se verá sin duda afectado, provocando reacciones de defensa, como puede ser el estrés, la ansiedad, nerviosismo, irritabilidad etc. Además la exposición al ruido intenso provoca otros cambios en el organismo. Ante el ruido en ocasiones el cuerpo adopta una postura defensiva es decir adopta un mecanismo de protección. Tiempo de exposición al ruido dependiendo de su dinámica. �1 Ante una presión sonora superior a 115, 110 dB aparecen afecciones y problemas físicos como por ejemplo problema en el riego cerebral, aumento de la tensión muscular, aumento del ritmo cardíaco, cólicos, problemas intestinales, etc. Pensemos por ejemplo en una fuente sonora cuya intensidad supera los 120 Hz. En este caso, se puede llegar a la rotura física del tímpano. Pensemos por ejemplo en acontecimientos trágicos, como son explosiones de bombas, o atentados donde se origina una gran carga dinámica de audio, o cuando por lo contrario, la intensidad de la fuente sonora desciende por debajo de los 20 Hz. Entonces es cuando se producen náuseas, vómitos y mareos. De hecho, en el ámbito cinematográfico, esta terminantemente prohibido utilizar sonidos que se muevan en ese rango de frecuencias, ya que los resultados que se pueden llegar a dar, afectaran negativamente al publico sin lugar a dudas. Nuestro organismo esta por supuesto preparado para aguantar y defenderse del ruido intenso en general, pero siempre y cuando se respete un máximo de horas de exposición a la fuente de sonido. En este cuadrante podemos ver una muestra del tiempo de exposición y de la intensidad en decibelios que podemos soportar. A mayor intensidad de la fuente de sonido, menor es el tiempo de exposición, ya que de lo contrario esto nos podría afectar tanto a nivel orgánico como conductual. Esto simplemente es un botón de muestra de como puede influir el sonido en nuestra vida y de cómo nos puede afectar. A nadie le resulta novedoso el hecho de comprobar en su propia piel, como los lugares con ruidos intensos, molestos, chirriantes, a la corta o a la larga, nos provocan cambios no solo físicos, sino también de carácter comportamental, con reacciones adversas y que implican un desgaste tanto físico como emocional. Debemos de habituar a nuestro sentido auditivo a funcionar preferentemente en situaciones con baja intensidad sonora, ya que la exposición a fuentes intensas de ruido, conlleva la subida del umbral de reacción (como respuesta automática al estímulo) �2 y por consiguiente la perdida de sensibilidad a estímulos bajos que pueden verse seriamente afectados por este efecto. También el ruido intenso afecta directamente a la memoria. En diferentes estudios e investigaciones que se han llevado a cabo al respecto, se ha demostrado como el ruido en general puede repercutir negativamente en tareas de memorización. Es decir, estamos ante una perdida del rendimiento del individuo y por consiguiente a una disminución de la capacidad de retención o de memoria. En el otro extremo, comprobamos también como ruidos con un contenido dominante de frecuencias de 20 a 200 Hz (o también denominados ruidos de baja frecuencia) y que son producidos por una amplia gama de fuentes en nuestra cultura, provocan también efectos negativos tanto físicos como conductuales. Muchas de estas fuentes están relacionadas con los diferentes medios de transporte, como camiones de gran tonelaje, autobuses con motor diesel y trenes, aviones y helicópteros. También podemos tener ruidos de baja frecuencia pero que en esta ocasión aunque de baja intensidad dinámica, pueden llegar a ser persistentes en nuestra vida cotidiana, ya que tienen que ver con elementos más comunes y cotidianos y en ocasiones, son de difícil control o eliminación, como puede ser la calefacción, refrigeración o ventilación de los edificios. Debido a la velocidad, es decir al numero de vibraciones por segundo que emiten, las frecuencias bajas pueden propagarse sobre grandes distancias, con poca atenuación. 1 ya que son persistentes y se difunden omnidireccionalmente. Las bajas frecuencias 2 tienen tanta energía de propagación, que también pasarán con poca atenuación a través de paredes, tabiques y ventanas. AARTS, R.M. A Comparison of Some Loudness Measures for Loudspeaker Listening Tests, J. Audio Eng. 1 Soc.,New York, pp. El autor comenta a lo largo de su libro, que las así llamadas LFE bajas frecuencias son un ingrediente importante en el proceso de postproducción sonoro cinematográfico. Aparece por primera vez con la codificación Dolby SR. FLETCHER, J.A.The Design of a Modular Sound Absorber for Very Low Frequencies. BBC Research 2 Department. Report No. BBC RD 1992/10: las frecuencias inferiores a 10Hz inciden en los componentes de absorcion en diseños acústicos de salas, dependiendo de la intensidad de la vibración y del coeficiente de abosrción del material a examen.. �2 Hay un gran número de estudios sobre los efectos sobre el sueño y el bienestar debido a los ruidos provocados por los medios de transporte (por ejemplo Thiessen y Lapointe 1978, Ohrstrom 1990, Griefahn 1991, Ohrstrom 1998). Hablamos de contaminación acústica como un mal ya no endémico, sino 3 prácticamente de carácter mundial, fruto también de los cambios sociales y de los efectos de la industrialización. Es decir, hablamos de que la revolución industrial, los descubrimientos de nuevos medios de transporte, de nuevas formas de producción, las nuevas tecnologías, no solo modifican el medio ambiente, sino también provocan cambios sustanciales en nuestro entorno, por pequeños que estos puedan ser. Tomemos por ejemplo, los tonos de llamada de un teléfono móvil y pesemos por un instante como ésta fuente de ruido (o música según se quiera entender) puede alterar incluso con una baja intensidad acústica, hasta los lugares o momentos mas tranquilos y apacibles que podamos imaginar. No son pocas las ocasiones que éste sencillo ejemplo acontece, y que curiosamente es capaz de causar cambios bruscos en el estado de ánimo y en el carácter de las personas, aún cuando la fuente de exposición del ruido se difunda a baja intensidad y dinámica. Somos nosotros mismos los culpables de la mayor parte del ruido que soportamos en nuestra sociedad ya que vivimos en una permanente contaminación acústica y en la mayoría de las ocasiones la permitimos e incluso la creemos razonable y normal, cuando en la mayoría de los casos, sabemos que no solo es dañina fisicamente, sino también contraproducente psicológicamente. El ruido molesto puede conllevar una serie de efectos sin duda no deseados y que se han analizado a lo largo de los años. El hombre inmerso en un ambiente y espacio GRIESINGER, D.“The Psychoacoustics of Apparent Source Width, Spaciousness and Envelopment in 3 Performance Spaces.” Acta Acustica, 83 1997, pp. 721–731” Es un fenómeno de nuestra sociedad actual. Se da sobre todo en las grandes ciudades. Pero aun así consideramos contaminación acústica a cualquier perturbación que irrumpe el sonido ambiental de un recinto. �2 dominado por el ruido y las frecuencias estridentes, puede ver la claridad de su comunicación reducida drásticamente. El ruido molesto interfiere también en todos los procesos cognitivos ya que es capaz de alterar la entrada de información a nuestros 4 sentidos y confundir las señales informativas del entorno, perturbando incluso el sueño y alterando así la percepción sensorial. Disminuye también la agudeza y la sensibilidad a los estímulos, como consecuencia del efecto “defensa” que se produce ante el ruido molesto. Todo esto como comprobamos solo sirve para modificar sin duda, tanto nuestro estado, sudoración, alteración del ritmo cardiaco, etc como nuestro equilibrio psicológico, nerviosismo, ansiedad etc. Por otra parte, se han expuestos en distintos estudios científicos, la importancia de mantener unas reglas básicas de higiene con respecto al medio sonoro que nos rodea, al igual que antes hablábamos en el gráfico anterior del tiempo máximo recomendable que una persona puede permanecer en un determinado medio sometido a ruido intenso. Estas recomendaciones higiénicas básicas, pasan por ejemplo por respetar las horas de sueño reparador como una necesidad fundamental y un requisito básico para la buena salud y el bienestar de uno mismo. Es decir estamos hablando de unas horas mínimas al día en la que no deberíamos estar sometidos a fuentes de ruido por mas o menos molestas que estas pudiesen llegar a ser. El sentido del oído, es sin duda, un elemento muy importante, porque nos ayuda a protegernos frente a los posibles fuentes de peligro que nos rodean. Mientras el sentido de la vista también me ayuda a defenderme del entorno que me rodea, solo me permite hacerlo en el ángulo de visión que mi vista puede abarcar, aproximadamente los 180º. ORTONY A., Clore G. L. and Collins A. The Cognitive Structure of Emotions. Cambridge University Press, 4 1988: demuestran como la forma en que percibimos la realidad, depende estrechamiento del flujo de emociones ligados al la historia del cliente, su pasado y su experiencia. �2 Con el oído esto no ocurre, ya que mi sentido auditivo es capaz de analizar y distinguir fuentes de sonido, y por consiguiente posibles fuentes de peligro que me pueden rodear sin necesitar del apoyo visual. Ya no solo estamos hablando de una audición de carácter parcial, 180º, sino completa, 360º, donde el propio oído se posiciona en un órgano importante para nuestra salud y seguridad integral. Es decir, utilizamos el oído como herramienta para saber que elementos nos rodean físicamente, aún cuando estos no son percibidos por la vista. El objetivo principal de nuestro cerebro es la supervivencia, ya que la reacción natural de los sentidos es mantenernos alerta sobre todo lo que nos rodea. En la base de esta realidad, se encuentra una física instintiva, que lleva al ser biológico a defenderse del medio que le rodea, utilizando todos los recursos de los que ha dispuesto la naturaleza para ello. A pesar de lo que todos pensamos, el trabajo diario del cerebro está relacionado con el aprendizaje y adquisición de conocimiento. El cometido del cerebro de un niño, durante el periodo de desarrollo principalmente y más tarde durante la etapa adulta, es el de aprender y asimilar su entorno, lo que le rodea, de la forma más rápida y precisa posible.   Muchas padres están convencidos, sin embargo, que el cerebro del niño se orienta casi exclusivamente a aprender: como resultado, pasamos mucho tiempo en enseñando a los críos cosas nuevas y nos sorprendemos viendo la rapidez con la que aprenden a caminar, repetir las primeras palabras, agarrar y manipular objetos en un entorno tridimensional, etc. Juan Medina biólogo molecular, comenta ademas en sus investigaciones, que el cerebro no tiene éste único objetivo vital. Aclara que en realidad, el interés principal del cerebro de un niño es la supervivencia, conseguir una sensación de “seguridad”, “tranquilidad”. �2 De esta forma, el ser humano ha sido diseñado para escapar de la extinción, es decir, para sobrevivir. La capacidad del cerebro para aprender, es un producto accidental de una fuerza mucho más profunda: El deseo inmenso para sobrevivir al día siguiente. En otras palabras, no sobrevivimos para aprender, sino que aprendemos para sobrevivir. Los sonidos presentan bandas de frecuencia, que varían desde las graves a las mas agudas. Se ha podido constatar en múltiples investigaciones y estudios como el fenómeno auditivo cobra un valor muy importante para el individuo desde su primera infancia, y mucho antes, desde su concepción en el seno materno. En este contexto, podemos decir que los niños prefieren aquellos sonidos que se generan dentro del rango de frecuencias con las que habla una mujer adulta. Es decir, frecuencias agudas en su mayor parte. Porqué ocurre este fenómeno? Por múltiples factores que veremos a continuación. El sonido desde el propio nacimiento representa un elemento importantísimo para el desarrollo del niño y en este contexto, está demostrado que los recién nacidos prefieren la voz de la propia madre a otras voces. Es decir son capaces de distinguir tonalidades y frecuencias, y lo hacen de forma instintiva, no aprendida y totalmente ligado al automatismo de la impresión genética. Una vez mas el instinto sigue su curso. El recién nacido sabe en todo momento quien es su madre, identifica su voz y los rangos de frecuencia en los que se mueve, porque tanto la voz del hijo como la de la madre, contienen patrones característicos similares que simplifican su identificación. El niño cuando nace, tiene una predisposición para aprender el lenguaje oral y la capacidad para distinguir acústicamente los sonidos, pudiendo así discriminar aquellos fenómenos lingüísticos de otros estímulos sonoros que les son prácticamente indiferentes. Es decir, son capaces de diferenciar una voz, de un ruido, y lo hacen sin ningún tipo de error, ya que su cerebro esta preparado y planificado su funcionamiento para localizar e identificar solo por la voz, aquellas personas que le son familiares de aquellas �2 otras que no lo son. Es decir volvemos otra vez a descubrir como el sentido del oído es fundamental a la hora no solo de descubrir el entorno que le rodea, sino también para la supervivencia. Por consiguiente, podemos ver como en general, el sonido representa un apartado muy importante en nuestras vidas. Nuestra existencia se hace de momentos, situaciones, recuerdos, pero también y sin que nosotros mismos lo provoquemos, conviven los sonidos asociados al mundo, a esos momentos y recuerdos, y a veces lo hacen con tanta fuerza e intensidad que un solo sonido es capaz de remover sentimientos y conciencias de una forma brutal e impactante. Por esto, la presente investigación, tiene como objeto, estudiar y analizar el sonido cinematográfico desde el punto de vista de la comunicación. Es decir, vamos a adentrarnos en un mundo conocido pero desde una perspectiva diferente, ya que vamos a descubrir como evoluciona y se utiliza el sonido, es decir todo lo que representa el mundo sonoro en un contexto estrictamente audiovisual. A través del sonido, analizaremos la comunicación, como el fenómeno que rige gran parte de nuestras vidas, pero siempre desde el punto de vista cinematográfico, buscando similitudes, diferencias, técnicas, y viendo como cada cultura tiene una forma y un significado diferente para presentar y exponer su realidad y el contexto artístico sonoro. �2 3. Fundamentos de la Comunicación 3.1 Tipos de comunicación a) La comunicación social b) La comunicación interpersonal La comunicación Social: Por comunicación social, entendemos comunicación de masas, es decir, la comunicación que tiene lugar de una o pocas personas hacia muchos individuos a través de canales como la televisión, el periódico, la radio, la publicidad o el cine etcétera. Es decir es un tipo de comunicación unidireccional de uno hacia muchos, de un emisor hacia múltiples receptores. Hoy en día, el cine es un reflejo de este tipo de comunicación. No olvidemos que vivimos en una sociedad donde las redes de información y de conexión, se extienden por diferentes medios y fenómenos culturales. La comunicación interpersonal: La comunicación interpersonal es una vía de conocimiento bidireccional, de uno hacia el otro, de un emisor hacia un solo receptor. Acontece en el intercambio de informacion, �2 entre dos personas, y que constituye gran parte del entramado comunicativo de nuestra sociedad. La comunicación interpersonal, se subdivide a su vez en: a) comunicación verbal b) comunicación no verbal La comunicación verbal verbal acontece a través del uso del lenguaje, ya sea 5 escrito o oral y depende de reglas muy precisas sintácticas y gramaticales. Por el contrario, la comunicación no verbal acontece sin necesidad del uso de la palabra, a través de distintos canales como los gestos faciales, las miradas, las posturas etcétera. Existen muchos escritos acerca de esta temática, publicados en gran parte o bien como guías de autoayuda, o como herramientas de autoconocimiento. Un elemento a destacar dentro de la comunicación es lo que se ha denominado como comunicación paraverbal. Cuando hablamos de comunicación paraverbal, ésta tiene que ver no solamente con las características de la voz, es decir, con el tono , con el 6 volumen, con el ritmo, sino también con las pausas, la forma de reírnos, el uso de los silencios u otras expresiones sonoras como puede ser por ejemplo, aclararse la voz (el típico carraspeo), golpear con los nudillos la madera, hacer ruido, jugar con objetos etc. Todo esto, perpetua nuestro tipo y estilo de comunicación que como un sello indeleble, nos identifica de forma unívoca en todo momento y lugar. Es muy complicado y difícil, romper este tipo de conducta, sobre todo cuando la personalidad del individuo esta ya forjada y terminada. Dentro del flujo normal de la comunicación, la parte verbal tiene un peso del 35% mientras que la no verbal 5 el 65%. De aquí se deduce el importante peso de la comunicación paraverbal, gestos, postura, etc en la comunicación. SLAWSON, W. Sound Color, Berkeley, CA: University of California Press. 1985: el tono de un sonido es 6 una de las componentes más importantes del mismo cuando se utiliza no solo musicalmente sino también en procesos de mezcla y postproduccion de sonido para cine. �2 Utilizamos como base portadora en toda comunicación, el lenguaje, sin el cual, perderemos gran parte del poder y la fuerza que tiene el propio canal de información que utilizamos. Es decir, necesitamos analizar lo que se denomina como: 3.2. El lenguaje Sonoro El lenguaje sonoro , es una forma de conducta comunicativa cuyo objetivo es 7 transmitir información y permitir así la comunicación a través de símbolos que son comprensibles para todos aquellos sujetos que pertenecen a un mismo colectivo social. La comunicación se encuentra en el centro de cada sociedad facilitando el acercamiento y la integración de los miembros o bien atenuando las diferencias y las tensiones o conflictos. Partiendo de códigos gestuales y vocales muy simples el hombre ha creado a través del transcurso de su evolución una gran gama elementos verbales y no verbales, hasta llegar a desarrollar la forma y la expresión comunicativa a través del gesto motor, de lenguaje sonoro musical o del lenguaje icónico visual. Cada lenguaje es un sistema de comunicación resultado de la vida en sociedad y que responde a las necesidades de esa sociedad. La época moderna ha visto el nacimiento y el rápido desarrollo de medios de comunicación ligados a las aplicaciones de la electricidad como por ejemplo el telégrafo el teléfono el cine la radio la televisión el fax internet etcétera. También en este sentido el incremento de estas técnicas ha sido posible gracias a la transformación política y económica de la sociedad. El continuo progreso de la informática La expresión (lenguaje sonoro) es el sistema de códigos especiales de comunicación, donde el mensaje 7 específico, se transmite a través de ondas sonoras o elementos acústicos entendibles por el ser humano. �2 ha aumentado la capacidad de almacenar datos y de transmitir cantidades de información cada vez mayores en tiempos cada vez más breves. Las distancias ya no es un obstáculo y los equipos ha bajado precio y coste de fabricación, con lo que la tecnología se ha puesto al servicio del hombre y de muchos más profesionales que actualmente desarrollan una actividad importantísima dentro del sector audiovisual. El presente trabajo, se basa en el análisis de la comunicación desde el punto de vista del sonido. Para ello tomamos como objeto el cine. El cine ha sido y es una vía un medio para transmitir información emoción mensajes u opiniones. Por eso tendremos en cuenta durante la realización de esta investigación el momento el tiempo el lugar y la sociedad donde el fenómeno cinematográfico acontece. No es lo mismo el estudio del cine en los años 50, que los años 70, que en los años 90. En cada momento vivimos situaciones distintas momentos históricos distintos y todo esto se refleja en la comunicación cinematográfica en el cine y en el arte en general. Por eso no podemos hablar de cine sin contextualizarlo en un momento histórico determinado. Durante el presente análisis tendremos en cuenta todos los factores sonoros que intervienen en una producción cinematográfica, y que son el pilar fundamental de ese proceso de intercambio de mensajes de emociones y de información del que hablábamos anteriormente. Esto es un proceso complejo y sofisticado pero en el que nos tenemos que introducir para poder descubrir los resortes de la comunicación sonora dentro del arte cinematográfico. Para acercarnos al estudio de sonido en el cine utilizáremos las herramientas informáticas que hoy en día existen en el mercado y que nos van a permitir adentrarnos dentro de la fenomenología del sonido y de su análisis en particular. Sólo a través de la informática es posible realizar un estudio más a fondo del fenómeno sonoro inscrito dentro del apartado audiovisual cinematográfico. �3 No solamente vamos a tener en cuenta la técnica sino también la información visual, el fotograma, la película. La imagen y el sonido son dos elementos que se complementan y que tienen que estudiarse conjuntamente. En ningún momento podemos dejar de lado el fenómeno visual de la proyección ya que el sonido se sustentan en la imagen y viceversa. 3.3 Características Si hablamos de comunicación podemos hablar de los siguientes elementos: La difusión: de noticias de datos de hechos, de mensajes, de opiniones, de comentarios necesarios para comprender las situaciones individuales, colectivas, nacionales o internacionales. La motivación: promover las aspiraciones individuales y la búsqueda de objetivos para la realización personal; estimular la actividad individual y colectiva. Estimular la discusión y el diálogo: presentar informaciones, cuestiones, para favorecer el acuerdo y la toma de decisiones. Aumentar el interés y la participación del público de la sociedad en temas de interés local nacional o internacional. La educación: la divulgación del saber del conocimiento entre los miembros de la sociedad, compartir la información y las competencias individuales o colectivas contribuyendo al desarrollo general de la sociedad. �3 La promoción de la cultura: la difusión de obras artísticas y culturales para conservar y transmitir la herencia del pasado y del presente. El objetivo es el de alargar los horizontes culturales potenciando la imaginación y estimulando el sentido estético y la creatividad. El entretenimiento: difundir actividades que son lúdicas, pero que además sirven de fuente de información y formación, como por ejemplo el teatro, la danza, las artes visuales, el cine, la literatura y la poesía, la música, el juego, el deporte. El entretenimiento debe ser también cultura, no solo pura diversión sin objetivo posterior aparente. De entre todos estos objetivos de la comunicación, mi trabajo se centrará en el estudio sonoro del cine desde el punto de vista del entretenimiento y de la actividad cultural. Es por ello que pasaré a analizar varias películas estudiándolas detenidamente, para descubrir su resortes comunicativos y las técnicas que emplean para estimular la emoción, el sentimiento y la reacción corporal o física e intelectual. Me gustaría explicar y contar como y porque me he interesado en el sonido y especialmente en el cine. Nací en Italia Génova, una ciudad costera que tuvo antaño un pasado glorioso como república marinera. Con sólo año y medio, mis padres me trajeron a España concretamente a Madrid. Aquí, he vivido, vivo, y he desarrollado mi trabajo y mi profesión (apéndice 5). Aunque estudié la carrera de psicología mi vida me llevo más tarde hacia el terreno del sonido, la música. He de reconocer que mis estudios me han ayudado muchísimo en mi trabajo, sobre todo para poder conocer y utilizar adecuadamente los recursos que las técnicas psicológicas brindan al cine y concretamente a la postproducción de sonido. Mi profesión, la de técnico de sonido me ha permitido conocer y acercarme a una de las artes que más admiro y de la que más estoy enamorado: el cine. Esta relación de amor empezó cuando cumplí 13 años, veraneando en Italia. �3 Ese mismo día, me llevaron a ver la película 2001 una odisea del espacio, del director inglés Stanley Kubrick (Apéndice 2). He de reconocer que esa película me 8 impactó muchísimo y que siendo tan niño me propuse descubrir ese maravilloso mundo del celuloide. Estaba seguro que me esperaban muchas y maravillosas sorpresas y aventuras. De hecho eso ha sido así hasta el día de hoy. Más tarde, otra película, marcaría mi vida profundamente y mi destino profesional definitivo. Fue en el año 1975 con el estreno de la película “La guerra de las galaxias”. Stanley Kubrick nace el 26 de julio de 1928 en Nueva York., en el seno de una familia acomodada. 8 Desgraciadamente desde joven los estudios y el colegio no le atraían demasiado y muy pronto sus padres le mandaron a ver con su tío en Pasadena con su tío materno. Este ultimo fue el responsable para que años mas tarde Kubrick decantara su interés por el cine y la dirección. Fotograma de la película Fotograma de la película �3 Con esta película descubrí lo increíble que era escuchar el sonido de forma envolvente. Esta fue la primera película en proyectarse en sistema de sonido DOLBY cuadrafónico. Nunca antes me había fijado en el sonido, me había detenido a escuchar cada efecto, cada golpe de música, cada fondo ambiente. Fue como descubrir un nuevo mundo de inmensas e infinitas posibilidades, y esto se quedó grabado en mi alma profundamente. A partir de entonces me fui acercando poco a poco al sonido, a través primero de la música, y más tarde de la informática. Es por ello, que concedo una gran importancia al desarrollo informático del sonido, ya que profesionalmente, esto ha proporcionado las herramientas necesarias para que la post-producción de sonido se convierta en un auténtico y verdadero arte. Cuando acabé la carrera de psicología ya me encontraba atraído profundamente por el cine, y especialmente por el sonido. Necesitaba conocer más, prepararme mejor, y descubrir los entresijos de esta profesión. Me traslade a Estados Unidos, Nuevo México. Aquí aprendí la post producción digital de sonido para cine, y aquí mismo tuve la posibilidad de poder realizar mis primeros trabajos, incursiones en el séptimo arte. Más tarde volvería España, a Madrid concretamente. Aquí, he desarrollado mi profesión y mi carrera. He trabajado con muchas Poster de STAR WARS �3 programas informáticas pero destaco de entre todos ellos al sistema Protools , un 9 software muy potente, utilizado prácticamente en casi todas las productoras del cine del mundo. En esta investigación he utilizado esta misma herramienta para poder desglosar y detenerme en cada sonido en cada ambiente, y poder así analizar detalladamente la realidad sonora cinematográfica. He tenido la suerte de trabajar con los directores más importantes de España, como por ejemplo Vicente Aranda, Ricardo Franco, Jose Luis Borau, etc. En el año 1992 conseguí el premio Goya al mejor sonido por la película “Secretos del corazón” de Montxo Armendáriz. Asimismo he tenido la suerte de poder trabajar para la empresa LucasArts del director americano George Lucas, en la adaptación del sonido para diferentes videojuegos de la compañía. Actualmente sigo trabajando en sonido y sigo realizando películas, documentales, programas de televisión, cortometrajes. 4. Material adjunto al presente documento Esta tesis por el carácter eminentemente multimedia que tiene, se presenta bajo forma de texto escrito con el apoyo de material audiovisual. A través del desarrollo de los distintos temas se irán incorporando clips de video y de audio, que son necesarios para poder seguir el hilo argumental y entender el planteamiento temático. Esto resulta COLLINS Mike. A professional Guide to Audio plugins and Virtual instruments, Linacre House P. London. 9 2003. Para el autor, el sistema de edición Protools es el más potente del mercado y esta orientado para el trabajo tanto de edición como grabación de sonido en el sector comercial musical y cinematográfico. �3 fundamental, ya que de lo que se trata, es de poder analizar no solo la imagen, sino fundamentalmente el sonido asociado a ella, y de esta forma permitir que el lector pueda experimentar lo que en este trabajo iremos exponiendo, a lo largo de los diferentes y múltiples ejemplos que presentaré. La imagen se ha capturado de material cinematográfico procedente tanto en formato DVD como BlueRay. De aquí, a través de complejos procedimientos informáticos, he extraído el audio en su formato original 5.1 tanto procedente de Dolby como de DTS solo en aquellos ejemplos que estimo básicos para la perfecta comprensión de lo que se irá exponiendo a lo largo de este trabajo. Para poder organizar todo el material audiovisual éste, va a estar recogido en uno o varias carpetas que se podrán abrir tanto en ordenadores PC como Mac y estarán grabadas en formato DVD (datos informáticos). Para la correcta reproducción de los archivos de video y audio, se recomienda instalar en ordenadores PC el programa QUICKTIME. El material de ésta tesis, esta constituido por ficheros de vídeo en formato QUICKTIME MOV, y ficheros de audio en formato WAV. El programa QUICKTIME original de la firma APPLE se puede instalar también en equipos WINDOWS dirigiéndose a la pagina de soporte de APPLE y descargando la versión del programa correspondiente. El documento en formato electrónico de esta tesis, se guardará en formato PDF y se incluirán los discos DVDs con el “MATERIAL” para el correcto visionado de imagen y reproducción de audio. Debido a la compleja presentación de todo el material audiovisual, éste se divide en tres grandes bloques: VIDEO, AUDIO y PELICULAS que se encontrarán en discos DVDs como “MATERIAL 1 y MATERIAL 2” de la tesis. Las fotografías están incluidas directamente en el propio documento PDF de esta tesis, pero los archivos de VIDEO, AUDIO y PELICULAS, estarán representados por imágenes sustitutivas de los mismos e insertadas en las paginas del documento. Las carpetas de Video, audio y películas, representan los siguientes conceptos: �3 PELICULAS: Incluirán todos los clips de video que pertenecen a las tres películas a examen en esta tesis y exclusivamente a éstas. AUDIO: Todo aquel material que esta grabado en formato WAV y representan archivos exclusivamente de sonido y que se encuentran a su vez guardados dentro de los DVDs del material de esta tesis. Tanto el apartado PELICULAS como el de AUDIO se encontrará guardado en a carpeta MATERIAL 1. Dentro de esta misma carpeta encontraremos una version en PDF de esta tesis, bajo forma de documento electrónico. VIDEO: Todo material de video que no pertenece a ninguna de las tres películas de esta tesis y que podremos localizar en el DVD etiquetado como MATERIAL 2. Para poder entender correctamente este trabajo, durante la lectura de la tesis, siempre y cuando tengamos que relacionar el texto con un archivo perteneciente a la carpeta de “MATERIAL”, aparecerá entre paréntesis el código del archivo que tendremos que buscar de la siguiente forma: 1) En el caso de los VIDEOS en el texto de la tesis aparecerá el código (V). 2) En el caso de que el archivo sea solo de AUDIO, en el texto de la tesis aparecerá el código (A). 3) Y finalmente en el caso de los diferentes clips de las tres películas objeto de examen, aparecerá un código del numero de secuencia. Por ejemplo: Sec. 3 C.mov (secuencia numero 3, canal de sonido C central y .mov película). Además, en esta carpeta, se guardarán por cada película, los archivos fotográficos del análisis de sonido realizado con la aplicación �3 INSIGHT (ejemplo Sec. 3 C). Lo que diferenciará el clip de película, del archivo Insight correspondiente será la extensión .MOV exclusivo para el archivo de película. 4.1 Nomenclatura de los Archivos de Video Los archivos llevaran el nombre de V + Numero (donde V identifica que el material es un archivo de video, y el numero, a un sufijo que ordena el material). Se encuentran en una carpeta nombrada como: “VIDEOS”. Ejemplo: (V13). Además este código no solo aparecerá en el texto de la tesis, sino que irá referenciado también a un fotograma de video del material correspondiente que llevará emparejado el mismo nombre (V+ numero). 4.2 Nomenclatura de los Archivos de Audio Los archivos llevarán el nombre de A + Numero (donde A se refiere al archivo de audio y el numero, a un sufijo que ordena dicho material durante la exposición de este trabajo). Se encuentran en una carpeta nombrada como: “AUDIOS”. Además éste código irá referenciado también a un icono de sonido con su nombre correspondiente (A + numero). �3 4.3 Nomenclatura de los Archivos de películas Se encuentran en una carpeta nombrada como: “PELICULAS”. Los archivos estarán organizados en tres carpetas, cada una con el titulo de la película correspondiente Se ordenan por secuencias, cada una con un prefijo SEC seguido del numero de secuencia y con un sufijo .MOV. 5. Fundamentos teóricos En el cine todo lo que vemos está determinado en una gran medida por el sonido que le acompaña. Esto se puede comprobar fácilmente si bajamos deliberadamente el sonido del receptor del televisor y sustituimos dicho sonido por un material grabado de otra película, en otra situación distinta. Dicho sonido va a tener un peso esencial para la interpretación de la imagen y va a ser decisivo para entender la historia que se narra en fotogramas. Imaginemos la secuencia donde mucha gente corre detrás de un autobús en Piccadilly Circus mientras se escucha de fondo el sonido que hemos sustituido, donde unas ametralladoras llenan el espacio y la imagen. Muy probablemente nuestra interpretación será diferente si escuchamos el sonido original o si por el contrario escuchamos el sonido grabado de un material aleatorio como es el caso presente. En el mundo audiovisual la imagen es la que manda, es la que dirige la expresión artística, pero sin duda va muy ligada al sonido, a la música, o a los efectos. �3 El mundo sonoro cinematográfico existe desde hace 80 años, pero a pesar de ello, aún hoy en día utilizamos la expresión “ver una película”. El uso lingüístico, traiciona a veces el la importancia que tiene el sonido como elemento comunicador, ya que a veces se ve relegado a un segundo término. Afortunadamente esto no acontece siempre, pero aun hoy en día, existen lagunas y vacíos sobre los que nos movemos. Este vacío tiene que ver más con el elemento lingüístico cuando nos referimos al propio sonido cinematográfico porque realmente el cine, desde sus orígenes, nunca ha sido mudo. Incluso durante la época del cine mudo, el silencio total, frío, distante, y que hace que las figuras humanas proyectadas sobre la pantalla se semejen más a fantasmas o a sombras, que a verdaderas personas con historias y contenidos, históricamente ha sido algo que siempre se ha intentado evitar. Desde los primeros momentos se ha evitado éste efecto, con la utilización de la música, o de un narrador comentador (Voz en Off) . Incluso en los tiempos más recientes se ha comprobado el mismo fenómeno: si hoy existen las videocámaras portátiles con sonido incorporado, hace 20 o 30 años, las películas en formato super 8mm eran generalmente mudas. Nos podríamos imaginar a toda la familia reunida hoy en día en el salón de una casa, viendo en absoluto silencio la película muda de las vacaciones de verano? Muy seguramente no. Los propios participantes a la proyección casera hablan, comentan, explican las imágenes, y la película, que podía ser más o menos interesante, solo entonces, adquiere un significado y una importancia mucho más grande. Es decir, con este simple ejemplo, hemos descubierto como el sonido adquiere un protagonismo propio ya que añade una linea de información adicional que apoya en todo momento a la comprensión y entendimiento de la historia. Esto acontece gracias a la utilización de la palabra, de los comentarios, de los elementos sonoros que el propio público introduce durante la proyección. El sonido funciona en relación con la imagen. La �4 suma de una imagen con su sonido, produce un significado que es distinto al propio significado de la imagen sola, y al propio significado del sonido aisladamente. Podríamos decir que el sonido representa por si solo, ya el 50% de la expresión visual. Es decir, no 10 podemos concebir una producción audiovisual sin sonido que lo acompañe, ya que es el propio sonido el que dota a cada fotograma de profundidad, peso y realismo. Podemos imaginar de ver la siguiente imagen, una persona cae desplomada el suelo. La acción está acompañada por un disparo de pistola. El significado final se produce únicamente gracias a la suma de los dos elementos. Cuando aparecen en pantalla los dos elementos en su contexto audiovisual. La sinergia que se produce entre el espectador y lo que vemos en pantalla, va enriqueciendo la experiencia, las emociones y las sensaciones que se perciben transmitidas y aumentadas gracias a la ayuda del sonido, y del impacto que éste causa en el oyente. Es decir, la dimensión que el sonido añade a una imagen, es algo que debemos de tener en cuenta, ya que permite entender mejor la historia, valorar más a los protagonistas, ya que lo hace aportando información, documentación y significación. Así como la imagen adquiere un significado en relación con las imágenes que la preceden o siguen, cada imagen tiene significado en relación al sonido que la acompaña: esto queda demostrado a raíz de los experimentos realizados por el ruso Lev Kuleshov (Apéndice 1), uno de los más destacados investigadores de las técnicas de rodaje y montaje cinematográfico. He aquí, el efecto Kuleshov explicado por el propio Alfred Hitchcock. (V71). En el lenguaje cinematográfico, podemos tener el binomio imagen + imagen, o bien, el de imagen + sonido, que es la estructura básica de toda producción audiovisual. ALEXANDER, R.C. The Inventor of Estéreo—The Life and Works of Alan Dower Blumlein, Focal Press, 10 Oxford. 1999. El autor afirma que el poder del sonido es innegable ya que no solo acompaña la imagen permitiendo la coexistencia entre fotograma y audio, sino también ayuda a mejorar la comprensión y el entendimiento de la narrativa. de la película. �4 El sonido contribuye a impregnar de realismo cine, la representación de la realidad cuyo vehículo, la imagen, se enriquece de un segundo canal sensorial. Dicho sonido no tiene porque responder fielmente a la imagen, sino que puede jugar con ella, se puede desvincular del momento y del lugar, puede funcionar fuera de campo, puede anticipar el futuro, o puede regresar al pasado. El sonido puede moverse libremente por el continuo espacio tiempo, jugando con el espectador, ubicándose en un recuerdo, en un momento o en un lugar del futuro evocando una profecía autocumplida. La grandeza del sonido es su plasticidad y su poder de evocación. Robert Bresson , conocido cineasta francés, y exponente de una corriente artística 11 libre de todo artificio e indudablemente ascética, en su libro “Notas sobre el cinematógrafo”, expone la siguiente idea: el ojo en general es superficial, y el oído profundamente inventivo. El silbato de una locomotora imprime y crea en nuestra mente la visión de una entera estación.” Bresson, nos presenta un nuevo concepto de cine que denomina “cinematógrafo”. Este concepto busca las raíces originales del propio cine, como autopista de información, sin artificios ni segundas lecturas, apoyandose en imágenes, y sonidos para acentuar la fuerza narrativa que estos elementos tienen por sí BRESSON Robert, Notas Sobre El Cinematografo, Ardora Ediciones. Mexico D.F1997.: apoya la visión 11 de un cine menos encerrado en códigos internos, para abrirse a una narrativa mucho más visual y efectista. Por eso la ambientación sonora para él tiene una importancia capital en toda producción. V71 �4 solos. Creador de un estilo narrativo propio, Bresson acentúa entre otras cosas la importancia del elemento sonoro en el contexto narrativo, y en la evocación de emociones a través de sensaciones acústicas estéticamente puras y profundas. A modo de ejemplo, podemos hablar de algunas cintas cinematográficas muy significativas que se apoyan sin ningún tipo de dudas en la fuerza expresiva del sonido como elemento mediador entre el protagonista y el propio espectador. Al igual que la imagen, el sonido puede anticipar lo que va a ocurrir a continuación, o bien jugar a despistar al publico, llevándolo a otro momento y a otro lugar totalmente diferente. Un ejemplo de esto, lo tenemos en la película El silencio de los corderos, de 1991 dirigida por Jonathan Demme. En la secuencia cuando la policía rodea la casa del supuesto asesino en serie, la acción se desarrolla en dos momentos y lugares diferentes, que solo llegamos a descubrir cuando finalmente la acción prosigue con la entrada de los gendarmes en la casa, aunque solo al final descubrimos que lo hacen realmente en otro espacio y lugar, lejos del buscado en realidad. Este es el ritmo interno de la narración; más tarde se une una orquesta invisible: este es el sonido a nivel externo, donde la música retoma el tema con gran naturalidad expresiva. Como adelanto, aunque posteriormente volveremos a ello con más detalle, desde el punto de vista narrativo-sonoro, podemos diferenciar dos grandes bloques, que juegan con el concepto genérico del “sonido”, a través de una pautas y técnicas que hoy en día se utilizan para añadir un mayor valor y realismo a la imagen. Hablamos de lo que se denomina como sonido diegético, es decir aquello interno y perteneciente a la narración creada por la imagen (las palabras de los personajes, los sonidos ambientes, las músicas cuyo origen o cuya fuente está presente en la historia) y sonido no justificado o sonido extradiegético, que tiene como ejemplo más común la música como banda sonora externa a la narración. �4 El sonido cinematográfico, juega constantemente con estos dos elementos, dentro y fuera de campo, llegando a conferir a las películas un valor añadido, un marco propio de actuación que como se verá más adelante puede modificarse a voluntad. Este modelo, permite jugar con dos planos, uno centrado en la imagen donde acontece la acción, y otro fuera de ella, pero que es capaz sin duda de añadir información y emoción a la narración visual. Este nuevo concepto del sonido fuera de imagen, lo que hace es alargar y extender los confines de la propia pantalla, mucho más allá de sus límites físicos. Es decir, podemos franquear con libertad los márgenes preestablecidos audiovisuales, alcanzando una visión mucho más general y completa que permita abrirnos a un nuevo diagrama escénico libre de ataduras y limitaciones. Humphrey Bogart en la película “El gran sueño de Howard Hawks” de1945, de pié junto a un cadáver, se va acercando lentamente a la ventana. En ese preciso instante escuchamos sonidos diversos de trafico lejano y sirenas de policía. Aquí vemos una vez más, como el sonido permite extender los confines de la pantalla más allá de sus propios limites. Los sonidos crean imaginariamente el espacio de la metrópolis, y al mismo tiempo son capaces de transmitir toda la angustia del protagonista, de una forma estéticamente pura, sin artificios ni evocaciones musicales, pero apoyándose más en la autentica fuerza expresiva del sonido en asimismo. Otro ejemplo que nos lleva a identificar la tremenda fuerza narrativa que conlleva el sonido lo tenemos en la película, “M” de Fritz Lang 1931 (V2). Merece la pena analizar como el simple sonido de un silbido en este ejemplo diegético utilizado como pieza musical, del protagonista fuera de campo (una pieza del Peer Gynt de Grieg) es capaz de reforzar la penetrante y acosadora presencia del asesino, que ya ha puesto sus ojos en la siguiente víctima, una niña que camina por la calle observando los escaparates, sin percatarse de la terrible amenaza que la acecha. Esta secuencia se apoya mucho más en el poder expresivo de los sonidos que en el de la imagen. Nunca antes el sonido �4 diegético, había tenido tanto protagonismo y tanta fuerza. En el metraje se cuenta la historia de un asesino, un pederasta, asesino y despiadado. El éxito de este metraje, radica en asociar el protagonista acosador y asesino a un leit-motiv sonoro de carácter musical, provocando así en el publico una reacción sorprendente ya que la aparición de ésta sencilla e inofensiva música, produce una poderosa reacción en el espectador. El sonido confiere un aspecto aún más amenazante y terrorífico si cabe. Recordemos que esta técnica pionera en el montaje sonoro, va a ser utilizada posteriormente hasta nuestros días. Es un recurso poderoso que confiere una carga emocional enorme a la propia imagen. �4 El sonido también puede ser utilizado para marcar el paso del tiempo, una transición, un lapsus temporal, o bien el comienzo de un flashback. Uno de los ejemplos a mi juicio más bellos lo tenemos en la película “Casablanca” (Michael Curtis, 1943) (V3), en el flashback parisino, que se introduce con un cross-fade de imagen, con la aparición de la canción “As Time Goes By” realizada por el pianista Sam del Bar de Rick. En este ejemplo, lo verdaderamente importante, no es el tema musical, sino comprobar como la canción que ya habíamos escuchado con anterioridad en el transcurso de la historia, regresa internamente en el flashback, llenando la secuencia de una carga significativa emocional. Otro gran sector de sonido en el cine es aquel dominado por la música externa a la narración (música extradiegética). La música como elemento extradiegético de una 12 película tiene un valor muy especial. Si es utilizada como elemento externo a la imagen, no intenta contar una historia, como si lo hiciéramos a través de imágenes, ni tampoco le podemos conferir un carácter interno a la pantalla. Es un elemento externo, que permite transmitir al espectador una serie de claves o códigos que le permitirán paso a paso encontrar el sentido de la historia y de la narrativa que transmite la propia imagen. Es una estrategia auténtica en el discurso cinematográfico. En una película de suspense, la música crea un ambiente de angustia y miedo como por ejemplo sucede en la película de Stanley Kubrick “El resplandor” (V4) estrenada en 1980 con gran éxito en España. Éste es un buen ejemplo de tensión creada básicamente por la banda musical. La música nos indica cuando tenemos que llorar, cuando tenemos que hacer reír, y por supuesto en el cine hay bandas sonoras, y bandas sonoras. ALTEN, Stanley R., El manual del audio en los medios de comunicación, Escuela de Cine y Video, 12 Guipúzcoa, 1994. La música extradiegética es el elemento que subyace en la mayor parte de las cintas cinematográficas. Tiene dos puntos fuertes: el primero su fuerza indudablemente arrolladora para apoyar la imagen, y el segundo se apoya a través de la mezcla digital de sonido multicanal. �4 Uno de los ejemplos más notorios es la música compuesta por Bernard Hermann para la película “Psicosis ” de Alfred Hitchcock, 1960. La música en este caso, contribuye 13 poderosamente a enriquecer la narrativa audiovisual, a la vez que permite alcanzar altísimas cotas de calidad y complejidad. Cuando hablamos de la obra de Hitchcock, es prácticamente imposible no referirnos a su música, como elemento indispensable para comprender y valorar su obra. No olvidemos, como la banda sonora de una película, por sus características sonoras, belleza y plasticidad, puede llegar a ser más grande que la propia película, convirtiéndose en un clásico capaz de soportar el paso del tiempo y las costumbres. Una ultima consideración importante es la siguiente: La música contribuye a unificar en su totalidad el texto fílmico, instaurando una comunicación entre la relación imagen-sonido y el espectador, hasta el final de la proyección. Es decir, tanto en las buenas películas como en las películas de escasa calidad, la banda sonora intenta siempre y por todos los medios aumentar el valor de la Psicosis es el ejemplo de una producción low cost donde la productora Universal cedió solo la localización 13 donde se rodaría mas tarde la película gracias al dinero que el propio director Hitchcock invirtió a través de su productora privada. Los actores cobraron muy por debajo de su caché. �4 propia cinta, magnificando la historia y el recorrido narrativo de los personajes. Éste es el poder que tiene el sonido aunque se debe de utilizar siempre de forma correcta y segura, ya que no hay nada como un “mal sonido” para destrozar la imagen y aniquilar la magia de la historia. Hay películas que no se tendrían la misma fuerza expresiva si no fuese por la propia banda sonora, efectos, música etc. Es el caso de una cinta emblemática del cine de todos los tiempos, que sigue conservando todo su original esplendor. En el siguiente ejemplo, podemos comprobar la secuencia de la ducha, de la película de Hitchcock (V5), y descubrir la diferencia que existe entre utilizar una banda musical que añade fuerza, dramatismo y tensión o dejar la secuencia desnuda de todo instrumento musical acompañándola exclusivamente de efectos y ambientes. Indudablemente, no existe comparación posible entre estas dos secuencias míticas del cine universal. Nadie se puede imaginar la imagen sin que la acompañemos por las ráfagas musicales de violines estridentes y penetrantes, ya que es la música la que añade un carácter especial a cada gesto del asesino, a cada mirada y movimiento de la actriz, convirtiéndose en un concepto que es imposible desligar en sus componentes. Podríamos incluso llegar a decir que la imagen es el sonido y el sonido es la imagen. �4 Es indudablemente sorprendente como el sonido pueda identificarse tanto con una determinada película, y que esa relación sea tan profunda y tan marcada para provocar la misma reacción en el inconsciente colectivo, y ademas que esta relación-acción se convierta en algo atemporal y a-cultural. Todo lo anteriormente expuesto, y que sirve como simple botón de muestra para enfatizar la innegable importancia del sonido en la narrativa audiovisual, pretende exponer al lector mi innegable interés hacia este campo, que a su vez es y ha sido mi autentica vocación profesional.Hace algunos años colaborando con la empresa de George Lucas “Lucas Arts” , escuché una frase pronunciada por boca del propio director americano. 14 Esta frase era la siguiente: el sonido representa el 50% de una producción. Hoy en día sigo creyendo firmemente en esta realidad, y es por ello, que en mi presente tesis, voy a analizar la presencia sonora dentro de la representación artística cinematográfica. Durante mis 25 años de experiencia en el cine, he podido constatar como el sonido se utiliza como elemento dinamizador capaz de completar el diálogo mismo de los personajes y la información que en él se transmite. Una película mediocre con un sonido Lucas Arts, es la empresa creada por George Lucas para el mundo del entretenimiento a través de los 14 videojuegos. Fruto de la exitosa saga de la Guerra de las Galaxias fue el desarrollo de los posteriores juegos con el mismo titulo y otros más que han sido considerados referentes históricos en la industria del video juego. Logotipo de la Compañía �4 mediocre, da como resultado una película también mediocre, pero en el caso contrario, es decir, una película mediocre con un gran sonido, produce un resultado muy diferente. Nos asombraríamos si nos diéramos cuenta como el sonido, la música, es capaz de dar ritmo a una secuencia pesada y larga, o como los efectos de sonido engrandecen espectacularmente lo que se está proyectando en la pantalla, aunque lo que se vea no esté a la altura del propio sonido que lo acompaña. En su sentido más amplio, el término “comunicación” , se utiliza para indicar un 15 intercambio de información y que de hecho existe y se da en nuestro mundo real, en los distintos planos, desde los organismos unicelulares, animales, máquinas hasta en los seres humanos. Este concepto ha sido el foco de atención de muchos investigadores de todo el mundo. La comunicación es una palabra que encierra una serie de significandos que se dan en terrenos tan diversos como la etnología, psicología, antropología, y que muchos expertos como son por ejemplo de E. Buyssens (1967), Darwin (1879), E. Goffman (1959), M. McLuhan (1962), P.H. Grice (1967), J. Searle (1969), D. I. Slobin (1971), W. D. Hamilton (1975), R. Jakobson (1963), han intentado analizar y estudiar. Sorprendentemente, mientras que las áreas más específicas del campo verbal, visual y corporal han gozado de mucho interés, como lo demuestra el gran número de estudios, por el contrario, la investigación y la reflexión sobre el sonido y la música en general, no han sido objeto de un gran número de estudios sistemáticos y completos, y por lo tanto todavía no se ha creado para este tema un área de estudio o se ha desarrollado una escuela de pensamiento. En la comunicación se da un proceso doble; por un lado encontramos lo que se denomina como fuente emisora, responsable del OUTPUT informativo, y del otro encontramos al receptor, responsable del INPUT AMYES, T., Técnicas de postproducción de audio en video y film, IORTV, Madrid, 1992. Afirma la idea 15 general que el sonido es importante en la construcción de la narrativa fílmica y que su fuerza es tan grande y poderosa que en ocasiones puede relegar en un segundo plano incluso la propia imagen. �5 originado por el primero. Este intercambio de información, no es casual, no es simplemente perceptual-cognitivo, sino que va mas allá de las reglas formales de interacción social. En resumidas palabras, el cine se trasforma también en un elemento de intercambio activo de información, siempre y cuando tengamos en cuenta la siguiente consideración: Una película, cualquier película, es un producto de la comunicación, pero de una comunicación unidireccional, de un solo sentido y que excluye toda posibilidad de diálogo con el interlocutor (donde el diálogo se entiende como la capacidad que tiene tanto el emisor como el receptor, de tratar y manipular el mismo tema informativo, con la misma fuerza e intensidad.). El cine en general, por el contrario, es un ejemplo típico de la comunicación interrumpida entre el emisor (cinta cinematográfica) y el receptor (público). El usuario, representa la mitad de esta relación emisor-receptor, cuya lengua y cuya construcción están exclusivamente en manos del emisor, que también es el único depositario de la posibilidad de decidir sobre el calendario, métodos empleados en el canal de comunicación, y lugar y tiempo de la proyección. En el cine, encontramos un lenguaje específico con sus códigos y sus modos particulares de escritura, un lenguaje nuevo y totalmente independiente de otros más antiguos y más populares.
 �5 6. Objeto de la Tesis “La función expresiva del sonido en la narración cinematográfica: nuevas tendencias, nuevas técnicas y nuevos recursos”. Esta tesis trata sobre el sonido y su expresión en el mundo cinematográfico. Pretendo analizar como se utilizan los diálogos, los efectos de sonido, los ambientes o colchones sonoros, y las músicas a través de ejemplos concretos. Estudiar de qué modo se utiliza el sonido para transmitir emociones, sentimientos, etc. En cine existen técnicas para diseñar y crear un contexto de comunicación con el público a través de muchos factores. Si hablamos de imagen, podemos referirnos a la técnica del montaje, al ritmo de las secuencias, a la expresividad de los actores, a la técnica de iluminación empleada, a la intensidad del guión, a la fuerza del color, etc. Pero si hablamos de sonido, penetramos en un mundo mucho más sutil donde lo consciente, y lo inconsciente, se mezclan y se entrelazan para formar un segundo canal de información, que va a añadir fuerza y presencia al diálogo verbal de los personajes y actores. Comunicar, es sin duda el objetivo principal que tiene el sonido en una producción cinematográfica. Descubriremos cómo se utiliza, cual es la técnica empleada, y la intencionalidad que el director y el montador desean para una determinada secuencia. Esto es lo que hoy en día se denomina como diseño de sonido de una película. Si hablamos de sonido como fuente de comunicación, estamos obligados a descubrir primero qué es y qué elementos lo conforman. Solo conociendo la naturaleza del sonido seremos capaces de profundizar en su comportamiento y formas de expresión. �5 6.1 Elementos que integran el sonido cinematográfico Diálogos Efectos Ambientes Músicas Para comprender la técnica sonora hay que entender cómo se desarrolla, cuáles son sus raíces y cuales son las herramientas que emplea. Para ello, haré un análisis del desarrollo histórico del sonido en el cine, para ver como las distintas técnicas empleadas, han sido utilizadas a lo largo de los años, y para estudiar como éstas han impactado en la comunicación cinematográfica. Intentaré descubrir si la comunicación y lenguaje sonoro empleado, tiene una relación directa con el país o continente de origen, es decir, con su cultura, así como con el periodo histórico en el que se vive. Por eso, esta tesis se va centrar en el análisis de tres películas, tres largometrajes pertenecientes a tres zonas diferentes y tres culturas opuestas, en un periodo de 5 años aproximadamente, del 2000 al 2004. 6.2 Largometrajes objeto de análisis Deseando amar (2000). Director Wong Kan-Wai Pais: Honk Kong (V6) Lee mis labios (2001). Director Jaques Audiard. Pais Francia (V7) Olvídate de mi (2004). Director Michael Gondry. Pais Estados Unidos. (V8) �5 6.3 Software de análisis sonoro 6.3.1 Protools El trabajo de la presente tesis, es eminentemente técnico y práctico, porque se apoya en herramientas informáticas para analizar el sonido y sus características. Utilizaré el sistema de audio digital Protools (Apéndice 3), líder en el mercado en el sector de la postproducción de sonido tanto en Estados Unidos, como en Europa, u Oriente. Con esta herramienta avanzada de audio, se han podido preparar las diferentes muestras de video con audio embebido en formato 5.1 y adaptarlas para su posterior exhibición ante el tribunal de la Facultad de Ciencias de la Información de la Universidad Complutense de Madrid. Protools no solamente es líder en el sector audiovisual 16 mundial, sino que también permite trabajar con una plataforma abierta capaz de importar sesiones y proyectos realizados bajo otras diferentes plataformas (Windows). Es el sistema mas utilizado en todo el mundo para la edición y postproducción de audio para cine. 16 Pro Tools 12 es la nueva y mas potente versión de este programa que multiplica por 10 el flujo y la calidad del trabajo. El sistema posee una arquitectura basada en 64 Bits y un nuevo y revolucionario procesador DSP. Logotipo Protools �5 6.3.2 Izotope Insight Considero que esta herramienta es fundamental ya que me permite de forma visual ver y cuantificar el sonido en sus diversos componentes. Para ello utilizaré un plugin denominado IZOTOPE INSIGHT, (Apéndice 6) de gran potencia y fiabilidad. Por 17 supuesto, explicaré detalladamente cómo funciona el sistema Protools, y el plugin IZOTOPE INSIGHT, para poder entender perfectamente el resultado de cada análisis sonoro y la información que podemos rescatar de esta poderosa herramienta informática. Los sonidos se pueden analizar a través de diferentes conceptos, como por ejemplo su volumen, su intensidad, su repetitividad, su frecuencia etc. Además dichos sonidos van a impactar directamente en las emociones del público, del espectador. Van a añadir más información a la que ya visualmente percibimos. No solamente esto es así, Izotope es una empresa americana líder en la creación de plugins para estaciones digitales de audio. Hoy 17 por hoy es un referente tanto en el campo musical como en la postproducción cinematográfica de sonido. Pantalla Programa Izotope Insight �5 sino que la elección de un determinado efecto de sonido, de un determinado ambiente, o la transformación de un sonido en otro diferente, van a tener resultados significativos en el contexto de la comunicación audiovisual. Dicho análisis, va a centrarse entonces, en dos aspectos importantes: Aspecto Físico Aspecto Emocional 6.4 Análisis físico del Sonido Aquí es donde utilizaremos las herramientas informáticas para analizar las cualidades de las fuentes sonoras de la película. Para ello utilizaremos los sistemas 18 anteriormente mencionados y buscaremos de darle un sentido a algo que es eminentemente técnico y práctico, ya que el director y el montador de sonido a través de la técnica que emplean, pueden influir directamente sobre las reacciones, y las emociones del público. Desde este punto de vista teórico, y técnico, pasaremos a estudiar los siguientes elementos que conforman el sonido propiamente dicho: RAKERD, B., and Hartmann, W.M. Localization of Sound in Rooms, II: The Effects of a Single Reflecting 18 Surface,” J. Acoust. Soc. Am., 78,1985: la localización física de un sonido en un determinado espacio, siempre produce alteraciones en la percepción del volumen, el tono y el color de ese mismo sonido. �5 Intensidad o volumen. Explicación del concepto de volumen o decibelio empleado por 19 el técnico de sonido. Frecuencia de un sonido. Estudio y explicación del termino informático y de su impacto en el montaje. Timbre. Haremos hincapié en el “color” de un sonido, en sus armónicos y en el efecto emocional que añade a la banda sonora. Campo Sonoro. Aquí es donde hablaremos del uso de pistas multicanal y de los distintos formatos utilizados hoy en día en la industria cinematográfica.20 Repetitividad. Técnica empleada para la transmisión de ideas, emociones, conceptos o para fijar elementos sonoros en el espectro dimensional auditivo .21 Sonido diegético versus extradiegético. Utilización de fuentes sonoras fuera del campo visual, o perteneciente a éste. Ya tratamos este tema en un capítulo anterior. 6.5 Análisis emocional - cognitivo del sonido Durante el proceso de montaje y creación de la banda sonora cinematográfica, hay que tener en cuenta, que el técnico de sonido, emplea importantes recursos técnicos y ALLISON, R.F. The Influence of Room Boundaries on Loudspeaker Power Output. J. Audio Eng. Soc., 22, 19 1974. El autor afirma que la propia estructura y conformación de un local o espacio, influye directamente en la percepción sonora y en su propagación espacial. CROMPTON, T.W.J.The Subjective Performance of Various Quadraphonic Matrix Systems,” BBC 20 Research Department Report No. BBC RD 1974/29, 1974: el formato cuadrafónico de sonido fue uno de los primeros utilizados en la industria cinematográfica americana (La guerra de las Galaxias de George Lucas) siendo sustituido más tarde por otros formatos de mayor potencia y calidad. (SR y SRD) HANSEN, V., and Madsen, E.R. On Aural Phase Detection,” J. Audio Eng. Soc., 22, 1974 pp. 10–14: 21 Denominamos rango audible a todo el espacio de frecuencias que percibe el oído humano (de 20 Hz a 20 Khz). Con la edad perdemos audición, sobre todo la perdida en las frecuencias agudas. �5 psicológicos, para poder transmitir en cada momento la emoción necesaria y así lograr impactar en el público con mayor fuerza y trascendencia. Además el tecnico utiliza todos los recursos que tiene a su alcance para transmitir un complejo entramado de emociones y sentimientos que entrelazan a los diferentes personajes y que permiten dotar a la historia personal de cada uno de profundidad, contenido cuyo devenir tendrá lugar a lo largo de la proyección. A través del sonido damos sentido a las emociones de los diferentes personajes, en sintonía con sus caracteres y de como éste se desarrolla a lo largo de la acción e interactúa con los diferentes elementos y objetos de la trama audiovisual. Como técnico de sonido especializado en cine y video, he de decir que existen todas una serie de técnicas empleadas para conseguir una reacción emocional en el público y además la intensidad con la que queremos impactar. No olvidemos que el cine es sinónimo de sensaciones y emociones, y que éstas se suceden de forma escalonada, y ordenada, ya que el objetivo del director es crear sensaciones en el espectador y provocar reacciones en el publico. Por ejemplo, aquellos efectos de sonido cuyas frecuencias se mueven entre los 20Hz y los 150Hz se denominan efectos LFE o de baja frecuencia (low frequency effects) y producen desplazamiento físico de objeto, cuando son emitidos con gran amplitud. Esto produce un gran impacto emocional en el espectador, ya que se tiene la sensación de que el sonido toca físicamente al espectador. La narrativa, ha sido un tema profundamente estudiado y analizado por muchos sectores profesionales como el de la filosofía, la sociología y fundamentalmente el cine y las artes audiovisuales en general. El interés por la narrativa tiene como objetivo estudiar cómo surgen y se desarrollan, las distintas reglas de comunicación que los diferentes medios utilizan y cómo estos diferentes medios pueden transmitir relatos. Esto es un aspecto fundamental en la relación cine-espectador ya que no solo dicha narrativa debe �5 mantener unos criterios formales y funcionales sino también tiene que llegar con éxito al receptor, para que éste lo descodifique y entienda el mensaje mostrado. Hay psicólogos que asumen que la capacidad de dominar o de saber expresar cualitativamente bien los conceptos que maneja la narrativa son parte de lo que se denomina inteligencia general. En el apartado del cine narrativo, diremos que aquí el concepto que se maneja se refiere a cómo las audiencias se comprometen con la información y se integran en el mismo devenir de la acción audiovisual obteniendo por así decirlo una completa sincronización o mimetización con el medio por el que se difunde. La narrativa como elemento aglutinador de la trama audiovisual se entiende como una secuencia de acontecimientos, organizados en el espacio y en el tiempo, teniendo en cuenta que las acciones que se originan, tienen un porque y un motivo, desde el punto de vista causa-efecto. Para analizar las emociones, se utilizan métodos que consisten generalmente en buscar posibles descripciones a esas mismas emociones (adjetivos, sustantivos etc) ya que éstas se manifiestan en la obra audiovisual, referenciadas siempre a un código de tiempo (TC), para su mejor categorización y clasificación. En ése caso nos basamos en las descripciones tal y como se muestran en la investigación de Ortony, Clore & Collins , 22 sobre la estructura de la emoción y sus características. Éste es un buen método si queremos clasificar y analizar las emociones que percibimos y como éstas mutan y evolucionan a lo largo del metraje audiovisual. Por ejemplo, 'regocijo' podría ser indicativo de un personaje que experimenta alegría, y "alarmado" podría ser indicativo de un personaje que experimenta miedo. Ortony A., Clore G. L. and Collins A. The Cognitive Structure of Emotions. Cambridge University Press, 22 1988. Proponen la creación de una estructura verbal básica para la clasificación de emociones y sentimientos. De esta forma la evaluación de las emociones es posible realizarla con cierta estructura estable y predecible. �5 El objetivo era crear listas de palabras clave relacionadas semánticamente agrupados en torno a las palabras utilizadas para referirse a los tipos de emocione, por ejemplo, miedo, alegría, esperanza, etc. 6.5.1 Estructura Cognitiva de las emociones Para organizar los conceptos que explican o definen las principales emociones nos 23 basaremos en una conceptualización básica de los mismos, con la terminología siguiente: Conceptos bipolares semánticos: Hermoso/Bonito Feo/horroroso Agradable/armonioso Desagradable/no armónico Tonal Atonal Minimalista Barroco/recargado Opaco Brillante Sencillo Complejo Ritmico No ritmico Profundo Superficial Emotivo No emotivo Cercano Distante �6 7. Hipótesis de trabajo Mi hipótesis de trabajo trata de comparar tres formas de hacer sonido dentro del cine contemporáneo: europeo, americano, y oriental. Quiero analizar si estas tres culturas utilizan los mismos mecanismos tanto físicos como emocionales para conseguir, la respuesta o reacciones deseadas en el público. Es decir, mi interés se centra en saber, o descubrir, a través de tres ejemplos de cine contemporáneo, si la forma de utilizar y de trabajar el sonido, se parecen en mayor o menor medida, si utilizan los mismos recursos físicos de sonido, y los mismos objetivos emocionales, que hemos esbozado anteriormente, o por el contrario, si nos encontramos ante tres formas diferentes de hacer cine, y con cualidades o estereotipos distintos y significativos. He tenido en cuenta, el momento histórico temporal en el que analizo esas películas. Es decir, el momento histórico al que pertenecen. Por eso, he escogido tres ejemplos cinematográficos que se mueven, en una horquilla aproximada de 5 años. Cada momento de la historia, tiene un impacto decisivo en la cultura predominante. Veremos pues, si esta cultura, influye en la expresión cinematográfica de un país o zona determinada. �6 8. La cultura cinematográfica europea, oriental y norteamericana 8.1 El cine europeo Como en aquella acertada campaña publicitaria contra el racismo de “Todos iguales, todos diferentes” el mundo del cine se articula y expresa de manera distinta y diversa según la historia, la cultura y la idiosincrasia de los distintos continentes y países que lo conforman. Puede que las emociones y sentimientos sean universales pero cómo narrarlas y transmitirlas en un lenguaje visual y sonoro, cinematográfico, nos lleva a mantener la idea en este estudio detallado y sincrónico, de que en lineas generales, el Cine Europeo en cuanto al sonido se refiere, se expresa de una manera sencilla y real, al servicio de historias aparentemente a veces muy cotidianas, y en cuyo desarrollo el sonido acompaña y da soporte a la narrativa visual sin invadirla. En el Cine Oriental, donde las historias van desde las tradiciones vitales más ancestrales a las más tecnológicas y vanguardistas, con unos recursos narrativos complejos, el tratamiento sonoro, es en la mayor parte de los casos desnudo, minimalista, desprovisto de todo ornamento innecesario. Si el sonido del cine europeo “acompaña”, el del cine oriental es como un fino entramado que sustenta y apuntala lo que se cuenta en imágenes. �6 El Cine Norteamericano es en cuanto se refiere al tratamiento sonoro en la mayor parte de sus producciones, un espectáculo lleno de efectos especiales, florituras, calidad y potencia, algo así como un gran exhibición de fuegos artificiales en un fin de fiesta. No solo “acompaña”, no solo “sostiene” sino que acentúa y realza de manera vigorosa las imágenes que nos ofrece la pantalla. Centrándonos en nuestro primer objetivo de análisis, que es el desarrollo cultural y tecnológico del cine europeo, hay que resaltar que a veces se olvida de que estrictamente es en “el viejo Continente, “ y más concretamente en la Exposición de París de 1900, donde se exhibieron una serie de cortos sobre escenas de óperas, ballet y teatro, que estaban sonorizados con un complejo sistema a base de cilindros, un sistema eso si, lleno de dificultades y deficiencias que hacían imposible un progreso comercial y masivo del cine sonoro. Pero el cine mudo agonizaba y el sonido llegaba para quedarse definitivamente, eso a pesar de que el critico ruso Viktor Shklovsky afirmara con rotundidad, que lo del cine hablado era tan poco necesario como las palabras lo serían para un libro de canto. Más clarividente y acertado estuvo el director ruso Sergei Eisenstein , que como gran 24 teórico del cine, intuyó como la unión entre el sonido y la imagen harían posible que el llamado “Séptimo Arte “adquiriera un enorme poder económico, social y cultural, pudiendo traspasar todo tipo de fronteras. Eisenstein que había realizado una obra maestra del cine mudo (El Acorazado Potemkin en 1925) filmó su primera obra sonora “Alexander Nevsky” en 1938 con música de Prokófiev. Desde el principio ejerció sobre el una atracción especial la técnica del teatro del Kabuki que tuvo su 24 origen durante el siglo XVI caracterizado por el uso de los colores y el sonido, con ritmos espaciados y armoniosos.  Sergei Eisenstein es conocido como el gran creador de El acorazado Potemkin (1925); Octubre (1927); Alexander Nevsky (1938): e Iván el terrible. �6 Desde los años 30 en adelante, la mayoría de los países europeos tuvieron ya sus primeras y homologadas películas sonoras, avaladas con buenas críticas. Así ocurrió en Alemania con “El Angél azul” de Josep Von Stenberg, ó “M” de Fritz Lang. En Francia la comedia musical “Le Million” de Rene Clair y más adelante “L´Atalante” de Jean Vigo,se unieron a las filmografías de otros países de menor entidad de producción como Polonia, Bélgica é Italia, entre otros. Durante la Segunda Guerra Mundial y la época de la postguerra, el cine vivió años de precariedad y sobresaltos de todo tipo. En la Italia de Mussolini, aunque se edificaron los Estudios de Cinecittá (1937) y comenzó a editarse la revista “Blanco y Negro” especializada en cine, la calidad de la producción bajó mucho a causa de la censura fascista -periodo llamado de las camisas negras y los teléfonos blancos- de tal modo que no interesó ni tan siquiera al público local. Algo similar sucedió en la Alemania de los nazis, que crearon, afiliada al Ministerio de Propaganda de Goebbels, la Cámara Sindical de Cinematografía. Ensalzar el nacionalismo y la supremacía de la raza aria, más la múltiple producción de operetas insulsas, hizo inútil la gran cantidad de películas filmadas en una docena de años. Algo más de 1.300 títulos relegados al olvido, ó a la mera curiosidad de la época en la que fueron realizados; quizás la excepción sea en los últimos años, el rescate de la guionista y directora del régimen nazi, Leni Riefenstahl, con documentales como “Olimpiada” (1938), que narra el desarrollo de los juegos olímpicos de 1936 celebrados en Berlín bajo el poder de Hitler. La mayoría de los más notables directores y actores alemanes de origen judío, tuvieron que emigrar y refugiarse en países tan lejanos para ellos como Estados Unidos, enriqueciendo sin duda las venideras producciones norteamericanas. En Francia, foco central europeo de la cultura y la creación en muchos ordenes, también pasó factura la Segunda Guerra Mundial y sus años posteriores. El cine, como todo lo �6 demás,estuvo sumido en el caos, pero eso no afecto a la creatividad del producto y buena prueba de ello es la película de Marcel Carné, “Los niños del paraíso”, realizada en 1945 bajo la ocupación de los nazis. La Cinemateca Francesa fue creada en 1936 y ya contenía la futurista idea del cine, como auténtico vehículo del arte y la cultura, de la sociedad en suma, y por lo tanto un contenido y un soporte, susceptible de ser preservado y protegido para las generaciones futuras. Había que conservar películas que por su factura ó por lo que contaban, podían ser historia viva del pasado. Paralelamente a lo ocurrido en Alemania, también en Francia gran cantidad de actores y directores tuvieron que iniciar el éxodo hacia tierra de Hollywood. La partida de nombres como Jean Renoir, Michéle Morgan .o Charles Boyer entre otros, empobrecieron el panorama del cine galo, que además tuvo que lidiar con la propaganda y el control de los nazis. Existía una censura y sin embargo, como tantas veces ha ocurrido, de las dificultades surgieron películas como “Los visitantes de la noche” de Marcel Carné y de la Resistencia Francesa títulos notables:”La Batalla del Riel” ó “La Liberación de París”. Naturalmente las épocas obscuras y difíciles con grandes carencias económicas no habían pasado por completo, pero a pesar de todo en 1946 se celebra el primer Festival de Cine en la ciudad de Cannes. Y mientras tanto cabe preguntarse,¿ qué ocurría con el cine español en estos años decisivos de la historia europea?. Pues también como en otros países europeos, “fuga de cerebros” a otras tierras. Es el caso de Benito Perojo, Edgard Neville ó Jardiél Poncela. Hay en España una clara inadaptación al cine sonoro y eso hace que la industria se colapse durante algunos años. Los estudios Cinematográfica española y Americana (CEA), se crean en 1934 y por esas fechas se funda también, la que primero fuera distribuidora y luego productora “CIFESA: Compañía Industrial Film Español Sociedad Anónima. �6 Son los años dorados de películas de contenido racial y folklórico, rodadas ocasionalmente en Roma ó Berlín: “Morena Clara”, “Carmen la de Triana” ó “Nobleza baturra” todas ellas con el común denominador de una excepcional pareja sentimental y artística, la del director y actor, Florián Rey y la actriz y cantante, Imperio Argentina, con la que llegó a rodar 14 películas. En 1933, surge en opinión de muchas voces autorizadas, la nefasta iniciativa de fundar “El Consejo de la Cinematografía”, organismo que hizo obligatorio el doblaje al castellano de las películas extranjeras, algo que ha marcado y en muchos casos estancado, el devenir de la industria del cine español hasta nuestros días. El cineasta aragonés, Luis Buñuel, rueda en la década de los 30, su documental etnográfico, “Las Hurdes”, dura crítica contra la pobreza y el aislamiento de una región española. Durante la dictadura de Franco se crea “La Junta Superior de Censura Cinematográfica”, cuyo proceder iba más allá de la estricta censura y se extendía a la propagación y exaltación de los valores patrios del franquismo y a la protección del cine nacional, eso si, solo del bando ganador de la guerra. Los “nacionales” requisaron y quemaron millares de cajas, que contenían grabaciones anteriores a la guerra civil. En España, la década de los 40 y parte de los 50 tras la guerra civil fueron años de duros controles para la creatividad. Se controlaban guiones, doblaje, publicidad. Para complementar este desolado panorama, en 1942 comienza a emitirse el NODO, noticiario español y del mundo, hecho a la medida de las ideas fascistas que reinaban en el país. Es en estos años cuando se ruedan películas “supuestamente históricas”, como “Los últimos de Filipinas” del director Antonio Román, “Raza” de Jose Luis Sáenz de Heredia ó “A mí la Legión” del director Juan de Orduña. También a los años 40 pertenecen producciones muy exitosas, con títulos como “Locura de amor” y “Malvaloca”, esta última de 1942, año en que se filmó la versión sonora de “La Aldea Maldita”. �6 “Malvaloca” basada en una obra del mismo título de los hermanos Alvarez Quintero, contó con el elenco mas espectacular de la época: Amparo Rivelles, Alfredo Mayo y Manuel Luna. A este torrente de películas hechas al gusto del espectador y del Régimen, hay que sumar honrosas excepciones, cual fue el film de Rafaél Gil, “Huella de Luz”, una comedia con un interesante planteamiento de critica social. Tras la devastación de la Segunda Guerra Mundial y la huella fascista de “ Il Duce”, Italia se dispone a dar al mundo cinematográfico, una forma nueva de ver la realidad en el celuloide. Esa nueva visión de lo que nos rodea, desembocaría en el llamado “movimiento neorrealista”. Son historias de una inmersión total y descarnada en las realidades cotidianas de la vida, en los problemas de la gente en el día a día, narrados sin contemplaciones ni paños calientes. Eso es lo que hace Vittorio de Sica en “El Limpiabotas” y en “El ladrón de bicicletas”. Con el paso de los años, el neorrealismo italiano va sumando otras aportaciones estéticas, hay por así decirlo, más poesía visual. Luchino Visconti, reflexiona sobre la historia de su país y las sociedades decadentes, en una de las mayores obras maestras del cine, por su fotografía, ambientación y diálogos, ”Il gattopardo” (1963) a la que seguiría más tarde (1973) “Muerte en Venecia”. Visconti pone a su historia veneciana, una banda sonora que enmarca de manera elegante y profunda lo que quiere transmitir. La 5ª Sinfonía de Mahler acompaña las ansias y sueños de su protagonista Gustav, también su tristeza por la juventud perdida. Gustav, contempla desde lejos la belleza pura y andrógina del otro personaje protagonista: el joven Tadzio. “La belleza no hace feliz al que la posee, sino a quien puede amarla y adorarla” (Herman Hesse). A este nuevo cine italiano, Federico Fellini, que desde el principio había participado en el neorrealismo, le da sin embargo un toque personal y onírico. Sus obras más �6 representativas van desde “La Strada” (1954) y “La Dolce vita”(1958), hasta “Ocho y medio”(1962) para desembocar en “Amarcord” (1973). Su mundo excesivo y personal ha acuñado incluso un término cultural lo “felliniano”. Posteriormente el cine italiano deriva a una época más juguetona y divertida, es el momento de la comedia con carácter social y que tiene títulos como “Pan, amor y fantasía”(1953) de Luigi Comencini y “Divorcio a la italiana” (1961). Algunos directores importantes en la historia del celuloide, cual es el caso de Pier Paolo Pasolini, bebieron en sus inicios del neorrealismo en obras como “El Evangelio según San Mateo” (1964), lo mismo que Antonioni en “Crónica de un amor” rodada en blanco y negro y “El desierto rojo” ya en color (1964). Ya en los años 70 y 80, siguen los clásicos como Fellini, Antonioni y Pasolini produciendo títulos y se incorporan otros nombres con otras temáticas y preocupaciones como es la realidad política del país. Los hermanos Taviani, hacen una critica cruenta y sangrante contra la tiranía de los que mandan en “Padre Padrone” (1973). Conviene no olvidar a Ettore Scola con películas que han pasado a la historia: “Una jornada particular” (1977), con nominaciones a los Oscar para Marcello Mastroianni como mejor actor y a la propia cinta, como “mejor película en lengua extranjera”. “Humor amargo” de Scola, que cuenta y describe la visita de Hitler a la Roma de Mussolini. Pero sin duda el nombre más relevante de estos años es el de Bernardo Bertolluci. De su talento nace “El Conformista” (1971) y un poco mas tarde (1976) su obra maestra “Novecento”, que a día de hoy no ha perdido un solo gramo de interés. “Novecento” no ha envejecido, sigue fresca en su forma y contenido. Dos mundos opuestos, dos formas de encarar la existencia: uno representado por el campesino que encarna Gerard Depardieu y el otro, el del terrateniente que interpreta Robert de Niro. En “Novecento” recurriendo a los clásicos, “ Nada de lo humano me es ajeno” porque lo mejor y lo peor del hombre está representado en esta genial película. �6 Sello italiano lleva también el éxito nostálgico de “Cinema Paradiso” (1989) de Giuseppe Tornatore y por supuesto Roberto Benigni, que con “La vida es bella” (1997) rompió récords de taquilla en Italia. La película está basada en el libro “He derrotado a Hitler”, que escribió el judío italiano, Rubino Rome Salmoni. Tres Oscar alcanzó “La vida es bella” ademas de premios Cesar y Goya, este último a “la mejor película europea”. El cine de autor, de gran calidad, de peso especifico en lo artístico durante los años 50 y 60 lo representa Francia. Lo representa además desde perspectivas muy diferentes, porque hay cineastas que desde una gran libertad y humor personal, pero con gran éxito comercial, llegan de manera muy directa al público; es el caso de Jacques Tati y sus dos filmes más representativos: “Las vacaciones de Monsieur Hulot” y “Mi tío” del año 1958, y precisamente ese mismo año de 1958 entran en escena una pléyade de directores de un movimiento denominado “Nouvelle vague”. Todos ellos quieren hacer películas sencillas, austeras, con toques teatrales, con un cierto carácter literario y donde ese contenido cultural se vea reflejado en lo formal. Poco dinero en el presupuesto, sonido y fotografía de una gran sobriedad, ningún reparo a rodar en exteriores y a la improvisación. La “nueva ola” del cine francés tampoco tenía ningún inconveniente en incorporar actores y actrices desconocidos (Jean Claude Brialy, Jean Paul Belmondo,Charles Aznavour, Marie Dubois,Jeanne Moreau, Caterine Deneueve, Marie Laforet…). Algo que les distingue es que en su mayoría, vienen de el sector de la crítica cinematográfica. Agrupados en torno a la revista “Cahiers du Cinéma”, reivindican que lo más importante y primordial de una obra de cine es sin duda el director, ya que es él, y solamente él, quien imprime el carácter y el estilo a una película. Aunque pudiera parecer en principio contradictorio, los componentes de la “nouvelle vague” apoyaron el cine comercial, pero con sello de autor que venía de estados �6 Unidos (Alfred Hitchcock, John Ford…) Era una manera más, de confirmarse en el axioma de la importancia vital del director, que va más allá de cualquier presión de los grandes estudios y productores norteamericanos. A los planos intimistas, “travellings” y “picados”, se une en el terreno del sonido un nuevo aparato: el magnetófono, que hace florecer el sonido directo. También se incorpora como un recurso estético y narrativo la “voz en off”. Los más representativos directores de esta nueva corriente del cine son: Louis Malle, François Truffaut, Alain Resnais, Claude Chabrol, Jean-Luc Godard, y Eric Rohmer, entre otros y no podemos olvidar que algunos de ellos tuvieron su fuente de inspiración en “Diario de un cura de campaña” (1950) de Robert Bresson. Después de la Segunda guerra mundial, las cinematografías europeas, y en particular la francesa, se reafirmaron en sus particularidades culturales y en la protección y subvenciones, como las que llevo a cabo Malraux en el cine francés y que le han hecho un ejemplo a seguir. Hay nombres, momentos y filmes de la “nouvelle vague”, que merecen que nos detengamos para ahondar un poco en ellos. Françoise Truffaut nació en 1932 y trató toda su vida de transmitir el amor que sentía por el cine, amor que plasmó en filmes como “La noche americana”, “cine dentro del cine” que fue galardonado con el Oscar a la mejor película en lengua no inglesa en 1973. El niño Truffaut, tuvo una infancia difícil y triste. No conoció a su padre,intentó suicidarse en su juventud y desertó del Servicio Militar lo que le llevó a prisión. La desgraciada historia de su vida se reflejo en varias películas, en parte autobiográficas. La primera y más importante fue “ Los 400 golpes” (1959); como Truffaut, el protagonista es un niño de 12 años que se encuentra solo en la vida, sin amor familiar, sin amigos y cuyo destino es un internado para chicos con problemas de conducta. Posteriormente ese niño, fue creciendo y apareció en otras películas del director como parte de su autobiografía. El �7 festival de Cannes, premió en 1959 “Los 400 golpes” y este hecho unido a la proyección de “Hiroshima mon amour” De Resnais y la Palma de Oro a “Orfeo Negro”, constituyen el momento de la total aceptación del la “nouvelle vague”. El director galo admiraba profundamente a Alfred Hitchcock, para él, era “el mejor director del mundo” y esa admiración por el rey del suspense, llevó a Truffaut a dedicarle el libro “ El cine según Hitchcock”, sobre el cual se hizo en 2015 un documental dirigido por Kent Jones, que narra la conversación mantenida por ambos directores. Esa entrevista cambió, según algunas voces autorizadas, la historia del cine. Martin Scorsese reconoció que esa charla le llevó a conocer los secretos del séptimo arte. No fue tan afortunada la relación de Truffaut con algunos de sus coetáneos franceses. Godard dijo de él, que no sabía hacer películas, solo contar historias suyas ó de otros. Le llegó a tachar de ser “un usurpador” y le menospreció por trabajar como actor en películas norteamericanas. Ese feroz crítico, llamado Jean-Luc Godard, ganó con su primera película “ “Al final de la espada”, el Oso de Plata de Berlín (1959) protagonizada por Jean-Paul Belmondo y sin duda fue el realizador de esa “nueva ola” mas arriesgado y experimental en su manera de narrar historias. “Al final de la escapada”, si bien es un homenaje a los filmes de gánsters americanos, tiene una mirada distinta, muy europea. Hay un lenguaje fílmico metanarrativo, no hay ninguna preocupación por el “raccord” y el sonido directo pareciera no estar cuidado. Es “puro y duro” cine de autor, en el que más importante que lo que se narra, es como se narra. Pasados los años al inconformista Godard, le pareció que “Al final de la escapada” era una película que no le gustaba, y sin embargo, fue el único éxito de público que tuvo en su carrera como director; allí estuvo de co-guionista junto Godard, Truffaut, y de operador de cámara Chabrol, un trio clásico de la “nouvelle vague”. �7 Alain Resnais desparecido en 2014, a los 91 años de edad, fue un director que filmó la intimidad y los sentimientos, que trató la distancia que muchas veces existe entre la vida y las emociones. Sus grandes temas son: el tiempo, la memoria y las relaciones humanas. Su primer largo “Hiroshima, mon amour”, basado en un guión de Marguerite Durás, fue una obra revolucionaria en su estética por el uso de la narración no lineal. Le siguió otra obra maestra: “El año pasado en Marienbad” (1961). Su cine más político reúne títulos como “Muriel” (1963) ó “La guerra ha terminado”. El actor francés Pier Arditi dijo después de su muerte: “ Nada se parece menos a una película de Resnais, que otra película de Resnais…”. Estrenada en Francia unos meses después de su fallecimiento, “Amar, beber, y cantar” resultó ser su obra póstuma, recibiendo el Premio Adolf Bauer en el Festival de Berlín. Alain Resnais conocido como “el cineasta del tiempo”, forma parte ya de ese tiempo de los grandes maestros del cine europeo. Ya en los años 70 directores de la “nouvelle vague” como Louis Malle siguen dando pruebas de su talento en obras como “Lacombe Lucien” (1974) no solo en Francia, sino en Estados Unidos, donde rueda dos notables películas: “ La pequeña” y “Atlantic City”. De nuevo en Francia, el hombre al que había perseguido la palabra “escándalo” y “escandaloso”por recurrir al tema del sexo (Los amantes,Herida…), nos ofrece un bellísimo retrato cálido y humano de la época de la Ocupación, lo que le valió el León de Oro en Venecia. Francia sigue dando muestras de su vitalidad en el cine europeo con directores como Bertrand Tavernier (La muerte en directo, Hoy empieza todo, Salvoconducto, En el centro de la tormenta…). Actualmente hay realizadores como Artaud Desplechin, heredero de aquella “nueva ola” que nos ofrece una obra tan madura y hermosa como “Tres recuerdos de mi juventud” (2015), porque a una “nueva ola” siempre le sucede otra. �7 En paralelo a el movimiento francés de la “nouvelle vague”, en el Reino Unido también existen unas enormes ganas de libertad y renovación, desean un cine apegado a la realidad y en eso se sienten muy identificados con el cine francés. Es así como nace el “free cinema” en el barrio londinense del Soho, representado fundamentalmente por tres nombres: Lindsay Anderson, Karel Reisz y Tony Richardson. Frente a estos “jóvenes airados”, hay un título y un director precursores de este movimiento cinematográfico; estamos hablando de Jack Clayton y su film “Un lugar en la cumbre”. Si la “nueva ola” francesa estuvo ligada en sus comienzos a la revista “Cahiers du Cinema”, el movimiento del cine libre británico lo está a otra revista de la Universidad de Oxford: “Sequence”, donde colaboraron los futuros representantes del “free cinema”. Todas las películas de este grupo de creadores se fijan fundamentalmente en los conflictos laborales de una clase trabajadora y desplazada, respetando la jerga del idioma popular, ahondando en los conflictos sociales con gentes que se comportan de manera cruel y brutal y que no encuentran su lugar en la sociedad. A todos estos argumentos y problemas responden títulos como “La soledad del corredor de fondo” de Tony Richardson, que además en 1963, logró 4 Oscars por “Tom Jones”, “Sábado noche, domingo mañana” (1960) de Karel Reisz ó “El ingenuo salvaje” de Lindsay Anderson, ganadora de la Palma de Oro en Cannes. Conviene no olvidar una vena humorística y disparatada en directores como Richard Lester y su obra mas divertida, el documental “Que noche la de aquel día” basada en los Beatles, génesis del denominado “cine pop”. En lo referente a los actores y actrices de este “free cinema” hay nombres unidos a todas estas películas (Dick Bogarde, Julie Christie, Albert Finney, Richard Harris, Vanesa Redgrave…) �7 En años posteriores la ideología y creatividad de “los jóvenes airados” daría lugar al un realismo cinematográfico encarnado en nombres como los de Kean Loach ó Stephen Frears, que han logrado notable repercusión a nivel mundial. Las adaptaciones al cine de obras de Shakespeare, a cargo de Laurence Olivier, se producen en la misma época del “free cinema” y lo mismo ocurrencia superproducciones bélicas como “El puente sobre el río Kwai” (1957) ó la legendaria “Lawrence de Arabia” ambas del director David Lean. También tuvieron notable éxito las películas de terror. Basta recordar títulos como “La maldición de Frankenstein” (1957) y “Drácula” (1958) las dos de Terence Fisher. La “escuela nórdica” y más concretamente Suecia, ha dado al mundo del cine uno de los nombres para la historia . Un creador eterno y universal llamado Ingmar Bergman. Nacido en Uppsala en 1918, fue hijo de un estricto pastor protestante y sometido a una férrea disciplina educativa en su niñez. Estudió Literatura e Historia del Arte en la Universidad de Estocolmo y comenzó dirigiendo teatro universitario. Su primer éxito en el cine le llegó con “ Sonrisas de una noche de verano”(1956). Bergman fue un artista que dio enorme importancia a las cuestiones plásticas. Sus imágenes son cuadros en movimiento, cuadros en blanco y negro y sus grandes temas y preocupaciones, plasmada en la pantalla, fueron el amor y la muerte, con diálogos densos y tono metafísico. En 1956, una de sus mejores obras: “El séptimo sello” bucea en la relación del hombre con Dios y la muerte, en “Fresas salvajes” (1957) en cambio hace una recreación del mundo infantil, y la obra donde más explora en el universo del sonido y la básica es “Persona” (1966). Ingmar Bergman fue galardonado con todos los premios posibles de la Cinematografía (Venecia, Berlín, Hollywood, Cannes…). Su última película como director de cine fue “Fanny y Alexander” (1982), una obra vitalista y alegre en la que se puede �7 identificar al niño Alexander, con el adulto Bergman. El mismo confesó, “Soy un niño. Ya lo dije una vez: toda mi vida creativa proviene de mi niñez. Y emocionalmente soy un crío. La razón por la que a la gente le gusta lo que hago o hacía, es porque soy un niño y les hablo como un niño”. Después de Fanny y Alexander, Bergman dedicó su talento al teatro y las series de televisión. El cine nórdico tuvo en el danés Carl Theodor Dreyer, otra gran figura para la historia del celuloide. Brilló como guionista y director y aunque vivió hasta los 81 años, fue un hombre poco prolífico, ya que tan solo realizó 14 películas. Dreyer, construyó un cine sobrio, siempre en blanco y negro. Entre sus mejores obras cabe destacar, “Ordet”,” La Pasión de Juana de Arco”, “Dies Irae”, ó “Gertrud”. Quienes han estudiado su cine observan una cierta influencia de escritores como Hans Christian Andersen y el filósofo Kierkegaard. Años más tarde otro compatriota suyo, Lars Von Trier , cofundador y componente 25 del movimiento “Dogma” filmaría un guión de Dreyer “Medea” (1985). Lars von Trier es 26 en la actualidad uno de los más reconocidos y prestigiosos cineastas europeos, autor de películas como “Rompiendo las olas” (1996) y “Bailar en la oscuridad” (2000). Después del nazismo, el cine alemán entró en una profunda crisis creativa y comercial. Solo a partir de 1962 en que un grupo de directores firma el llamado “Manifiesto de Oberhausen”, que reclamaba libertad para expresarse en un nuevo lenguaje cinematográfico y que concluía con la tajante afirmación de ”El viejo cine ha Lars von Trier se caracteriza por ser uno de los precursores de la corriente Dogma, que se caracteriza por 25 buscar las raíces básicas y elementales del cine, eliminando de raíz todo lo que tenga que ver con efectos especiales.”Rompiendo las olas” fué la película que más significativamente ha marcado su trayectoria profesional. Dogma 95 esta compuesto por una serie de cineastas que en la primavera de 1995 presentaron una serie 26 de reglas, conocidas como “el voto de castidad” y que tenían como objeto luchar contra cierras tendencias del cine actual (algunas de esas reglas eran por ejemplo: realizar el rodaje en exteriores,utilizar siempre sonido directo, prescindiendo de la música excepto si esta suena en el momento de la escena que se rueda, la película debe ser en color y sin iluminación especial, el director no aparece en los créditos …) �7 muerto. Creemos el nuevo”, surgen una serie de cineastas que han renovado en parte la industria y le han devuelto su antiguo brillo. Hablamos de gente como Werner Herzog, que filma paisajes naturales impresionantes, situaciones y personajes exóticos e incluso estrambóticos y que hace una reflexión sobre la soledad y la vida en situaciones extremas. Todo eso queda plasmado en su película más popular, “Aguirre, la cólera de Dios” (1972), con un maravilloso Klaus Kinski, encarnando el papel del conquistador español Lope de Aguirre en pleno Amazonas. Wim Wenders, tiene también títulos interesantes en su carrera como ”El amigo americano”, “París, Texas” ó “El cielo sobre Berlín”. Sin embargo y pese a su temprana muerte, cuando solo contaba 36 años, el director más destacado con 43 películas fué Rainer Werner Fassbinder. Un maravilloso “contador” de historias a través de una cámara de cine, un personaje indómito, homosexual, anarquista, genial y cáustico .27 Su filmografía está llena de perdedores, de hombres sin voluntad y que son explotados por la sociedad y la familia. La mujer tuvo un indudable protagonismo en sus películas, (Lili Marlen”, “El matrimonio de María Braun”, “ Las amargas lágrimas de Petra von Kant”, “La ansiedad de Veronica Voss”…) Las amaba y a la vez las describía con gran crudeza, incluso crueldad. En el documental italiano de 1997 “Las mujeres de Fassbinder” el propio director dice: “ Las 28 mujeres, como los demás miembros oprimidos de la sociedad, tiene que realizar acciones bajas e inmorales para sobrevivir, lo que explica el tipo de opresión a la que están sometidas”. Hanna Schygulla, una de sus actrices fetiche afirma de él. “ No creo que a Fassbinder le gustara vivir en un mundo sin mujeres, y eso es para mí lo que significaba Una de sus muchas frases para la historia fue: “ Ya dormiré cuando esté muerto”.27 Dirigido por Alessandro Colizzi y Silvia Cossu28 �7 misoginia. Él sentía ternura por las mujeres, pero también era capaz de desarrollar ferocidad hacia ellas”. Otros interesantes títulos de su obra son: “ El amor es más frío que la muerte “(1969), “Todos no llamamos Alí “ (1973), profunda y emotiva reflexión sobre el racismo ó “Querelle” (1982). En los años 50 el cine español se debatía entre dos generaciones de cineastas, que tenían una distinta manera de hacer cine e incluso de ver la vida. Por un lado estaban los directores de cine ya consagrados que defendían las películas del franquismo y post- franquismo, con grandes puestas en escena, de temática religiosa, histórica, folclórica etc, donde triunfaban Antonio Molina, Carmen Sevilla o Sara Montiel; en la otra vía se situaban los cineastas recién salidos del Instituto de Investigaciones y Experiencias Cinematográficas (Carlos Saura, Jose Luis García Berlanga, Juan Antonio Bardem, Jose Luis Borau…) que abogaban por un cine critico y apegado a los temas sociales, un cine en buena parte influenciado por movimientos europeos como el neorrealismo italiano. En 1951 el director Nieves Conde sorprendía con su película “Surcos” y un año después el cine español se apuntaba un éxito internacional: “Bienvenido Mr Marshall”, bajo la dirección de Jose Luis García Berlanga. A esta película le sucederían títulos como “Placido” (1956), “El verdugo” (1963), 29 “La escopeta nacional” (1977) ó “La vaquilla” (1985). Su cine de planos-secuencia y de interpretaciones corales, está lleno de mordacidad, ironía, y ácida sátira y reflejan la tradicional picaresca española. Mientras en Salamanca se reunían diversos estamentos del cine para mantener conversaciones entre antiguos y nuevos directores, sin mucho éxito en las propuestas, Primer largometraje donde comienza a colaborar en los guiones con Rafael Azcona. Esa colaboración 29 siguió con “El verdugo” y otros muchos títulos de Berlanga �7 ese mismo año de 1955, Juan Antonio Bardem recibía el Premio Internacional de la Critica en el Festival de Cannes por “Muerte de un ciclista” .30 En ese mismo año de 1955, el director húngaro, afincado en España, Ladislao Vadja, estrena con enorme éxito popular “Marcelino, pan y vino” y comienza así la moda de los llamados “niños prodigio” que interpretaban, cantaban y bailaban, recordemos nombres como los de : Joselito, Marisol, Rocío Dúrcal… Junto a este cine de consumo para el gran público, en los años 60 toma forma lo que se denominó “el nuevo cine español”, con nombres que provenían en gran parte del IIEC. . es el caso de Manuel Summers, Antonio Mercero, Jose Luis Borau, Miguel Picazo, 31 Vicente Aranda, Basilio Martín Patino,Carlos Saura, Gonzalo Suárez, Fernando Fernán Gómez, Mario Camus….En Barcelona paralelamente se desarrolló una cinematografía muy experimental y atrevida, a veces difícil de comprender, en esa linea destacó Ricardo Muñoz Suay. En la década de los 70, conviven el llamado cine “del destape”,el “landismo” y el 32 “spaghetti western” de Almería, con otro cine de más profundo calado artístico y proyección internacional . Se rueda en 1973 “La Prima Angélica” y en 1975 “Cría cuervos” ambas de Carlos Saura, y Victor Erice realiza en 1973 “El espíritu de la colmena”. Uno de los grandes de nuestro cine, Luis Buñuel regresa a España en los 70 para rodar “Tristana”. Conviene detenerse en la figura del director aragonés Luis Buñuel y lo que supuso para la proyección internacional de nuestro cine. La fuerza y expresividad de sus imágenes surrealistas, sus fetichismos sexuales, su obsesión por lo religioso, la crítica feroz a la burguesía, todo eso unido a una personalidad irrepetible han dado películas que En España, sin embargo la censura franquísta la calificó de “gravemente peligrosa”30 Instituto de Investigaciones y Experiencias Cinematográficas31 Término acuñado para designar las películas protagonizadas por Alfredo Landa, durante una etapa de su 32 vida y en las que destacaron directores como : Mariano Ozores. Pedro Lazaga y Luis María Delgado. �7 pasaron a la historia del cine internacional: “Ese oscuro objeto del deseo” , “Viridiana”, “El 33 ángel exterminador”, “Bella de día” El cine español en los últimos años ha cosechado reconocimiento y respeto en todo el mundo. Sus actores, realizadores y técnicos, obtienen reconocimiento no solo en Europa sino en la poderosa industria norteamericana. Los Oscar recibidos por Jose Luis Garcí “Volver a empezar”, (1982), Fernando Trueba “Belle époque” (1992). Pedro Almodóvar “Todo sobre mi madre” (1999) y Alejandro Amenábar “ Mar adentro” (2004), se unen a nombres tan interesantes y valorados como : Bigas Luna, Juanma bajo Ulloa, Julio Médem, Álex de la Iglesia , Fernando León de Aranóa, Manuel Gomez Pereira, Imanol 34 Uribe y tantos otros, que cosechan éxito é interés con un cine, que parte de lo propio y familiar de los universos conocidos, para llegar a otros públicos alejados teóricamente de esos mundos. Las mujeres en el actual cine español, aportan incesantemente interesantes nombres y películas. Si en los años 50 y 60 la excepción la marcaban nombres, como los de la intérprete, directora y productora Ana Mariscal , hoy hay una pléyade de 35 realizadoras, algunas como Icíar Bollaín que vienen del mundo de la interpretación; 36 otras como Gracia Querejeta vinculadas a la obra de su padre Eliás Querejeta, productor de referencia para el cine europeo y pilar fundamental en la carrera de directores como Carlos Saura. Por último destacar otro nombre de mujer: el de la catalana Isabel Coixet : “Cosas que nunca te dije” (1996),, “La vida secreta de las palabras” (2005), “Mi vida sin (1977) es la última película que dirigió Buñuel y que fue distinguida con el Premio Especial del Festival de 33 Cine de San Sebastián. Nace en Bilbao, en 1965. Director de cine español. A pesar de estudiar Filosofia en Deusto, dirigió sus 34 pasos hacia el cine y el cómic. Debutó en el cine con el corto Mama, de Pablo Berger, y posteriormente con la película Todo por la pasta, dirigida por Enrique Urbizu en 1990. Fundó en 1952 la productora “Bosco Films” y como directora destaca su película “El Camino”, basada en 35 la novela homónima de Miguel Delibes. Trabajó a las ordenes directores como Victor Erice, Jose Luis Borau o Ken Loach y esta considerada 36 como una de las directoras de cine mas interesantes y personales de nuestro cine. �7 mí “ (2003) ó “Mapa de los sonidos de Tokio” (2009), película que optó a los premios Goya al mejor sonido ese mismo año. Para Isabel Coixet: “La banda sonora de mis películas es para mí un protagonista más, como la luz, el paisaje, los movimientos de cámara, ó el trabajo de los actores…” En el continente europeo, subyacen tantas maneras de ver y hacer cine, como países lo componen. Para algunos eso conlleva una “pretendida fragilidad” de producción, realización o exhibición. A mi modo de ver, es todo lo contrario: la diversidad cultural artística y social de todos los estados europeos, tiene como resultado un cine único e irrepetible, rico en sus distintas miradas, permeable a diferentes culturas por los fenómenos migratorios y que sin embargo conserva su propia idiosincracia porque no puede sustraerse a siglos de historia y de distintos pueblos, culturas e idiomas. Europa no es “el viejo continente del cine”, es un antiguo conglomerado de pueblos que han aportado lo mejor de cada uno de ellos, para contar sus historias a través del celuloide. Naturalmente toda cara tiene su cruz. La importancia que Europa da a los creadores y a sus ideas, el respeto casi reverencial al cine de autor y mensaje, puede llevar al escaso interés del público y a convertirlo por lo tanto en un reducto accesible solo para unos pocos. Ese conocido “cliché” de que el cine europeo es un cine para minorías selectas. Para expandirse y crecer, Europa debe tener la conciencia clara y precisa de que el cine, es además de un vehículo cultural y social, un negocio. En ese sentido las ayudas, subvenciones y proteccionismo, que algunos países dan a su cinematografía, no les ayuda mucho a tratar de obtener un producto, que en taquilla rentabilice lo invertido en la producción, porque se fía y confía en exceso en el dinero público. El cine europeo es sabido que carece de grandes productoras de películas. En una abrumadora mayoría, las compañías no suelen hacer más de una producción anual y �8 desde luego eso tiene también una consecuencia nefasta: la del grave problema de distribución. Existe una “Unión Europea”, que sin embargo no ayuda a los productores europeos a poder negociar y enfrentarse con el poderío económico de los distribuidores norteamericanos. Con todo y con eso, Europa y sus películas son tan válidas en su concepto y argumentos, que no son pocas las producciones europeas que tiene su versión estadounidense. De la película de Alejandro Amenábar “Abre los ojos” (1997) surge “Vanilla Sky” (2001); de la sueca “Déjame entrar” (2008), una película con el mismo título realizada en 2010, y con una diferencia muy sustancial: la versión sueca costó 3´3 millones de dólares, la estadounidense 20 millones. Uno de los últimos ejemplos es “Millenium” (2009) que tiene su correspondencia en la “Millenium” americana (2011). Con dinero “se puede hacer casi todo”, pero sin ideas “no se puede hacer casi nada” y como dice, Juan Orellana : “el resultado de la adaptación suele ser peor que el 37 original”. Profesor de narrativa Audiovisual de la Universidad CEU-San Pablo37 �8 8.2 El cine Oriental “ Llegó la primavera un camino pequeño donde incluso el sonido del viento puede ser oído”. Este “haiku” , compuesto por la poetisa japonesa Masajo Suzuki, es una buena muestra 38 de lo que es y supone el cine y su tratamiento sonoro en el país oriental con más poderío y proyección internacional: Japón. Su cine, exótico en decorados y vestuario, desconcertante en sus planteamientos morales y sociales y muy llamativo para el espectador de Occidente por sus códigos de conducta, muy alejados de los nuestros, fue una industria muy poderosa en los años 50, tuvo luego un periodo en que no llegaban las producciones de manera masiva y en la actualidad, vive un gran resurgimiento con el cine de animación, de terror y de autor. Siempre se ha repetido hasta la saciedad que el país nipón ha estado al igual que China, sumido en del aislamiento cultural, vuelto sobre si mismo, impermeable a otras influencias y culturas. Es por eso quizás, que para nosotros también el cine oriental y en concreto el japonés está lleno de enigmas, de claves y simbolismo que a a veces nos es difícil descifrar. Sus imágenes, argumentos y el sonido que lo acompañan, incluso en momentos narrativos épicos, suelen tener un halo de intimidad y misterio que nos desconciertan. Es un cine que como un kimono tradicional se compone de muchas capas y pliegues de tejido. Tiene una combinación sutil de crueldad, quietud y pasión controlada, pero en una ebullición constante. Eso sin olvidar que les encanta también copiar lo ajeno, Poema breve japonés, compuesto generalmente por versos de 5 y 7 sílabas y que generalmente tratan de 38 la contemplación de la naturaleza. �8 que se mimetizan con extrema facilidad, aunque paradójicamente, cuando uno ve cine oriental siempre queda fascinado por su concepción del cine: delicada, lejana, llena de signos. A diferencia de otros países del lejano Oriente, Japón cuenta con una tradición cinematográfica muy fuerte y poderosa, con estudios de producción, distribución y exhibición como Nikkatsu, Shochiku, Toho, Daiei, y ya después en la postguerra mundial el estudio Toei. El cine japonés no se entendería ni fuera ni dentro del país sin la legendaria figura del director Akira Kurosawa, que tuvo su primer éxito internacional en el festival de Venecia en 1951 con “Rashomon”. Kurosawa al que llamaban “el Emperador” que por cierto, descendía de auténticos samurais, fue un director como muchos de los grandes, con un carácter difícil y sumamente perfeccionista y que tenía la capacidad de transmitir más allá de su país y su cultura, la simple mirada del ser humano universal con sus miserias, eso es lo que refleja ese gran film llamado “Vivir” (1952). Vendría luego en su filmografía, uno de sus títulos más universales “Los siete samurais” (1959), película dos veces copiada por Hollywood . En 1961 “Yojimbo” es sin 39 duda un autentico “western a la japonesa” en su planteamiento argumental. Un samurai, llega a un pequeño pueblo en el que están enfrentados dos familias o clanes. Con un estupendo desenlace final, “El emperador Kurosawa” rueda “El infierno del odio” (1963), cinta llena de sorpresas y giros, además de acertadas reflexiones sobre la justicia. En 1975, recibe el Oscar a la Mejor Película de habla no inglesa por “Dersu Urzala”, donde un explorador del ejercito ruso perdido en Siberia, es ayudado a sobrevivir por un cazador nómada con el que aprende además otro modo de vida. Akira Kurosawa tuvo el privilegio de seguir dirigiendo siendo ya un anciano y cuando parecía que el genio había llegado a su fin, se reinventó con “Ran”, que estrenó “Los siete magníficos” de John Sturges y “Mercenario” de Sergio Leone39 �8 cuando contaba 75 años. Basada en la obra de Shakespeare “El rey Lear”, fue por así decirlo, el “broche de oro” a una carrera única. Uno de los directores que más ambientó sus películas en el medievo japonés, fue Kenji MIzoguchi. Nacido en Tokio, su obra estuvo claramente influenciada por su hermana que era geisha, y eso se deja traslucir en la seducción femenina y la vida cortesana de estas mujeres al servicio de los hombres; todo ese trasfondo está en títulos como “Vida de Oharu, una mujer galante” (1952), “Cuentos de la luna pálida de Agosto” (1953), “la Emperatriz Yang-Kwei” y su ultima obra rodada en 1956, “La calle de la vergüenza”, que si bien no está ambientada en el Japón medieval, sigue abordando el tema de las mujeres de la noche y los ambientes marginales. Son mujeres fatales que llevan a los hombres a la perdición. En Mizoguchi pesa mucho en el aspecto formal su pasado como ilustrador, cada fotograma por si solo, tiene un fuerte sentido pictórico. Teinosuke Kinugasa, al igual que Mizoguchi, Kurosawa y otros muchos nombres forman parte de la edad de oro del cine nipón . Kinugasa vuelve temática y 40 formalmente a las películas ambientadas en la época “Jidaigeki” . Cuidada y bella 41 fotografía para su mejor película, “La puerta del infierno” (1954), un cuento de honor familiar de enorme hermosura estética y profundidad en sus reflexiones filosóficas. Después de esos “años dorados” el cine japonés empezó a llegar de manera muy aislada a Occidente. Excepcionalmente triunfa Shohei Imamura, que en 1983, recibe la Palma de Oro en Cannes por “ La balada de Narayama” . Está película dura, cruel 42 desgarradora, con unos hermosos parajes naturales, en cierta manera desoladores, tiene en sus sonidos “el colchón” sonoro que la historia necesita ( el viento que silba, el crepitar Los años 5040 Periódo Edo (1603-1868). Dentro del género Jidaigeki, existe un subgénero denominado “Chambara”, 41 acción protagonizado por samurais En 1958, Keisuke Kinoshita, realizó la primera versión de “La balada de Narayama”42 �8 de las llamas y de las ramas en la nieve ..). Todo está en perfecta sincronía para narrar una vida rural, primitiva y llena de miseria, que obliga ritualmente al “senecticidio”, es decir al abandono a su suerte de los ancianos en la montaña de Narayama, hasta que mueran de frío ó a causa de las fieras. En 1976, causa cierto escándalo y estupor una película que contiene escenas pornográficas explícitas, pero de un enorme contenido y reflexión sobre el sexo entre una pareja: se trata del “Imperio de los sentidos” y su director es Nagisa Oshima. La cinta explora la relación de una pareja de amantes, llevada hasta el extremo en el amor y en el sexo, un sexo donde a veces se confunde el dolor con el placer. El argumento esta basado en un hecho real, acaecido en Japón en los años 30. El cine erótico japonés ha creado en la actualidad un genero en si mismo denominado “Pink Film”. Estas películas “pinku eiga” (nombre en japonés) vendrían a traducirse como “películas rosa”, ya que este color como en otros países del mundo tiene en Japón un sentido erótico y sexual. Al contrario que en el cine porno europeo ó americano, en que el el argumento prácticamente no existe, las “Pink Film” niponas, contienen una historia y exploran diversos temas sociales, son ademas producciones muy cuidadas a nivel estético. Sin duda choca con nuestra visión del sexo, la ultra-utilización que se lleva a cabo con respecto a la mujer en el porno japonés. Se las somete a todo tipo de torturas y vejaciones, a prácticas sadomasoquistas y para los hombres son como muñecas hinchables .43 El gran estudio japonés Nikkatsu, realizó varias de estas producciones, cuyo tema eran ademas de forma monográfica y obsesiva, las monjas y profanaciones religiosas, salpicadas curiosamente de citas religiosas de la Biblia, el Corán ó la Torá. El film “Hana to hebi” (1974) de Masaru Komuna, se utiliza por primera vez el enema para vejar el cuerpo 43 femenino. �8 Siempre ha existido en Japón una extrema censura para que se pudieran exhibir los genitales en las películas. Durante muchos años no se podían ver, penes ni vaginas. Aparecían pixelados, envueltos en niebla, ó el director debía hacer la toma de manera que un jarrón o cualquier otro objeto impidiese la visión directa de los genitales; eso hizo que las películas porno japonesas fueran únicas en el mundo y también logró que la creatividad de los guionistas y directores contra la férrea censura, creara todo tipo de alternativas y juego sexuales para mantener la atención del espectador. En 1994 se abolió la ley que prohibía la exhibición del vello púbico .44 Actualmente triunfa el “Hentai”, un subgénero de la animación japonesa de un muy explícito contenido pornográfico (zoofília, violaciones, incesto…). El “yaoi” es un subgénero del “Hentai” que trata de relaciones homosexuales entre hombres, entre mujeres se denomina “yuri”. Otra de las aportaciones del cine japonés es el llamado género “Anime”, cine de animación, que tiene una enorme importancia y repercusión en el país y que es a la vez una fuente de entretenimiento y una poderosa industria a nivel comercial y cultural. El “Anime” es un cine dirigido a todos los públicos que toma muchas de sus argumentos de los “manga” japoneses . Generalmente y hasta ahora se producían los dibujos a mano, 45 pero en los últimos tiempos, la animación por ordenadores se ha generalizado. La estética de los dibujos del “Anime”, al igual que los del “manga” tienen una serie de características en común: ojos grandes, que pueden ser de muchos colores, nariz respingona y pelo y vestuario que puede ser muy característico y que sirve para definir e identificar al personaje y sus comportamientos. “Ai no shinsekai” (1994) de Takahashi Baumei, fue la primera película porno japonesa con un desnudo 44 integral sin censurar Manga: Historias gráficas de dibujos de tema muy variado y dirigido tanto al público infantil como al adulto45 �8 Uno de los realizadores más significativos del “Anime” es Hayao Miyazaki, excelente dibujante y ávido lector de los autores occidentales, que han influido luego en su manera de contar las historias. Formó parte del equipo de dibujo de “Nippon Animatión”, compañía de series míticas como “Heidi” ó “Conan, el chico del futuro. Más adelante en el estudio Ghibli, comienza a dirigir largometrajes, “La aprendiz de bruja” (1989), “Porco Rosso” (1992) y su obra más ambiciosa y dura, tanto que estuvo punto de retirarle del cine, “La princesa Mononoke” (1997). A su regreso, con total entusiasmo, fuerza y nuevas ideas, recibe el Oscar a la Mejor Película de Animación (2002) por “El viaje de Chihiro”. Su última cinta estrenada es “El viento se levanta” en 2013, que ha sido la cinta más taquillera en 46 Japón ese año, recaudando 119 millones de dólares. Otros directores interesantes del género “Anime” son: Mamoru Oshij con “Ghost in the Shell” (1995) e Hideaki Anno, “Neon Génesis Evangelion” (1995). Cuando en 1954 Ishiro Honda se da a conocer con su película “Gozdilla” se inaugura por así decirlo, un nuevo género en el cine del Lejano Oriente: el Kaiju, ó lo que es lo mismo, el cine protagonizado por monstruos. Cine de ciencia-ficción, donde proliferan bestias sacadas del imaginario oriental, o llegadas del espacio. El nacimiento de “Godzilla” se debe a la imaginación del productor Tomoyaki Tanaka, que hizo surgir de las profundidades del mar un monstruo prehistórico, que era consecuencia de las armas nucleares empleadas contra Japón en la Segunda Guerra Mundial. Importante en el éxito del proyecto, fue también el compositor Akira Ifukube, que además de la banda sonora, ideó el inconfundible rugido de “Gozdilla”. El título procede de un poema de Paúl Valéry: “¡El viento se levanta…./ hay que intentar vivir…!46 �8 La bestia legendaria llegó a Estados Unidos y en 1961 se enfrentaría en el 47 celuloide con el mono gigante King-Kong, en una nueva película “kaiju”: “King-Kong contra Godzilla”. Desde la película original de Honda en 1954 a “Gozdilla Final Wars” de Rihuel Kitamura en 2004, ha habido 29 largometrajes que ha protagonizado el monstruo de las profundidades. Los estudios Toho, habían creado a “Gozdilla”, pero pronto salieron competidores, como el monstruo “Gilala” de la compañía Nikkatsu y su más duro competidor, “Gamera”, la tortuga gigante, más bonachona que “Godzilla” y que creó el estudio Diaei. El gusto por la ciencia-ficción se extendió a otros países orientales y dio lugar a anécdotas como la producción en la Corea de los años 60, de este tipo de cinematografía, por ejemplo, “Yongary, monster from the Deep” ( Kim ki-Duk, 1969). Otro dato curioso es la película producida por Corea del Norte en 1985 “ Pulgasari”, en la que intervino activamente el dictador comunista, Kim Jong II; se dice incluso, que el protagonista es una versión más joven de King Jong II. Las películas de terror japonesas ha acuñado también un término propio; el “J- Horror”. Este cine de miedo tiene un marcado carácter sicológico, de fenómenos paranormales y leyendas que beben en la tradición budista y sintoísta del imperio del Sol Naciente. Existen los fantasmas budistas, que se reencarnan una y otra vez, y muertos en la religión sintoísta, que se quedan en ese mundo de los vivos . 48 Así como otros géneros del cine nipón “ son “demasiado japoneses” para los occidentales, el cine J-Horror, ha sido muy bien aceptado fuera de las fronteras del país. Su estética y simbolismo responden a unas pautas que se repiten, como ocurre en las “Anime” ó en las “Kaiju”. Los fantasmas van vestidos con mortajas funerales, todos La versión americana, interpretada por Raymond Burr, se título allí: “King of Monsters”47 Son los llamados ÿurei, fantasmas ó espíritus, que se han quedado en esta vida por asuntos pendientes y 48 son generalmente malvados. �8 tienen el pelo muy largo y negro, muchas escenas se desarrollan con el agua como gran protagonista (porque a los fantasmas se les asocia con este elemento) y desde luego la sociedad no puede protegernos de estos “entes”. La cinta “Ringu” (1998), es considerada por muchos como la película mas 49 terrorífica del cine japonés. En “Ringu” las personas que ven una cinta de video, y no lo logran resolver el misterio que hay en ella, morirán en una semana. También obtuvieron mucha repercusión las dos entregas de “Una llamada perdida” de Takashi Miike ( 2003, 2005), al punto que se hizo un “remake” en Estados Unidos . El argumento que 50 desarrolla el film, es que las personas reciben una llamada anunciándoles la muerte, algo que se cumple inexorablemente. El sonido de la mortal llamada se denominó “la melodía de la muerte”. Otro de los clásicos del terror japonés, que derivo luego en una saga de cintas es “Ju-on” (2003, Takashi Simizu). El argumento gira sobre los extraños fenómenos de una casa embrujada en Japón (porque como ya se ha apuntado anteriormente, si alguien muere con pena ó rabia, o si deja un asunto pendiente, la muerte será ya parte para siempre de ese lugar). En los últimos años hay una figura polifacética en el cine japonés, que es Takeshi Kitano. Actor, escritor, pintor, diseñador de videojuegos y realizador de cine, además de otras curiosas facetas . Su cine a partes iguales violento y nostálgico, a veces tocado de 51 un humor muy especial tiene títulos tan significativos como “Flores de Fuego” (1997) que ganó el León de Oro en Venecia, (más tarde ganaría el León de Plata con “Zatoichi” en 2003). Cintas tiernas como “El verano de Kikujiro” (1999) ´ó “Dolls (2002), pero sin duda el género donde más se ha prodigado es el de los yakuza . Las películas sobre estos 52 Dirigida por Hideo Nakata49 La película norteamericana se estrenó en 2008 y está dirigida por Andrew Klavan.50 En Japón es muy conocido en el mundo de la televisión, ya que forma parte de un dúo cómico.51 Gánsters de la Mafia japonesa.52 �8 villanos han dado nombre también a un género propio en del cine nipón. Con esta temática Takeshi Kitano dirige en 1989 su primer film “Violent Cop”, al que seguirá un año después “”Boiling Point”, luego “Sonatine” y más tarde “Brother” (2000) su primera película rodada fuera de Japón. El cine sobre la mafia japonesa ó “Yakuza”, ha abordado este fenómeno criminal, casi siempre rodeándolo de un halo de valores místicos, de leyendas, de tatuajes de honor y castigos corporales. El origen de la palabra “yakuza” proviene de un juego de naipes. El 8 en japonés es “ya”, el 9 es “ku” y el 3 es “za”. Esta combinación en el juego de cartas da un mal resultado, así que de manera simbólica, se considera que esta palabra esta asociada a perdedores, a parias sociales en toda regla. Sin embargo la realidad y la ficción del cine nos muestran todo lo contrario. Al igual que en otras grandes organizaciones criminales del mundo la mafia japonesa ha conseguido infiltrarse en el poder político, en la economía y por supuesto en todo tipo de lucrativos negocios ilegales (prostitución, juego, drogas…) Las grandes familias y los clanes extorsionan y chantajean a las corporaciones y empresas .53 Como toda empresa del crimen organizado, “la yakuza” esta fuertemente jerarquizada. En la cúspide de la piramide está El Jefe (Oyabun) y en la parte más baja, el llamado Hermano Menor (Shatei), en medio existen cargos como Abogados, Tenientes, Hermanos, Mayores … Una de las señas de identidad más cinematográficas asociados a la mafia de Japón son sus aparatosos tatuajes, que cubren todo su cuerpo y que describen escenas mitológicas Ese impuesto se denomina “sokaiya”.53 �9 y de la naturaleza (carpas, crisantemos, flores de cerezo, dragones, tigres…). En ocasiones el “Oyabun”, exigía a algo miembro de las familias el tatuarse para demostrarle valentía, honor y fidelidad. El tema de los mafiosos japoneses ha interesado incluso a los directores norteamericanos que han hecho un par de incursiones interesantes. La primera fue la película “Yakuza” (1974) dirigida por Sidney Pollack y protagonizada por Robert Mitchum y más recientemente “Black Rain” (1989) de Ridley Scott. Ambas dieron a conocer a un público no japonés los entresijos de la organización criminal, vista desde los ojos de un occidental. Además de las ya mencionadas cintas de Kitano sobre el tema, conviene destacar algún título más como “El ángel borracho” (1948) de Akira Kurosawa, “Dead or Alive” (1999) Takeshi Miike ó “Postman blues) (1997), comedia con toques de drama del director Hiroyuki Tanaka. Otro gigante que ha despertado en el cine del Lejano Oriente es China, una nación inmensa en territorios etnias y culturas, con enormes diferencias entre la población rural, pobre y apegada a las tradiciones, y las masas de clase media y nuevos ricos de las grandes ciudades chinas, el “yin y el yang” de una sociedad, con dos formas muy distintas de ver la realidad y plasmarla en el arte del celuloide, ó del soporte digital. El cine chino ha estado sujeto, después de la irrupción del comunismo en el gobierno del país, a ser una especie de instrumento o panfleto visual para adoctrinar al pueblo y transmitir las ideas del Partido, del “Gran Timonel “Mao Tse Tung. Todo cine que venía de fuera era censurado, incluidas las producciones de la Unión Soviética, lo mismo ocurría con el cine hecho en el país. Un universo cultural “cerrado” y “encerrado” en si mismo y hacia los demás. �9 Durante los 20 años que operó la llamada “Revolución Cultural” , la producción 54 cinematográfica se detuvo, se cerraron estudios y los directores fueron encarcelados y “reeducados”. La más activa figura contra todo o que suponía el cine anterior corrupto y capitalista fue paradójicamente la antigua actriz y esposa de Mao, Jian Quing. Los años 60 y 70, en cuanto al cine se refieren, fueron “años de plomo” en China. Censura, propaganda comunista, cierre de revistas de cine, de la Filmoteca e incluso de 55 la Academia de Cine de Pekín. Después del desastre de la Revolución Cultural, surge la necesidad de restañar las heridas y los traumas sentimentales que ese periodo había causado en la población y 56 en los años que siguen surge la llamada “Quinta generación” de directores chinos, que 57 beben de las fuentes del cine de USA y Hong-Kong y que además proceden casi en su totalidad de la “Beijing Film Academy”. Esos directores triunfan a nivel internacional y dentro de ese amplio plantel cabe destacar dos figuras señeras: Chen Kaige y Zang Yimou. Nacido en Pekín en 1952, en su adolescencia, Chen Kaige, como otros jóvenes de su época de la Revolución Cultural se unió a la Guardia Roja. Llegó incluso a denunciar dentro de esa espiral de locura y confusión a su propio padre, también director de cine, que fue condenado a trabajos forzados. En 1982 se gradúa en la Academia del Cine de Pekín y comienza su andadura cinematográfica llena de grandes películas de las que cabe destacar dos:”Adiós a mi concubina” (1993) y su primer largometraje, “Tierra amarilla” (1984). “Adiós a mi concubina” es quizás su película más conocida y premiada. Obtuvo la Palma de Oro en Cannes, un Globo de Oro y dos nominaciones a los Oscar. La Desde 1960 a 198054 El director más emblemático de esa época fue Xie Jin y su obra más popular “El Ejercito rojo de las 55 mujeres” (1961) Fué llamado “el drama de las cicatrices” con películas como “Ciudad de hibisco” (1986), “Lluvia por la 56 tarde” (1980), “La cometa azul” (1993) etc. 1980-199057 �9 cinta de bellísima factura formal, cuenta la historia de dos actores de la ópera china y a través de ellos aborda uno de los temas tabúes en China: la homosexualidad. Su exhibición fue prohibida en principio en el país pero más tarde, aunque censurada, se pudo ver en los cines chinos. Especialmente relevante para toda su fructífera carrera como director de cine, es su primer film “Tierra amarilla” (1984) , en la que se cuenta como un joven guardia de la 58 revolución es destinado a la región de Xaanxi para recoger canciones populares que levante la moral de las tropas. Allí en una zona rural y pobre, se encontrará con el fracaso del comunismo y con las dificultades de los campesinos para sobrevivir. En definitiva, la realidad contra la propaganda del Partido. La segunda figura clave dentro de la llamada, ”quinta generación” de directores chinos es Zang Yimou. Al contrario que su compañero de Academia, Chen Kaige, que había sido un joven guardia rojo, Zang Yimou sufrió la represión del régimen comunista, ya que su padre era militar del ejercito del contrarrevolucionario Chiang Kai-Check. El siempre había deseado ser director de cine, pero la Academia de Pekín estaba clausurada por el gobierno comunista, de manera que tuvo que trabajar en el campo y luego en una fábrica textil. Con la muerte de Mao y la apertura a comienzo de los 80 de la Academia de Cine, comenzó su andadura profesional. Su primera película como director es “Sorgo rojo” (1987) con la que ganó el Oso de Oro de Berlín. En “Sorgo rojo” aparece por primera vez su actriz-símbolo, que protagonizará muchas de sus películas. Hablamos de la bellísima y versátil actriz Gong-Li, la interprete femenina china más conocida internacionalmente, ademas de ser su pareja sentimental hasta 1995. Volvería a encontrarse con ella, profesionalmente hablando, en el año 2006 para rodar “La Maldición de la flor dorada”. “Tierra Amarilla” contó en la Dirección de Fotografía con otro grande de la “quinta generación”: Zang 58 Yimou �9 En toda la obra fílmica de Zang Yimou, hay un primoroso montaje en las imágenes, una fotografía deslumbrante, que traspasa los ojos para llegar al corazón y nos transporta a otros mundos, unos diálogos sin adornos innecesarios y una crítica soterrada con elaborados simbolismos ; y todos esos elementos, y muchos más que se nos escapan, están presentes en la muy valida y extensa filmografía de Zang Yimou. “La Linterna roja” (1991), premiada en el festival de Venecia, es una película en la que merece la pena detenerse para identificar muy claramente el cine de Zang Yimou. El argumento de la cinta trata de como una joven, pero pobre universitaria, es obligada a casarse con un hombre rico. El señor de la casa gobierna la vida de sus cuatro esposas. Cada día elige a una para pasar la noche y la elección se simboliza colocando en la puerta de la esposa escogida una gran linterna roja. Los sonidos en la película tienen una extrema importancia, al punto de convertirse en largos periodos sin diálogos, en los auténticos protagonistas. Toda la casa en si, es un micromundo. Aquí es donde se reproducen las penas, alegrías, envidias, todo lo que ocurre en el mundo exterior, pero acotado por los altos muros de la casa. Nos encontramos dentro de una burbuja, ya que desde que la cámara entra en la casa todos los sonidos resuenan, hay una permanente reverberación, como si lo que pasase allí estuviera fuera del mundo. Los días se repiten acompañados de los mismos sonidos rituales, la colocación y encendido de las linternas, el sonido obsesivo de los macillos con cascabeles, con que se masajean los pies de la esposa elegida por el señor, el viento que sopla a través de largas cañas cuando llega la mañana y se apagan las linternas. Sin embargo, como en la vida real, nada es lo que parece en ese mundo regido por reglas, costumbres, gestos y movimientos mil veces repetidos. El señor de la casa tiene en la película la máxima importancia y sin embargo la mínima presencia en pantalla. Se le escucha hablar, se le ve en planos generales, o tras �9 los velos de la cama, es como un Dios para la casa, pero alguien perfectamente prescindible para el espectador, que esta enredado en las disputas cotidianas de las cuatro esposas, tras esos muros fríos e inhóspitos. Casi se podría decir que el sonido y la fotografía por si mismos cuentan fielmente la historia, simbolizada en el paso de las cuatro estaciones del año. Se cuentan muchas vidas e historias con una economía de recursos digna de un autentico maestro. Otros títulos importantes en la filmografía de Zhang Yimou son: “Ju Dou, Semilla de crisantemo” (1990), “Vivir” (1994, galardonada en el festival de Cannes ), “Ni uno menos” (1999, León de Oro en Venecia), en ese mismo año rueda “El camino a casa” premiada por el público en el Festival de Sundance y que obtuvo el Gran Premio del Jurado en Berlín; la protagonista de este film es la actriz Zhang Ziyi, que también sería protagonista de “Tigre y Dragón” de Ang Lee. Volvió a colaborar con Zhang Yimou en “Hero” (2002) y en “La casa de las dagas voladoras” (2004), película que como “Hero” toca el género de las artes marciales, la fantasía y los efectos visuales. Si en otros casos hemos visto como los americanos han comprado los derechos de películas europeas para hacer su versión, aquí ocurre lo contrario con la cinta de Yimou “Una mujer,una pistola y una tienda de fideos chinos” (2009)59 No hay que dejar de recordar, que paralelamente a esta “quinta generación” de directores chinos, se incorporaron a la industria a trabajar en los años 90, los realizadores que fueron represaliados durante la Revolución Cultural. Esta “cuarta generación”, que mayoritariamente se había formado antes de los años 60, vieron sus carreras truncadas pero quisieron hacer valer su conocimiento y su forma de ver y hacer cine. “Remake” de Zhang Yimou de la película de los hermanos Cohen “Sángre fácil”.59 �9 Wu Tianming realizó películas como “El Rey de las máscaras” y ayudó a que los directores de”la quinta generación” pudiesen financiar sus producciones a través de su estudio cinematográfico “Xi´an”. La llamada “sexta generación” presenta un puñado de realizadores que hacen películas más realistas, formalmente casi “amateurs”, con cámara en mano, sonido directo y rápidos rodajes de bajo presupuesto. Son gente individualista, con una visión del mundo que les rodea nada romántica. Con gran sentido critico de la vida en las ciudades actuales chinas donde se han creado enormes problemas de integración entre el capitalismo salvaje y la vida de la gente humilde y común. Toda esta generación sin duda, parte de los acontecimientos ocurridos el 4 de Junio de 1989 en la Plaza de Tiananmen. Toda esa crueldad del poder militar contra el estudiante desarmado ante un tanque, incorpora en el cine nuevas voces y nuevas maneras de mirar e interpretar su país. Ya no quieren contar tanto las historias de la China del pasado, ni siquiera de la China rural, quieren mancharse las manos en lo que ocurre ahora, en la vida actual y cotidiana de las grandes ciudades, el dragón puede despertar.60 El gran país oriental camina entre dos senderos paralelos, “un país, dos sistemas”, a veces es una especie de cuerda floja y mantener el equilibrio es complicado pero fundamental. Wang Xiaoshuai en “La bicicleta de Pekín” (2001) , cuenta la historia de un joven 61 campesino que emigra a la ciudad para trabajar como mensajero. En esa tarea la bicicleta es su indispensable instrumento de trabajo, pero se la roban y el testarudo joven, decide recuperarla como sea e inicia un recorrido en su búsqueda por toda la ciudad. Y es aquí donde el director nos presenta toda una fauna urbana, rica y diferente (comerciantes, pandilleros, estudiantes…) con sus gracias y desgracias, con sus pasiones y amarguras. Napoleón dijo. “Dejad dormir a China, porque cuando despierte el mundo temblara”.60 Película que sin duda tiene su referencia en la neorrealista italiana” El ladrón de bicicletas” de Vittorio de 61 Sica �9 Otro nombre de estas últimas generaciones chinas es Jia Zhangke. A pesar de ser un hombre relativamente joven, en su cinta “Naturaleza muerta” (2006) retrata una China fría, devastada, con una juventud sin futuro, sin ningún horizonte. La película, premiada con El León de Oro de Venecia, esta rodada con grandes silencios, que no importan, con planos largos, con un ritmo lento que se ajusta a lo que quiere mostrar: un lugar arrasado, demolido por la faraónica obra de las “Tres Gargantas”. Su protagonista bebe agua continuamente de una botella de plástico, ese agua que le da la vida, es también la que está paradójicamente inundando y dando muerte a las ciudades y el medio-ambiente. En “24 City” (2008) Zangke rueda un “falso documental” en el que se cuenta la reconversión de un barrio industrial en una zona residencial con lo que todo eso conlleva; perdida de recuerdos, metáforas de la transformación de un país, donde el proceso de urbanización acelerado se lleva sin miramientos toda una forma de vida y unos recuerdos. Directores, de la “nueva hornada” como Zhang Yang y películas como “la Ducha” (1999) nos plantean otra vez el conflicto, nada resuelto aún, entre la modernidad y la tradición milenaria. Una cultura que avanza inexorable y otra que queda inexorablemente aplastada por el avance de esta. En “La ducha” el pretexto del argumento es una casa familiar de baños en el viejo Pekín, que está destinada a desaparecer. Una película tierna y triste, con creaciones de atmósferas magistrales. Dos mineros se hacen pasar por familiares de un compañero suyo muerto en la mina. Ese es el planteamiento argumental de “Blind shaft” (2003) de Ly Yan, que nos lleva a un planteamiento ético. No está bien lo que hacen, mienten y cometen un fraude, pero hay otra pare que se contrapone, lo que hacen es un “mal necesario” para que sus familias puedan sobrevivir. La película fue prohibida en China, porque desprende una clara crítica al comunismo, que se pliega ante un descarado capitalismo. �9 Se podría decir que los directores de la “sexta generación”, son los últimos underground, ó “niños terribles” y nihilistas. En la actualidad no se puede decir que haya una “séptima generación” como tal. Las trincheras culturales y emocionales se han abierto y las fronteras comerciales hacen que no se pueda decir, como en tiempos pasados, que existe una llamada “identidad del cine chino”. Los directores actuales prefieren hacer dinero que ideología con su cine y por eso se han asociado y equiparado a los cineastas de Corea, Taiwan ó Hong-Kong. Se hacen largometrajes de acción y un tanto “occidentalizados” que consiguen grandes taquillas en todo el mundo. Es el caso de Zhang Yimou, con “Hero”, o “La casa de las dagas voladoras” (2004) . China es en la actualidad el tercer mayor productor de películas del mundo y dos de sus compañías: “Bona Film Group” y “Huayi Brother” cotizan en bolsa . Hong-Kong, y Taiwan, junto con China, forman una especie de “Triada” del cine oriental, en la actualidad. Casi al mismo tiempo que se sufría en la China continental, la Revolución Cultural, en la isla de Hong-Kong, veía la luz un género de películas que marcara durante años la producción isleña: el “Wuxia Pian . Se rodó una primera cinta experimental de bajo 62 presupuesto “Tiger soy” y ante el tremendo éxito obtenido y casi con el mismo reparto se rueda “Temple of the Red Lotus” (1965) de Chang Cheh. La producción continúa con el director King Hu, que tiene su obra cumbre del género “Wuxia” con “A touch of Zen”, rodado en dos partes y con casi cuatro horas de duración, una cinta muy elaborada con componentes oníricos, narraciones épicas…. En 1967, Chan Cheh filma un largometraje tremendamente violento y amargo, con héroes masculinos atormentados y donde prevalece la hermandad entre hombres, su título: “One armed swordsman”. En él se narraba la vida de un mutilado que se convierte “Cine de caballería chino”62 �9 en maestro de artes marciales. King Hu y Chang Cheh, fueron los directores más importantes de la edad de oro del género “Wuxia”. Raymond Chow que trabajaba en la gran compañía “Shaw Brothers”, la deja en 1970 y funda sin muchos recursos una pequeña productora, ”La Golden Harvest”. En teoría lo tenía verdaderamente difícil para competir con los hermanos Shaw, pero a la “Golden Harvest” le sonrió la fortuna y tuvo la suerte de fichar a un actor que les haría ricos y famosos, ni más ni menos que Bruce Lee. Lo mejor de la historia es que antes de ser contratado por “La Golden”, Bruce Lee trato de entrar a formar parte de la “Shaw Brother”, pero a estos no les convenció el fichaje del actor. Lo que sigue es historia conocida del cine mundial. Las producciones de Bruce Lee, experto en artes marciales se hicieron tan populares, que pronto sustituyó al “wuxia” de capa y espada. La prematura muerte de Bruce Lee en 1973 no hizo más que acrecentar y engrandecer su leyenda. Otros actores de acción han seguido la estela del ídolo, sin poder jamas superarlo, pero si obteniendo una notable repercusión. Es el caso de Chow Yun-Fat, nacido en Hong-Kong, trabajó como taxista y cartero hasta que la oportunidad en el espectáculo, le llegó de la mano de un anuncio publicitario en la televisión. Ya en la gran pantalla, trabajó con Jhon Woo en “Un mañana mejor” (1986) y un año después en “Honor, plomo y sangre” y “El asesino” (1989). Hizo incursiones en los años 90, en el cine norteamericano compartiendo protagonismo con Jodie Foster en “Ana y el rey” (1999). Su lanzamiento total y definitivo lo alcanzó gracias a la película “Tigre y dragón” (2000) del director taiwanés Ang Lee y se convirtió en una estrella internacional de las artes marciales. �9 Mención aparte, por ser una de las películas escogidas para analizar el sonido del cine oriental en este trabajo, merece el film del director de Hong-Kong, Wong Kar-Wai “Deseando amar” (2.000). Una cinta de amor, pero en absoluto una historia de amor romántico y lacrimógeno, si no toda una vuelta de tuerca, perversa y retorcida a ese manido tema universal: “chico conoce a chica y se enamoran”. No es una historia de amor, sino una historia sobre el amor, en el que uno se deja llevar por los sentidos y además es un ejercicio formalmente muy arriesgado (planos extraños para el espectador, elipsis, cosas que suceden fuera de plano…) Un hombre y una mujer en el Hong-Kong de los años 60, se trasladan al mismo bloque de viviendas y soportan las infidelidades de sus propias parejas, mientras ellos poco a poco se van enamorando el uno del otro. Una de las cosas más bellas y que permanecen en el recuerdo del espectador es la banda sonora de Michael Galasso y Shigeru Umebayashi que acompaña a veces las 63 escenas a cámara lenta. Es una forma de narrar llena de sutilezas sobre el paso del tiempo. A entender ese paso del tiempo, nos ayudan los distintos vestidos de la protagonista Maggie Cheung y los platos de comida que se sirven , ya que la historia no 64 se desarrolla en un tiempo lineal. A veces no se sabe bien, si realmente suceden los hechos, o estos solo están en la imaginación de los personajes. “Deseando amar” es un film rico en lecturas e interpretaciones y que merece la pena ser visto en más de una ocasión para seguir descubriendo cosas nuevas. También aparecen en la película dos canciones en español:”Quizás,quizás” y “Aquellos ojos verdes”.63 Algunos de ellos, solo se comen en determinadas épocas del año.64 �10 8.3 El Cine Norteamericano Sería exagerado decir que el cine se inventó para que pudiese surgir “Hollywood”, o que Estado Unidos no hubiese alcanzado ese status “de primera potencia mundial “ sin sus historias del celuloide, pero no cabe duda que si Europa puso la semilla, las más exuberantes flores y la vegetación desmesurada se desarrolló en Norteamérica. No hay duda que Europa es el cine “en maceta” y USA la “jungla cinematográfica”. Nadie como ellos han sabido plasmar sus ideales, sus creencias, sus modos de vida y su visión del mundo y lo especial que es ser ciudadano USA. Se refuerza la idea de que tal como son los países y las gentes que los contienen, así es su cine y su manera de contar historias. Estados Unidos es una nación creada en aluvión, por distintas oleadas migratorias en diversas épocas, y cada una de ellas trayendo una parte de su esencia para colonizar aquel inmenso territorio. El resultado de su cine es el de su modo de vida: diverso, variado, extremo, sin muchos grises y a todo color. Lo mismo ocurre con la cinta sonora de sus películas. Su potencia, sus distintos planos, su expresividad hacen que el espectador quede preso en su magia y sea todo “objetividad”, porque el cine está hecho para soñar. La música, la palabra, los ruidos te envuelven en una burbuja, y es una burbuja tecnológicamente perfecta, incluso aunque lo que se esté subiendo en pantalla sea terrible y cruel. No es por casualidad que el término “diseño sonoro” sea una aportación estadounidense . Su sonido en la gran pantalla está hecho para impactar, para transmitir 65 un montón de sensaciones de fuerza y espectáculo; a un gran plano, un gran sonido. Eso se refleja en sus grandes producciones bélicas, de musicales y de ese género de cine Esta denominación de “diseño sonoro” se debe en origen al trabajo realizado por Ben Burtt en 1972 en la 65 primera entrega de “la Guerra de las Galaxias y que le hizo merecedor de un “Oscar Especial”. �10 que se ha dado en llamar de “catástrofes”. Todos los grandes recursos económicos y técnicos al servicio de las ideas a través del espectáculo. El sonido mueve y potencia tus emociones (negativas ó positivas). Conviene recordar que la industria de Hollywood se benefició de la gran fuga de talentos causadas por las guerras mundiales y el nazismo (directores, guionistas, actores…). Allí nació el sistema de los grandes estudios de cine y sus “trabajadores estrella” que quedaban ligados a ellos por contratos leoninos y que por lo tanto controlaban y disponían de hasta el más mínimo detalle de la vida de sus estrellas asalariadas. Una vez consolidado el cine sonoro, cinco grandes productoras dominaban Hollywood y por el ende el mercado mundial: Paramount, Metro Goldwyn Mayer, Twentieth Century Fox, Warner Bros y RKO. En la época dorada de los grandes estudios americanos todo funcionaba como un perfecto engranaje, como la cadena de 66 producción de una gran empresa. Eso si, aunque el sistema era el mismo cada estudio tenia su estilo, sus características, su sello personal, que muchas veces venia definido por sus guionistas, directores y actores, porque en ese momento no se le daba tanto protagonismo al sonido ó la imagen. En esa “gran fábrica de sueños” en vez de modelos de frigoríficos ó de coches había géneros de películas: westerns, comedia, cine negro, musicales, dibujos animados, biopics etc.67 Normalmente de la cantidad, suele salir algo de calidad y es que aunque los estudios no se la jugaban con sus producciones e imponían dura premisas para el rodaje de una película, se hacían tantas, que se podían permitir que algunas no fuesen éxitos en taquilla. De los “cinco grandes” salieron clásicos que ya forman parte de la historia mítica del cine: Aproximadamente entre 1910 y 1960.66 Biografías de personajes famosos.67 �10 “El mago de Oz”, “Solo los ángeles tienen alas”, “La diligencia”, “Lo que el viento se llevó”, “Casablanca”, o “Qué bello es vivir” por citar solo algunos. Hollywood tuvo también sus época negra con la creación de “El Comité de Actividades Antiamericanas” impulsado por el fanático Senador de la derecha más conservadora Joseph McCarthy. Por todas partes se veían peligrosos comunistas y todos fueron puestos bajo sospecha. Las listas negras proliferaron y mucha gente se vio sin trabajo y señalado en público incluso por sus compañeros de profesión. Ocurrió con directores como Joseph Losey, John Houston, Nicholas Ray, Fred Zinnemann, Edward Dmytryk… con actores y actrices: Humphrey Bogart, Ava Gardner, Montgomery Clift y también con guionistas como Dalton Trumbo, a quien se le prohibió trabajar y qué incluso fue a prisión. Los “cinco grandes” dominaron la producción, distribución y exhibición de todo el cine de Estados Unidos y por añadidura del resto del mundo entre 1930 y 1950. Impusieron un modo de hacer cine y un modo de distribuirlo y proyectarlo. Supieron también repartirse inteligentemente “el pastel de los géneros”. La Metro, con su león al frente, se hizo la dueña de los temas románticos, tuvo ademas a la prodigiosa Judy Garland (El mago de Oz) y a los inimitables Hermanos Marx (Una noche en la Ópera, Un día en las carreras). La Paramount por su parte, realizó grandes cintas históricas bajo el mando del gran Cecil B. de Mille (Cleopatra). Tuvo también la más alta y sofisticada comedia con Ernst Lubistsch (La viuda alegre” y el cine de gangsters y terror los dirigía Robert Mamulian (Las calles de la ciudad, Dr Jekyll y Mr Hide). En la Universal se especializaron en el cine de terror y James Whale rodó “Frankenstein” y Ted Browning, “Drácula” con el inolvidable Bela Lugosi. El cine “negro” y de aventuras tuvo un lugar muy destacado en la Warner Bros. Surgieron films como “Hampa dorada” con clásico intérprete del género, Edward G. Robinson, y el director Michael Curtiz supo llegar al público con las aventuras de “Robin �10 de los bosques” y “La carga de la brigada ligera”, ambas interpretadas por una pareja de lujo de la época: Errol Flynn y Olivia de Havilland. Los “musicales” de la pareja “más saltarina y famosa” de todos los tiempos en el cine: Fred Astaire y Ginger Rogers, los produjo la RKO, por ejemplo “Sombrero de copa”. Los grandes estudios pronto se percataron, de que había una serie de actores y actrices que resultaban muy rentables en taquilla y se crea así el llamado “star system”. Con este sistema de estrellas, elegían,lanzaban y contrataban con exclusividad y a largo plazo a sus actores. Crearon para ellos unos personajes, que en muchos casos les devoraron , 68 fuera de la pantalla. Todo lo que hacían se convertía en noticia: escándalos prefabricados, bodas, divorcios, manías. El sistema de los estudios era una gran maquina de fabricar dinero y el Gobierno de Estados Unidos hacía la “vista gorda”, para no echar a perder el gran negocio que a todos beneficiaba. Sin embargo eso llegó a su fin en 1948, cuando un fallo judicial le dijo a los magnates del cine, que su control absoluto sobre toda la industria estaba violando la ley federal de antimonopolio y por si algo faltaba entro en juego un gran invento audiovisual: la televisión. Eso acabo con el dominio absoluto del entretenimiento que hasta entonces había ostentado el cine en solitario. No hay duda que “fabricar sueños” es decir hacer películas y a través de ellas transmitir y hacer participe al mundo, de unos valores y una forma de sentir y entender la vida, ha sido y es la especialidad de los norteamericanos. Por “eso” y “para eso” inventaron géneros cinematográficos como el “western”. Cuando el género nace, algunos de sus héroes estaban vivos y durante décadas 69 “el western” fue el cine que preferían los americanos, que además se proponían como “los héroes”, “los buenos”, frente a los que ya ocupaban esas tierras, los indios americanos. James Dean, Marilyn Monroe, Judy Garland, Montgomery Clift…68 Búfalo Bill, Wyatt Earp…69 �10 El “Cine del Oeste”, se sitúa en ese espacio geográfico en el siglo XIX, y trata de adentrarnos en el espíritu de conquista de los pioneros, llegados en su mayoría de Europa a la conquista de un enorme territorio rico y en parte virgen. Siempre hay un personaje central masculino, que va errante de un lugar a otro tratando de encontrar su lugar en el mundo, rescatando mujeres, enfrentándose a los forajidos. Una suerte de caballero andante medieval, que en lugar de armadura lleva sombrero de ala ancha, en vez de espada un revólver y eso si, ambos comparten un compañero fiel: su caballo. Tienen estos protagonistas sus propios “códigos de honor” y por supuesto unos escenarios y elementos que se han convertido en parte de nuestro propio universo (la cantina, el rancho, las prostitutas, los tiroteos, el tren….) El primer gran western del cine sonoro fue “la Diligencia (1939) de John Ford quien llamó para protagonizar la cinta a alguien en quien creía y al que le unía una cierta amistad: John Wayne, un actor que simboliza como pocos el prototipo del rudo cowboy. Cuando hablamos de Wayne, hablamos de una forma de mirar, de sonreír, de andar, de colocarse el sombrero, en definitiva “El Duque”. Wayne poseía un físico atlético y una gran altura , que le facilitó su incorporación al cine. Sus éxitos en el cine del western son 70 interminables: “Rio grande” (1950), “Fort Apache” (1948), Rio Rojo” (1948), “Centauros del desierto” (1956), “Rio Bravo” (1959), “El hombre que mató a Liberty Balance” (!962)., etc.También se atrevió con la dirección, aunque solo en dos películas: “El Alamo” y “Boinas Verdes”. Su reconocimiento como intérprete le llegó por “Valor de ley” en 1969, por el que fue galardonado con el Oscar al mejor actor. La época de gloria del cine del Oeste sigue con directores como Howard Hawks o Raoul Walsh, este último nos ofreció una cinta de connotaciones épicas y románticas, se trata de “Y murieron con las botas puestas” (1941). Medía 1´93 cm.70 �10 Otro grande de la pantalla y el género western, Henry Fonda, trabajó a las ordenes de Ford en “Pasión de los fuertes” (1946), donde encarnaba a un personaje de leyenda, Wyatt Earp. La película nostálgica y trágica rememora el tiroteo en OK Corral entre 71 “The Cowboys” y los Earp. Sin duda otro de los elementos claves y universales del western, que le hace reconocible, es el paisaje. En sus momentos más gloriosos esa naturaleza salvaje se filmaba en estados como: Utah, Arizona, Texas, Nevada, Colorado…y llegaron a ser fundamentales en el desarrollo de la película como seña de identidad y componente poético .72 El tándem Ford-Wayne, aún daría una nueva y maravillosa colaboración mas. En 1952 se rodó “El hombre tranquilo” confirmando que los años 50 fueron los de mayor esplendor del género. Como es lógico “el western” fue evolucionando y añadiendo nuevos elementos como el trato más positivo hacia los indios americanos, una mayor importancia hacia los papeles femeninos, etc. Se añadieron toques de humor negro y se incrementó el uso de la violencia. Se buscó en definitiva, mas el componente realista que la vertiente romántica y la prueba de ello es el clásico de Nicholas Ray “ Johnny Guitar” (1953), con un gran despliegue en su música y donde se dice una de esas frases inolvidables del 73 celuloide: “ Miénteme: dime que me has esperado todos estos años”. Los años 60 y 70 son los del llamado “Spaghetti Westerns”. Un subgénero que venía de Italia, con bajos presupuestos y con exteriores rodados en lugares como Almería (España). Son películas extremadamente violentas y que desmontaron algunas convenciones del “western” clásico. treinta tiros en treinta segundos.71 “ Por eso el Cine no es una ciencia, como afirma Pablo Huerga, sino una forma de Arte, de Poesía, que 72 con sus pretensiones ideológicas eutáxicas es más universal que la Historia”. (El western y la Poética, Miguel Angel Navarro (Pentalfa, Oviedo 2016) La espectacular banda sonora pertenece a Victor Young.73 �10 El director más arquetípico y representativo del “Spaghetti Western” es Sergio Leone con su trilogía: “Por un puñado de dólares” (1964), “La muerte tenía un 74 precio” (1965) y “El Bueno, el Feo, y el Malo” (1966). En todas ellas el protagonista Clint Eastwood, y las pegadizas bandas sonoras de Ennio Morricone, son fundamentales. Sergio Leone no hablaba inglés, Clint Eastwood no hablaba italiano, pero se entendieron a las mil maravillas. Leone le sacó enorme partido a la sobriedad y economía de recursos expresivos de Eastwood , que sabia transmitir mucho, con poco.75 Guionistas y directores, quisieron en años posteriores hacer un “revisionismo” del género. ¿De qué modo?, pues incrementando la presencia de los indios americanos y viéndolos desde un punto de vista más positivo, cuestionarse “el bueno” frente “al malo”, utilizar nuevos elementos estéticos, narrativos e ideológicos. Es así como surgen clásicos como “Dos hombres y un destino” (1969) de George Roy Hill, con dos estrellas en lo más alto de su popularidad: Paul Newman y Robert Redford. La verdad es que lo fundamentos y la esencia básica del western, pueden situarse en otras épocas y ambientes, con otro tipo de paisaje y vestuario y aún así, seguir siendo “una de vaqueros”. Eso ocurre en la película de Peter Hyams “Atmósfera Cero” (1981), 76 que tomó la estructura narrativa de un clásico del Oeste, “Solo ante el peligro” (1952) de 77 Fred Zinnemann. Otro tanto sucede con George Lucas y “la Guerra de las Galaxias”, futurista y de ciencia ficción como “Atmósfera Cero” y que sin embargo contienen en el fondo muchas claves del más puro “western” americano. Remake de la película “Yojimbo” de Akira Kurosawa.74 Según Sergio Leone, Eastwood tenía tres expresiones: con cigarro, con sombrero, y sin sombrero.75 Nominada al Oscar al mejor sonido.76 Protagonizada por otra de las grandes estrellas del cine en general y del western en particular: Gary 77 Cooper. �10 En la larga vida de un tipo de películas “genuinamente americanas” como son las que tratan del lejano Oeste, es normal que vengan periodos de decadencia y saturación. Se recurre una y otra vez a los estereotipos, los argumentos se repiten hasta la saciedad y sin embargo la grandeza del “western”, es que si bien no ha vuelto al esplendor de tiempos pasados hay títulos que han recuperado el favor del público y la critica. Ahí está “Silverado” (1985) de Lawrence Kasdan, ó “ Sin perdón” (1992) obra magistral, dirigida e interpretada por Clint Eastwood, donde un héroe nada inocente y atormentado, se redime a través de la venganza. En 1990, un joven Kevin Costner, se embarca en un ambicioso proyecto que le va a deparar la enorme alegría de 7 Oscar y el reconocimiento y éxito a nivel mundial. Ese proyecto era “Bailando con lobos”. Una película llena de humanidad, amor y respeto por la naturaleza y no solo por esa naturaleza, sino también por las tribus nativas de Estados Unidos, que tan maltratadas fueron en muchos títulos (con honrosas excepciones ). 78 “Bailando con lobos” es un viaje desde lo más grandioso y épico al lirismo más preciosista, y a todo eso contribuye, la fotografía, la música y el cuidado sonido. En definitiva Kevin Costner ganó respeto y mucho dinero .79 El cine musical americano arranca a la par que el cine sonoro y fue también un 80 género que los americanos crearon e hicieron a su medida, lleno de fantasía, decorados imposibles, luz, brillo, movimiento, alegría de vivir…. Empezó de forma explosiva con “La calle 42” (Busby Berkeley-1933) con estupendas coreografías y canciones. En 1939 tenemos a Judy Garland con “El Mago de Oz” y una canción “Over the rainbow” que ha pasado a la historia de la música ligera y ha sido y será mil veces versionada. “El gran combate”, “Flecha rota”, “La puerta del diablo”…78 Hasta ahora es el western que más dinero ha recaudado en las taquillas de USA.79 “El cantor de Jazz” (Alan Crosland-1927).80 �10 Se incorporaron a los musicales los lanzamientos de cantantes como Frank Sinatra y Bill Crosby y aparece en escena “la más famosa entre las famosas” parejas de baile: Fred Astaire y Ginger Rogers. Èl y ella eran pura sintonía, plasticidad y ritmo e interpretaban como nadie las melodías de Gershwin o Berlin. Te dejaban con la boca abierta cuando los veías deslizarse, flotar por la pista de baile, te hacían soñar y te llevaban a su mundo de fantasía. En esa pareja sobraba la química y eso que uno y otro nada tenían que ver, quizás por eso se complementaban perfectamente. Fred Astaire era un bailarín portentoso y elegante que dominaba estilos como el swing, el jazz, el claqué …y Ginger Rogers, puede que no fuera tan extraordinaria bailarina, pero sabia mover como nadie esos trajes vaporosos y era extraordinariamente sensual y chispeante. Las películas que ellos interpretaban, eran filmes de argumento sencillo, ligeras, para entretener al público, pero cuando la pareja se ponía a bailar nada de eso importaba.” La Magia” con mayúsculas había llegado. Ahí han quedado títulos para siempre como : “Sombrero de copa”, “La alegre divorciada”, “En alas de la danza”, ”Ritmo loco”, “La historia de Irene Castle”…. El tiempo y las circunstancias los llevarían por caminos distintos, pero los eternos novios de la pantalla quedarían unidos eternamente 81 en el cine de todos los tiempos, siempre “Cheek to Cheek” .82 Otras valiosas asociaciones dentro del musical americano, fueron las del bailarín y coreógrafo Gene Kelly, que con otra manera de bailar muy distinta a la de Fred Astaire, trató de renovar el género y Stanley Donen. Junto hicieron inolvidables películas y números musicales, para el recuerdo como “ Un día en Nueva York”, “Cantando bajo la 83 Aunque nunca se llego a ver como se besaban. El momento final se “iba a negro”81 Federico Fellini les rindió un homenaje en su película “Ginger y Fred” (1986)82 Con partitura musical de Leonard Bernstein.83 �10 lluvia”,ó “Siempre hace buen tiempo”. Gene Kelly también colaboró de manera asidua con otro grande de la dirección, Vincent Minnelli. Con él, consiguió el Oscar por “Un americano en París” (1951) y luego también con Minnelli hizo: “Melodías de Broadway”, “Brigadoon” y “Gigi”. Todos estos títulos era de la MGM, pero fuera de está compañía también el cine musical dio bastantes éxitos; “Los caballeros las prefieren rubias” de Howard Hawks (1953) co una exuberante y sensual Marilyn Monroe, “Una cara con ángel” de Stanley Donen y “Porgy and Bess” de Otto Preminger (1959). Desde luego la mayoría de 84 estrellas con talento musical, estaban bajo las ordenes de la Metro, que además gracias a la nadadora especialista en “natación sincronizada, Esther Williams, supo hacer crecer un ”subgénero” del musical,: ”el musical acuático” . Un clásico de ese hallazgo por excelencia fue “Escuela de sirenas” de George Sidney (1944), protagonizada naturalmente por Esther Williams , a la que seguirían otros títulos del género musical 85 acuático en la década de los 40 y hasta mediados de los 50. En los convulsos años 60, hay una recuperación de los musicales en el cine con producciones como “West side story” rodada en 1961 de Robert Wise y Jerome Robbins. También dirigida por Wise “Sonrisas y lágrimas” (1965), “Mary Poppins” (1964) de Robert Stevenson, “My fair lady” (1964) de George Cukor, “Hello Dolly” (1969) de Gene Kelly y un curioso western musical: “La leyenda de la ciudad sin nombre” (1969) de Joshua Logan. La música sigue sonando y llegamos a los años 70 donde no se puede olvidar la figura delgada y melancólica del comienzo de “El violinista en el tejado” ( Norman Jewison-1971). La película estuvo precedida por la obra de teatro en Broadway en 1964 86 Basada en la ópera del mismo nombre del compositor George Gershwin.84 Su compañero Clark Gable la bautizó como “La Sirena de América”.85 Estaba basada en varias historias escritas por Sholem Aleijem.86 �11 que retrata la vida cotidiana y llena de dificultades de un pequeño pueblo ucraniano en 1910. Allí vive una comunidad judía y concretamente Tevye, el lechero”, su mujer y sus cinco hijas. En el ambiente se respira ya un sentimiento antisemita y contra los zares. Con esfuerzo y sin recursos, el pobre Tevye, ve como a su alrededor las tradiciones se pierden y sus hijas se casan, no con quien él, ó la casamentera ha decidido, sino con quien las hijas aman. La cinta aunque llena de nostalgia, tiene también bastantes toques de humor y por supuesto unas canciones bellísimas. Logró hacerse con tres Oscar y le proporcionó al desconocido protagonista, el actor y cantante, Topol mucha popularidad . “El violinista en el tejado” rezuma cierto fatalismo, pero la 87 ambientación y las interpretaciones logran que sea una historia que llegue al corazón. Y sigue el espectáculo y lo hace nada más y nada menos que con Liza Minnelli (hija de Judy Garland y de Vincente Minnelli), la que diera vida en la pantalla, a la protagonista de otro icono del cine musical. “Cabaret”, que dirigió el coreógrafo Bob Fosse (1972) . Sin 88 duda el rol de la cabaretera Sally, alocada, tierna e infantil, le iba de maravilla a Liza; era una papel que ofrecía muchas posibilidades y la película se desarrolla en un interesante tiempo histórico, el Berlín del pre-nazismo, a principios de los años 30. Toda esa efervescencia callejera, contrasta con el clima decadente y barato del cabaret berlinés. Magnifico vestuario, ambientación, coreografías y unas canciones inolvidables. Como además los números musicales se desarrollan dentro del cabaret y el punto de vista, es el del público que allí está, todo fluye y encaja de manera muy natural. Liza Minnelli, recibió un Oscar por su interpretación, pero hubo otro gran triunfador, cuya presencia alabó mucho la critica cinematográfica: la de Joel Grey como maestro 89 burlesco de ceremonias del cabaret. Es él, quien introduce el film y lo despide, y logra Topol era cantante en una compañía artística del ejército israelí.87 También sería el director en 1979 de “All that jazz”.88 Joel Grey consiguió el Oscar al mejor actor de reparto.89 �11 transmitir el ambiente enrarecido y artificial de ese cabaret obscuro y sin ningún “glamour”. También en los 70 se desarrolla la moda de John Travolta y su “Fiebre del sábado noche” (1977) de Jhon Badham, un año después llegaría “Grease” y en 1979 “Hair”. En los 90 el género musical trata de volver a tener el favor de los espectadores, y Alan Parker realiza en 1996 “Evita”. En los primeros años del siglo XXI, tenemos “Moulin Rouge” (Baz Luhrman) y “Chicago” de Rob Marshall. 20011 es un año en el que el circulo del cine musical se cierra, y lo hace con una película de cine en blanco y negro de la época muda y de tema musical, se trata de “The artist” de Michael Hazanavicius, todo un homenaje a esos tiempos difíciles del paso del mudo al sonoro. El declive de los grandes estudios hace posible una mayor libertad creativa de autores, directores e intérpretes, pero no nos equivoquemos, el llamado “cine de autor” americano, no está en absoluto reñido con lo comercial. Siempre se trata de llegar al gran público y hacer negocio. Y en esa “delgada linea” se mueven grandes nombres, sobre algunos de los cuales nos vamos a detener. Nacido en Nueva York, Stanley Kubrick es uno de los realizadores mas especiales de los últimos tiempos. Desde sus primeras películas ( “Senderos de gloria”, Lolita” , 90 “Teléfono rojo ¿volamos hacia Moscú?”) se muestra como un realizador con un carácter meticulosamente enfermizo y al que le gusta siempre tratar en su películas temas tabúes, ocultos y extraños. Le encantaban los números y su simbología, por eso en sus encuadres, usaba el llamado “número áureo” desde luego con su talante perfeccionista 91 llevaba a los actores a limites insospechados. Los críticos y estudiosos lo han descrito a veces como “director maldito” y lo que está claro, es que gustaba mucho de usar en sus cintas lo esotérico, lo satánico como poder supremo que está detrás de todo y lo Basada en una novela de Nabokov90 También llamado número de oro, divina proporción…es un número algebraico irracional, y es una relación 91 o proporción entre dos segmentos de una recta, es decir, una construcción geométrica. �11 misterioso. Hasta su muerte en pleno rodaje de “Eyes wide shut”, fué un misterio. Se hablo de un suicidio, pero nada quedó claro. La esencia de la película “ 2001: una odisea del espacio”, que asombró al mundo en 1968, quizás esté en un pensamiento de Kubrick: “El hecho más aterrador sobre el Universo no es que es hostil, sino que es indiferente”. Y lo cierto es que “2001: una odisea del espacio” es una cinta con asombrosos recurso técnicos, pero que también nos plantea muchas preguntas y enigmas al compás en nuestro recuerdo de la solemne “Así habló Zarathustra” de Richard Strauss. Otra de sus obras, mucho tiempo censurada y prohibida en algunos lugares es “La naranja mecánica” (1971) en la que sonidos y música se emplean incluso para crear artificialmente fobias y cambios comportamentales. En el interesante libro de ensayo de Juan Antonio Rivera: “Lo que Sócrates diría a Woody Allen” , hay un capítulo en que se 92 estudia como crear fobias a través del sonido. Sabemos que la banda sonora de la “Naranja mecánica “ tiene suma importancia acompañando algunas escenas, por ejemplo: mientras se da una brutal paliza a dos pandilleros suenan de fondo las notas alegres de la obertura de “ La gazza ladra” de Rossini, y este contraste entre la música juguetona y ligera del compositor no hace más que acentuar la violencia descarnada y brutal de la escena que además es rodada a cámara lenta. Alex, el psicópata protagonista de la película, se somete a una terapia que le hace odiar la violencia, pero de manera involuntaria se produce un efecto asociado e indeseado: odia también la “Novena Sinfonía” de Beethoven, su músico favorito, porque suena como fondo a un documental, donde se muestran los horrores de los nazis en un campo de concentración. Premio Espasa Ensayo (2003) Espasa Calpe -2004-92 �11 En otra de sus grandes realizaciones : “El resplandor” utiliza un himno latino del siglo XIII “Dies Irae” para introducir la película , escenas de terror donde hay una 93 novedosa utilización de la luz blanca y cegadora como elemento de miedo, así como los grandes espacios; un hotel aislado en la nieve, donde un escritor (Jack Nicholson) se va paulatinamente volviendo loco. Todo esta impregnado de espíritus y muertes violentas, todo magistralmente subrayado por la música de Bela Bartok. Su obsesión por el detalle, la ambientación e iluminación se refleja también en una película histórica “Barry Lyndon”. La trama transcurre en el siglo XVIII. Su obsesión por innovar y controlar todo, le llevó a rodar con luz natural proveniente de los ventanales de las localizaciones y con la luz de las velas, tal y como sucedería si nos trasladaremos a aquella época y nos convirtiéramos en meros testigos de la historia. Eso le llevó a una exigencia técnica especial para poder realizar su rodaje. Tuvo que pedir a la NASA un foco especial denominado “Zeiss”, de los que había muy pocos y que se habían empleado en el programa espacial Apolo. Y es que Kubrick afirmaba en una entrevista:” La iluminación de las películas históricas siempre me pareció falsa…” .94 De un director y una personalidad como la de Kubrick, nos vamos a alguien completamente opuesto pero también genial y de Nueva York: Woody Allen. Este judío de Brooklyn ha tenido siempre una producción cinematográfica trepidante y continua. Ha realizado multitud de películas como director e interprete, o solo como director. Tan amplia es su obra cinematográfica que en uno de los muchos libros dedicado a Allen afirma: “ Siempre he querido tener una trayectoria en la cual mis películas no 95 sean acontecimientos. No quisiera parecerme a Stanley Kubrick, que era un cineasta inmenso, pero no estrenaba una nueva película antes de transcurridos unos seis o diez También utiliza este mismo himno en “La naranja mecánica”.93 Parte de una entrevista concedida a Michel Ciment, que se encuentra en su libro: Kubrick, edición 94 definitiva. AKAL (2000). “Conversaciones con Woody Allen” Jean Michel Frodón. Ediciones Paidós Ibérica (2002)95 �11 años. Cada vez se trataba de un acontecimiento mayor y la presión era enorme. La necesidad de que su nueva creación fuese una obra maestra era imperiosa. Una situación así, que lleva hasta el extremo la lógica del éxito y el fracaso, supondría una pesadilla para mi…” Woody Allen, se crió en el barrio de Brooklyn y en su vida tuvo mucha trascendencia el hecho de que sus padres fueran judíos ortodoxos. De hecho es uno de los temas, el judaísmo, que está presenta en su obra, además de la muerte, el sexo y Dios. Ha sabido retratar como nadie a Nueva York y sus conciudadanos, y eso yendo de la comedia al drama con una enorme sutileza y variedad. Sus películas tienen sello propio y nunca defraudan. Sus bandas sonoras son una delicia y su humor melancólico y a veces negro ha sido a menudo mas entendido y valorado fuera de su país. Desde su primera cinta como director: “Coge el dinero y corre” (1969) hasta la última en la actualidad, “Café Society” (2016), la cantidad y variedad de títulos así como de actores y actrices “fetiche” son tantos que vamos a enumerar solo unos cuantos (“Bananas”, “Annie Hall”, “Hannah y sus hermanas”, “La maldición del escorpión de jade”, “la Rosa Púrpura del Cairo”, “Dias de radio”, “Balas sobre Broadway”, “Match Point”,, “Misteriosos asesinato en Manhattan”…) (Colin Firth, Diane Keaton, Scarlett Johansson, Mia Farrow,…) Este ganador de cuatro Oscar e innumerables Bafta, Cesar, Globos de Oro, Goya… que en sus ratos libres toca el clarinete con su banda, y que fue Premio Príncipe de Asturias de las Artes en 2002, dirigió en los años 80, una de los episodios de “Historias de Nueva York” junto con otros dos grandes directores de los que nos vamos a ocupar ahora: Francis Ford Coppola y Martin Scorsese. Hijo de emigrantes napolitanos músicos, Francis Ford Coppola, nació en Detroit (Michigan). Guionista, director y productor, su primer Oscar le llega en 1969 por el guión de “ Patton”. �11 Con solo 33 años dirige la primera parte, de la que será la trilogía mas famosa y perfecta que el cine ha dado hasta nuestros días: “El Padrino I “ . Esa primera parte nos 96 ha dejado frases, escenas y músicas que están ya en la memoria colectiva de muchas generaciones, y como no, la increíble e irrepetible composición por Marlon Brando del personaje de Dº Vito Corleone. Sin duda Coppola supo aprovechar muy bien, el conocimiento del tema de la mafia por sus orígenes napolitanos para rodar y transmitir 97 con madurez, equilibrio y perfección, todos los entresijos, leyes y “códigos morales” que rigen esa organización criminal. En la segunda parte de “El Padrino”, otro genio interpretativo, se incorpora como protagonista Al Pacino, que se hace cargo de manera un tanto forzada de”la familia”. Los matices complejos y humanos del personaje de Al Pacino, hacen incluso a veces cómplice al espectador de las actitudes y comportamientos de Michael Corleone y es porque toda la violencia que se muestra no es gratuita ni desmesurada. Todo es “normal” y “equilibrado” teniendo en cuenta el ambiente y los patrones de comportamiento de una organización criminal, que extiende sus tentáculos hasta la política y el Vaticano. La última entrega de la trilogía, se mueve entre el drama literario y operístico. La vida le pasa factura a Michael Corleone arrebatándole a su hija. Es inolvidable esa escena final, donde Al Pacino en las escaleras de la Opera de Palermo, ve morir a su hija y lanza un desgarrador grito silencioso. Un claro exponente del poder, fuerza, sentimientos y emociones que tiene un sonido, que ni siquiera escuchamos, pero que está en nuestra mente. En la filmografía de Coppola, hay otros títulos de culto como “Apocalypse Now” (1979), que sin embargo consiguió llevarle a la ruina a él y a su productora . 98 Adaptación de la novela de Mario Puzo.96 Palabra que nunca se menciona en la película.97 Tal vez recordando las enormes dificultades del rodaje de Apocalypse Now, durante su presentación en 98 Cannes afirmo: “ Esta no es una película sobre la Guerra de Vietnam, esto es Vietnam”. �11 Posteriormente, para salir de embargos y deudas, no le quedó otra solución que aceptar dirigir títulos por encargo que el convirtió en obras mayores como: “ La ley de la calle” (1983) ó “Cotton Club” (1984). En esta cinta nos convertimos en testigos de uno de los más maravillosos y perfectos ejemplos de “montaje en paralelo” con el famoso baile de calqué del actor tristemente fallecido Gregory Hines. Aquí otra vez sobresale por encima de todo la fuerza, la potencia y la energía del sonido, que a través de una melodía permite a Coppola narrar “en paralelo” dos momentos totalmente diferentes en espacio pero no en tiempo, y de diferente matiz dramático. Tratando de combinar el romanticismo y el terror, Coppola rueda en 1990, el “Drácula de Bram Stoker”. Con una ambientación y una puesta en escena magnifica, el vampiro que nos presenta el director es un ser atormentado que va tras el amor perdido. Aquí otra vez más, Coppola se sirve del sonido en su apuesta más barroca y sofisticada para vestir su cinta de una música sublime, la de Wojciech Kilar y de un diseño sonoro excepcional a cargo del equipo técnico de Tom C. Mcarthy (Oscar al mejor sonido 1992). En los últimos tiempos Francis Ford Coppola se ha dedicado a otros oficios, como el de atender su producción vinícola en el valle de Napa (California) y a producir largometrajes, entre ellos los de su hija Sofia, que se ha convertido también una notable directora de cine. Martin Scorsese, es un guionista, director, actor y productor neoyorkino, que desciende de inmigrantes sicilianos. Casi llegó a ser cura, pero afortunadamente el cine lo ganó para nuestra causa, bueno el cine y un enorme actor como Robert de Niro, su protagonista preferido en tantos y tantos éxitos. En “Taxi Driver”, rodada hace ya 40 años, De Niro al que siempre le ha gustado preparar concienzudamente sus papeles, se hizo taxista real por un tiempo y se paseó por un Nueva York, violento y duro que ya no existe. De hecho cuando Scorsese entrego la copia de la película, a la asociación encargada de clasificarla, le dieron la peor noticia posible, era una película X. Eso quería decir que casi �11 nadie la vería, de manera que Martin Scorsese, se las tuvo que ingeniar para que sin reducir nada del metraje, la violencia de la película fuese aceptable. También con De Niro rodó “Toro salvaje” (1980). Otros importantes títulos en su carrera son: “El color del 99 dinero” (1986) con Paul Newman y Tom Cruise, “La última tentación de Cristo” (1988), 100 “Uno de los nuestros” (1990), “Casino” (1995), ”Gangs of New York” (2002), “El aviador” (2004) e “Infiltrados” (2006), su tercera colaboración con Leonardo DiCaprio, que le supuso al director su primer Oscar, después de innumerables nominaciones. Uno de sus amigos íntimos, junto a Coppola y George Lucas que además fue el encargado de entregarle el galardón, es nuestro siguiente protagonista, el sonido y “enfant terrible” de Hollywood, Steven Spielberg .101 El niño que nunca creció, el mago de la fantasía y de los efectos especiales, comenzó sin embargo con una película terrorífica, “El diablo sobre ruedas” (1971), y siguió cultivando el suspense con su gran éxito “Tiburón” (1975). Pero como su imaginación es desbordante y no tiene limites, es capaz de darle una vuelta de tuerca incluso a las películas de seres de otro planeta y ciencia-ficción, creando el alienígena mas tierno y amoroso que la gran pantalla ha dado, “E.T. el extraterrestre” (1982). Años antes en 1977 ya había abordado el tema desde otra perspectiva con “Encuentros en la tercera fase”. Y como para Steven Spielberg no hay nada imposible se lanza al cine de aventuras en sus esencias más clásicas y nos ofrece toda la saga de Indiana Jones , con un Harrison Ford que aparece ya bien entrado en años en la última 102 entrega,” Indiana Jones y el reino de la calavera de cristal” (2008). Y aún nos quedaba “Biopic” sobre el boxeador Jake LaMotta, que le valió un Oscar a Robert de Niro.99 Que contó con la música de Peter Gabriel.100 Steven Spielberg es conocido como el rey Midas del Cine. Su capacidad innata para contar historias le 101 convirtió muy pronto en el niño mimado de Hollywood. Capaz de manejar a la perfección el ritmo y la narrativa cinematográfica apunta ya maneras en su primer trabajo Amblin, una película sobre la amistad entre dos autoestopistas. ET y Jurassic Park se convirtieron en las películas mas taquilleras de la historia en Norte America. Fue nominado siete veces a los Oscar y obtuvo en dos ocasiones dicho premio con Salvad al soldado Ryan y la Lista de Schindler. Personaje creado por George Lucas, también creador de la saga “La guerra de las galaxias”.102 �11 una última sorpresa “made in Spielberg”, un film que puso un nudo en la garganta de espectadores y críticos y que mostraba un tono totalmente distinto al habitual al que nos tenia acostumbrados; nos referimos por supuesto a “La lista de Schindler” (1993). La película totalmente rodada en blanco y negro, solo tiene una imagen en color, donde una pequeña niña judía camina entre el caos y el tumulto de un “ghetto”. En esa niña solo destaca una mancha roja; es la del color de su abrigo, que como una mancha de sangre inocente camina hacía la muerte. Más adelante Spielberg creará conjuntamente con otras dos personalidades del mundo del entretenimiento y el espectáculo David Geffen y Jeffrey Katzenberg, la productora “DreamWorks ”, responsable de numerosas cintas inolvidables como Shreck. 103 Desgraciadamente, su sueño de crear un espacio independiente de jóvenes y no tan jóvenes talentos de Hollywood, como lo intentara en su momento Coppola con “Zeotrope”, donde pudiera tener el control creativo y de contenidos, frente a las grandes potencias mediatices, Sony etc, fracasó irremediablemente, teniendo que vender su proyecto a la gran multinacional Viacom. El cine de Estados Unidos sigue ofreciéndonos hasta el día de hoy, “más estrellas que en el cielo” en todas las categorías cinematográficas, y contarlas y describirlas, “misión imposible”. Los hermanos Cohen, Quentin Tarantino, Speke Lee, Terrence Malik, Steven Soderbergh, Danny Boyle son algunos de los directores más interesantes en la actualidad. DreamWorks es un estudio de cine que produce y distribuye películas, así como videojuegos y programas 103 de televisión. Fundado el 12 de octubre de 1994, poco tiempo después de que Jeffre y Zatzenmberg renunciara enThe Walt Disney Company. Con el dinero obtenido tras una demanda hecha contra Disney, Katzenberg se unió junto a Steven Spielberg y David Geffen para formar el estudio. Luego entre 2005 y 2006 fue vendida a la Paramount, pero en octubre de 2008 DreamWorks acordó el fin de su vinculación con ésta. La empresa ha producido y distribuido filmes de una gran rentabilidad (blockbusters), siendo ShreK 2 su película más exitosa hasta el momento. En diciembre de 2005, Spielberg, Katzenberg y Geffen vendieron el estudio a Viacom en una transacción que no culminaría hasta febrero de 2006. Viacom, representa un estudio que dirige y produce películas tanto con actores reales como cine de animación. �11 La brecha entre el cine americano comercial, de millones y millones de dólares de presupuesto, que aspira a grandes taquillas y a ”precuelas” y “secuelas”, y los que presumen de estar en el Festival de Sundance , con un cine diferente y de más bajo 104 presupuesto es grande, pero en algún momento las lineas se cruzan, porque el cine es un reflejo de los pueblos, de sus culturas, de sus gentes, y la globalización de las comunicaciones tiende en su parte positiva a conocerse entenderse y en la negativa a la uniformidad del discurso. El cine europeo ha sabido sobrevivir, al contrario de lo que opinan otros, por contar historias propias, de una manera sencilla y directa. Los demás “se han asomado “ a Europa. Las películas orientales han sobrepasado fronteras, porque nos hablaban desde otro lenguaje visual y sonoro, con un mundo de simbolismos que nos fascina. Y en cuanto a Estados Unidos ha sabido como nadie exportar su propio modo de vida y de llevarla a la pantalla a todo el mundo. Norteamérica, en cuanto al cine se refiere “se ha mostrado y exportado” al mundo. Podríamos muy bien resumir la cultura del cine en estos tres Continentes con frases de tres directores:un europeo, un oriental y un norteamericano: “La fotografía es verdad. Y el cine es una verdad 24 veces por segundo”. ( Jean Luc Godard) “ Las palabras no son planas, son esferas multifacéticas”. ( Akira Kurosawa) Festival de cine independiente, fundado en 1978 por Robert Redford.104 �12 “El secreto de la película, es que es una ilusión” ( George Lucas) Aunque a esto último se podría apostillar la frase de “Lawrence de Arabia”: “Las ilusiones pueden ser muy poderosas”. �12 9. Elementos de la banda sonora cinematográfica 9.1 La Voz (el diálogo) El lenguaje , representa uno de los elementos que indiscutiblemente otorga al 105 hombre un estatus especial, sobre las demás especies, y que sirve no solo de elemento diferenciador, sino además de valor añadido, por su plasticidad, por su transversalidad y por la capacidad de evolucionar y adaptarse a lo largo del desarrollo de las diferentes épocas históricas y culturales. Mucho ha acontecido desde ese primer grito gutural de la especie humana, cuando vivíamos en cavernas y pintábamos figuras en las paredes, hasta hoy, en una sociedad cuyo valor fundamental es precisamente la comunicación, la información. Ha sido una lenta, compleja pero perfecta evolución a lo largo de la historia desde los albores del hombre hasta nuestros días. Esta evolución, ha pasado forzosamente por unas etapas, por unos hitos concretos a lo largo del devenir de los tiempos, como es por ejemplo la aparición de los primeros sonidos onomatopéyicos, las imitaciones sonoras para señalar acciones o indicar objetos, posteriormente la aparición de los fonemas para nombrar las cosas, hasta llegar finalmente a los conceptos abstractos. Todo lo anterior es una realidad que depende de muchos elementos, pero que fundamentalmente tiene su origen en la interacción del hombre con otros grupos y El lenguaje se se nos presenta, como la primera forma de comunicación desde los primeros balbuceos, o 105 ruidos guturales producidos desde nuestra infancia, pasando por todas las etapas de expresión oral, hasta llegar a la letra, palabra, y finalmente la frase. �12 personas, por su capacidad de relacionarse, agruparse, comunicarse. La necesidad del hombre a lo largo de su evolución, de mejorar su forma y mecanismo de interactuar con el otro, fue un incentivo importante para la aparición de nuevas posibilidades en el aparato de fonación, así como del desarrollo de las diferentes zonas del cerebro, responsables del lenguaje y el razonamiento. En resumen, todo este proceso cuya evolución y desarrollo ha durado miles de años, ha servido para obtener hoy en día, como resultado, este increíble y complejo sistema sonoro de comunicación . Si echamos un vistazo al proceso evolutivo del 106 hombre, podemos subrayar que ya en el vientre materno, el oído se distingue por ser uno de los órganos cuyo desarrollo aparece ya en las primeras fases de la evolución del propio feto, siendo el segundo sistema sensorial que desarrolla el futuro bebe. En pocas palabras, esto ya nos tiene que indicar la importancia futura que tendrá éste órgano sobre el resto y cómo lentamente irá adquiriendo peso especifico no solo a lo largo de los meses de gestación sino también posteriormente durante la evolución y desarrollo de la persona en su entorno socio-cultural. Uno de los elementos más impactantes durante la evolución del niño en el vientre materno, es la capacidad de éste en la semana 34 de gestación , de ser capaz de 107 distinguir sonidos y voces de personas por increíble que esto nos pueda parecer. Debido a que se encuentra en un medio liquido y elástico, la placenta, los sonidos que le llegan no poseen una clara definición en frecuencias medias, donde se localizan tanto las consonantes como la mayor parte de la información racional que tiene que ver con el FAZENDA, B.M, Avis, M, and Davies, W.J. Perception of Modal Distribution Metrics in Critical Listening 106 Spaces. Dependence on Rooms Aspect Ratios. J. Audio Eng. Soc., 53, 2005, pp. 1128–1141: los espacios y volúmenes físicos, afectan directamente a la reproducción y escucha sonora así como a la percepción psicológica de la misma. Un ejemplo seria la percepción sonora dentro del vientre materno y su representación organizacional para el futuro bebé. BERGER, A. Psicología del desarrollo. Editorial medica panamericana, Buenos Aires, 2006. El autor 107 estudia el desarrollo del feto, y entre sus descubrimientos cabe destacar el de comprobar como la discriminacion de las sílabas de las palabras, aparece antes de que se haya terminado de formarse completamente el córtex cerebral. �12 habla. El bebé en este momento, es solo capaz de percibir las frecuencias graves de los sonidos, pudiendo distinguir aquellos con mayor o menor volumen o intensidad, entonaciones que suben y bajan, ritmos apurados como pausados. Recordemos que el mundo exterior le llega al bebé a través de las vibraciones sonoras que la propia madre genera al hablar, y que se transmiten a través de los huesos y estructura corporal hasta llegar al seno materno que cual caja de resonancia, amplifica estas señales, permitiendo que el niño pueda percibir diferentes frecuencias, tonalidades etc. Esto a su vez facilita que sea el sentido del oído, el primero que ya desde el vientre materno tenga una actividad, entrenamiento temprano, pero que además vaya evolucionando con precisión y facilidad a lo largo de los restantes meses de gestación. Este es el motivo y la explicación al hecho de que ya al nacer, nosotros seamos capaces de identificar, a través de los matices sonoros, las voces más familiares, y en especial la de la madre. Posteriormente empezará un largo y complejo proceso evolutivo del habla del niño pasando del balbuceo a la articulación de los sonidos, a través del aprendizaje y de la practica del mismo, al principio confundiendo la sonoridades hasta llegar más tarde, a la percepción del habla. Todo esto no hace más que reforzar una idea básica que pretende demostrar como en el proceso evolutivo del lenguaje del niño existen dos elementos claramente diferenciados y constitutivos del mismo, por un lado la parte más racional o informativa, y por otro, la parte más lúdica o musical, que conecta con el aspecto más irracional e imaginativo del niño. El lenguaje es un elemento plástico cuya evolución pasa como hemos dicho anteriormente por las diferentes fases de su desarrollo, por la articulación y el aprendizaje del aparato fonador, pasando por esos primeros balbuceos incomprensibles hasta la aparición de los primeros fonemas y estructuras verbales. �12 También es verdad que este proceso de aprendizaje no estaría completo si la persona no añadiera a la información, la parte emocional y musical que ésta tiene. No hay ninguna duda que el sonido, las palabras, tienen un vínculo muy estrecho con la información emocional, con los sentimientos, con las sensaciones. Por eso la palabra tiene un gran poder. Tiene información, y emoción, dos elementos que se graban plásticamente en nuestra estructura cerebral y que van conformando el complejo entramado de nuestro lenguaje. Los estudios que se han realizado sobre el habla y el reconocimiento verbal, demuestran que la entonación que más adelante caracterizará al adulto, esta ya presente en el balbuceo del bebé, mucho antes de que éste comience a hablar. Es decir, el niño empieza a comprender las entonaciones muchos antes que las palabras, y esto es importantísimo, ya que a través de la entonación el niño puede llegar a comprender el sentido de lo que se intenta comunicar. Todo esto permite inferir que la importancia de la parte musical del lenguaje tiene en un primer momento mucho más peso que la parte más informativa y formal, y que este fenómeno influye directamente sobre lo que intentamos comunicar independientemente del contenido que utilicemos. De aquí parte la idea de que aún siendo diferente para cada idioma, cuando oímos una frase que tiene una entonación especial, aunque no entendamos su significado lingüístico, si podemos percibir el sentimiento o la emoción que esté despierta. Es decir, reaccionamos ante la emoción que el lenguaje provoca, independientemente del mensaje que este transmite. Un fenómeno similar ocurre con las canciones en un idioma extraño. Aunque no comprendamos el texto, hay algo que nos emociona y conmueve. Por este motivo decimos que la música representa un lenguaje universal fácilmente comprensible por todas las personas independientemente de su origen, cultura, idioma o formación. �12 El científico ruso Pavlov (uno de los padres de la psicología actual), en su 108 estudio sobre los reflejos condicionados, por lo que es conocida y reconocida su obra, desarrolló la idea de que la palabra, funciona para el hombre como un estimulo condicionado, de igual manera que los propios estímulos afectan al resto de los demás animales en su comportamiento. Sin duda, la palabra como elemento diferenciador con respecto a las demás especies, se convierte en un vehículo lleno no solo de significado, sino también emoción, a tal punto que por sí solo, por la carga expresiva que conlleva es capaz de elicitar incluso respuestas fisiológicas . El hombre, a través del lenguaje, se reencuentra con su historia pasada presente y futura, convirtiéndose la emoción en el protagonista de su comportamiento. La evocación del lenguaje es tan poderosa que nos puede llevar a inducir estados de sugestión, podemos quedar como hipnotizados, puede inducirnos incluso a nivel psicológico. De esta manera, un determinado tipo de lenguaje, se traslada al mundo del celuloide, donde se transformará en un componente insoslayable sobre el que se apoya el guión o la historia, para producir situaciones emocionales, y donde los actores a través del lenguaje van a contar su historia, y a entrecruzar sentimientos y opiniones. El cine siempre ha querido comunicar con el espectador, siempre ha necesitado un lenguaje; es por eso que durante la época del cine mudo, se iban intercalando títulos y frases para que se pudiese entender la historia. Incluso éste tipo de cine necesitaba una serie de signos gráficos para comunicarse. El lenguaje en el cine ha sido importante desde siempre y se ha convertido en centro de atención incluso durante el cine mudo, con la proyección de frases escritas que se iban intercalando a lo largo de la historia. Esto ROBINSON Lloyd, D. Crecimiento y Educación. Editorial Paidos. Buenos AIres, 2008: el autor108 habla del condicionamiento operante y la sociedad occidental. Destaca patrones de conducta sujetos a patrones físicos ambientales y comportamentales. �12 quería decir, que en el cine mudo, el lenguaje también estaba presente, pero bajo forma de representación gráfica. La importancia del diálogo en el cine es tan grande, que Pudovkin escribió: «En 109 el cine mudo la palabra aparecía en forma de leyendas de entonación sonora y viviente, que en cierta manera eran el resultado final de la interpretación profunda del gesto en el que se descubría el estado interior del personaje. Naturalmente, el cine fue un vasto campo de búsquedas para la expresión muda de la vida interior del hombre». La dificultad de las frases intercaladas desapareció con la llegada del sonido. Los intertítulos representaban a veces una molestia para el espectador sobre todo si tenemos en cuenta películas que tenían un montaje complejo. En realidad no sabemos porque el cine mudo no instalo desde el principio los subtítulos. Con la llegada del cine sonoro, empieza un nuevo tiempo. La voz hablada es toda una revolución tecnológica, que rompe de forma clara con lo anterior. Suprimir la Pudovkin autor de la Madre y del Acorazado Potemkin, fué uno de los realizadores mas importantes de la 109 Union Sovietica de los años 1920 cuya novedad era la de planificar el propio montaje en el propio proceso de escritura del guión. Eisenstein era partidario de utilizar la técnica del montaje a posteriori, utilizando imágenes para resolver conflictos y situaciones. Además Pudovkin está en contra del uso del plano general ya que para el tiene mas peso y poder narrativo los planos próximos de detalle. Vsévolod Pudovkin �12 tendencia natural de los actores a declamar ampulosamente el texto, como habían aprendido en el teatro, supuso cierta dificultad, pero poco a poco, la técnica se fue mejorando y dio lugar a diálogos creíbles y realistas. Cómo suena una voz puede transmitir muchas cosas, frialdad, calidez, desdén, amargura etc. Estos elementos en ocasiones pasan completamente desapercibidos en el proceso de selección de actores. Porque lo que sucede en muchas ocasiones, es que el director escoge al personaje teniendo en cuenta su físico, e ignora lo importante que es dar vida sonoramente a un protagonista en el cine. Así pasa en la mayoría de los castings que se da importancia a la estética física y a la estética sonora. En muchas ocasiones la apariencia y el timbre de la voz de los actores, nada tiene que ver con los personajes que interpretan. Y esto es importante tenerlo en cuenta, porque cómo habla el personaje es fundamental, y en muchas ocasione no está a la altura del cuerpo que lo contiene, y eso hace que el personaje que interpreta sea artificioso y nada creíble. Dependiendo de donde procede el personaje, de su educación, de su lugar de nacimiento, de su clase social etc, los personajes hablan de una manera o de otra. Utilizan una jerga peculiar una entonación o musicalidad diferente y eso es lo que le hace autentico. De acuerdo a su psicología, procedencia, lugar de origen, estrato social, etc., cada personaje tiene una forma peculiar de hablar, unos modismos, una musicalidad propia que lo diferencia de los demás y que lo hace auténtico ante los espectadores. Por supuesto, no tienen que hablar como el guionista. Estas observaciones sobre voces y personajes tienen su máximo exponente en medios no visuales como la radio. Sin la imagen, el sonido se vuelve importantísimo a la hora de valorar sensaciones. �12 Se crea una estructura en nuestro cerebro , que construye una edificación mental 110 partiendo de las peculiaridades vocales y sonoras del personaje que aparece en pantalla. Nuestro cerebro busca elementos en el lenguaje, en el acento, en la dimensión física que le permita conocer avanzar y descubrir más documentación sobre el propio personaje; y lo imprescindible, nuestra mente rastrea señales y marcas que le permitan percibir el personaje como algo real, y auténtico. Si el público no siente que el personaje es real y auténtico, no puede identificarse con el. Y la voz forma parte imprescindible para que ese sentimiento de autenticidad y veracidad llegue al espectador. Entre los ejemplos más conocidos, podemos citar el caso Vito Corleone , en la 111 película del Padrino. Marlon Brando fue el que aconsejó al director Coppola, de cambiar su aspecto introduciendo unos algodones en la boca para marcar más la forma de la mandíbula, y a su vez cambiar el timbre y el tono de su voz dándole un aire mucho más pesado y marcado. GJERLOW, K / OBLER K, El cerebro y el lenguaje. Ed. Akal, NY 2003: afirman que la información que 110 proviene de la propia voz (volumen, fuerza, presencia, tono, etc), nos proporciona datos de la propia persona, su personalidad, actitud, etc . Esta teoría esta en consonancia con la de la Gestalt donde las partes no representa el todo, sino solo una representación de este. Brando, era una persona increíblemente imaginativa e involucrada al máximo en cada rodaje. De hecho, 111 la idea de caracterizar a Don Corleone aumentando el tamaño de sus mandíbula fue precisamente suya, cuando propuso al director colocarse unos algodones dentro de la boca para que su aspecto pareciese mas grave y serio. Poster de la película �12 ¿Quien no recuerda la secuencia inicial de la película El Padrino ?.112 Marlon Brando aparece con un gato en su regazo, y habla con un cierto aire tedioso, profundamente amenazador. Sin duda una interpretación que hizo historia. Brando interpreta al prototipo de la mafia, que por cierto ha sido copiado posteriormente en otras muchas producciones sobre el mismo tema. Y es que la presencia y la forma de comunicarse ha servido de ejemplo para otros muchos actores y trabajos. Estamos ante un ejemplo importante, donde podemos observar la gran importancia que la voz tiene en un personaje. Lo mismo que él, otros personajes de la película tienen las mismas características sonoras, y es notable el esfuerzo realizado para mezclar haciendo creíble ese inglés e italiano tan característico de aquella época. Esto lo podemos ver en la secuencia de Michael (Al Pacino) con Sollozzo y el capitán McCluskey. Hay que destacar como el director, pone el énfasis exclusivamente en el diálogo, dejando que se pierdan los efectos, los ambientes y la música para bucear en el alma de Michael, en el torbellino de sensaciones que esta sintiendo, en su mirada que refleja la tensión y desesperación del momento. Él sabe que tiene que actuar, vengar a su padre. Coppola, utiliza el sonido del tranvía, sus chirridos metálicos, que acompañarán la El padrino (título original en inglés The Godfather ) fue dirigida por Francis Ford Coppola en 1972 y fue 112 producido por Albert S. Ruddy de Paramount Pictures. El guión de Mario Puzo fue adaptado por el director, Robert Towne y el propio autor de la novela. �13 secuencia final, creando un increscendo sonoro que culminará con la muerte de Sollozzo y el capitán McCluskey. Sollozzo le habla en italiano a Michael para «estar más cerca de él». (V10). Michael responde en italiano, pero al cabo del tiempo vuelve al inglés; le cuesta pensar en italiano, su lengua es el inglés; es un hombre de los nuevos tiempos en EE.UU. Otro caso interesante si hablamos de la importancia del diálogo en el cine, es la interpretación de Meryl Streep (V11), en “La decisión de Sophie” (Shopie's Choice) de Alan J. Pakula 1982, en la que interpreta a una polaca que vive atormentada por su pasado. Los actores recrean con el tono y carácter, la voz de sus personajes para lograr la máxima credibilidad y autenticidad. Sin duda, una gran secuencia, no solo por la bondad interpretativa de Streep, sino también por su gran capacidad de asimilar el personaje y su acento polaco con el que se dirige a su interlocutor. �13 Otro ejemplo es también la interpretación de Meryl Streep en la mítica película “Memorias de Africa” en la que imita perfectamente el acento danés de su protagonista. A veces no se da la importancia debida a la voz y solo se recurre a ella para comunicar información ecuánime, olvidándose el potencial emotivo y persuasivo de ésta. Son chocantes esas películas sobre la Segunda Guerra Mundial donde los alemanes hablan en perfecto inglés con acento norteamericano. O cuando en las versiones a otros idioma escuchamos a actores para nosotros muy populares, incluso a nivel de voz, expresándose con toda naturalidad en el lenguaje “barriobajero” de ese idioma, con dichos y “coletillas”. Porque lo cierto es que uno de los componentes más importantes y dificultosos en la creación de un producto audiovisual, son los diálogos. Deben resultar naturales, fluidos, creíbles y eso conlleva un gran conocimiento de los distintos estratos de un idioma. Es a través de los diálogos, donde los personajes intercambian sentimientos, emociones, ideas y conceptos, que se van entrelazando a través de intercambios de Poster de la película �13 información, y donde el público cual espectador es el que recibe la carga emotiva de la historia, a través de las distintas situaciones y momentos de la película. Una película sin diálogos es inconcebible, incluso el cine mudo se servía de carteles con texto que se iban intercalando, para poder contar bien las historias y poder expresar las emociones y caracteres de los personajes. Porque en un guión de cine los diálogos resultan ser algo así como la letra que acompaña a las notas musicales en una partitura. En una canción hay música y letra, y si nosotros simplemente leemos la letra y no incorporamos una música, ese texto, en nuestro caso, esos diálogos, no tienen el menor sentido. El diálogo en el guión es algo así como la letra que hay en el pentagrama de una canción. Cuando interpretamos al completo esa canción, con letra y música, es cuando podemos comprender y disfrutar en toda su extensión lo que el compositor nos quiere transmitir. Es por eso que de igual manera, es bastante complicado en ocasiones, hacer la música de un texto escrito anteriormente y más si es de tipo poético. Es verdad que a veces un texto nos puede sugerir una melodía, pero muchas veces ocurre lo contrario, que el texto al ponerle música no tiene el mismo empuje. Si queremos conocer técnicamente como se manejan los diálogos durante el proceso de montaje de sonido, tenemos que recordar que estos viajan obligatoriamente en el canal central (altavoz central de la sala de cine) en una producción 5.1 Lo que sucede en una película se desarrolla en el centro de la pantalla, pero los personajes y por tanto los diálogos, se están moviendo a veces continuamente, de un lugar a otro y nosotros tenemos que seguir y situar el sonido de los personajes, acomodándolos a cada uno en su espacio y término, y haciendo variar por tanto los planos y la intensidad del sonido, que esto es lo que hará creíble y real lo que queremos hacer llegar al espectador. �13 9.2 Tipos de lenguaje Desde el punto de vista psicológico, podemos distinguir cuatro formas en las que se puede organizar el lenguaje humano: 9.2.1. Lenguaje discursivo (monólogos) Tratamos de un nivel verbal muy elevado, que requiere de un grado de educación capaz de desarrollar complejos pensamientos hablados. Este lenguaje se sustenta en componentes no lingüísticos, como pueden ser gestos, el lenguaje no verbal involuntario, el color, tono y timbre de la voz, los pequeños y en ocasiones imperceptibles “tics” etc. Se nutre sobre todo, de lo que recibe el que escucha del que habla, y al contrario, es una especie de retroalimentación (input-ouput). Esto ocurre mucho cuando un profesor da clases magistrales se dirige a un selecto grupo de alumnos ó simplemente se dirige a un grupo. Siempre existe un efecto “feedback” que suele ser muy enriquecedor. En muchas cintas de cine podemos descubrir algunos ejemplos de este tipo de lenguaje, que está basado en monólogos. Un ejemplo de lo que decimos lo podemos encontrar en la película “Perfume de mujer” de Martin Brest. En esa cinta hay que 113 subrayar especialmente la secuencia final, donde el Coronel Frank Slade, que interpreta Al Pacino, se dirige a los Profesores y alumnos de la Universidad, acusando y Esta película de una gran carga emotiva y con toques de humor, narra la historia de un joven cadete, al 113 que se designa para acompañar a un viejo,gruñón y ciego Coronel. Inolvidable sin duda la escena baile del tango que da título a la película. �13 descubriendo la mediocridad y la hipocresía de muchos de ellos y saliendo en defensa de su alumno Simms (V26). Este papel le sirvió a Al Pacino para recibir un Oscar por esta brillante y maravillosa interpretación de un coronel ciego, de fuerte personalidad pero un tanto cínico y desencantado de la vida, que sin embargo conserva en el fondo de su corazón el deseo de lo perdido. Podemos ir a otro ejemplo del lenguaje monologuista en la cinta “El último samurai” dirigida por Edward Zwicky y cuyo personaje protagonista es Tom Cruise. El film es en si mismo, una autentica belleza, y eso en buena parte se debe a un preciosista diseño de sonido. Lo que se escucha, el tratamiento sonoro, es absolutamente detallista y exquisito, realzando y dando apoyo y sustancia, a todas las escenas que van apareciendo, formando un “todo” con la imagen que nunca distorsiona ni distrae. Los diálogos la música, el paisaje y los personajes, están en perfecta armonía y aunque el texto tiene gran protagonismo, no choca, ni se enfrenta a los demás. �13 Es una mirada tranquila, sosegada a lo más básico y primitivo, el ser humano y su relación con el mundo que le rodea. (V12) También encontramos este tipo de lenguaje, en la película de Ridley Scott, “Gladiator”. Aquí, el monólogo se trasforma en arenga para los soldados, un autentico arte en la antigüedad dentro de la Oratoria. Conviene destacar un timbre poderoso, seguro y claro de la voz, que permiten transmitir valor energía y seguridad (V30), todo lo que se espera de alguien que sale a combatir y pelear por su patria. �13 En este caso, nos encontramos ante un tipo de monologo con una finalidad, un objetivo concreto, como es el de transmitir “fuerza y honor” como el mismo protagonista repite en varios momentos del metraje a sus soldados. Este momento, transmite gran intensidad, se escuchan las ardorosas palabras del protagonista y vemos la reacción de la tropa. 9.2.2. Diálogo coloquial (giros o jerga de la calle) Cuando se comienza una conversación entre dos o más personas realmente el lenguaje nace de una manera espontánea, y naturalmente los elementos no propiamente lingüísticos, tienen una mayor importancia porque además aparece un elemento nuevo y muy interesante, como es la existencia de un conocimiento previo entre los dos interlocutores, eso hace que en el lenguaje verbal puedan encontrarse lagunas, silencios o vacíos, sin que esto afecte en lo más mínimo, al hecho de poder comunicarse perfectamente. Eso es así porque previamente hay un conocimiento mutuo de la situación, entre todos los que se están comunicando, que sirve de apoyo a todo elemento informativo y comunicativo que se expresa indirectamente. A veces ni siquiera es preciso terminar una frase, para que la otra persona te entienda. El término de lenguaje aplicado al diálogo, lo utilizamos en aquellos casos donde éste sucede de forma espontánea, poco organizada y donde su estructura es arcaica y �13 sencilla, incluso pudiendo llegar a basarse en formas idiomáticas variadas, modismos, y “clichés” verbales basados en la forma musical del país donde acontezca. Es así como la gente adapta la técnica del habla a la métrica musical del lenguaje mismo, como ocurre por ejemplo con los siguientes ejemplos: “Me voy pa mi casa”. ¿Porqué has tardao? Encontramos este tipo de dialogo, basado en formas populares del lenguaje y giros lingüísticos, en la película “El día de la Bestia” de Alex de la Iglesia, con el personaje heavy y desaliñado que encarna el actor Santiago Segura. (V13). Esta frase suena mejor, tiene más música que : “Me voy para mi casa”, aunque desde luego gramaticalmente no sea lo más correcto. Es decir, el propio hablante en un acto espontáneo e involuntario, en muchas ocasiones, modifica la forma verbal, para adaptarla a una métrica especial, donde la tradición musical en este caso la Cubana, juega un importante protagonismo, ya que esta forma de lenguaje se mezcla sutilmente con la música autóctona, donde es necesario acortar palabras para encajar la frase dentro de una métrica puramente musical. El lenguaje, las palabras tiene su propio ritmo, una cadencia particular que tiene que ver con los idiomas. �13 Sobre este asunto el escritor cubano Alejo Carpentier escribió, a partir de sus 114 análisis de grabaciones que hizo de conversaciones reales :115 “La conversación tiene un ritmo, una falta de continuidad en las ideas a lo que se mezclan extrañas asociaciones, curiosas apelaciones, que en nada se parecen a los diálogos que llenan habitualmente cualquier novela. El resultado es prodigioso por lo imprevisto y por la revelación que constituye sobre las verdaderas leyes del estilo hablado. Estoy cada vez más convencido de que el diálogo, tal como se escribe, no corresponde en modo alguno a la mecánica del verdadero lenguaje hablado, y no me refiero sólo a las palabras, sino al movimiento, al ritmo, a la auténtica manera de discutir, de insultar, a la forma en que una idea se encadena uno con otra. Hay en el hablar algo mucho más vivo, desequilibrado, arrebatado, con cambios de movimientos, una sintaxis lógica que en realidad jamás ha sido captada”. En otro momento podemos leer las siguientes conclusiones a raíz de un nuevo experimento: “Para mí el diálogo, tal como podemos hallarlo en cualquier novela realista, es casi siempre artificial y ampuloso. Así, el diálogo que escuchamos en la comedia burguesa de comienzos de siglo ha pasado al relato con sus fórmulas hechas y sus mecanismos convencionales. A tal pregunta debe seguir, lógicamente, tal respuesta; a tal respuesta tal reacción psicológica. Las palabras saltan de boca en boca como pelotas de tenis, y cada uno de los jugadores sabe cuál es el “raquetazo" que corresponde a determinadas trayectorias. Yo aconsejaría el experimento siguiente: ocúltese el micrófono debajo de un mueble cuando varias personas están conversando despreocupadamente y examínese el Alejo Carpentier Valmont nace en 1904 en La Habana (Cuba). De padre arquitecto francés y maestra 114 rusa, vivió unos años en París donde estudió teoría musical. Regresó más tarde a Cuba, para estudiar arquitectura como su padre, carrera que más tarde abandonaría para adentrarse en la literatura y el periodismo, trabajó en el diario “La Discusión” y en la revista “Carteles” Publicado en la revista “Carteles” por Alejo Carpentier.115 �13 resultado, reloj en mano. Se verá con sorpresa que ningún tema de conversación se sostiene durante más de dos o tres minutos. Las palabras corren de la Ceca a la Meca, por mecanismos de asociación de ideas, en tránsitos que a veces no duran ni treinta segundos. Se pasa con vertiginosa rapidez de la enfermedad de un amigo a la exposición canina, al estreno de una obra, las carreras de caballos, al último libro leído, a las bellezas de la filatelia, a los amoríos de fulano, al suceso del día, a la compra ventajosa que se puede hacer en una tienda cercana… Pero no es todo; el lenguaje hablado procede por elipsis. Los interlocutores se entienden a medias palabras en virtud del mutuo conocimiento de ciertos tópicos”.116 9.2.3. Lenguaje interno o interior Esta es una forma de lenguaje que ha sido creado por el propio cine, bajo el concepto de “voz interior”, que resulta ser una de las expresiones más interesantes y peculiares de la expresión o comunicación dentro del arte y que tiene su reflejo en una conducta real que todo ser humana realiza en determinadas ocasiones. Hablamos de lo que acontece cuando tratamos de planificar la actividad teórica o práctica. Para crear este tipo de conversación, se disparan una serie de mecanismos mentales que hace que conversemos con nosotros mismos, de forma silenciosa e interna, con un ritmo propio y especial, incluso con una entonación característica Publicado en la revista “Carteles” por Alejo Carpentier.116 �14 Nos preguntamos que ha ocurrido, evaluamos una situación, o una posible solución a un problema, realizando un cálculo interno, cuya realidad se caracteriza por la discontinuidad y fragmentación y que se relaciona muy estrechamente con el movimiento espontáneo e incontrolado de nuestros labios, en el intento de exteriorizar de forma discreta nuestro discurso de lenguaje interior. Veamos algunos ejemplos de lo aquí expuesto: En este caso presento dos muestras diferentes, la primera pertenece a la película “La Buena Estrella” (V14) de Ricardo Franco, en cuyo montaje de sonido trabajé y ganadora de tres premios Goya: Mejor Actor, Mejor Película y Mejor Director. Los personajes de esta película, están marcados por un destino, o por una “estrella”, a veces “buena” a veces “mala, pero marcado por la fatalidad, por algo que uno no puede controlar como ve en esta triste historia. Basada en hechos reales, ésta cinta trata de sentimientos, de amores encontrados, y de la vida misma, con sus contradicciones, desilusiones y alegrías, también con sus amarguras y carencias personales. A veces, se tiene la sensación de que el dialogo oculto, el que permanece en el alma de cada personaje implícito, tiene mayor peso y presencia que el que se expresa �14 directamente. Que la mochila que uno lleva dentro pesa y marca más que los elementos exteriores. Ese lenguaje interior esta perfectamente plasmado en la siguiente secuencia. El segundo extracto pertenece a la película “El Ultimo Samurai” (V15). El lenguaje interior tiene una mecánica propia y es capaz, a través del silencio, articular un discurso coherente a partir de un lenguaje no exteriorizado pero poderoso y presente en la mente del individuo. Una de las características fundamentales ademas de ser interno es la ausencia de interlocutor. Uno habla con uno mismo y a veces se contesta en voz alta, se hace preguntas retóricas e inicia una serie de monólogos. El ser humano necesita verbalizar de alguna forma sus sentimientos. Naturalmente en ese proceso de lenguaje interno o interiorizado, no necesitamos de interlocutor alguno que tenga presencia física, aunque en ocasiones si podemos interpelar a personas ausentes, pero que son los causantes de nuestras cuitas o preocupaciones. En el cine se recurre en innumerables ocasiones a esa técnica ó recurso expresivo del lenguaje interior; ese lenguaje interior casi siempre tiene un tono o timbre sonoro reflexivo, pausado, relajante o al menos aparentemente neutro. Necesitamos que sea así para poder pensar mejor y tomar decisiones, o simplemente reflexionar. Por eso �14 la voz suele estar ecualizada, de manera que las frecuencias de agudos, si es que las hay en algún momento, no rompan el discurso y se mantenga así el carácter intimo y reflexivo. Crear este tipo de sensaciones que lleguen al espectador, requiere un tipo de diseño especial del texto, una manera de contar, de expresar las cosas en voz baja, como susurrando. Para ello se utiliza una técnica que consiste en aproximar lo más posible, sin que exista distorsión, los labios del actor al micrófono, que así puede recoger todo tipo de matices sonoros y transmitir sensaciones a “flor de piel”. De esta forma, al escuchar una voz, podemos comprender fácilmente que se trata de pensamientos. De lo contrario, tendremos la sensación de escuchar una historia que alguien le cuenta a otro. Es decir, la sensación de proximidad de la fuente de sonido tiene que exagerarse, casi como si en un determinado momento, intentáramos leer los labios al protagonista. 9.2.4. Lenguaje escrito (El guión) Evidentemente estos diálogos se asemejan en gran medida al hablado, pero tienen una mayor expresividad y riqueza porque no hay una respuesta del interlocutor, del otro, ni tampoco se sustentan basados en los gestos del cuerpo, que vienen a reforzar todo lo que se dice etc. Para comunicarnos de una manera eficiente, todo tiene que estar atado y muy bien armado, porque de esa precisión y coherencia, depende la claridad y comprensión y el buen seguimiento de un guión cinematográfico. �14 Este es el lenguaje que nace en el propio guión, donde se van construyendo poco a poco los personajes, las escenas, las secuencias, la trama etc. Debemos ser muy exactos al escribir para que el lector comprenda sin la menor duda de lo que queremos comunicar. Es un tipo de lenguaje que depende mucho del esfuerzo propio, de la voluntad. Hay un proceso de acercamiento desde un lenguaje interior hasta el escrito. Es como si nosotros nos dictáramos lo que tenemos que decir. El lenguaje escrito es mucho más sencillo y fácil de enseñar que el lenguaje hablado, porque es mucho más unívoco, menos proclive a los malentendidos, y por eso, resulta mas fácil transmitir el lenguaje escrito que el hablado. Pero el instrumento del lenguaje escrito es el que encontramos en la mayoría de los guiones de cine, donde la trama, la historia esta hecha más para ser leída que hablada. Siempre hay que hacer un esfuerzo suplementario para adaptar el sentido de lo escrito a las formas particulares de expresión de cada personaje, utilizando un tipo de lenguaje más coloquial y cercano.Vamos a ver un extracto de una página del guión original del “Día de la Bestia” del director Alex de la Iglesia y no perdamos de vista que los guiones siempre cambian y se modifican a lo largo de su escritura hasta llegar a una versión definitiva, en principio. El proceso del cambio de diálogos en un guión requiere el trabajo conjunto del director con sus actores a la hora de hacer rectificaciones. Lamentablemente, en algunos casos, los diálogos escritos se repiten tal como están en el texto, dando lugar a veces a una sensación de artificialidad y distancia del espectador con lo que se dice en la película. Esto siempre debe evitarse y puede hacerse, puliendo una y otra vez esos mismos diálogos. Una película a través de la pantalla tiene siempre que ser creíble, es el único modo de llegar a lo más profundo del espectador y emocionarlo. Porque en la vida real las �14 personas al comunicarse, al vivir, incorporan ese lenguaje y las innumerables expresiones faciales que las acompañan. Eso mismo tiene que suceder en la expresión cinematográfica del habla . 117 Es relativamente frecuente descubrir incongruencias y faltas de conexión entre lo que dicen los personajes, sus movimientos, como está situada la cámara y la ubicación del personaje durante la escena. En nuestra vida diaria todos nos comunicamos con naturalidad, siendo el gesto y el movimiento corporal, el compañero inseparable de nuestra expresión oral. ROMAGUERA, J. El lenguaje Cinematográfico. Ediciones de la Torre, Madrid 1999. Joaquin nos propone 117 el análisis del estilo, personajes, situaciones y materiales cinematográficos. Extracto del Guión �14 De una manera inconsciente transmitimos perfectamente ideas y emociones. Vsevolod Pudovkin escribió en “El actor de cine y el sistema Stanislavsky” :118 “Pienso que la cadena sentimiento-gesto-palabra es un reflejo directo de las relaciones naturales que se encuentran en el comportamiento real de cada hombre. Cuando el comportamiento físico del actor está bien elaborado, la palabra, que expresa directamente el pensamiento, ha adquirido la entonación viviente engendrada por el gesto, entonación que coronará definitivamente el juego escénico del actor, confiriéndole su vida propia.” Lo que nos cuenta Pudovkin debe ser tenido en cuenta, cuando se diseñan los planos, los desplazamientos de cámara, los encuadres, etc. Porque el tratamiento visual que se le dé a esas conversaciones entre personajes nunca puede ser ajeno a las leyes inexorables que rigen este tipo de comunicación. Por simples motivos estéticos y sin que esté plenamente justificado, no puede aparecer un movimiento circular o un acercamiento del plano sólo porque queda bonito con el paisaje. La puesta en escena y la colocación de la cámara deben estar en plena armonía y vibrar al unísono con el diálogo. 9.2.5. Lenguaje dialogado cinematográfico En el lenguaje dialogado nos comportamos de una manera naturalmente especial. Cambiamos nuestra situación corporal y la vamos adecuando a lo que decimos. Durante PUDOVKIN, V. El actor de cine y el sistema Stanislavsky. Pueblos Unidos, Montevideo 1957.118 �14 nuestra expresión hablada, nos acercamos, nos alejamos, movemos nuestro rostro, nuestros brazos. El actor tiene que ser convincente y convencer a la vez con su interpretación, para que su papel sea creíble, y para que de ésta manera el público se deje llevar por la historia, y permanezca emocionado, atento a lo que se va produciendo en la gran pantalla. De este modo apoyamos y reforzamos con nuestros gestos el discurso hablado, utilizando también efectos sonoros y musicales, que ayudan a que lleguen las intenciones y la emoción de lo que estamos diciendo. Cuando estamos hablando, no solo pasamos información racional, lógica y equilibrada a quienes nos están escuchando, sino que en buena medida hablamos un lenguaje no verbal que posee en si mismo una gran carga 119 informativa. Otro aspecto interesante de este proceso de adecuación de movimientos y gestos que acompañan el diálogo filmado es que, durante los ensayos y tomas, los actores tienen que tratar de repetir casi con exactitud, sus movimientos y posiciones con los textos de su interpretación. Tiene que ser algo prácticamente mecánico y que llegue a dar sensación de naturalidad. Imaginando una situación real de rodaje, es muy habitual que pueda darse también el caso de grabar diálogos fuera de cámara, con la mejor calidad posible. Son los llamados “wild track” (ó sonidos salvajes), que tendremos que registrar inmediatamente 120 al final de la última toma rodada, repitiendo exactamente el movimiento de la escena y el DAVIS, Flora. La comunicación no verbal. Alianza Editorial. Madrid, 2004: la autora investiga en las 119 formas de comunicación de carácter más inconsciente e involuntario que emitimos como señales informativas y que representan nuestro lenguaje más profundo y desconocido, pero que responde a su vez a las autenticas raíces de nuestros sentimientos y deseos. Es uno de los libros mas importantes que se hayan escrito de psicología y de teoría del comportamiento. Flora nos viene a indicar que la comunicación tiene dos lados o vertientes: la verbal, es decir, la palabra, y la no verbal, los gestos, la postura, etc y que per se, tiene un peso especifico en la comunicación mucho mayor que el lenguaje verbal manifiesto. Grabamos wild-tracks de diálogos, para asegurar aquellas interpretaciones que por cámara son buenas, 120 pero que aunque el director no quiso repetir la toma, por sonido, no valen. Suelen ser por motivos de ruidos, sonidos indeseados, o maquinas de lluvia y viento que se utilizan a veces en determinadas escenas de la película. �14 acting realizado delante de cámara. De esta manera se puede, con relativa facilidad, recuperar la sincronización y la actuación. Hacer este tipo de tomas al final del día o en otro momento no tiene ningún sentido, porque puede que perdamos completamente ese efecto de continuidad. Es como si a las aguas de un río que transcurre sereno, le pusiéramos cualquier obstáculo e interrumpiésemos así, esa sensación natural de tranquilidad que nos dan sus aguas. Para que el resultado de una obra cinematográfica sea óptimo, el sonido tiene que formar parte indisoluble de la historia del ”ánima“ de la película, desde el primer plano sonoro hasta la última maniobra de mezcla final. Ese resultado siempre es el fruto del trabajo y la colaboración de muchos especialistas y creativos, desde el director, hasta el último ayudante pasando por supuesto por el propio técnico de sonido. Lo que resulta de todo ese trabajo conjunto de artistas y profesionales, es lo que se intenta perseguir siempre en una producción; es decir de lo que se trata a fin de cuentas, es del “Sentido del sonido”. Todo lo que anteriormente he expuesto, sirve de repaso histórico a una fuente de acontecimientos que inciden directamente en la expresión audiovisual del lenguaje. Quizás, uno de los problemas fundamentales del cine, es que durante mucho tiempo el sonido ha estado supeditado a la imagen. Esto ha determinado el resultado estético de la obra, del propio guión, donde se ha dado la máxima prioridad a la parte visual y estética de la obra, relegando al sonido a un segundo término. He tratado, desde mi punto de vista, exponer una serie de temas críticos en la elaboración del material audiovisual y las formas de abordarlos, o lo que es lo mismo, el posible camino para llegar a un resultado deseado, siempre sabiendo que pisamos terreno resbaladizo y subjetivo. Atendiendo a la propia naturaleza del sonido y a su interdependencia con una gran variedad de fenómenos de orden expresivo, aunque parezca algo chocante e increíble, �14 quizá se pueda decir que el técnico de sonido, es el creativo en el proceso audiovisual, que menos depende para su éxito, de su talento, de su sensibilidad y de sus manos De ahí la frase lapidaria de un reconocido técnico de sonido francés, Antoine Bonfanti : 121 «Los directores tienen en sus películas el sonido que se merecen» Lo mismo que ocurre con la música, la palabra no nace, no se crea con la llegada del sonido: en las primeras exhibiciones cinematográficas en la época del cine mudo, precursor del sonoro, existían narradores en la sala y carteles de texto en imagen que iban informando del diálogo de los propios personajes, para que el público pudiera seguir y comprender la historia que veían en imágenes. También se incluía en muchas ocasiones música en directo, que ayudaba a reforzar e intensificar la narrativa de la cinta. Si una voz comentaba simultáneamente lo que se veía en imagen, los textos hablados implicaban siempre un cierto grado de improvisación, debido a la personalidad del comentarista y al contexto en el que realizaba su actuación. La voz, es en la mayoría de los casos, el material de sonido más importante en el que se basa la película. Chion escribe: “el cine es el centro de la voz” y distingue tres 122 tipos de palabras: La Palabra/ teatro: es la inteligibilidad absoluta / es pronunciada por los actores, es el diálogo que ellos interpretan y que asume diferentes funciones (información, dramático, humorístico…) Antoine Bonfanti. Traces sonores d'une écoute engagée. Centre national du cinéma et de l'image 121 animée. Paris, 2013. Documental. Es uno de los mas reconocidos sonidistas contemporáneos. Ha trabajado en películas como El ultimo Tango en Paris o La noche americana. Muere en Montpellier el tres de Marzo de 2006. CHION, Michel. El Sonido, Ed. Paidos Comunicación, Barcelona, 1999. El autor no concibe el cine sin 122 sonido, la imagen desnuda desprovista de su traje sonoro. Es un eminente investigador de la componente sonora en el contexto narrativo de una película. �14 La Palabra en el texto: inteligibilidad absoluta / la palabra del narrador establece la forma correcta lo que evocan las imágenes. La Palabra viva o emanación de la palabra: la palabra se convierte en fuente que fluye de los personajes y su carácter siempre tiene un contenido informativo, completando así la información visual de lo que nos muestra la pantalla. El papel del diálogo a partir de ahora es el de apoyar al personaje y añadir matices y pautas de información, ya sea una secuencia dramática, cómica, de aventura, o de terror etc. A veces en una película, ocurre ante un exceso de personajes y diálogos, que se pueda estropear la trama y toda la tensión acumulada en el metraje, pues se genera una interferencia en la comunicación con el público, con el espectador, ya que éste se ve saturado por demasiada información, que lo que hace en definitiva es ensuciar y oscurecer el significado de la secuencia. Uno de los mejores ejemplos de diálogo que he visto, en el que las palabras se utilizan realmente con racionalidad, pero a la vez teniendo un gran impacto sobre el espectador, es la primera escena de “Érase una vez en el Oeste” (V16) de Sergio Leone. �15 En esta secuencia encontramos a cuatro vaqueros que han llegado a la estación para esperar el tren, en el que viaja el personaje conocido simplemente como "Armónica" Estos cuatro personajes han sido enviados para matarle. Desde el punto de vista de los diálogos la escena es simplemente perfecta y maravillosa, porque además para enriquecer y reforzar la palabra, los fondos de ambiente y los efectos de sonido, se incorporan como una linea más del diálogo. Es un todo armonioso y bien urdido. Se escucha el incesante y monótono crujir de un molino de viento empujado por el viento, percibimos la brisa, el aire, como cae el agua sobre las botas del personaje y a eso se suma, el sonido estrepitoso y repetitivo del tren, sonidos todos ellos que nos evocan emociones, sensaciones y provocan estados de animo. Es un claro exponente de como, sin que nadie tenga que decir nada, la tensión en el ambiente va aumentando. Los compases de espera, ayudan a que el espectador tenga la sensación de que va a ocurrir algo terrible. En el aire se “masca la tragedia” y todavía no ha sucedido nada . Es la calma que precede a la tormenta. En esta secuencia es de vital importancia la música que acompaña la escena porque en si misma contiene mucha información adicional y elabora su propio diálogo, sin que hagan falta las palabras. Es el poder evocador de la música. Apenas cinco lineas de diálogos, nos bastan para situar a los personajes en sus respectivos lugares: “Are you with Frank?”
 “Frank sent us.”
 “Did you bring a horse for me?”
 �15 “Looks like we’re shy of one horse.”
 “You brought two, too many.” Las imágenes y los diálogos trabajan en perfecta sincronía y comunión durante estos increíbles diez minutos de la película. Imágenes y efectos de sonido, logran crear una atmósfera tensa, violenta, aterradora y nos obliga a contener la respiración, antes de que descubrir por medio de los diálogos, el motivo de la situación que se narra. Sin duda tenemos aquí un claro ejemplo, de cómo la utilización óptima de los diálogos, nos ayuda a transmitir un “plus” de carga informativa, y más que nada a potenciar la carga emocional que le llega al espectador. Sólo cinco líneas de diálogo, pero bien pensadas y bien dichas, con el tono y el “tempo” justo, pueden ser realmente geniales para el desarrollo de la historia del film. En el sistema de codificación del estándar 5.1 en cine, el canal central se reserva exclusivamente para diálogos, es decir es el altavoz donde en mayor medida se reproducen toda la parte hablada de la película. Recordemos que por defecto, los diálogos siguen al propio actor en pantalla en sus desplazamientos, por lo que en un montaje de varios canales, los diálogos aunque están preferiblemente en el canal central, pueden derivarse y desplazarse a cualquiera de los otros posibles. No hay que perder nunca de vista, que uno de los objetivos de los diálogos es que se puedan comprender y entender perfectamente, sea cual sea el montaje sonoro o la banda musical que esté sonando en ese momento. Por eso el montador debe tener siempre en cuenta que el texto hablado sea perfectamente inteligible, siempre por encima de cualquier otro elemento sonoro que este presente en la escena. �15 Siempre el objetivo del técnico de postproducción es el de dar prioridad al diálogo si éste coincide con efectos de sonido o con la música, y sólo en momentos donde no haya diálogo, la música o en su caso los efectos de sonido podrán tener mayor presencia y protagonismo para acompañar y potenciar las imágenes en pantalla. Es un modo de trabajar, que establece una férrea jerarquía de valores a la hora de trabajar toda la postproducción sonora de una película; de esta manera la dotamos de profundidad, mensaje claro, fuerza, creatividad e impacto a lo que vemos. Eso implica tener una escala de valores y de referencias, para poder colocar en orden de importancia en el montaje, los ambientes, los diálogos y la banda sonora. En postproducción hay un estándar de trabajo que ordena por importancia los diferentes elementos sonoros que integran una película. Así de más importante a menos, tenemos esta lista básica pero extraordinariamente útil a la hora de realizar el montaje y diseño sonoro final. 1) LOS DIÁLOGOS 2) LA MÚSICA 3) AMBIENTES Y FONDOS DE SONIDO En esta ordenación, el elemento que manda sobre todos los demás es sin duda el diálogo. Esto tiene una sencilla y clara explicación: la historia que se narra en el film, se tiene que entender perfectamente desde el primer plano hasta el último de la película. Insistimos en que en el canal central pueden viajar músicas, efectos de sonido o ambientes, pero siempre que el volumen no esté nunca por encima del diálogo impidiendo la perfecta comprensión del texto. La regla solo se puede romper si lo quiere el director, porque pretenda crear en el espectador un sentimiento de sorpresa, ó provocar cualquier otro tipo de reacción especial o emoción. �15 Si hay una trilogía representativa del cine actual, esa es sin ningún genero de duda la del Padrino, que cumple 40 años desde que fuera estrenada con enorme éxito de público y crítica. Todos coinciden en señalarla como una “obra maestra” del siglo XX, consagrando además a su director Francis Ford Coppola , como grande entre los 123 grandes, y convirtiéndolo de este modo, en un referente de su época y en una leyenda para el cine mundial de todos los tiempos. Francis Ford Coppola en los años 70, se hallaba entregado a realizar proyectos pequeños, de poca importancia y realizados en su mayor parte por estudios independientes de Hollywood, que no tenían mucha capacidad de repercusión. Así encontramos trabajos como “Llueve sobre mi corazón”, “Demencia 13”, o “El valle del arco iris”. El salto cualitativo viene más adelante, cuando se embarca en la trilogía de “El Padrino” cuyos guiones se basaron en la obra literaria de Mario Puzo. Las tres películas son piezas redondas donde todos los engranajes funcionan a la perfección, y donde la música que suena, adquiere una fuerza expresiva conmovedora que le lleva a romper las barreras del tiempo y de las modas imperantes. Una vez que el proyecto se puso en marcha, el director concentró todos sus esfuerzos en lograr un resultado excelente, único no solo desde el punto de vista de la elección de los actores, recordemos que en la cinta tenemos a actores hoy en día consagrados, pero no muy conocidos en aquélla época, a nivel del gran público como Robert Duvall (abogado y consejero de la familia Corleone), junto a monstruos del cine y la interpretación como Marlon Brando, sino también desde el punto de vista de la escenografía, de la dirección artística, del vestuario y ambientación, sin olvidar que la música fue uno de los aspectos fundamentales que Coppola cuidó con esmero. Coppola es considerado como uno de los mejores directores de la segunda mitad del siglo XX. Dos son 123 las películas que hoy por hoy reciben el titulo de obra maestra: El Padrino (I,II,III)y Apocalypse Now. �15 Esa impresionante banda sonora de Nino Rota, ha pasado a formar parte del inconsciente colectivo y se ha convertido en elemento indisoluble de nuestros recuerdos vitales. Basta con escuchar los primeros acordes y en un acto reflejo, involuntario, nuestro cerebro asocia esas notas, con las maravillosas secuencias de la trilogía, y nos lleva también visualmente, a una cuidada fotografía, donde el “claroscuro “ nos permite sentir la densidad y el peso de una atmósfera que nos acompañara durante toda la cinta. En ese ambiente de tensión contenida se desarrolla la primera secuencia de la película, cuando el personaje de Bonasera, nervioso pero decidido, visita a Don Vito Corleone, (V19) el mismo día en el que se casa su hija y todo el ambiente fuera del despacho es festivo. Casi nos sabemos de memoria los diálogos que intercambian en ese despacho de Dº Corleone, donde la penumbra y el silencio hacen más palpable que nunca el sentimiento de opresión, de temor y agobio, que la película transmite. Los elementos narrativos se desarrollan de forma magistral, comenzando piel modo en que se abre el plano y nos muestra la cara de Bonasera, pidiendo justicia a Dº Vito por la violación de la que ha sido objeto su hija. �15 Toda la sala de cine permanece absorta escuchando el trágico relato de Bonasera (Salvatore Corsitto). La escena se desarrolla en una casi total oscuridad dentro de el despacho de “El padrino” . Todo rezuma credibilidad en la imagen y en el discurso. El plano poco a poco se va abriendo y vemos entonces a un Marlon Brando (Vito Corleone) cuya interpretación roza la perfección y la genialidad. Es entonces, cuando después de la intervención dura y dolorosa de Bonasera, las palabras que le dirige Dº Corleone no dejan lugar a dudas; es el tono, el timbre y el aspecto de “un dios” El es el “gran Padrino”, el dueño y señor del poder, del dinero y de la mafia y por lo tanto de la vida y de la muerte. Sus rasgos faciales, caracterizados por esos algodones colocados en el interior de la mejillas, modificando la forma de la boca, hace posible que emane una voz, casi un susurro, que gracias a la magia de la gran pantalla, permanece y estará para siempre en la historia de la cinematografía y en la mente del publico. Es una voz que no se puede olvidar, ni confundir, con ninguna otra. Este podría ser uno de tantos ejemplos que podemos extraer de esta película, en la que se adivina, se transmite el poder inmenso que el sonido, la voz, los diálogos, tienen en esta saga y deben tener en las películas en general. No se puede comprender al personaje de Vito Corleone, si no lo escuchamos hablar de esa manera, con una voz que sale muy del interior del personaje, arrastrando las palabras, casi inaudible pero poderosa. Hemos de agradecer a Francis Ford Coppola que luchara con todas sus fuerzas con la productora, para que el actor que encarnara al “Padrino” fuese Marlon Brando a pesar de que los miembros de peso de la productora se opusieran de pleno. Curiosidades de la vida, esta película le sirvió al propio Brando para llevarse tiempo mas tarde, un nuevo Oscar. Pero volvamos de nuevo a esa primera escena, porque es donde se pone en valor de manera clara e inequívoca, la categoría moral que va a animar toda la trilogía: esa �15 súplica de Bonasera a Corleone, pidiendo justicia fuera de la justicia (“al modo nostro”justicia) muestra el papel de la organización criminal de la mafia, la forma “peculiar” de hacer justicia, donde se piensa que los cuerpos de seguridad son corruptos e ineficaces; una corrupción que ellos además alientan y proveen. ¿Como tener confianza entonces en una policía así? Eso justifica por lo tanto para ellos que no sea inmoral la ley del Talión (ojo por ojo, diente por diente), los mafiosos están “justificados” por su “especial código de honor” para hacer justicia por su cuenta y a su manera, creando una “sociedad dentro de otra sociedad”. Eso si, se comportan con unos modales elegantes e impecables y dentro de su “particular lógica, tiene sentido el diálogo que mantienen ("¿vienes a mi casa, el día de la boda de mi hija a pedirme que mate por dinero?”) porque ponen además en el centro del asunto, algo fundamental para ellos: la familia. “Creo en América. América hizo mi fortuna y he dado a mi hija una educación americana. Le di libertad, pero la enseñé a no deshonrar a su familia”. Este pensamiento, estas palabras, son una metáfora del cacareado “sueño americano”, sobre ese país que acoge a todo el mundo y le brinda nuevas oportunidades en su vida. “Creo en America” se escucha con la pantalla en negro, para después abrir plano lentamente sobre Bonasera. Y ciertamente, lo que se esconde detrás de esa afirmación rotunda, es mucho más que una creencia del personaje, es sin duda también lo que el propio Coppola piensa del asunto. Como hijo de inmigrantes italianos, para el director U.S.A. es la tierra de promisión, donde cualquiera trabajando duro puede convertir su sueño en realidad, lo triste es que esa realidad se extiende también a redes criminales como la mafia. En el transcurso de los primeros 25 minutos de la película, incluyendo ese portentoso y genial plano secuencia entre Bonasera y Corleone, lo que se hace es apostillar y presentar a los personajes, tal como son, su posición, el poder que ostentan, y �15 como no, los negocios que les unen y de los que se ocupa la organización criminal con Dº Corleone como “capo” principal al frente. En esta especie de prefacio, que se va construyendo minuto a minuto, de manera maestra, dando paso y forma a los personajes, a los acontecimientos que ocurren, no deja de acompañarnos como un personaje más, esa atmósfera en silencio, en oscuridad, con enorme tensión, donde la sombras se mezclan con pequeños destellos de claridad… Se crea el ambiente de recogimiento que existe entre un sacerdote y alguien que va a confesarse y necesita la comprensión y la indulgencia de quien le escucha, aunque también intuye que tendrá una penitencia. Brando con un gesto amable y paternalista pide algo de beber para Bonasera, mientras este hombre con la desesperación pintada en el rostro, habla de su querida hija y de como unos salvajes la violaron. “Por supuesto” no eran italianos, porque ellos tienen un estricto código de honor que les convierte en un grupo selecto. Mientras transcurre el discurso de Bonasera, solo podemos percibimos el escorzo de Vito Corleone, pero no es necesario más, se intuye el poder y la fuerza, desde el sillón en el que se esta sentado y pensativo, y lo que es mejor, sin necesidad de locutor ni una sola frase. El silencio “sonoro” del personaje de Marlon Brando y el juego de luces y sombras, hace el resto. “La justicia nos la hará Don Corleone”. Unas pocas palabras demoledoras, resumen de manera clara y definitiva la naturaleza de Dº Corleone y de su organización de delincuentes. Es el mundo de la mafia, de “la ley del silencio” donde gobiernan otras reglas, otros códigos y por supuesto otro modo de impartir justicia. Someterse al control y la coacción silente de la “FAMIGLIA” �15 significa entrar bajo su protección, y por lo tanto participar de negocios, transacciones y beneficios económicos, siempre bajo la estricta tutela del Jefe Supremo. Es la extraña mezcla que el Padrino encarna dentro de una tierra nueva como es para ellos Estados Unidos, donde cuando la justicia no funciona a su gusto, o no les parece suficiente, se pasa a otro código ético y moral de la justicia, que va en paralelo al estamento oficial y cuya aplicación tiene consecuencias incontrolables (guerras entre las distintas familias, muerte de mujeres y niños, asesinatos de jueces y policías…) Por eso se menciona en varias ocasiones una particular concepción de cosas como el respeto, la disponibilidad, en cualquier momento en que la familia solicite tu ayuda, la fidelidad total a ese clan y esa saga de apellidos. Apoyándose en todos esos conceptos mafiosos, Corleone le reprocha a su interlocutor que no recurriera antes a él, antes que a la policía, que no tuviese en cuenta su amistad ahora requerida; le habla de el respeto que merece y de las reglas que debe observar, por ejemplo el hecho de que ni siquiera se dirija a él, llamándole “Padrino”. Con todas esas presiones verbales y visuales, que Bonasera soporta en el despacho del “capo mafioso”, donde se ve absorbido por el ambiente, él reconoce que ha sido cobarde y desprecia con saña el pretendido “sueño americano” por el que se ha dejado seducir, sin darse cuenta que su verdadera familia y la solución a sus problemas siempre estará con la “Familia”, con los que son auténticamente suyos. La vuelta a los orígenes en definitiva. Nada hay en esa larga escena, que pueda sacar al espectador del contexto, de la situación, nada hay que le distraiga de esos diálogos tan reveladores acerca de lo que nos quiere narrar la cinta. Son frases muy importantes que van a incidir en el desarrollo posterior del argumento de la película. Hay que hacer notar que no hay efectos de sonido acompañen esta secuencia. Tampoco se escucha de fondo ninguna melodía que pueda dispersar el foco de atención de los espectadores. No se escucha el ambiente festivo, ni música alguna a pesar de �15 que fuera, hay una gran algarabía y una orquesta tocando por la celebración de la boda.Sin embargo, es como si fuesen dos mundos aparte: por un lado la luz y la alegría del exterior y dentro de la casa, la penumbra y los densos diálogos entre un padre, que roto de dolor pide justicia para su hija, y la pide a quién considera que es el único que se la puede otorgar, al Padrino, el único que puede comprender en que estado se encuentra. Sin música, sin efectos de sonido, lo que nos queda es simplemente el intercambio de frases que muestran el carácter y el comportamiento de los personajes. La fotografía y la disposición de todos los personajes es perfecta y ayuda a crear el ambiente adecuado. Hay en la historia del cine, muchos más ejemplos de diálogos genialmente estructurados como es el caso de la cinta de Q. Tarantino, “Django Desencadenado”. En esta ocasión, nos encontramos ante uno de los momentos de humor más cómicos y divertidos de una película que por otro lado está salpicada de sangre, venganza y violencia Al contrario que en el Padrino, cuyo diálogo en la escena inicial, esta lleno de tensión, y de oscuridad y de miedo contenido, en “Django Desencadenado” (V21), los diálogos, se vertebran sobre un tema divertido y con humor, aunque en realidad la historia real tenga otro tono totalmente diferente. Pero Tarantino sabe dar una vuelta de tuerca al asunto y convertirlo en algo cómico: en la cinta, se trata de los sacos que los personajes �16 que integran el grupo del KKK (Ku Kux Klan) llevan encima de sus cabezas. Quentin Tarantino en esta secuencia, está en estado de gracia y de derroche de imaginación. Además la capacidad de observación de la realidad para llevarla a su terreno, unida al ingenio y creatividad son rasgos que distinguen a ese director, al igual que las digresiones de sus diálogos, otro de los rasgos característicos del director, unos diálogos que encandilan a sus fieles seguidores. El iconoclasta Tarantino , en esta película, nos muestra una historia teñida de 124 arriba a bajo de guiños y recuerdos a géneros formas y corrientes de la historia cinematográfica, como es el caso del “spaghetti western”. Sin duda esta es una cinta donde nos topamos con mucha facilidad, con referencias a directores como Sergio Corbucci (Django año 1966), Sergio Leone, ó Sam Peckinpah (director muy controvertido por el uso que hace de la violencia en sus películas). El recurso cinematográfico del “flashback” muy presente en todo el film, lo utilizó ya muy sabiamente el director Sergio Leone en títulos como “El Bueno, el Feo, y el Malo”. También es recurrente la manera en la que Tarantino trata el tema de la venganza de una manera obsesiva, que le lleva a una serie de planos llenos de acción, donde el protagonista se desenvuelve a cámara lenta, lo que nos lleva a poder “disfrutar” ó liberar nuestro furor, viendo el dolor ajeno en una sensación de transformación justiciera (V22). Cuando observamos atentamente esta secuencia, podemos ver claramente una de las peculiares técnicas que Quentin Tarantino utiliza, en la producción de sus películas en cuanto al montaje de sonido se refiere. El arte de Tarantino tiene su inspiración en diversos directores como, Martin Scorsese o Sam Fuller hasta 124 Howard Hawks, Phil Karlson, Sergio Leone, John Woo y en géneros como La Nouvelle Vague. Su técnica se centra en el dominio de la escena y del dialogo cinematográfico como también en un conocimiento profundo del arte y la cultura pop contemporánea. Recordemos que la cinta Pulp Fiction, devolvió una segunda juventud a John Travolta cuya carrera se había prácticamente eclipsado con el paso de los años. �16 Nos referimos concretamente, a reforzar la acción de la escena con una música que funciona de manera asincrónica, es decir en este caso de “Django desencadenado” la banda sonora es un ritmo de rap, que marca un contrapunto brutal con lo que vemos, pero que encaja muy bien en la secuencia y que le aporta un ritmo y un ambiente de locura total. Ese ritmo musical, al contrario de sacarnos de situación, encaja perfectamente y le da una unidad genial a toda la secuencia. Este recurso expresivo y de creación da ocasión a Tarantino para poder contar la vida y la historia de la mujer de Django, y lo va a utilizar en otros momentos del la película, siempre que quiera narrarnos algo muy explícito y de manera descarnada y un tanto cruel. Todos sabemos que este director, es un gran estudioso y amante del cine, y no puede ni quiere evitar rendir homenaje en sus realizaciones, a directores y películas, como pone de manifiesto en su film “Malditos bastardos”. Es un auténtico adorador del séptimo Arte y le gusta que se refleje en sus películas. Esto lo vivimos en las secuencias donde el cazarecompensas Schultz, explica al protagonista Django ( la pistola más rápida del Sur) como debe vestir, gesticular, moverse y hablar para poder engañar al malvado propietario de la plantación de algodón, interpretado por Leonardo DiCaprio. Lo que pone Tarantino ante nuestros ojos es un compendio de instrucciones con sus creencias, en las que el director basa siempre el trabajo creativo de sus personajes. Y lo mismo ocurre con la parte de los “malos”. Siempre �16 les añade elementos que los definen y conforman (objetos,tics…), haciéndolos atractivos al público, a pesar de su rol de malvados. La presentación de Don Johnson (Spencer Gordon Bennett) siempre tiene una posición de superioridad con respecto al resto, con el matiz de que baja su posición para unirse a Schultz, pero siempre mantiene en un nivel por debajo de él a Django. Siempre Tarantino dibuja y da vida en sus guiones primero, y en el rodaje después, a unos personajes que están llenos de cosas que nos atraen (aunque en principio nos repelan ), y por muy locas, peligrosas, ó malvadas que sean sus intenciones y sus actos la historia de la cinta se va vertebrado de una manera lenta y sólida en un círculo de venganza, sangre y crueldad. Eso ocurre, cuando se habla de las armas de Waltz (el doctor Schultz) o del tipo de saludo que tiene que hacer con su caballo cuando llegue y se marche de la plantación “Big Daddy”. Ese cuidado en los pequeños detalles, hacen que se impregne al protagonista de una esencia mágica, de un halo especial lleno de símbolos y señas de identidad muy propias. Le gusta crear personajes míticos, que tengan una gestualidad tan característica que se quede en la retina del espectador. Juega perfectamente con la música; para Tarantino forma parte de su estilo de hacer cine y la da un gran protagonismo a la bandas sonoras de sus películas. Otro tanto ocurre con el tratamiento de los diálogos: son sólidos, bien construidos, chispeantes y además tienen enormes cargas de profundidad. De hecho “Django desencadenado” pasa por ser el “western” con el lenguaje más cuidado del genero. Lo que distingue la obra cinematográfica de Quentin Tarantino suele ser el contenido de altas dosis de violencia, pero si nos fijamos más en la parte técnica, quizás lo más definitorio de su sello de dirección sea como usa el “travelling”. �16 Como es lógico no estamos diciendo que sea un invento de Tarantino, pero si lo es como lo utiliza en multitud de ocasiones, permitiendo a la cámara seguir tan de cerca a los personajes, que uno tiene la sensación de estar dentro con ellos, como si nos hubiésemos incorporado a la pantalla y fuésemos uno más de los protagonistas de la historia. También usa el travelling, acompañando y dando sensación de realismo a las secuencias de acción, como ocurre cuando Django busca a los hermanos perseguidos por Schultz, y que acaban como solo los villanos y los malvados pueden y deben acabar. La pasión y el cariño que Quentin Tarantino demuestra por el protagonista Django, dandole todo tipo de beneplácitos y favores, para que a nuestros ojos aparezca como alguien único, amado y deseado es evidente. Lo consigue con las distintas vestimentas, que además sorprenden por su variedad, lo mismo ocurre con los cambios en las armas que utiliza, es decir, le pone y le añade todos elementos necesarios para que él, sea un personaje único y perfectamente identificable El sonido de una película para Tarantino, representa al menos la mitad de su expresión artística. Es tan sumamente importante, que puede sobrepasar a una buena imagen; porque si el sonido es malo va a resultar un fracaso con toda seguridad. Si tenemos al contrario un sonido cuidado para una fotografía mediocre, puede significar un cambio muy positivo y atractivo a todos los niveles. Seguramente es un error muy habitual tratar de analizar el sonido de una película como algo separado e independiente. El conjunto de lo que escuchamos es un “todo”, que debe ser compacto y coherente, para que el resultado final añada fuerza, presencia y energía expresiva a la propia cinta. Esa armonía verbal refuerza a su vez la imagen, y le da sentido y coherencia a la narración cinematográfica. Es importante utilizar el término diálogo con respecto a todas las expresiones sonoras que podemos encontrar en un film, y no solo como expresión auditiva e invisible, sino como una forma real y casi palpable de expresarse. �16 Precisamente una película muy celebrada por su guión, por su sonido, por la música, por el protagonismo indiscutible que ésta cobra, y por los efectos visuales, es sin duda “2001 Una odisea del Espacio” de Stanley Kubrick. En ella, el sonido y los diálogos que encontramos, son de un absoluto realismo y perfectamente creíbles, a pesar del tema que trata (ciencia-ficción) porque el propio Stanley Kubrick nos sumerge en una historia donde guión, música y voces hacen el resto. En la cinta los criterios científicos están muy cuidados. El director marca perfectamente bien como debe de sonar el espacio vacío del universo. No hay efectos de sonido ó de ambientes cósmicos, porque nos hallamos ante la total ausencia de oxígeno, o medio elástico alguno, y está científicamente comprobado, que en el vacío los sonidos no se propagan. Es por eso que en el espacio interestelar profundo de “2001 Una odisea del espacio” no hay ningún tipo de ruido. El absoluto y absorbente silencio del espacio exterior, contrasta con las respiraciones que se escuchan dentro del casco de los astronautas, el sonido del oxigeno que va fluyendo dentro del traje, como única fuente de vida posible en ese instante y en ese lugar. Los planos de imagen que se van sucediendo, se encargan de narrar visualmente el guión de la historia, donde el hilo conductor es la propia música. Es la propia música, la que se convierte en un elemento sonoro Fotograma de la película “2001 Una Odisea del Espacio” �16 imprescindible, inseparable del propio guión, que aunque externo y no diegético, acaba por formar parte indeleble de la propia película y del devenir cronológico de la narración cinematográfica. Hablando de la música de esta película que se ha convertido ya en un icono en la historia del cine, podríamos incluso señalar como originalmente Kubrik habría contratado los servicios de Alex North, con el que ya había trabajado anteriormente, para la creación de la banda musical. Ni siquiera el propio North la noche del estreno del film podía imaginar que ni una sola nota de su partitura sonaría en la cinta de Kubrik. Como en un un poema con rima, los diálogos cumplen las reglas de métrica y compás y nada falta o sobra, porque las frases se van desgranando de manera que encajan a la perfección, esa perfección que de manera casi obsesiva buscaba siempre Kubrick. El director carga las tintas y da todo el protagonismo posible a la voz humana y lo consigue. Basta recordar la fuerza expresiva que desprende la secuencia de la desactivación del ordenador de la nave, (V23 y V24) el todopoderoso “HAL 9000” ó cuando esa máquina, que tiene casi vida propia y diabólica se rebela contra el hombre, algo que el ser humano siempre ha considerado posible y amenazador. Kubrick sabe crear perfectamente a través de los “sonidos” opresivos del espacio esa misma sensación en los espectadores. Sentados cómodamente en la butacas del V23 V24 �16 cine, el público se deja contagiar por el ambiente casi claustrofóbico de la inmensidad del espacio, de la necesidad de oxigeno para poder sobrevivir ante tanto vació cósmico, escuchando la rítmica y a veces acelerada respiración mecánica del protagonista embutido en su traje espacial. No hay duda de que contemplamos uno de los ejemplos cinematográficos más claros, donde la palabra se convierte en único y principal protagonista de la acción, reforzada y apoyada eso si, por una banda sonora que eleva el tono de la cinta y la convierte en obra maestra. La voz del ordenador central de la nave, el “HAL 9000”, se convierte casi en un actor más de carne y hueso, un ser humano con sus impulsos, fragilidades, bondades y maldades. Eso es lo que realmente pretende transmitir el propio director en la cinta. La posibilidad de vernos superados o sustituidos por maquinas es algo que aterra y que de una manera u otra, ya esta ocurriendo. Kubrik se adelantó a su tiempo. No se puede olvidar esa voz fría, amable e impersonal del ordenador, a fin de cuentas dueño y señor de la propia nave, que dice cosas hermosas y terribles, siempre con el mismo tono, un tono en el que no hay atisbo de empatía alguna, de emoción, de sensibilidad. El sonido de esa voz, su toque metálico y cibernético, le ha hecho famoso, tanto que incluso ha sido protagonista de spots de publicidad (V72). V72 �16 De nuevo volvemos a un director anteriormente citado, Francis Ford Coppola, y analizamos los diálogos de otra de sus obras maestras: “Apocalypse Now”, donde existen continuos guiños sonoros que contribuyen a dotar a la imagen de un realismo brutal y despiadado. Casi se podría decir que la totalidad de la cinta se articula a lo largo de ambientes, que trabajan como colchones sonoros, o efectos de sonido, sin olvidar ademas el uso que hace de una música poderosa y electrizante. Recordemos a tales efectos los continuos discursos de Willard o los largos e inquietantes monólogos del coronel Kurtz (en los que destaca la profundidad de su voz). Pues bien, esos monólogos, hacen posible que el espectador pueda bucear en los pensamientos, los sentimientos y las intenciones de los personajes. Por el montaje de sonido de esta película, Walter Munch , recibió en 125 1980 un Oscar por su trabajo valioso e innovador. Todos los que colaboraran en “Apocalypse now”, hicieron posible que esta película no se convirtiera una mera película de guerra, si no más bien en una reflexión sobre la guerra. Una oda a la ética, la moral, esa constante lucha en la vida del ser humano entre el bien y el mal queda plasmada sin lugar a dudas en el propio diálogo de la cinta, y sobre todo en la gran cantidad y densidad que el film contiene. (V25) Fue quien acuñó el término de diseñador de sonido. También realizó la mezcla de sonido de El Padrino II 125 y en 1996 recibió dos Oscar: al mejor montaje y al mejor sonido por “El paciente inglés”. �16 ¿Cómo si no justificar los innumerables monólogos de Willard sobre su condición de soldado?. En todo el metraje de la película hay mucha presencia de “voces en off”, es decir fuera de escena, que le dan apoyo al director, y sirven para desgranar la historia de “Apocalypse now “, una historia que en realidad no va de una guerra sangrienta y lejana en Vietnam, sino que representa un vehículo genial para adentrarse en el alma del protagonista, en sus más profundos deseos, miedos y anhelos, y ¿porqué no? en la manera en la que éste juzga y valora a todas las personas que han pasado por su vida. La palabra, el sonido, es un continuo referente a la vida interior, al alma, a los recovecos más oscuros y tenebrosos que el ser humano guarda en su corazón. Lo que está bien y lo que está mal, lo que hay que hacer y lo que nunca se debería de hacer. Es en realidad un completo tratado de conductas de, comportamientos y sensaciones, que pueden trasladarse fácilmente a la mente del espectador, y que nos dan pie a todos para repreguntarnos e interrogarnos acerca de esas mismas dudas y cuestiones que se desarrollan en la película. Conocemos el estilo de vida que llevan los familiares de los soldados en sus lejanos hogares y del deseo de los que están lejos, de que vuelvan pronto sanos y salvos, siempre conviviendo con el miedo de recibir malas noticias. Por eso cuando tras el asesinato del renegado coronel Kurtz, Willard abre el libro donde él plasmaba todas Poster de la Película �16 sus ideas y lee el mensaje de destruir el campamento, empieza en realidad a comprenderlo todo. La justificación a esa supuesta locura, se encuentra en la repetición de las últimas palabras de Kurtz antes de morir que, resuenan en la mente del asesino Willard: “El horror... el horror”. Esta obra maestra del cine, pone su acento en cuanto al sonido se refiere en el monólogo, es decir en eso que hemos convenido en llamar, “ la voz interior”. De hecho la película es un fiel reflejo del libro en el que está basado : “El Corazon de las tinieblas” de J. Conrad. Estas reflexiones que hace el protagonista consigo mismo, se van multiplicando a lo largo de las secuencias, concentrándose sobre todo en la ultima parte de la misma. Se construye un tapiz de atmósferas y climas sonoros, donde se mezclan las voces interiores, los susurros, las luces, las sombras…Todo apoyando la imagen, y el contenido que éstas muestran. “La voz interior” es muy útil para narrar escenas como la muerte de “Limpio”, mientras éste escucha la cinta de cassette de su madre. Cuando vemos estas imágenes nos introducimos en un mundo diferente del que hemos contemplado hasta el momento. La voz de la madre ( muy lejana de él en el espacio) aunque tratada de forma diegética , 126 la utiliza Coppola, como el símbolo de la espera paciente y nerviosa de los familiares y demás seres queridos, que aguardan el regreso de sus muchachos. El director para estas secuencias largas y densas, no quiere ningún tipo de distracciones, no hay mucho cambio de planos. No practica lo que típicamente se conoce como principio del triángulo: uso de contraplanos externos, contraplanos internos, planos paralelos… Todo lo contrario, utiliza planos fijos del coronel de larga duración, y recurre en ocasiones a breves contraplanos de Willard. CHION, MICHEL. La audiovisión, Ed. Paidós Comunicación, Barcelona, 1998. Para Michel Chion la 126 fuente del sonido puede pertenecer a la imagen o encontrarse fuera de ella, en lo que el denomina acusmática. �17 Las secuencias en las que aparece el coronel Kurtz, son un claro ejemplo de como el diálogo se piensan se concibe, como instrumento fundamental sobre el que se vertébra la historia. Hay una concepción del sonido tan especial y minimalista, porque el director quiere a toda costa atrapar nuestra atención y que estemos permanentemente enganchados con la trama de film. Casi todo lo demás desaparece o queda en un muy segundo plano (ambientes, música, efectos…) importa sobre todo, lo que piensan y lo que dicen los protagonistas del largometraje. Cambiando de película, director y país, pero continuando con el estudio de como un diálogo, se convierte en protagonista de la acción, nos vamos a la cinta “La Buena Estrella” de Ricardo Franco y a una secuencia, que enmarca con claridad meridiana, como el diálogo se encarga de llevar por si solo todo el peso de la acción. El argumento de la película se puede resumir en los siguientes acontecimientos: Poster de la película �17 Daniel, que es un joven drogadicto y delincuente regresa inesperadamente a la casa donde vive su antigua novia Marina, con su actual compañero Rafael. Rafael, es un carnicero que quedó impotente en su juventud a consecuencia de un accidente, lleva una vida tranquila y solitaria, es un hombre reflexivo y poco hablador. Una noche conoce a Marina, una muchacha tuerta que está siendo golpeada por Daniel, su amante, su chulo. Marina está embarazada de Daniel. Rafael la acoge en su casa y la protege. Nace una niña, Estrella. Rafael, Marina y Estrella llevan una apacible vida durante tres años. Una noche aparece en la casa malherido Daniel. Rafael y Marina le recogen y le curan. En las siguientes semanas Daniel pondrá en peligro el mundo que Rafael se había construido. (V27). Lo pondrá además de un modo tan al límite que parece que ya nada volverá nada a ser como antes. Hay un continuo recurso a las imágenes para dar solidez narrativa a la historia. Se hacen movimientos de cámara, que están pensados para un fin muy especial, porque son panorámicos lentos, movimientos pausados…persiguen el deseo de poder entrar más 127 fácilmente en el alma de los protagonistas, personajes atormentados y conflictivos. En el sonido estéreo se denomina “PAN” al panoramizado de la señal. Al tratarse de un sistema de 127 escucha de dos canales (L y R) amoldamos la señal en la amplitud de espectro entre derecha e izquierda, para crear fuentes imaginarias de escucha. �17 Se puede observar como los fundidos de la imagen son muy minimalistas y le dan a la cinta una suavidad que encadena poco a poco los pasos a las escenas. Hay un ejemplo muy gráfico de lo que estamos diciendo, en el momento en que se encadena un plano de Rafa (Antonio Resines) hablando en el campo con su hermana mientras pasamos de una manera sutil a Marina (Maribel Verdú), que en ese momento está dando a luz a Estrella. Es importante añadir también, como el director sabe jugar con el “etalonaje” (corrección de colores con fines estéticos), ya que de ese modo se puede unificar el tono general de la película hacía un color determinado, que nos sirve para transmitir sentimientos y sensaciones. Murnau ya usó esta técnica del color, mucho antes, en su largometraje de terror “Nosferatu” (1922). Generalmente el uso en el “etalonaje” de los tonos pasteles y cálidos (amarillos, anaranjados…) nos producen una sensación relajada y placentera, la misma sensación que transmitimos en la escena de una familia feliz en su vida diaria, donde todo transcurre de manera corriente y apacible. En “La buena estrella” su director recurre a estas tonalidades para reflejar felicidad y sin embargo, parece contradictorio que también los utilice, para la secuencia final de la película donde Marina da muerte a Rafa. No está en la intención de Ricardo Franco desconcertarnos, sencillamente él ve, y así quiere que nosotros los sintamos también, una liberación de Rafa a través de la muerte. Lo que hace Marina es en realidad un acto de amor, llevado hasta sus últimas consecuencias. Ese amor total se refleja en las tonalidades anaranjadas y rojizas que despiden los rayos del sol, filtrándose por la ventana. La amargura y la desesperación de Rafa por ese amor imposible hacía Marina termina con su muerte. Vemos pues la importancia de todo un arte como es el del “etalonaje” para transmitir emociones, sentimientos, pero siempre desde el arte y la intención con la que el director juega para mostrarnos colores, figuras, sonidos y músicas. �17 Todos estos elementos son los materiales con el que el director construye la visión personal de su película, y la manera en el que éste la transmite al espectador. Con “La buena estrella”, Ricardo Franco fue el triunfador de los Goya de 1980 y firmo una historia verdaderamente sobrecogedora y desbordante de humanidad, una humanidad tan triste, creíble e intimista que casi resulta insoportable y molesta. Una historia basada en hechos reales. Los tres protagonistas son gente perdida en el mundo, sobrevivientes, cada uno en su plano, en su realidad y rodeados por diferentes vivencias y personajes. En especial destaca la figura de uno de ellos, Rafa, que persigue lo que más anhela en este mundo: poder tener una familia. El guión es perfecto y medido, no solo gracias a Ricardo Franco sino también a la guionista Angeles Gonzáles Sinde que obtuvo un Goya por su trabajo. Eva Gancedo , la compositora de la banda sonora de la película, compone en esta 128 ocasión una música que resulta adecuada y resalta cada momento: lo mismo en las Eva Gancedo nace en Madrid en 1958. Poco a poco se va labrando una solida reputación como 128 compositora. Es la ganadora de un Goya por su trabajo para la película de Ricardo Franco “La Buena Estrella”. Al principio de su carrera su trabajo ha estado relacionado sobre todo a la figura de este director (“Después de Tantos Años”, “Yo, Una Mujer”, “La Buena Estrella”, “Lágrimas Negras”), Posteriormente ha realizado otros trabajos como: “La reina Isabel en persona", “La Noche del Hermano”, “La Mirada de Ouka Lele”. Eva Gancedo �17 escenas de amor (al comienzo de la película), como en la música triste y desconcertante que se escucha en la escena en la que Rafa va a buscar a su hija a la guardería y no la encuentra, porque Daniel ya se la ha llevado a casa. Las notas musicales de la composición, consiguen el mismo efecto que provoca la luz en la película: acompañar con sabiduría, belleza y sin distraernos de la imagen, sin perder ni un solo fotograma de realidad y añadiendo a la historia que nos presenta el director, una magia indescriptible. Es muy sencillo imaginar los motivos, mas que sobrados, por los que a Eva Gancedo le otorgaron el Goya en 1998 a la mejor banda original. Este maravilloso ejemplo cinematográfico, nos hace plantearnos preguntas importantes acerca de la vida y de nuestra conducta. Los temas de análisis personal que propone el director a través de esta cinta, son los siguientes: - El poder aceptarse uno mismo: Ocurre muchas veces en la vida, que no hemos sabido valorar lo que teníamos, y nos hemos hecho daño pensando en lo que no teníamos, de lo que carecíamos. De la misma manera Rafael, se hace daño por el simple hecho de estar castrado, o por ejemplo Marina, por haber llevado una infancia dolorosa, y una vida triste y miserable. - La infancia: nos habla de lo importante que es nuestra infancia, porque puede marcar el adulto que seremos en el futuro. Importante para entender nuestra vida, y como ésta, puede llegar a cambiarnos por completo. La infancia, es algo que se debe vivir, y que como periodo de nuestra existencia, nos permite madurar, entendernos mejor, y conocernos en diferentes situaciones. Esto mismo es lo que nunca tuvieron sus protagonistas, Marina y Daniel cuyas vidas sembradas de amarguras y dolor, se desarrollaron entre orfelinatos, cárceles o correccionales. �17 - La ocultación de sentimientos: en la vida, todos nos movemos con caretas, algunas pesadas e infranqueables, otras frágiles y transparentes, y todo para ocultar nuestros verdaderos sentimientos, sin pensar que ésto solo provoca dolor y lejanía. Así vemos como en la cita Daniel disimula en muchas ocasiones el amor que siente por Marina, a pesar de ser ella la mujer que mas ha querido en la vida, o quizás la única mujer que ha podido querer en la vida. - El amor: El amor que siente Marina, Rafa y Daniel (aunque este último lo esconde a lo largo de todo la película). Rafa seria capaz de hacer cualquier cosa por el amor que siente hacia Marina, seria capaz de cualquier cosa por ella, aceptarlo todo, y por la vida de sus hijas, al igual que Marina, que lo que más claro tiene es su amor hacia sus hijas, que desde un principio las quiere con todo su corazón incluso antes de haber nacido. - La rabia: La rabia que sienten Daniel y Rafael entre ellos mismos, se va tornando lentamente en comprensión y cariño. En la cinta podemos ser testigo de este cambio gradual, del uno hacia el otro, expresado con genial maestría por el director. - La impotencia: este sentimiento que sobrevuela en la película se plasma no solo de forma física por el problema sexual de Rafael, sino también por la impotencia de Marina de llegar a tomar decisiones y alejar de su vida definitivamente a Daniel. - El sexo: el impulso sexual entre los protagonistas, entrelazan las secuencia, las miradas, y los silencios. Marina desea a Rafael y a Daniel, pero sabe que solo Daniel le puede proporcionar lo que realmente busca y necesita de un hombre. Por otro lado, Rafael desearía hacerle el amor a Marina como lo haría el propio Daniel. �17 - El sentimiento de soledad: aquí el director muy astutamente nos presenta tres tipos de soledad. La no deseada, de la que Rafael es protagonista y que le acompaña desde su infancia, o la de Marina, a la que la soledad la ha acompañado desde muy tierna edad, y la soledad buscada, la de Daniel que escogió desde un primer momento, viviendo una vida sin compromisos ni ataduras. Sobre todos estos conceptos y situaciones, destaca el sonido del propio dialogo. Sin duda la expresión sonora mas determinante en esta película son los propios diálogos. En ellos esta encerrado el gran secreto de sus protagonistas. En la secuencia en la que Daniel irrumpe por primera vez en la vida de la pareja, podemos comprobar como la tensión es evidente y el ambiente no propicia nada bueno para ninguno de los tres. Como siempre Rafa, se deja llevar por lo que él cree que es justo, y a pesar de saber o intuir quien es el que aparecerá tras esa puerta y que sin duda desestabilizará su relación con Marina, deja que irrumpa en la casa un nuevo protagonista: Daniel. A destacar como tras abrir la puerta, el silencio se apodera de la secuencia y solo cuando Daniel sube los ojos y descubre a Marina en las escaleras, aparece la música dulcificando el momento, y rompiendo la tensión entre los tres protagonistas. Colateral, dirigida por Michael Mann , podría definirse como una obra maestra 129 tanto en el tratamiento de la luz, como en el tratamiento del sonido. En esta cinta, de indudable calidad técnica, llama la atención la forma en la que se van desarrollando las secuencias. Es una película intima y personal, donde dos mundos diferentes entran en colisión, y aunque aparentemente no tengan nada en común, al final se descubren puentes de conexión sutiles y frágiles. Este es el caso del tema de conversación en una de las secuencias entre los protagonistas Vincent (asesino a sueldo) y Max (taxista en Como guionista ha escrito para series como “Starsky y Hutch”, “Police Story” o “Bronk”, y dirigió episodios 129 del mismo género en teleseries como “La mujer policía”, con Angie Dickinson. Empezó su carrera en el mundo de la televisión en los años 70. Posteriormente se traslada a Londres donde da inicio a su formación y experiencia cinematográfica. �17 L.A). Los dos admiradores de un musico de jazz, que fue capaz de explorar la delgada frontera que existe entre la improvisación y el clasicismo. Esto convierte a la película en una autentica sesión de improvisación, donde se combina la presencia de una gran ciudad, con su frialdad, su automatismo, su individualismo, su crudeza, con el mundo interior e intimo de los protagonistas Max (Jamie Foxx) y Vincent (Tom Cruise). Es como viajar dentro de una burbuja estanca y esta a su vez dentro de otra mas grande e inabarcable. Collateral representa la mezcla de colores, carreteras, calles, semáforos, sonidos lejanos casi imperceptibles y es precisamente el sonido y la luz lo que sorprende de esta novedosa y fresca película. Novedosa por el tratamiento de la iluminación, ya que esta rodada casi en su totalidad de noche, y sin focos de rodaje. Así la luz que percibimos es la de la propia ciudad, los escaparates, los coches, sin que intervenga ningún elemento artificial al propio contexto urbano del film. Por otro lado, el sonido adquiere un protagonismo más intimista y singular, sin prestarse a los estereotipos hollywoodienses ni a las demostraciones de barroquismo y voluptuosidad tan típicos y tópicos. La historia transcurre prácticamente dentro de un taxi. Aquí los diálogos adquieren un valor muy Poster de la película �17 especial, ya que simbolizan todo el mundo sonoro de los dos protagonista. El silencio de la noche, y las voces de los actores, son suficientes para soportar el peso de la narración. (V28). Collateral puede presumir de una maravillosa puesta en escena, soberbia, realista y a la vez minimalista, donde los sonidos quedan relegados a un segundo termino. De echo el mundo sonoro visto dentro del taxi, es como el de una pequeña isla paradisiaca entre la locura del trafico y la vida cotidiana. Vivimos cada aliento de los actores, cada gesto, cada movimiento, cada dialogo, como algo único y total, que añade una belleza aun mayor si cabe a la que ya de por si posee esta cinta. Esta película se diferencia del resto de thrillers que es capaz de producir la industria de Hollywood, por la forma en la que el director a través de la luz y del sonido narra cada minuto de la historia, con habilidad e ingenio. A Mann no le interesa el chirriar de las ruedas en el asfalto, o los efectos de sonido engordados y espectaculares, porque lo que realmente le mueve , es poder descubrir el verdadero comportamiento y naturaleza de los protagonistas. Cuando se habla de Michael Mann muchos se refieren a él como un cineasta moderno, si es que tal acepción puede darse. Las etiquetas a menudo sobran, sólo sirven �17 para ejercitar ese a veces ridículo deporte de la clasificación, sin darnos cuenta de que el arte escapa la mayoría de las veces a esa tiranía. Michael Mann es mucho más que un cineasta moderno. La actual tecnología le permite aplicar interesantes texturas al género del thriller, el uso de cámaras digitales que tanto parecen obsesionar a Mann, pero su cine contiene ecos clásicos de profunda raíz. Cuando hablamos de diálogos, me permito incluir, un elemento constitutivo del mismo, y que muchas veces pasa desapercibido, si bien la fuerza y el carácter que conlleva es fundamental para añadir ritmo, energía o tensión en una secuencia. Me refiero al “silencio”, a la ausencia de diálogos, y en algunos casos, a la total ausencia de sonido. El “silencio”, no es un elemento secundario, sino adquiere en distintos momento un gran protagonismo. Y es precisamente el silencio, el protagonista de la siguiente secuencia. Este es el caso de una escena de la película “La Buena Estrella” de Ricardo Franco 130 (V29). Aquí comprobamos como Franco maneja a la perfección los tiempos, el ritmo de la secuencia, y sobre todo el silencio. Los tres actores permanecen callados, mirándose los Ricardo Franco ha sido sin duda uno de los directores que mas y mejor ha sabido retratar los 130 sentimientos y las emociones en la gran pantalla. Ganador de cinco premios Goya, el ultimo lo consiguió con La Buena Estrella, película basada en hechos reales, y que refleja perfectamente el arte y la maestra de Ricardo como director de actores. Su carisma su gran corazón y su sensibilidad han quedado eternamente grabadas en el recuerdo de todos los que le conocimos. �18 unos a los otros, sin saber qué decir. Este silencio no equivale a vacío, sino que tiene vida propia, cala en el espectador, el director lo utiliza para aumentar la tensión, para pasar “la patata caliente” de uno a otro personaje con solo una mirada, un pequeño gesto de la cara. El silencio, aquí, lo dice todo y con su presencia, lo que hace es transmitir densidad y peso a la película. Una de las cualidades sobresalientes del propio director, Ricardo, era su profundo conocimiento de la conducta, de las relaciones humanas, del alma femenina y de los sentimientos. Todo esto le permite manejarse perfectamente en el entramado de las relaciones y de las personas, incluso de aquellas que por un motivo u otro se encuentran olvidadas o olvidados por la sociedad. Ricardo articula una historia que enlaza mágicamente la vida de tres personas, de tres almas atormentadas cada una con su realidad, pero que convergen en un mismo lugar y tiempo, en busca de esa “buena estrella” que todos o casi todos, hemos soñado atrapar alguna vez en nuestra vida. 9.3 Efectos y Ambientes No podemos hablar de cine, y en especial de sonido cinematográfico, si no buceamos entorno a un material sonoro diferente e importante, que imprime personalidad a una película, y que añade un valor extra a la historia que encierra el propio guión. Dos son los elementos sonoros que acompañan en todo momento a una obra cinematográfica: �18 1) EFECTOS 2) AMBIENTES Con el paso de los años, estos dos elementos han ido adquiriendo cada vez más peso y relevancia ya que contribuyen como un lenguaje más a contar una historia y enriquecer la imagen. El “EFECTO DE SONIDO” se puede definir como aquel sonido natural o artificial que sustituye o potencia la realidad ayudando a completar una imagen auditiva. Las formas de un efecto se reconocen y se interpretan porque están asociadas al mundo que nos rodea, son objetos, animales, fenómenos meteorológicos etc, aunque en ciertas ocasiones dichas formas pueden no tener un referente real como por ejemplo el grito de un monstruo gigantesco o el sonido de una nave extraterrestre. Un ejemplo claro de lo importante que es el efecto de sonido para la narrativa cinematográfica lo encontramos en una secuencia de la película “Corazón de Angel” de Ridley Scott . 131 En esta escena, no solo es importante lo que dicen los personajes, sino también lo que hacen. En la secuencia, Robert de Niro mira fijamente al protagonista (Mikey Rourke) mientras le pregunta si sabe lo que significa el huevo para ciertas religiones. El sonido de la cascara al romperse, de separarla lentamente, y de la mirada de Robert de Niro, es algo que no se olvida fácilmente. Por ultimo, el sonido de morder ese huevo. Ese sonido esta diseñado ex-proceso para que suene a carne y huesos y no a una simple cáscara de un huevo de gallina. (V63). Ridley Scott cuya trayectoria profesional nace en la televisión y las series como “Z Cars”, se convirtió en 131 poco tiempo en todo un símbolo de innovación y originalidad. Su primera película Los Duelistas marca el inicio de su carrera en el cine. �18 Los efectos de sonido son creaciones de los técnicos surgidos de la manipulación de múltiples elementos sonoros pudiendo utilizar elementos naturales, mecánicos, electrónicos, eléctricos, sin olvidar el propio cuerpo o la propia voz. A la hora de definir los efectos hablamos de: - sonidos naturales: Esto significa que podemos utilizar sonidos grabados directamente del mundo sonoro real como por ejemplo el ambiente sonoro de una estación de autobuses o de un lugar en la ciudad con trafico intenso y continuo. Se suelen denominar, sonidos de campo. - sonidos artificiales: sonidos creados por el propio tecnico a través de la participación de programas informáticos, moduladores o técnicas de edición complejas que nos permiten fusionar sonidos naturales y fuentes electrónicas dando como resultado un nuevo efecto diferente a los ya conocidos. Es el que podemos inventar para reproducir sonidos que no existen en nuestro mundo real, es decir, son efectos propios de películas fantásticas o de ciencia ficción.. No representa a ningún objeto de los que aparecen en la imagen, sino que es una creación artificial, por medio de aparatos electrónicos, mecánico, con la ayuda de software dedicado. �18 - sonidos foley: Este es el caso por ejemplo del sonido del fuego que puede ser representado frotando un papel de celofán delante del micrófono, o el sonido de caballos que puede ser recreado con golpes en alguna superficie dura y hueca, o con las cáscaras de coco partidas por la mitad. A estos efectos, se les denomina, efectos sala, es decir, todos aquellos sonidos que se pueden recrear en un estudio de grabación. Si relacionamos los efectos de sonido con la gran pantalla, podemos incluso hacer la siguiente distinción: Efecto objetivo: Es aquel sonido cuya aparición coincide con la aparición del objeto en imagen. Es el sonido que acompaña a la imagen y que en todo momento encaja perfectamente con la acción que se muestra en pantalla, tanto en dimensión como en expresión visual. Los ambientes generales (viento, lluvia, tráfico etc) también son sonidos objetivos, o aquellos más específicos y concretos, como por ejemplo, la pasada de un neumático sobre asfalto mojado, o el sonido de abrir y cerrar una puerta. Efecto Subjetivo: Es aquel sonido que pretende producir determinadas emociones en el público, aunque físicamente no aparezca en pantalla ningún objeto con el que se relacione. Ejemplo: una �18 escena de terror, escuchamos a los lejos un grito ahogado mientras el protagonista camina por el bosque. Desde la primera película sonora que hubo en España hasta hoy, las cosas han cambiado mucho. “Misterio en la Puerta del Sol” (V70) fue la primera película grabada con sonido directo real (sonido de rodaje) en 1929 por Francisco Elias Riquelme, utilizando el sistema De Forest. El sistema llevaba el nombre de Phonofilm. Aunque podemos decir que hay una cierta controversia sobre la fecha exacta del comienzo del cine, cuando hablamos de la primera película sonora, las cosas son muy diferentes, ya que a estas alturas todo el mundo esta de acuerdo en afirmar que el título de primer film sonoro fué ‘El cantor de Jazz’ (‘The Jazz Singer’, 1927), de Alan Crosland. Sin embargo aunque ésta idea es la que todo el mundo defiende y comenta, la verdad resulta ligeramente distinta. Lee DeForest decidido a encontrar una formula para sincronizar imagen y sonido, y lo que es más, a grabar sobre el mismo soporte toda la información, exhibió en Nueva York en 1923, una serie de mini películas, en total 18, que intentaban promocionar y hacer V70 �18 conocer el invento que él había patentado, y que contenían sonido sincrónico. Éste nuevo aparato se denominaba “Phonofilm”. El equipo Phonofilm grababa el sonido 132 directamente sobre la película, sobre el propio soporte fotográfico, produciendo lineas paralelas con tonos variables de gris, y más tarde llegó a ser conocido como un sistema de "densidad variable" a diferencia de los sistemas de "área variable", como el RCA Photophone. Estas líneas registran fotográficamente formas de onda eléctrica de un micrófono, que se han convertido en ondas sonoras cuando se proyectó la película.133 En aquellos años, el sonido era un soporte que aportaba poca calidad profesional, y los equipos utilizados eran susceptibles de mejorar. La película “Misterio en la Puerta del Sol”, se estrenó en Burgos en 1930. Poco a poco, en aquellos años España empiezan a surgir los primeros estudios de sonorización cinematográficos, como fue el caso en 1932 de los estudios Orphea Films en Barcelona . 134 En 1906 De Forest inventó el tríodo. Este aparato permitía la amplificación de señales de onda de audio y 132 poder así controlar su volumen. Su descubrimiento es lo que hoy podríamos llamar, amplificador de válvulas, lo que permitía poder aumentar el volumen de la señal sonora de una película para que fuese exhibida a un público más numeroso. RODET, X. Time-domain formant-wave-function synthesis, Computer Music Journal, 1984: las ondas 133 sonoras crean formantes según múltiples factores funcionales de la misma. Por debajo de los 3000 Hz es muy fácil localizar formantes. Ésta productora desaparece en un terrible incendio que acaba con los estudios de Barcelona.134 Nota de Prensa de Abril de 1936 �18 Orphea Films es ya todo un mito en la historia del cine español. En estos estudios, es donde se realizó la filmación de la primera película en lengua catalana titulada "El cafè de la Marina" (1933) de Domènec Pruna. El éxito de ésta y otras muchas producciones, permitió que se inauguraran en 1935 los estudios de doblaje de Adolfo La Riva y de la MGM como también los platós sonoros de los Estudios Trilla y Lepanto. En España, la primera película cantada en Póster de películas de Orphea Films �18 castellano fué la cinta de José Buchs, "Carceleras" (1932), la primera zarzuela que se llevaba al cine. Todos estos estudios de sonido, permitieron añadir un valor singular a cada película, a cada producción. Se trataban de técnicos que trabajaban exclusivamente mejorando el sonido, son estudios de sonorización, capaces de añadir a la banda sonora final, efectos de sonido, ambientes, diálogos, músicas etc. Por aquellos años, España es capaz de producir cine íntegramente realizado en nuestro país. Con la posibilidad de producir y realizar bandas sonoras, se demostraba la pujanza cinematográfica del momento, ya que para competir con las producciones norteamericanas y alemanas y evitar el éxodo de directores, actores y técnicos hacia Paris o Hollywood, se debía disponer de todas las infraestructuras que el cine requiere. Cuando hablamos de efectos y ambientes de sonido, debemos de ser muy concretos y más específicos, para poder entender plenamente el valor que estos elementos imprimen en una producción cinematográfica. No olvidemos que conocer la Poster de la película �18 estructura y las características de un ambiente o de un determinado efecto de sonido, nos permitirá más adelante, analizar en particular las tres producciones cinematográficas, sobre las que se sustenta esta investigación. Por lo tanto, comprender y acercarnos con detenimiento y curiosidad al concepto de EFECTO SONORO y AMBIENTE SONORO, es prioritario y necesario para el análisis de los siguientes capítulos. 9.3.1 Análisis de efectos y ambientes Los efectos y ambientes sonoros se pueden utilizar de las siguientes formas: Real o auténtica (tienen como fundamento una situación específica). Son sonidos meramente informativos. Ejemplo: el sonido provocado por los pasos sobre una estructura metálica. Ambiental (son sonidos capaces de identificar una localización). Ejemplo: el sonido de una oficina. Comunicativa (son aquellos sonidos capaces de evocar sentimientos y emociones). Ejemplo: el sonido de una caja de música que evoca el sentimiento de algo infantil, puro. �18 Simbólica (que evocan situaciones y lugares). Ejemplo: las sirenas de alarma, sugieren un ataque aéreo. Imitativa (se imitan los sonidos de objetos, animales o personas). Ejemplo: el sonido de la música imita el ruido de un tren. Identificador (identifica a una persona o un objeto). Ejemplo: el sonido característico de un bastón que identifica a un personaje. Rememorativa (nos permite acordarnos de sonidos que se han escuchando con anterioridad). Enlazable (son sonidos que permiten conectar o enlazar secuencias o situaciones) Ejemplo: cortinillas musicales entre secuencias etc. Por Montaje (encadenamiento de efectos y sonidos que siguen sincrónicamente la imagen). Hay muchas ocasiones en las que se desecha el sonido directo de rodaje por diferentes motivos y se sustituye por sonidos grabados en postproducción. De esta forma el director tiene un control mas directo y funcional del sonido que acompaña a la imagen, pudiendo provocar los cambios o modificaciones que estima oportuno sin que ninguna fuente sonora de distorsión pueda influir en el trabajo final.. De esta forma, aquellos sonidos que no nos interesan del rodaje original, pueden ser eliminados, y sustituidos por diferentes fuentes de sonido como música, ambientes, efectos etc. �19 Además de estas importantes consideraciones sobre la fuente sonora, hay que tener en cuenta un último elemento conceptual, sin el cual no podemos seguir trabajando, y al que yo personalmente valoro en gran medida. Cuando añadimos efectos o ambientes de sonido a una secuencia tenemos que hacerlo pensando siempre en la imagen a la que van a acompañar, y principalmente por el siguiente motivo: quien manda es siempre la imagen. El sonido tiene que adecuarse a los requisitos de la imagen, y adaptarse perfectamente a la escena rodada. Es decir, la fuente sonora, su sencillez, complejidad, cadencia, ritmo, tono, etc tiene que estar en perfecta armonía con la propia imagen proyectada en pantalla, adecuandose en todo momento a las dimensiones, profundidad o concepto artístico que el director quiera transmitir. De esta forma lograremos evitar algunos de los errores que se suele cometer a lo largo del montaje de efectos y ambientes de toda producción cinematográfica. Los posibles errores son los siguientes: 1) Desproporcionado (demasiado altos o bajos de volumen) 2) Vulgares (demasiado corrientes y simples) 3) Evidentes (no dejan nada a la imaginación ni a la introspección) 4) Molestos (aquellos efectos u ambientes que aparecen en momentos donde podemos distraer la atención del público y provocar la desconexión de la atención del espectador) 5) Sonidos fallidos (son aquellos que se han grabado incorrectamente y que contienen fallos evidentes en la calidad y cualidad del mismo) 6) Equivocadas (son aquellos que no se utilizan correctamente para elicitar la evocación o el recuerdo.) �19 Cuando analizamos los efectos o colchones ambientales de una película, tenemos que tener en cuenta los siguientes elementos: 1) El volumen y la calidad del sonido tiene que ser proporcional a la imagen 2) Cuando el sonido se utiliza para rellenar una secuencia o acción, este debe ser sincronice a la propia imagen. 3) La imagen y el sonido deben de coexistir armoniosamente es decir el sonido no debe adelantarse o retrasarse con respecto a la propia imagen 4) Si utilizamos una banda musical, los cambios de imagen deben a ser posible coincidir con cambios de ritmo de la propia música y no hacerlo desacompasadamente. 5) Se intenta seguir la siguiente regla en postproducción: la imagen abre de negro acompañando a la música y cierra a negro también con los sonidos musicales, de forma que los fundidos de imagen duren lo mismo que los fundidos de sonido de la banda misma musical. Cuando trabajamos la banda de efectos y ambientes, podemos constatar como los sonidos, dependiendo de su tonalidad, ritmo, fuerza o energía, y desarrollo, pueden caracterizarse por tener cualidades diferentes. De esta forma, podemos asignar diferentes adjetivos a los sonidos, dependiendo de lo que anteriormente hemos indicado. Así podremos tener sonidos alegres, oscuros, emotivos, inspiradores, tristes, melancólicos etc. Es auténticamente cierto, que cada efecto de sonido, cada ambiente, tiene su propia personalidad, y por consiguiente su propia forma de llegar al espectador. Cuando utilizando la técnica de la mezcla sonora, operamos simultáneamente con dos o mas sonidos, estamos también provocando en el público reacciones, sensaciones �19 y emociones que sirven para reforzar la narración audiovisual. Podemos producir reacciones muy diversas entre el propio publico, a través de las siguientes técnicas o estrategias de montaje y diseño de sonido que se pueden ordenar de la siguiente forma: Armonía: Transmite sensaciones de tranquilidad, armonía, orden y organización. Similitud: trasmite refuerzo de la sensación emocional provocada por el sonido. Discordia: Transmite inquietud, temor, terror, inseguridad, desorganización. Diferencia: de volumen timbre , ritmo, etc. provocan variedad, complicación, incremento 135 del efecto. El espectador, raramente reparte por partes iguales su atención entre imagen y sonido. Aunque hemos dicho que el sonido representa el 50% de la producción, es muy fácil por el contrario encontrarnos con situaciones en las que el publico traslada su foco de atención de la imagen al sonido y viceversa. Por poner un ejemplo, podemos ver como un movimiento puede reforzar la intención de un diálogo, o en ocasiones como el diálogo que acontece antes de una acción a hace que este tenga mayor fuerza expresiva. Para comprender todo esto, debemos también de conocer lo que prefiere nuestro cerebro, lo que nuestro sistema sensorial procesa con facilidad, o rechaza también con facilidad. De esta manera sabremos cual es el camino más corto que podemos coger para llegar más fácilmente al público y provocar reacciones o emociones muy diferentes y distintas. SALDANHA, E.L., and Corso, J.F. Timbral Cues and the Identification of Musical Instruments, J. Acoust. 135 Soc. Am., 36, 1964 pp. 2021–2026.: Saldana, logra identificar elementos en el timbre de un sonido, capaces de apoyar al cerebro en el reconocimiento de un instrumento sonoro. �19 El oído es particularmente sensible a: 1.Sonidos, con incremento del nivel de volumen .136 2.Sonidos que contienen frecuencias agudas (las que van de los 1000 a 4000 ciclos/s) 3.Sonidos ricos en armónicos 4.Sonidos rápidos, que incrementan su velocidad y ritmo. 5.Ritmos complejos 6.Frases o palabras que se repiten, o que contienen ritmos sincopados.. 7.Sonidos de corta duración 8.Cambios bruscos e intensos: a) De volumen o tono137 b) Dejan de propagarse de forma brusca o cambian inesperadamente c) Contienen vibrados o tremolos 9.Contienen efectos reverberantes o de retardo sonoro.138 10.Se dan diferencias marcados entre los siguientes elementos: a)Entre el sonido protagonista y el sonido ambiental. b)Entre el sonido y la imagen (sus asociaciones, composición, etc). 11.Semejanza marcada entre los siguientes elementos: a)Entre sonidos (por la presencia de algún efecto marcado, como puede ser la reverberancia) CHION, Michel. La audiovisión, Ed. Paidós Comunicación, Barcelona, 1998 En su libro “La Audiovisión” 136 subraya la importancia del volumen en la expresión sonora cinematográfica.Este tema también está tratado en el libro Cuide des objets sonores (INA/Buchet-Chastel) MATHEWS, M.. The Technology of Computer Music, Cambridge, MA: The MIT Press. 1969: Music and 137 the Cognitive Sciences, 4: Se trata de llamar la atención del público a través de cambios radicales de tonalidades y volumen. DARLINGTON, P., and Avis, M.R.Time/Frequency Response of a Room with Active Acoustic Absorption, 138 100th Convention, Audio Eng. Soc. 1996, Preprint 4192: la onda sonora cuando se propaga en un espacio sin obstáculos, lo hace con forma de onda esférica. Los materiales absorben parte de la energía inicial pero a la vez, la reflexión acústica aumentará la presión sonora dentro del recinto físico. �19 b)Entre el sonido y la imagen (cuando el sonido se desplaza conjuntamente con la imagen de pantalla, provocando el efecto de sincronización espacial. Cuando deseamos provocar un cambio de atención en el público entre diferentes objetos en imagen, haciendo que nuestra mirada se dirija a un punto u otro de la pantalla, el tecnico decide qué tipo de efectos o ambientes de sonido va a utilizar sirviéndose de los siguientes trucos sonoros: 1. Haciendo que los nuevos sonidos provoquen un cambio de ritmo, intensidad, desarrollo, que coincida con la aparición en pantalla de el objeto o imagen en cuestión. Esta suele ser una técnica muy empleada entre los profesionales del sector, ya que el oído deja de atender lo que estaba escuchando para dirigir su atención rápidamente a otro foco de pantalla si acontece un cambio brusco en su evolución perceptiva espacial. 2. Produciendo lo que se denomina como Cross-fade o fundido cruzado de los sonidos. Cuando el primero va decreciendo, el nuevo que se incorpora a la imagen va en cambio aumentando en intensidad muy lentamente, dando paso a un cambio gradual entre fuentes sonoras. Esta técnica se utiliza mucho con bandas musicales. 3. Produciendo un falso fundido cruzado, cuando un tema sonoro cambia antes de que desaparezca el anterior. 4. Trasformando de forma claramente perceptiva la complejidad y estructura del sonido, de complejo a sencillo, o viceversa. Musicalmente hablando por ejemplo seria el caso en que la misma banda musical fuera mutando lentamente y en ese �19 cambio gradual se fueran perdiendo diferentes instrumentos consiguiendo un efecto minimalista de la misma. 6. Cambiando la intención de la composición sonora. Es el caso en el que algunos sonidos ponen el acento en notas agudas y otros en cambios en las notas mas graves. Esto crea un juego cognitivo muy interesante ya que el oído detecta clara y explícitamente este cambio, provocando un cambio también emocional en el espectador. Para recrear la atmósfera de un ambiente determinado, el truco radica en utilizar ante todo el realismo, es decir, reproducir aquellos efectos u ambientes que están presentes realmente en la escena, de forma que resulten creíbles y ciertos para el público. Podremos también apoyarnos en el uso de otros efectos y ambientes en segundo plano con los que jugar, provocando en estos cambios de tonalidad, volumen etc, y haciendo que pequeñas variaciones en los colchones sonoros utilizados provoquen la sensación de que esos mismos fondos o ambientes poseen vida y son capaces de mutar en el tiempo y en el espacio. La selección y mezcla de sonidos de ambiente puede tener una poderosa influencia en la interpretación de una escena. Estamos utilizando entonces una creación sonora multicapa donde dependiendo de los sonidos utilizados y en la forma en la que estos se presentan, pueden provocar cambios tanto emocionales como de atención del propio público. Por poner un simple ejemplo, pensemos en los sonidos de una campana lejana, que resuena en el ambiente de forma pausada y serena. Por el contrario, en imagen tenemos unos pasos frenéticos del actor que se dirigen a un lugar determinado. Estos dos acontecimientos tienen y gozan de gran contraste, pero tienen una única finalidad. �19 La tranquilidad pausada del sonido de la campana contrasta con las pisadas inquietas desasosegadas creando una acústica especial.139 También tenemos un segundo efecto que se introduce en esta secuencia. El eco de las notas de la campana se contraponen con el sonido definido y directo de los propios pasos, que de esta forma y por efecto de la ley del contraste sonoro, adquieren mayor significado y protagonismo. Es decir, que es posible utilizar los mismos sonidos tanto para reforzar la imagen y cubrir la secuencia, como para crear un estado, una sensación en el espectador manipulando de forma acertada (en el momento y en la situación correcta) los volúmenes, las tonalidades, el posicionamiento espacial en cada momento. Si hablamos de sonido audiovisual, o audiovisión, podríamos resumir lo siguiente conceptos que son gran importancia cuando hablamos de la imagen audiovisual:140 1.La fuerza o impacto emocional que contiene una determinada imagen, puede ser aumentado si utilizamos adecuadamente los sonidos. 2.El impacto de la imagen y el sonido puede ser acumulativo. 3.Cuando utilizamos sincrónicamente sonido e imagen el resultado que se deriva puede estimular la imaginación. 4.Si el efecto o ambiente de sonido tiene la fuerza y protagonismo suficiente, puede llegar a sustituir al diálogo. CREMER, L., and Müller, H.A. Principles and Applications of Room Acoustics, Vols. 1 & 2, Applied 139 Science Publishers, London. 1982: Los autores informan que la conformación de una sala para exhibición de producciones audiovisuales, puede modificar sensiblemente la sonoridad y el timbre del material mostrado, debiendo de controlar los factores que influyen negativamente en la percepción tanto sonora como espacial de dicho sonido. Los siguientes conceptos importantes en el campo del audiovisual, los encontramos también 140 desarrollados en el libro de Chion, “La Audiovisión”. �19 Aunque la memoria auditiva es menos retentiva que la visual, generalmente 141 resulta más rica imaginativamente hablando, es decir, el oído puede llegar a ser informativamente más poderoso que la propia imagen. A diferencia de la imagen, el oído está mucho más abierto a aceptar cambios y variaciones por bruscas y repentinas que éstas sean, y lo hará de forma natural adecuandose a la imagen de pantalla. Por poner un simple ejemplo, podríamos decir que unos efectos o ambientes sonoros grabados pueden ser vueltos a utilizar muchas veces, sin que el espectador descubra el engaño pero por el contrario, con la imagen, no ocurre esto. Un vestido de un protagonista o un modelo de cortinas pueden resultar familiar después de haberlo utilizado en un par de ocasiones. En muchos programas de TV y en un porcentaje de películas también, el sonido , se utiliza simplemente como algo 142 accesorio y sin protagonismo alguno. Pero mientras sin imagen, el sonido sigue siendo evocador, una imagen sin sonido pierde toda su fuerza, poder evocador, sentido estético y significado narrativo, siempre y cuando claro está, no sea el silencio el elemento fundamental de la narración en ese momento concreto de la historia. El poder evocador del sonido en general es tan grande e impacta de forma tan directa en el público, que un mismo sonido asociado a dos imágenes diferentes, pueden tener como resultado un efecto totalmente opuesto. Una imagen indefinida, neutra puede tener o proporcionar un significado preciso asociándole un sonido concreto. Podemos citar entonces el siguiente ejemplo: imaginemos un sonido que acompaña las imágenes de unas flores. Según sea el sonido más suave, mas oscuro, triste, mas tenebroso, alegre etc, la visión de estas flores, por sí solas podrán transmitir sensaciones diferentes, de SCHELLENBERG, E, Iverson, P., & McKinnon, M. C. Name that tune: Identifying popular recordings from 141 brief excerpts. Psychonomic Bulletin & Review, 6(4), 641–646. 1999:: el cerebro humano es capaz de retener una cantidad finita de información, aunque ésta, se amplia considerablemente cuando utilizamos elementos audiovisuales, ya que la plasticidad cerebral permite memorizar conceptos utilizando claves y reglas nemotecnia en coordinación con registros emocionales. CHION, Michel. La audiovisión, Ed. Paidós Comunicación, Barcelona, 1998. El autor afirma que en el 142 medio audiovisual, no existe ni marco, ni continente de los sonidos. Se pueden añadir tantos sonidos como se quiera, simultáneamente, unos a otros, hasta el infinito sin encontrar limites. �19 tristeza, de alegría, de boda, funeral etc. Según como utilicemos un efecto de sonido, así será la reacción o emoción que provocaremos en el público. Cuando añadimos efectos de sonido y ambientes a una secuencia, estamos influyendo directamente en la forma y modo en que lo va a percibir el espectador. A los sonidos de directo de rodaje, se van a añadir, aquellos que grabaremos en postproducción, elevando el nivel de emoción de la secuencia, y apoyando la imagen con los sentimientos que afloraran a lo largo del transcurso sonoro de la cinta. Por otra parte, tampoco podemos olvidarnos del poderoso influjo y energía que el propio silencio puede añadir a la imagen. Sin embargo el silencio debe ser tratado y 143 utilizado con astucia ya que si se usa de forma incoherente, arbitraria o inadecuada, puede ocurrir que el público lo perciba como un mero error o fallo de sonido. Un silencio prolongado puede sugerir ideas diversas, tales como muerte, desolación, desesperación quietud, esperanza, paz, tensión extrema. Un silencio repentino, después de un ruido, puede ser casi inaguantable. De acuerdo con la situación o dramatismo de la secuencia, podemos manipular su intensidad, y provocar así cambios en la respuesta del espectador. Por ejemplo, un gemido suave y casi imperceptible puede amplificarse para que sea perfectamente audible o realizar el proceso contrario con aquellas fuentes sonoras mas intensas pero que queremos suavizar o minimizar. Normalmente en las películas, se suele arrancar con sonidos presentes para marcar la presencia de un objeto en pantalla, por ejemplo imaginemos el rugido potente de un coche en pleno trafico de una gran ciudad. Inmediatamente después pasamos al plano interior coche, donde ese mismo efecto va bajando lentamente de intensidad para permitir que el diálogo se haga audible y comprensible. Por el contrario, también podemos optar por el efecto contrario, es decir potenciar intencionadamente su intensidad para que CHION, Michel. La audiovisión, Ed. Paidós Comunicación, Barcelona, 1998: par el autor el cine sonoro 143 ha aportado una herramienta o recurso indispensable: el silencio. Éste nunca es un vacío neutro. Es el negativo de un sonido que se ha ido antes o que se imagina; es el producto de un contraste. �19 el ruido ahogue las voces. También es posible en determinadas ocasiones eliminar todos los sonidos ambientales para disponer de un fondo es silencio, quizás una secuencia en que se “oyen los pensamientos”. En resumen, podemos modificar las fuentes de sonido reales, o grabadas, y añadir aquellos efectos e intenciones sonoras con las que buscamos impactar en el publico en general. Cuando utilizamos efectos de sonidos, estos pueden tener diferentes fuentes o procedencias: 1. Efectos de Sonido grabados al azar 2.Efectos de Sonido grabados selectivamente de localizaciones específicas Cuando necesitamos utilizar sonidos ambiente o colchones ambientales, podemos: 1.Escoger aquellas sonidos naturales reales, para crear una ilusión de credibilidad 2.Distorsionando o modificando los propios sonidos reales, para crear un contexto fantástico y así estimular la imaginación. 3.Por las propias características del timbre y del ritmo de los sonidos podemos evocar sentimientos y emociones sin que haya directamente una relación con el fenómeno objetivo en imagen. Crear el sonido de una producción significa tener un buen oído, y para esto se necesitan dos instrumentos básicos: �20 A) La habilidad de escuchar activamente 144 B) El conocimiento de cómo los efectos del sonido afectan la conducta humana. Hay que subrayar la importancia que tiene para poder realizar un buen trabajo de postproducción sonora, ejercitar la escucha activa. Escuchar, significa percibir el sonido con atención, analizando sus cualidades, calidad, estilo, matiz, modo de ser interpretado, examinar su efecto en el publico, en las emociones y sentimientos. Físicamente, somos capaces de percibirlas las frecuencias que van desde los 20Hz a los 20000Hz (o lo que es igual desde los 0 Db a los 120 Db). Por encima y por debajo de estos dos umbrales, los sonidos no son percibidos sino sentidos físicamente. A partir de los 20.000Hz tenemos el efecto del dolor (estallido del tímpano). Alrededor de los 20Hz percibimos vibración a través de grandes altavoces y 145 grandes volumenes de baja frecuencia. De esto, tenemos un ejemplo inmejorable en la producción americana de “Terremoto” de Mark Robson en 1975, durante la moda sobre películas de desastres y catastrofes, que recorrió todo el mundo en apenas seis o siete años, del 1970 al 1976 aproximadamente. En concreto “Terremoto” utilizaba un equipo especial de sonido, que se llamó, el sistema Sensurround (30 altavoces de subgraves repartidos por la sala de cine) para reproducir las frecuencias subgraves que eran las encargadas de transmitir al publico ondas vibratorias de alta intensidad, capaz de provocar literalmente sacudidas de los asientos y del público, y así poder emular la sensación de estar en el ojo de un SONNENSCHEIN, David. Sound Design. The Expressive Power of Music, Voice, and Sound Effects in 144 Cinema. Michael Wiese Productions Seattle 2001:.Aunque en general se suelen reducir los tipos de escucha definidos por Schaeffer y Chion a las escuchas reducida, causal y semántica, en realidad el propio Sonnenschein ha definido un cuarto tipo el Referencial. Consiste en atender no solo al sonido y sus características físicas, sino también a su referente emocional o dramático. SMITH, D.L. Discrete-Element Line Arrays. Their Modeling and Optimization,” J. Audio Eng. aes.org.1997 145 Cuando hablamos de altavoces interesante citar es el efecto de apantallamiento descrito por Smith, D.L el cual afirma se trata de la formación de varios altavoces anclados, que emiten el mismo canal de audio. Con esto se consigue mayor potencia sonora. �20 terremoto de gran magnitud. El éxito fue rotundo, pero económicamente poco rentable. Digo esto, porque como ocurrió en muchos países, la cinta no podía estrenarse en cualquier sala de exhibición. Por ejemplo, en Madrid solo se pudo estrenar en dos cines (Palacio de la Prensa y Cid Campeador), a pesar del interés de muchísimos exhibidores de poder llevar esta cinta a otras salas de la ciudad. El motivo estaba muy claro. La única condición que ponía la productora era la de que la sala pudiera resistir una presión de bajas frecuencias superior a 110 Db sin que resultara afectado físicamente el propio inmueble. Desgraciadamente muy pocas salas llegaban a superar este test de stress. Analizando los efectos de las bajas frecuencias, podemos decir que por debajo de los 20Hz, aparecen otro tipo de sensaciones. Son las sensaciones de náuseas, y si éstas frecuencias persisten y aumentan de intensidad, entonces podemos llegar a tener ataques violentos de vómito. Sobra decir, que los sistemas de reproducción profesional de sonido en sala de exhibición, cuentan con un sistema automático de protección que impide que se puedan reproducir sonidos por debajo de este umbral a través de cortes por Poster de la película �20 ecualización en la matriz de DOLBY, DTS, o SDDS según el sistema utilizado en cada sala. Si solo oímos pero no escuchamos, el sonido permanecerá como parte del entorno, pero no podremos definir sus cualidades y analizarlo en profundidad. Nos rodeará, pero no nos llegará a tocar. Por eso hay que distinguir, el proceso de “oír” del proceso de “escuchar”. En el primero, solo percibimos, pero sin intención de analizar ni atender activamente. En el segundo la acción se centra en focalizar los sentidos en los sonidos que vamos recibiendo del entorno, siendo conscientes en todo momento de las características y cualidades que lo conforman. Esto tiene también una explicación física: nuestro cerebro es capaz de percibir un numero finito de sensaciones. El hemisferio izquierdo, procesa información racional y lógica. Los procesadores de la zona izquierda del cerebro permiten, reconocer, grupos de letras que a su vez forman palabras, y grupos de palabras que forman frases. Esto acontece tanto en el lenguaje , 146 como en la escritura, como en otras artes, como las matemáticas, el calculo o el razonamiento lógico. El hemisferio derecho del cerebro, por el contrario, es un centro que organiza los procesos no verbales, y está especializado en emociones, sentimientos, y habilidades espaciales; habilidades sonoras y otras como pueden ser las artísticas y musicales. Pero el cerebro tiene una capacidad finita para procesar y discriminar sonidos. Un ejemplo lo tenemos en la vida diaria, ya que el cerebro selecciona las fuentes de información de las que depende para su seguridad e integridad. Por ejemplo si caminamos por la calle entre todo el sonido que llega a nuestros sentidos, el cerebro selecciona el ruido del claxon de un coche o el chirriar de ruedas sobre el asfalto o el ruido de un motor acercándose a NORMA B.D., La lengua oral. Ossanna, 2005. “se entiende el lenguaje como el proceso de 146 transformación de la experiencia en un sistema de signos verbales que pueden ser, bien auditivos (el habla) o bien visuales (lectura y escritura)”. �20 gran velocidad y lo hace basándose en que estos mismos sonidos nos informan de algo que podría afectarnos directamente (el claxon o chirriar de ruedas puede ser el preludio de un posible atropello o accidente de trafico, por ejemplo). El cerebro es inteligente y prioriza de forma automática la fuente de sonido a la que debe de prestar atención en primer lugar. Otro posible ejemplo de lo que denominamos por “atención selectiva”, lo tenemos en lo que se denomina como efecto “Cocktail”. Imaginemos una charla en una cafetería. Nos encontramos hablando con unos amigos. En la mesa de al lado hay más gente reunida también en animada charla. Aquí puede acontecer un fenómeno especial, en el que el cerebro es el principal protagonista. Éste selecciona y atiende activamente sin que nosotros lo provoquemos, aquellos sonidos que se están dando en la otra mesa, y se comportará así, siempre y cuando en el diálogo de las personas de aquella mesa, el cerebro distinga palabras clave que atraen su atención y que tienen que ver con gustos, preferencias, fobias, etc del sujeto escuchante. Es decir tiene que haber alguna conexión entre “ el contenido de la palabra” y el consciente o subconsciente del propio sujeto. Otro ejemplo de lo que estamos hablando, lo tenemos en los cambios de tono, intensidad, ritmo etc de los sonidos. Ejemplo sala de quirófano de hospital: el oxigeno tiene un sonido grave, mientras el helio que es mas ligero y rápido emite un sonido agudo. La mezcla de los dos, dará como resultado un sonido muy especial y característico, un silbido que sirve al anestesista para tener una comprobación auditiva de que el flujo del gas es el correcto y continuo para el paciente durante la intervención. Podemos citar también un último ejemplo muy significativo e impactante que seguramente a alguien cercano a nosotros le habrá ocurrido en algún momento. La madre que estando en el salón de casa, viendo la televisión y escuchando los sonidos, músicas, diálogos de programas, publicidad, etc incluso a volumen alto es capaz de distinguir, y descubrir que el niño llora en su cuna y lo percibe claramente aunque no sea �20 así para el resto de las personas que se encuentran también en ese momento en el salón. Estamos acostumbrados a oír pero no a escuchar. La escucha no puede ser selectiva, es decir, hay que escuchar tanto los sonidos agradables como los estridentes y molestos porque también éstos nos sirven para nuestro trabajo. En pocas palabras, en el mundo del diseño cinematográfico de sonido, no existen fuentes de sonido “malas”. Todos los sonidos son buenos, aptos para ser trabajados y utilizados en cualquier momento. Para escuchar correctamente, debemos de entrenar el sentido del oído, prestando activa atención al sonido donde y cuando sucede (en la calle, en una sala, en un bar etc.); analizando los componentes que la forman, su cualidad, y su relación con el entorno. Un ejemplo, es el propio ladrido de un perro. Si lo analizamos, nos daremos cuenta que ese sonido difiere en características físicas, dependiendo de que sea un sonido grave (el ladrido sería mas largo en duración) o agudo (el ladrido será mas penetrante y corto). Ademas no existe un único tipo de ladrido. Podemos tener una amplia variedad: los ladridos pueden contener gruñidos, gemidos, gañidos, aullidos, pueden ser rítmicos o complejos etc. Otro ejemplo es el pollito que rompe la cáscara para salir del huevo. Percibimos su piar y el sonido del romper la cascara, pero antes dentro del huevo, el pollito piaba de forma mas suave y menos potente golpeando al principio suavemente la cascara por dentro, para luego aumentar en intensidad y fuerza. El sonido de una gota sobre una chapa metálica etc. Todos los sonidos tienen múltiples manifestaciones y características físicas que conviene analizar, ordenar en nuestro cerebro y categorizar correctamente, para que se queden perfectamente grabados en nuestra biblioteca sonora personal que es nuestro cerebro, ese gran procesador de información, que nos permite comprender y organizar el mundo que nos rodea.
 �20 9.4 La música Una producción audiovisual, no podría jamas estar completa sin la experiencia de una banda musical que pueda transmitir la emoción de la historia narrada. La música se mueve a nivel de sentimiento de emociones ya que la música en su base primitiva responde a un conjunto de sensaciones que se encuentran en la psique profunda y atávica, de nuestra conducta más ancestral y visceral. Es una potente herramienta que se añade al conjunto de informaciones que transmitimos al espectador. Es tan importante la música para una película, que es capaz de narrar por sí misma lo que acontece en la pantalla, sin necesidad de ningún otro tipo de sonido o diálogo. Como ejemplo del protagonismo de la música en la conformación de la banda sonora de una película podemos citar la famosa secuencia del tango en la película “Perfume de Mujer” (Martin Brest 1992), protagonizado por el genial y oscarizado Alan Pacino (V64). V64 �20 Estamos ante la piedra filosofal del montaje sonoro, ya que técnicamente hablando, después del diálogo, lo más importante es sin duda la música, capaz de infundir, personalidad, fuerza y carácter a la imagen. Más adelante desarrollaré el apartado de sonido referente a las músicas o bandas sonoras aportando ejemplos que nos van a servir de ayuda y guía para entender cual debe ser el concepto musical de cualquier producto audiovisual. Es decir, como tenemos que utilizar la música y sus recursos para convertirla en una poderosa arma de comunicación audiovisual. �20 10. La Gestalt y el sonido cinematográfico Uno de los elementos mas interesantes cuando trabajamos con sonido, es descubrir como lo que denominamos como escucha activa esta basado en una serie de leyes que beben de la teoría psicológica del comportamiento denominada GESTALT . La 147 palabra "GESTALT" es una palabra de origen alemán, que podría traducirse por "figura- fondo”. El concepto fundamental que giraba alrededor de los teóricos de la GESTALT, era el siguiente: "El todo es más que la suma de las partes”. A través de este concepto general, los teóricos intentaban dar explicación al comportamiento humano, buscando la manera de desarrollar una teoría completa y coherente sobre los resortes y motivos de la conducta, así como de los problemas asociados a las disfunciones conductuales. Si tuviésemos en pocas palabras que explicar el concepto de la Gestalt desde el punto de vista cognitivo-emocional, veríamos como también esta teoría no solo seria capaz de dar explicación de la conducta, sino también de los procesos de interpretación sonora que empleamos inconscientemente y sobre los que se basa el diseñador de sonido de la película para provocar emociones y sentimientos. Podríamos explicar la teoría de la Gestlat de la siguiente manera: ”el mundo real se percibe como un todo organizado, en el que destacamos un elemento llamado "figura" (que atrae nuestra atención) de otro elemento denominado “fondo” sobre el que destaca. “ En Psicología, la corriente de la Gestalt no solo representa una terapia correctiva del comportamiento, 147 sino también trata de liberar a las personas de las ataduras emocionales, de bloqueos comportamentales, intentando mejorar la creatividad y la sensibilidad del sujeto. A través de la psicología positiva, la Gestalt trata de potenciar las facultades del hombre y de expandir sus límites eliminando barreras y bloqueos y potenciando sus habilidades personales. �20 Históricamente, la corriente de la Gestalt desarrolla sus estudios en el campo de la percepción, pero más tarde orientará su objetivo sobre específicos temas de aprendizaje. La idea básica de la Gestalt sobre el aprendizaje humano, afirma que éste aprendizaje acontece directamente mediante el efecto de lo que ellos denominan insight, es decir que el paso de la falta de conocimiento, al conocimiento ocurre repentinamente, en un instante. El concepto teórico del INSIGHT o aprendizaje instantáneo, está relacionado directamente, con un conocido experimento que fué realizado por el psicólogo alemán Wolfgang Kóhler. Este experimento recibió el nombre del “Mono Sultán”. Kohler colocó un plátano fuera de la jaula donde se encontraba el mono Sultán. El 148 mono buscaba la manera de alcanzar el plátano pero era imposible. Entonces vió dentro de la celda que había un palo, y lo cogió intentando alcanzar la fruta, pero sin demasiada suerte, repitiendo este acto una y otra vez, hasta que después abandonaba la tarea Wolfgang Kóhler, “The Mentality of Apes” Liveright, NewYork 1976148 Wolfgang Kóhler �20 desanimado. Dentro de la jaula, había también un segundo palo, al que Sultán, no prestaba demasiada atención. Así pasaron varios días sin que el mono lograra su objetivo. Pero de pronto un día, Sultán, se dirigió con decisión a los dos palos. Los agarró enganchando el final del primer palo con el principio del segundo, a modo de pértigas telescópicas. De nuevo intentó alcanzar el plátano que estaba fuera de la jaula, pero ésta vez con éxito ya que la longitud del palo o pértiga ahora si le permitía llegar a alcanzar la fruta y de este modo acercarla al borde de la jaula. (V31). Para Kohler en la mente del mono Sultán, se dio un fenómeno de recomposición cognitiva, es decir, en un solo instante, el mono comprendió perfectamente qué relación existía entre las dos pértigas, y como tenía que comportarse para alcanzar su objetivo. Esto es lo que acontece en el proceso de INSIGHT. El aprendizaje es explosivo, y se da en un momento determinado, y solo cuando los elementos que integran el proceso de asimilación de la experiencia, lideran la acción, guiando al individuo hacia la solución final. A continuación, vamos a analizar uno de los fenómenos más importante del ámbito sonoro, en relación con los procesos y leyes de la teoría de la GUESTALT, es decir, vamos a analizar como éstos principios del comportamiento, influyen directamente en la �21 forma y modo en que el hombre percibe, discrimina y organiza los sonidos, y cómo estas leyes rigen también los patrones o técnicas de montaje en el ámbito cinematográfico. Estamos ante una teoría que rige los principios cognitivos del conocimiento, y que nos va a permitir ser muy eficaces a la hora de buscar aquellos sonidos, efectos o ambientes en general, capaces de elicitar determinadas respuestas en el individuo. Y lo que es más importante, vamos a ver cómo a través de estos principios del comportamiento psicológico podemos influir en las emociones, sentimientos o estados de animo del espectador. 10.1 Ley de Proximidad La ley de proximidad afirma que el cerebro tiende a ver como algo único dos 149 líneas discontinuas y que tengan la misma trayectoria. Si trasladamos este principio en el ámbito del sonido, tendremos que el cerebro tiende a agrupar los sonidos cercanos en el tiempo y se perciben como uno único, como por ejemplo la sucesión de dos sonidos en el tiempo como es el chirriar de una puerta, e instantes después el golpe impactante de un portazo. Siguiendo esta primera ley, aunque los dos sonidos sean diferentes y totalmente independientes el uno del otro en el tiempo, el cerebro tiende a percibir un único efecto que engloba estos dos sonidos, dando como resultado el sonido único de cerrar una puerta (A2) como podemos percibir en el ejemplo que a continuación presentamos. El cerebro agrupa los sonidos que se producen casi a la vez. Y así los asimilamos como si fuesen uno 149 solo. �21 Esto funciona con melodías, frases cortadas etc. Cuando en un dialogo tenemos una calva o error, el montador de sonido puede ocultar este error, colocando en este punto otro sonido (p.e. un claxon). El publico, percibirá que el diálogo continua naturalmente, sin reconocer ese error en el mismo. 10.2 Ley de Similaridad Nuestro cerebro tiende a agrupar aquellos objetos similares en un único objeto. El grado de ésta semejanza depende del tamaño, características de dichos elementos que percibimos. Si trasladamos al campo sonoro este principio o ley de la Guestalt, nos daremos cuenta de que podemos manipular la atención del espectador, para que éste fije su atención en un punto, un objeto o incluso un personaje en la pantalla. Los sonidos parecidos o idénticos tienden a ser agrupados por el cerebro aunque sucedan lejos en el tiempo: una calle con trafico ruido general, si escuchamos un ladrido y este se repite varias veces en el tiempo y es el mismo ladrido, éste sonido llamará nuestra A2 �21 atención y se grabará en nuestra memoria; o un teléfono suena aisladamente en una oficina con mucho ruido y actividad. Además si este sonido tiene un tono o timbre diferente al del resto, éste se percibirá como algo especial y nuestro cerebro lo destacará del fondo ambiente de oficina. (A1). Conocer esta ley principio es muy importante para nuestro trabajo, ya que nos permitirá dirigir fácilmente la atención del publico sobre determinados elementos del proyecto audiovisual. El dibujo que a continuación presento, responde a cómo percibimos los objetos en el mundo real, es decir, cómo los agrupamos en el espacio siguiendo siempre unas reglas determinadas. En este ejemplo, podemos ver como el cerebro tiende a percibir lineas repetidas en forma y dimensión como un conjunto de lineas paralelas, o bien los puntos en la figura inferior tienden a ser agrupados por similitud en distintas formando diferentes figuras, un pequeño triángulo, una linea de tres puntos, o una linea de tan solo dos. A1 �21 10.3 Ley del Completamiento El cerebro tiende a completar líneas discontinuas y verlas como una sola, si se encuentran en la misma trayectoria. Llevando esto al terreno del sonido, el ejemplo sería: una persona esta hablando y el final de una palabra esta pisada por un claxon, el publico percibirá esa palabra como algo continuo, sin interrupción, es decir percibirá es palabra completa, sin cortes ni interrupciones (A3). Así vemos como las dos figuras superiores, se perciben como algo terminado y completo, no se perciben lineas independientes sino figuras completas, ya que el cerebro es el encargado de, recrear las figuras. Desde el punto de vista del sonido, otro ejemplo lo podemos encontrar en la secuencia de la película “Tesis”, de Amenábar producida por Jose Luis Cuerda, (V37) cuando el actor Féle Martínez (en el papel de Chema) quiere mostrar a Ana Torrent ( en el papel de Ángela Marquez) las imágenes de la cinta SNAFF MOVIE que ha encontrado. Ante esta situación, y el horror que esta idea provoca, Ángela, le pide que ponga la imagina a negro del televisor para escuchar solo los sonidos de la cinta. Ésta idea, la A3 �21 de escuchar y no ver una imagen, tiene un efecto psicológico absolutamente demoledor y mucho más terrorífico que la visión del propio material. Es entonces cuando permanecen los dos mirando la pantalla oscurecida del televisor escuchando lo que se va oyendo en el video mientras la cámara va acercándose lentamente a la cara de la actriz, para delatar el semblante de autentico terror que se va dibujando en su rostro. El sonido tiene un poder aún mayor que la imagen, actuando de efecto lupa, magnificando lo que la imaginación esta construyendo de lo que no se ve. El cerebro acentúa este poder del sonido, creando una atmósfera sobrecogedora e insoportable. Es nuestra imaginación la que crea un mundo aún más demencial del que puede ser mostrado en pantalla. Así podemos comprobar como al quitar la imagen del televisor, y dejar solo el audio, el efecto psicológico que produce se multiplica exponencialmente en el propio espectador, ya que el cerebro tiende a completar la información que falta. Y lo hará de forma automática siguiendo el principio de completamiento de la Gestalt, llegando incluso a superar la realidad. La imaginación es un elemento que no conoce obstáculos, fronteras ni limites. En este caso, es la imaginación la encargada de multiplicar el efecto de angustia, terror y desesperación que se apodera de la actriz, paralizada casi delante del televisor. �21 Es importante concluir diciendo que el cerebro humano tiende a completar siempre la información cuando ésta se da de forma parcial. 10.4 Ley de Figura Fondo Desde el punto de vista cognitivo, cuando percibimos la realidad que nos rodea, sucede un fenómeno instintivo, y es el de reconocer las figuras del fondo en las que se encuentran. Nosotros percibimos las cosas porque el cerebro detecta cada figura y la distingue del fondo que la rodea, y esto acontece por características como: tamaño, forma, color, posición, del objeto etc. Cuando dos o mas fuentes de sonido se ven afectados por los mismos cambios en el mismo momento como pueden ser volumen, tono, etc, ésta fuente sonora se percibe entonces como perteneciente al nuevo entorno. Como ejemplo podríamos imaginar la siguiente situación: secuencia exterior día calle. Escuchamos el trafico lógico del propio lugar. A continuación tenemos cambio de plano, y nos vamos a interior casa. El sonido exterior de la calle da paso al mismo sonido interior casa con ese mismo fondo exterior trafico pero sensiblemente más bajo. (A4). De ésta forma, el cerebro procesa el ambiente de trafico interior casa y lo hace identificándolo como un nuevo fondo ambiental, aunque realmente los dos colchones tanto exterior como interior son los mismos. Si nos fijamos en el dibujo inferior, veremos como siempre habrá un fondo sobre el que destaque la figura, ya sea bien las caras o ya sea la copa. �21 Esta ley es básica en sonido y se utiliza asiduamente en el ámbito cinematográfico. Tenemos que tener presente las siguientes características del sonido en relación a la escucha humana: - El cerebro es capaz de procesar cantidades finitas de sonidos, y lo hace con cierta lentitud. Podemos reconocer un sonido a partir de una duración de .001 sec, distinguir que dos sonidos están separados si la duración es de al menos .002 sec, pero distinguir cualidades sonoras como el tono, para eso necesitamos al menos de .013 sec, .05 sec. para el volumen, y .1 sec para el dialogo. De todas las posibles fuentes de sonido que existen, es la voz en particular la que detecta el cerebro con mayor dificultad. El sentido del oído, es un sentido al que se le puede engañar con facilidad. Basta hacer la prueba de lo que identifico como “el efecto palmada”. Si mientras escuchamos un diálogo, alguien da una fuerte palmada cerca de nuestro oído, lo que se va a producir, es un efecto de bloqueo, donde el sentido del oído, permanecerá durante escasos segundos totalmente colapsado por el ruido. A partir de aquí, podríamos añadir en medio del diálogo un ruido totalmente incoherente, el cacarear de un gallo por ejemplo, y aún así para el cerebro, dicho sonido pasaría como totalmente A4 �21 normal. Si hacemos esto, el oído pierde su referencia espacio temporal, y se desorienta de tal modo que si reproducimos otro sonido diferente en ese preciso instante, cualquier cosa que escuchemos nos parecerá normal. Esta técnica se emplea en el cine, cuando el director desea que un determinado sonido, voz, ruido, entre en escena sin que el espectador sepa como ha sido, como ha sucedido, o cuando queremos ocultar algún sonido premeditadamente. Por este motivo, y por la plasticidad que tiene el sentido del oído, el sonido, es el material más valioso a la hora de apoyar y enriquecer la propia imagen dentro del proceso de postproducción de una película. Nosotros podemos mejorar la forma en que escuchamos y así desarrollar la sensibilidad personal auditiva, que se obtiene a través de la experiencia. Esta experimentación de los sonidos que nos rodean se tiene que realizar de forma consciente, activa, discriminante y selectiva para poder así analizar la información que cada sonido aporta, y crear lo que se denomina como MAPA SONORO , es decir, un 150 plano o base de datos de los sonidos de nuestro mundo y del efecto que provocan en el ser humano. Es la forma que tenemos de categorizar el mundo sonoro que nos rodea y de ésta manera lograr un uso más ajustado y específico de aquellos sonidos u ambientes que nos van a servir para contar y recrear una determinada secuencia, escena. No podemos adentrarnos en el universo complejo de una producción cinematográfica, si no somos capaces de manejar la información del mundo que nos rodea y sobre todo desde el conocimiento específico causal que un determinado sonido puede provocar al espectador. El mapa sonoro es sin duda un concepto muy manejado hoy en día aunque aunque tenga múltiples 150 acepciones y significados. Podríamos decir que hablamos de mapa sonoro, cuando intentamos conocer las características sonoras de un espacio o localización física. El técnico encargado de grabar los sonidos en una producción audiovisual, es el primero en interesarse por este tema cada vez que tiene que realizar su trabajo. No podría en definitiva obtener una buena captura de audio si antes no ha estudiado las condiciones acústicas del local o lugar, para poder conocer los ruidos o problemas acústicos que podrían interferir en su trabajo. �21 Por otro lado es importante reconocer el efecto del sonido sobre las reacciones humanas. Saber qué efectos produce en el publico, en el comportamiento. Conocer las reacciones humanas y sus causas, es un aspecto importante del montaje sonoro, que tiene que ver con el dominio de la narrativa sonora y por supuesto se ve coronado cuando sabemos y dominamos las claves del comportamiento y los sonidos que lo motivan. Hay que tener en cuenta que el cerebro procesa el sonido, pero lo hace también basándose en un factor muy importante: el filtro personal de cada uno. Esto quiere decir que en el proceso de escucha sonora interviene también la historia, el pasado y el presente del oyente. Basta que una persona quiera escuchar algo determinado, para que su cerebro intente reconocer o recrear ese algo que el desea oír. Este principio del comportamiento es común para todos y afecta por igual a todas las personas independientemente de su cultura, origen, estado o condición. El mundo que nos rodea nos afecta diariamente, pero lo más importante es entender la forma en la que cada uno percibe ese efecto, ese ambiente de sonido, ese diálogo y por consiguiente, el resultado emocional que esto provoca en nosotros mismos. El ejercicio de encontrarnos con la realidad sonora de nuestro mundo, nos tiene que llevar al menos a la curiosidad de intentar indagar en ella. Permanecer absorto ante el canto de un pájaro, o simplemente ante el sonido de una hoja arrastrada por el viento, significa buscar el foco de ese sonido, y dejarse llevar por él, con mente abierta y tratando de identificar las cualidades físicas que hacen que ese sonido sobresalga del fondo que lo rodea. De aquí la importancia de la ley de la Gestalt, de figura y fondo. A primera vista puede parecernos un ejercicio fácil y sencillo, pero puedo asegurar que no lo es. Estamos demasiado acostumbrados a buscar el todo y nunca examinar las partes que lo forman, a que toda la información se nos dé masticada y digerida. Esto provoca que en la mayoría de las ocasiones nos falle la capacidad de discernir lo “minimal” lo “unitario y singular” de lo “general”, ya que la experiencia del todo, tiende a �21 dejar en segundo plano una experiencia más detallada y profunda de las partes que lo conforman. Y esto es así, si nos obligamos a analizar con mayor profundidad el mundo que nos rodea. El conocimiento y control de esta información hace surgir, crecer y alimentar indefinidamente nuestro propio “mapa sonoro” del mundo, indispensable para 151 poder desarrollar nuestra función como montadores o diseñadores de sonido de forma correcta, eficaz e inteligente. COREY, J. Audio production & critical listening. Focal Press. Oxford. 2005. Una de las ideas que lanza 151 Corey, es la importancia que tiene conocer el sonido, el tener una amplia biblioteca sonora organizada, categorizada y guardada en memoria, para ser rescatada y utilizada por el montador. �22 11. Efectos cognitivos producidos por el sonido en el publico 11.1 Efecto del Contraste Todos los sentidos tienen un principio sobre el que se apoyan. Hablamos del efecto del contraste: una abrazo puede ser (suave-fuerte), una superficie (lisa-rugosa), un olor (dulce-fétido) y un sonido (grave-agudo) etc. De ésta forma, es como el cerebro procesa la información, como organiza los datos del mundo exterior que nos rodea. Descubrimos el valor de las cosas, cuando podemos compararlas con experiencias pasadas, con sensaciones, emociones, ya vividas en otros momentos, y así procesar los efectos que llegan a nuestros sentidos bajo un esquema bipolar (todo-nada, fuerte-débil, grande-pequeño) etc. Si la sensación semantiene, el sentido se habitúa y su efecto sobre la persona se convierte en neutral. También ocurre exactamente lo mismo cuando el efecto se repite constantemente con demasiada rapidez o intensidad. Es entonces cuando nuestros sentidos se acaban insensibilizando a la fuente del efecto. Decimos en la profesión que cada disonancia exige una consonancia, cada extremo, su opuesto que sea capaz de añadir intención, fuerza, dinamismo y energía a las cosas que nos rodean, y convertir nuestra experiencia de la vida, en algo especial y lleno de intensas emociones. En el cine, en la experiencia sonora cinematográfica, no cabe el aburrimiento. Nuestro trabajo como creadores de “mundos sonoros” tiene que tener un objetivo muy claro y definido. Nuestro cometido, es el de sorprender, enamorar al público �22 y conseguir llegar al corazón y a la fibra de cada uno de los espectadores. Éste tiene que ser nuestro mandato sonoro, que permita añadir nuevas claves sonoro-narrativas al fotograma de imagen. Podemos decir, incluso que nuestra propia vida no se escapa tampoco a este principio fundamental de las cosas. Estos dos extremos son enemigos eternos como el ying y el yang, la noche y el día. Los cambios acompañan constantemente nuestra existencia : es una dimensión de la que no se puede huir, como tampoco podemos huir de las estaciones .(otoño, invierno, primavera, verano), de la misma vida (nacimiento-vida- muerte), de las historias narrativamente hablando (planteamiento, nudo y desenlace). El efecto del contraste , provoca una reacción inmediata en el espectador, atrayendo su 152 atención. Este principio psicológico, permite que podamos provocar sentimientos y sensaciones muy diferentes en la audiencia. Se pueden provocar sentimientos de sorpresa, alegría, nerviosismo, melancolía, terror, etc. El contraste se convierte en la herramienta fundamental para captar la atención del publico. Si analizamos las diferentes características del sonido, podemos ver como las frecuencias agudas destacan sobre 153 las frecuencias bajas, el volumen alto al bajo. Un ejemplo, lo tenemos en la secuencia del cementerio de “Terminator 2”. En esta secuencia, vemos como un grupo de policías lanzan un tiroteo contra el protagonista. A través de la utilización de diferentes leyes como la del contraste, podemos percibir perfectamente cada disparo, explosión, detonación, vemos como ningún sonido permanece oculto, y gracias al uso inteligente de los tonos, frecuencias de sonido, volumenes etc somos capaces de identificar todo el montaje sonoro, sin caer en la El contraste sonoro es un concepto importante ya que permite controlar y corregir diferencias de volumen, 152 de tono y de ecualización. SCHULTZ, T.J., and Watters, B.G. “Propagation of Sound Across Audience Seating,” J. Acoust. Soc. Am., 153 36,1964 pp. 885–896.. Las diferentes frecuencias sonoras, tienen un efecto importantísimo a la hora de trabajar con plugins reverberadores, como en el ejemplo sonoro de Terminator 2. Las frecuencias agudas y graves con armónicos incluido, provoca la aparición de “ruido” que habrá que tratar o eliminar posteriormente. �22 insensibilización o hipersensibilización sensorial. Podemos identificar perfectamente tanto aquellos efectos más explosivos y presentes, granadas, ametralladoras, como los más sutiles o menos evidentes como puede ser por ejemplo el sonido de los casquillos rebotando en el suelo, etc. El contraste entre la tranquilidad del cementerio, el sonido de los pájaros o el sonido suave de la brisa, se ve roto por el extremo opuesto: la acción de los geos americanos. A través de la ley del contraste, podemos atraer la atención del público, hacer que se relaje o por el contrario, se sobresalte. Ésta técnica está muy presente en películas de suspense y terror, donde tras un momento de tranquilidad o relativo silencio, la música o incluso un efecto de sonido concreto, aparece en escena de forma súbita y con fuerte carga sonora. Las diferentes explosiones y efectos de sonido, contienen cambios constantes en tono, volumen o timbre, provocando un refuerzo en el impacto emocional que provocan acentuando así la fuerza sonoro-narrativa de la secuencia (V32). Otro ejemplo, lo tenemos en la película “Tesis” (1996) de Amenábar, con la secuencia del bar en la Universidad, lugar donde los protagonistas tienen su primer encuentro. Una de los logros de esta cinta y de su director, es el de dotar de un gran protagonismo al sonido, �22 y hacernos ver como el poder de sugestión, la fuerza narrativa y las características físicas de los sonidos son capaces de transmitir una carga emotiva muy grande, provocando reacciones extremas en el público. Queda acreditada en esta secuencia, la importancia que tiene el sonido en la construcción mental del espectador. Es decir, lo que percibimos visualmente transmite una información, que se ajusta a lo que estamos escuchando, pero aquí jugamos con el principio del contraste, entre dos diálogos musicales, la melodía clásica, y el tema heavy metal. Son dos discursos totalmente diferentes, pero que se funden y se presentan armoniosamente, llegando a funcionar casi como una tarjeta de visita de los dos actores. (V38). Este diálogo musical, es tan potente, que marca por si solo el carácter de cada personaje, aunque no sepamos de antemano nada de él. Esta manera de presentarnos la personalidad de cada uno, es un truco que aunque sencillo y corriente, causa impresión y atención en el publico. En este caso, son las notas musicales, las que sustituyen el diálogo, la palabra, para convertirse en palabra y dialogo musical, que funciona en otro nivel de comunicación, con la ventaja de que se expresa sin necesidad de traducciones o explicaciones implícitas en la imagen. Es una secuencia genial que resuelve apoyándose en la música, una cuestión puramente comunicativa. �22 11.2 El Silencio El silencio es el sonido mas poderoso y con un impacto emocional a l t í s imo. S ign ifica llegar a un punto de casi meditación Zen. El silencio, se puede utilizar para potenciar una situación de tensión, de terror, de intriga, o por el contrario, puede transmitir sosiego y tranquilidad después de una secuencia de acción y drama. Sirve también para dotar a la secuencia de mayor realismo sobre todo en aquellos momentos donde por razones físicas, es necesario. Es el sonido perfecto para empezar a escribir en un papel en blanco. Si nos encerráramos en una sala anecóica y privados de todo sonido del exterior, acabaríamos por percibir nuestro latido 154 del corazón, nuestra respiración, nuestros cambios de presión arterial nuestros propios sonidos corporales, etc. Un ejemplo lo tenemos en la película “La Conversación” de F.F. Coppola. (V33). KOIDAN, W., Hruska, G.A., and Pickett, M.A. “Wedge Design for National Bureau of Standards Anechoic 154 Chamber,” J. Acoust. Soc. Am., 52, 1972. pp. 1071–1076: Es una sala acolchada, preparada específicamente y llena de material absorbente, donde se puede grabar sonido sin ningún tipo de reflexión. �22 El protagonista solo en la habitación trata de captar sonidos al otro lado de la pared. Importante es notar como los sonidos se escuchan filtrados a través del espesor de los muros, tabiques, etc y como éste efecto se potencia posteriormente en postproducción a través del apoyo de ecualizadores y resonadores. No podría dejar pasar la oportunidad de hablar de una película singular de Steven Spielberg, y que refleja además la maestría del director en el manejo del silencio sonoro: Salvad al Soldado Ryan155 Una de los momentos más memorables a nivel de sonido, a mi juicio en este metraje de Steven Spielberg, es la forma en que el director retrata el efecto que provoca la explosión de una bomba a pocos metros del protagonista. Es muy interesante comprobar como el objetivo es intentar retratar en este caso, cual sería el efecto real de una explosión. Sabemos que en el cine “todo” es mentira”, donde la imagen, y el sonido se encuentran a un nivel superior, diferente al de la vida real. Si por norma general, en el celuloide se busca potenciar el elemento visual y sonoro, en este caso nos encontramos ante la necesidad de plasmar de la forma más real posible la vida misma. Pensemos que estamos ante una secuencia de guerra donde el realismo impera en modo especial, incluso en la forma en la que está rodada la película, ya que el estilo cámara en mano es propio del reportero de guerra le da fuerza, veracidad e impacto visual (V39). Esta película ha conseguido una gran cantidad de premios entre los que destacamos:155 5 Oscars: Director, fotografía, montaje, sonido, efectos sonoros. 11 nominaciones. 2 Globos de Oro: Mejor película: Drama, director. 5 nominaciones 2 premios BAFTA: Mejores efectos visuales y sonido. 10 nominaciones. Nominada al Cesar: Mejor película extranjera Círculo de críticos de Nueva York: Mejor película 3 Critics' Choice Awards: Mejor película, director y banda sonora �22 Como nota interesante, podemos decir, que no existe ninguna filmación del desembarco en la playa de Omaha (sobre la que se basa la película de Spielberg) de la primera oleada de soldados americanos, ya que el fuego enemigo acabó no solo con los primeros anfibios que intentaban llegar a la playa, sino también con los reporteros gráficos de guerra que intentaban plasmar esos momentos históricos. Una bomba explota, y comprobamos como la técnica de aplicar silencio sonoro, funciona perfectamente, no solo porque encaja a la perfección con la imagen, sino también porque es la respuesta real fisiológica del cuerpo humano ante un impacto sonoro brutal. El oído se defiende ante el medio y la agresión sonora. Lo hace permaneciendo inactivo prácticamente durante unos instantes. Es lo mismo que sucede en las explosiones de atentados terroristas, donde el sonido ambiente desaparece de golpe, y permanece en los oídos el eco lejano de los sonidos y una mezcla sutil de frecuencias agudas estacionarias. Esta forma de sonorizar la secuencia, juega a favor de la imagen, ya que nos sumerge y nos hace protagonistas en primera linea de la acción bélica. El silencio nos golpea de repente y va desapareciendo lentamente, mientras se van recuperando los sonidos reales del lugar. En este ejemplo que se repite en muchas ocasiones a lo largo del metraje de la película, comprobamos una vez más, la necesidad �22 del director de retratar cámara en mano el ambiente real de guerra, como si de un documental se tratase. Para ello utiliza la cámara subjetiva como lo hace un reportero de guerra, y para añadir realismo total, incorpora sonidos y ambientes reales, no tratados con ordenador. Esto magnifica la sensación de realidad ya que como vemos en la secuencia anterior el montador de sonido busca el realismo más crudo imitando los efectos provocados por una explosión en la percepción auditiva del soldado.156 Incluso los videojuegos de ultima generación, no solo han incorporado mejoras en los canales de reproducción (incluyendo el efecto 5.1 surround) sino también en la propia calidad de los sonidos hasta tal punto que ya se encuentran a la altura de las producciones más potentes de Hollywood. Otro ejemplo es el "sonido" de los ambientes utilizado en la película THX1138 grabados en los interiores vacíos del museo Exploratorium de San Francisco. (V39B). El director George Lucas, cuida con especial mimo, los espacios interiores, los volúmenes, Warren, R.M. Auditory Perception: A New Analysis and Synthesis, Cambridge University Press, 156 Cambridge, U.K. 1999: el proceso de la señal sonora, es complejo e intervienen diferentes elementos, pero todos ellos dependen del rango audible de frecuencias del ser humano, que van desde los 20Hz a los 20Khz. V39B �22 los planos sonoros, la profundidad de imagen, jugando con los efectos de reverberación, delays , ecos que confieren a los planos de imagen una textura especial y única.157 La forma en la que utilizamos los sonidos, los ambientes y efectos, nos afecta directamente como ya sabemos a nivel fisiológico. Puede elevar la temperatura del cuerpo, el ritmo cardiaco, la tensión, la sudoración, la respiración, etc. Una música a alto volumen con compases marcados y potentes, puede elevar la temperatura corporal, mientras que los sonidos suaves, músicas relajantes, provocan el efecto contrario. Estos efectos son utilizados por el diseñador de sonido a lo largo de su trabajo de forma intencional, para llegar al público, buscando emocionar y activar los sentidos del espectador. Las bajas frecuencias pueden producir dolencias internas, stress, nerviosismo, molestias corporales, según el volumen o amplitud de éste sonido. En la película “El silencio de los Corderos”, las bajas frecuencias se utilizan para generar en el espectador una sensación desagradable e insoportable de desasosiego, de malestar, de nerviosismo. Estamos hablando de frecuencias que se mueven de los 20Hz a los 80Hz, es decir vibraciones sonoras capaces de ser sentidas físicamente. 11.3 Ritmo Definimos como “ritmo sonoro” a la forma en la que los sonidos se presentan, se desarrollan a lo largo del tiempo. El ritmo puede tener diferentes características cualitativas, pero de entre todas destacamos básicamente dos: ritmo regular (respiración, LITOVSKY, R.Y., Colburn, H.S., Yost, W.A., and Guzman, S.J. The Precedence Effect, J. Acoust. Soc. 157 Am., 106, 1999 pp. 1633–1654.: Nos referimos a la lateralización de la señal a través de retardos o diferencias de nivel. �22 latidos, de corazón, caminar, peinarse) o ritmo irregular (un partido de baloncesto, el clamor de una multitud de personas, una conversación, el ladrido de un perro). Así vemos como los sonidos mecánicos tienden a ser regulares y predictivos. Un sonido regular o rítmico puede transmitir más serenidad, sensación de previsibilidad, tranquilidad. En cambio un sonido irregular puede llegar a transmitir una sensación de tensión, alerta, miedo, confusión. Aquí podríamos citar una secuencia de la película de Ridley Scott, “Corazón de Angel”. (V40) Percibimos notas de piano, con un timbre oscuro, tenebroso, casi desafinado, pero lentamente se va añadiendo una base rítmica donde se mezcla el latido de un corazón, el montaje paralelo de los chicos de la calle bailando calqué, y un conjunto de bajas frecuencias, Todo esto provoca sensaciones y efectos fisiológicos sobre el espectador, dotando así a la secuencia fuerza, realismo e impacto emocional. 11.4 Intensidad El aumento o la disminución del volumen de un sonido se mide en decibelios, una escala logarítmica de medida. La ausencia de sonido, es decir los 0 Db en la realidad no existe. �23 En la vida real, el sonido, hasta en las situaciones más silenciosas, permanece en el aire acompañándonos y rodeándonos en todo momento. Es imposible experimentar el silencio más absoluto, ya que incluso el propio oído humano tiene sus propio ruido de fondo (los 158 micrófonos , por el contrario, son capaces de captar mucha más información). Si por un 159 lado podemos trabajar con sonidos de baja intensidad, por el otro extremo tenemos el nivel máximo de volumen, que tiene como tope los 20.000 Hz de frecuencia, ya que más allá de este umbral se halla el dolor, sensación física. Por debajo, tendríamos, la fatiga auditiva, etc. El sonido mas alto registrado hasta la fecha, fue el de una sirena a 175 Db de señal. A estos niveles de intensidad, y según experimentación, se dice que éste sonido podía desplazar físicamente una moneda o provocar la autocombustión de un trozo de algodón en tan solo 6 segundos . Al aumentar la intensidad, aumentamos también otras sensaciones como son la emoción, la turbación, la angustia o la euforia. Como ejemplo tenemos esta secuencia de Colateral de Michael Mann, en el interior de la discoteca. (V36). Percibimos el sonido diegético de la discoteca donde Vincent (Tom Cruise) está intentando identificar a su próximo objetivo. La música impregna el lugar, dotando a toda la secuencia de una intensidad vibrante y de una carga emotiva casi insoportable. El manejo de los planos, de las miradas, y el ritmo de montaje hacen el resto, convirtiendo este momento del metraje en único e irrepetible. Parecería que la propia música se mueve a ritmo de los actores, acompasando cada gesto, cada mirada, cada paso que Tom Cruise va dando mientras se va acercando hacia el reservado donde le esta esperando su próxima víctima. Además la propia música En el caso de los micrófonos, el ruido de fondo es aquel que puede ser medido en el silencio absoluto 158 (cámara anecoica). BORWICK, J., Micrófonos: Tecnología y aplicaciones, Escuela de Cine y Video, Gupuzkoa, 1996: los 159 micrófonos son capaces de captar un espectro muy amplio de frecuencias, llegando incluso a aquellas difícilmente permisibles por el oído humano. �23 aquí funciona de forma como colchón unificador de los múltiples planos de imagen que se van sucediendo durante esta trepidante escena. 11.5 Timbre El “timbre” es una cualidad sonora, que otorga una determinada textura a un sonido. De esta forma, podemos calificar o mejor dicho cualificar los sonidos en general, con valores o adjetivos que pueden definirlos perfectamente. Cuando los sonidos se producen a ritmo regular, periódico, estos producen una cualidad tonal, es decir, nuestro cerebro añade una nueva información o valor. Existen diferentes cualidades tonales que podemos utilizar para etiquetar y categorizar los sonidos, como pueden ser el metálico (que puede sugerir una sensación de frialdad, duro, marcial), el chirriante (aquellos sonidos que transmiten una sensación desagradable, molesto, irritante), el percusivo (para situaciones donde queremos enfatizar la sensación de lucha, enfrentamiento, guerra etc) o el aflautado (producido por instrumentos de viento y que denotan ligereza, sensibilidad, fragilidad, o por el contrario, soledad, tristeza, melancolía etc). �23 11.6 Velocidad Cuando producimos o reproducimos un sonido, podemos destacar dos características esenciales en su naturaleza, es decir, dicho sonido puede tener dos valores inherentes al mismo: pude ser lento o rápido. Técnicamente podemos ralentizar o acelerar un sonido manipulándolo a nivel digital, para modificar su velocidad original. Esto crea diferentes sensaciones acústicas que sin duda van a impactar en el oyente produciendo diferentes tipos de emociones o sentimientos. El latido lento de un corazón por ejemplo, o la marcha lenta de un funeral son ejemplos de formas lentas de sonido. Si por el contrario aceleramos un sonido, unos 20 compases por segundo esto provoca que percibamos un continuo dominado las bajas frecuencias. Recordemos que para que se dé una comprensión efectiva de una conversación, ésta tiene que alcanzar un ritmo óptimo de 5 sílabas por segundo, con interrupciones frecuentes, para integrar su comprensión. Como ejemplo podemos citar la película de Martin Scorsese, Toro Salvaje (Raging Bull) , y en especial la secuencia de la pelea con Sugar Ray. (V36B) y esos planos ralentizados V36B �23 donde el sonido se estira en el tiempo casi hasta el infinito acompañando unos planos de combate totalmente impactantes. 11.7 Forma Cuando hablamos de forma, entendemos tres conceptos básicos de todo sonido: - El ataque - Duración - Decaimiento El ataque es la manera en la que un sonido aparece. Así puede resultar que lo haga de forma brusca y repentina, o de forma suave, gradual etc. La duración es el tiempo en que permanece evolucionando en el espacio sonoro, y finalmente el decaimiento representa la velocidad con la que un sonido desaparece. Un sonido puede evolucionar bajo dos conceptos: sonido directo o sonido reverberante . Directo se refiere 160 cuando un sonido, un disparo por ejemplo acontece en un medio sin reverberancia 161 alguna. Decimos que acontece en un medio “seco”. De ésta forma tanto el ataque, su duración y el decaimiento se produce rápidamente en el tiempo. Si este mismo disparo FORSYTH, M. Buildings for Music: The Architect, the Musician and the Listener from the Seventeenth 160 Century to the Present Day, MIT Press, Cambridge, Mass. 1985: El autor comenta que todo sonido que evoluciona en un espacio físico cerrado, resulta afectado por las distintas reflexiones que provoca. BRADLEY, J.S., Sato, H., and Picard, M. On the Importance of Early Reflections for Speech in Rooms, J. 161 Acoust. Soc. Am., 113. 2003. pp. 3233–3244: Nuestro cerebro da prioridad al sonido original obviando las reflexiones inmediatamente sucesivas. �23 acontece en otra localización, una cueva por ejemplo, las características físicas del espacio condicionarán la sonoridad del efecto, produciéndose un alargamiento del sonido y entonces comprobamos como tanto el ataque como el desarrollo y el decaimiento se sucederán lentamente. Así, este valor depende no solo del sonido sino también del medio donde se propaga. Un ejemplo lo tenemos en la secuencia de los cangrejos de la película “Corazon de Angel” con el protagonista Mike Rourke. (V41). En esta secuencia de una alta intensidad de interpretación, vemos como se escuchan los sonidos “secos” del diálogo de los dos personajes, mientras la persona de mayor edad le esta explicando el ritual que aconteció con el protagonista “Johnny”. Pero solo cuando Rourke, abandona la habitación y entra en el baño, es cuando escuchamos la voz de su interlocutor teñida de reverberación, para simular la situación acústica de distancia con el primero. Aquí parecería casi que los sonidos se alargaran en el tiempo, todo permanece bañado de una sensación de profundidad y de lejanía, para aumentar la sensación de locura y psicosis del propio protagonista Harry Angel. �23 11.8 Organización Uno de los efectos que tiene el sonido para el cerebro humano se puede resumir con la palabra “organización”. Este elemento responde a la idea de cómo el cerebro tiende a categorizar cada sonido y efecto basándose en si éstos se presentan de forma ordenada y organizada o bien al contrario de forma desordenada, y caótica. Cada sonido está conceptualizado en nuestro cerebro y este proceso responde en gran medida a la cultura y nivel social de cada persona. Para que los sonidos, es decir, la música, los ambientes o efectos, sean categorizados por el cerebro como organizados, éstos tienen que tener ritmo, tono, intensidad etc. De lo contrario ese sonido pasará a ser etiquetado como caótico. Un ejemplo de este efecto, lo tenemos con la película Elysium de Neil Blomkamp (V41B) donde los sonidos tienen un ritmo y una evolución predecible y concreto, que sirven para trasladar la sensación de unidad, de organización y más cuando los sonidos apoyan la sensación de control, métrica ponderada, seguridad y racionalidad en un mundo futuro manejado por maquinas y ordenadores. V41B �23 11.9 La Frecuencia Los sonidos en general, tanto efectos como ambientes, se pueden mover en un rango de frecuencias que van desde los 20Hz hasta los 20Khz. Ahora bien, dependiendo en que franja de frecuencias nos estemos moviendo, podemos provocar diferentes tipo de reacciones. Una de las herramientas más utilizadas en el cine, es el uso de sonidos subgraves (LFE) , cuya frecuencia se mueve entre 20Hz y 50Hz. Estos sonidos provocan 162 desplazamiento físico, ya que el tiempo que tardan en completar un ciclo de frecuencia es muy largo. Un ejemplo del efecto que provocan, lo tenemos en la película “Parque Jurásico” de Steven Spielberg. En la secuencias de las pisadas del Tyranosaurio, los protagonistas se encuentran dentro del todoterreno, cuando empiezan escuchar o mejor dicho, “sentir” un sonido inquietante. Interesante resultan dos planos en especial. El VOETMANN, J., and Klinkby, J. Review of the Low-Frequency Absorber and Its Application to Small 162 Room Acoustics,” 94th Convention, Audio Eng. Soc., 1993 Preprint 3578. Las frecuencias subgraves, funcionan como apoyo sonoro en una película, pero pueden en ocasiones convertirse en un problema técnico, cuando éstas, interfieren con otras pistas de sonido que simplemente dejan de escucharse por el efecto enmascarado de las primeras. �23 primero es el vaso de agua sobre el salpicadero, y el segundo el plano del retrovisor. Los dos vibran, cuando se escucha el sonido subgrave de las pisadas del animal. (V35). Sin duda, lo que busca transmitir el director, es un sentimiento de pánico y terror ante algo que puede ser imprevisible. Incluso el propio conductor quiere auto engañarse, pensando que son los truenos de la tormenta. Nada más lejos, cuando algunos segundos después descubrirán el motivo de dichos sonidos. Otro ejemplo, lo podemos tener en los ambientes turbadores e inquietantes de la película “Alien” de Ridley Scott. (V42). �23 Los ambientes sonoros, buscan crear un estado de incomodidad y desazón en el espectador. Son colchones ambientales que llenan el espacio sonoro, creando un fondo oscuro y agobiante que va penetrando lentamente en el espectador, . Éste fué el objetivo que el director quiso añadir a la imagen, para dotarla de un peso específico, de un cuerpo y consistencia casi física. Este colchón ambiente está presente prácticamente durante todo el metraje. El diseñador de efectos de la película, utiliza una base sonora siempre uniforme, pero siempre dentro de un rango de frecuencias que cubren la horquilla que va desde los 80 a 180 Hz, lo que permite que dicho sonido vaya lentamente creando una sensación de cierta inquietud y a través de esta técnica, el director pueda mantener al espectador en permanente estado de alerta, aumentando así exponencialmente la carga dramática de esta cinta, y el ritmo de los acontecimientos. Es un fondo denso, pesado, que va calando en el espectador, y que sirve para mantener la tensión en el público. No hay tregua, ni relajación posible dentro de la nave Nostromo, donde en cada recoveco, en cada túnel podemos encontrarnos con un inesperado acompañante. 11.10 Cualidad Sonora Resumiendo, podríamos decir que los sonidos se pueden clasificar de modo genérico, siguiendo el criterio de la “CUALIDAD SONORA ” en lo siguientes apartados:163 LONDON, S.J.The Origins of Psychoacoustics. High Fidelity Magazine, April 1963, pp. 44–47. Las 163 cualidades por las que catalogamos el sonido son: Ritmo, intensidad, tono, timbre, velocidad, forma, organización. �23 Cualidad Extremos Ritmo rítmico-irregular Intensidad suave-fuerte Tono bajo-alto Timbre tonal o ruidoso Velocidad lento-rápido Forma impulsiva/reverberante Organización ordenado-caótico A6 A7 A8 A9 A11 A10 A12 �24 12. La Música 12.1 El lenguaje musical en el cine Cuando hablamos de cine, y de sonido concretamente, no podemos olvidar uno de los elementos clave en la narrativa cinematográfica. Esa es sin duda la banda musical . 164 La música es capaz de suscitar todo tipo de sentimientos, emociones con una enorme fuerza e intensidad. de hecho, es capaz de apoyar por sí sola perfectamente una imagen, incluso sin presencia alguna de diálogos o voz en off. Tal es el poder y la fuerza de la música, que desde siempre se ha empleado para apoyar a la imagen en pantalla. Como dice el propio Jose Nieto , uno de los más importantes compositores 165 musicales para cine en España, “La música no añade ni inventa nada sino que sirve de filtro para que el espectador reciba nítidamente de entre todas las posibles lecturas que la imagen ofrece y precisamente aquella que queremos transmitir”. De esto se puede deducir que la música no debe estar porque sí, en una película. No tiene sentido solo por su mayor o menor belleza. La música representa una realidad que tiene un contenido con una función claramente narrativa. La música debe contribuir a CHION, Michel. La audiovisión, Ed. Paidós Comunicación, Barcelona, 1998: para el autor, la música es 164 capaz de transmitir emociones y sentimientos a través de dos técnicas: la empática y la anempática. José Nieto ha sido uno de los compositores musicales para cine y Tv más importantes y prolíficos de 165 España. El libro “Música para la imagen” fue escrito por José Nieto y es un legado importante para todos los amantes de la música y del cine en general. En este trabajo, Nieto aborda las técnicas de composición, métrica musical y sincronización para imagen, demostrando su gran conocimiento del medio audiovisual. Sin duda es un libro necesario para conocer las claves y secretos de la música cuando trabajamos en cualquier producción audiovisual. �24 la comprensión narrativa de la historia que se proyecta en pantalla añadiendo un nuevo valor a la imagen. Personalmente considero que la música per sé, es capaz de soportar, casi sin necesidad de otro recurso sonoro, el desarrollo completo de una historia plasmada en celuloide. De echo, solo basta recordar los famosos años del cine mudo, donde, en las salas cinematográficas, no podía faltar un pianista, o un pequeño grupo de música. Existen varias teorías que tratan de explicar el uso de la música en los orígenes del cine. Algunas son de tipo técnico y otras de tipo histórico. Veamos cuales son: Una de esas explicaciones de tipo técnico sería que la música se empezó a utilizar en el cine mudo para ocultar el molesto ruido del proyector, y  por tanto se incorporaban orquesta o grupos instrumentales o el piano, para suplir o al menos amortiguar esa situación. De esta manera lo explica  Kurt London, uno de los más importantes teóricos de la música desde el punto de vista cinematográfico: 
 “La música de cine nació, no como resultado de un imperativo artístico, sino de la simple necesidad de algo que ahogase el ruido que hacía el aparato de proyección”. 166 Ya que en aquella época no existían aún sistemas aislantes entre el proyector y el 167 público, este molesto ruido, interfería durante la proyección, por lo que los directores de sala, introdujeron otro ruido esta vez mucho más agradable y placentero para cubrir o LONDON, Kurt, Film Music, Faber & Faber Limited, NY, 1936 Kurt fué un importante estudioso e 166 investigador de la propia música dentro de un concepto visual cinematográfico. WARNOCK, A.C.C. Introduction to Building Acoustics,” Canadian Building Digest—CBD-236, published 167 by National Research Council Canada, Institute for Research in Construction. 1985 http://irc.cnrc.gc.ca/ cbd236e.html. Los materiales de insonorización son necesarios dentro de los que se utilizan en una sala de audición o grabación, para conseguir no solo un sistema estanco al ruido exterior, sino también un medio estable y plano de escucha y reproducción del sonido. �24 intentar tapar el primero. Así nacieron las primeras bandas, cuartetos, o simplemente interpretes que tocaban diferentes piezas musicales, no solo con el objetivo que hemos reseñado más arriba, sino también con la sana intención de meter al espectador en la película, sirviéndose de la emoción transmitida a través de la música interpretada en directo. Era comprensible claro está, que el sonido del proyector aún rudimentario y primitivo, resultara molesto y que en parte provocara malestar entre el publico de la sala . También debemos de tener en cuenta, que por otro lado, la música servía de apoyatura perfecta a la imagen en blanco y negro, añadiendo a la proyección toda la carga emotiva y sentimental que ésta necesitaba ya que una proyección en “silencio” sin ningún tipo de sonido, podía resultar una experiencia bastante complicada de aguantar. Uno de los productores (dicha cita ha quedado anónima) de las primeras cintas de cine mudo dijo una vez: “Recuerdo cuando rodábamos sin descanso, montábamos la película y la proyectábamos en una de nuestras salas. El resultado era siempre desastroso, a pesar de todo el esfuerzo y las ganas que habíamos invertido. Por el contrario, cuando empezamos a utilizar la música como apoyo a la imagen el resultado era totalmente distinto. En la sala el pianista interpretaba una pieza musical buscando que está encajara con el relato en pantalla. Era un auténtico placer comprobar el asombro del público y la emoción en sus caras. Estos salían encantados de nuestras salas”. Otra solución adoptada en algunas salas, pero que no se mantuvo con el paso del tiempo fue la de utilizar a personas que colocándose detrás de la pantalla de proyección, a modo de comentaristas, y con la ayuda de un megáfono, iban contando al público lo que iba ocurriendo en la película. Una variante de este ejemplo, fue otra opción no muy �24 extendida, pero que se dio durante un período de tiempo y que fue el uso de lo que se llamó figurantes sonoros que no era más que actores que colocándose detrás de la pantalla, reproducían los sonidos que aparecían con los personajes. Era una especie de doblaje en directo interpretado por actores reales. De esta forma se conseguía un efecto mucho más creíble y auténtico, además de evitar que el público se distrajera con el ruido de la propia maquinaria del proyector. La música , fue sin duda la opción final de uso más extendido casi en la totalidad 168 de las salas de proyección. De esta forma el público se sentía sumergido en la historia y transportado emocionalmente, gracias a la utilización de músicas interpretadas en directo bien por grandes orquestas, o por pequeños duetos o cuartetos dependiendo de la economía y de la importancia de las diferentes salas de proyección. De esta manera la música, conseguía además dos objetivos: por un lado emocionar al espectador y hacerle vivir intensamente las historias, y por otro lado, suavizar o tapar los ruidos de sala que podían surgir tanto de los equipos mecánicos de proyección como del mismo público. Pero mucho ha llovido desde aquellos primeros tiempos del cine mudo hasta hoy en día. Cuando hablamos de música cinematográfica, hoy, entendemos que ésta puede utilizar los 6 canales de salida independiente de la codificación Dolby. Es decir, la música puede viajar utilizando los altavoces de una configuración 5.1 cinematográfica. Lo más importante, es entender que los diferentes bloques musicales, que componen la banda sonora completa, pueden utilizar diferentes canales físicos de salida, como por ejemplo el La música tiene un gran poder de comunicación cuando ésta funciona en conjunción con la imagen. 168 Hablamos de como trabajar con un material plástico y maleable que tiene que trabajar en sincronía con lo que el director muestra en pantalla. La fuerza de la música es tan brutal que por si sola podría funcionar perfectamente incluso en secuencias que contienen diálogos o acción de personajes. La música inspira, motiva, emociona y hace que la acción de pantalla gane fuerza, dinamismo y personalidad. �24 formato estéreo (véase estereofonía ), el cuadrafónico, el LCR, o bien el 5.1 durante 169 170 el desarrollo de las diferentes secuencia del largometraje. No necesariamente una película utiliza durante el 100% del tiempo los 6 canales de escucha. Aunque podemos jugar con 6 canales de salida en la sala, la música se insinúa al espectador, le propone una emoción, una situación, desaparece para luego sorprendernos, informarnos, actuar sobre nuestros sentimientos y reacciones, y lo hace jugando también con las diferentes posibilidades que brinda el tener 6 áreas de altavoces en la sala de proyección donde mostrarse al público. Todo ello se logra cuando el compositor explora y utiliza deliberadamente todas las posibilidades sonoras que la mezcla digital multicanal le brinda. Según palabras de Marcel Martín, la música y el sonido se articulan como 171 herramientas de información capaces de proporcionar al espectador un elemento para la comprensión de la “tonalidad humana”. Hoy en día tenemos muchos ejemplos donde la música aparece como una compañera inseparable de la imagen. Uno de estos ejemplos lo tenemos con “Apocalypse now” (1979), obra maestra 172 a mi entender de F. Ford Coppola. Esta cinta representa claramente la demostración de la importancia de la banda sonora desde el primer fotograma. Basta recordar momentos de una gran intensidad interpretativa, como la locura alucinógena que vive Willard experimentada realmente por el propio actor Martin Sheen, y que le pudo haber costado la La localización estereofónica del la fuente de sonido permite añadir profundidad y realismo a la propia 169 experiencia sonora. Musicalmente se utiliza con los siguientes instrumentos: pianos, cuerdas, coros, voces y efectos sonoros. DOUGHARTY, E.H. Estéreophony and the Musician, BBC Engineering, May 1973, pp. 3–6: las 170 grabaciones estereofónicas de instrumentos producen determinados efectos perceptibles en la correlación de fase y campos imaginarios dentro de las sesiones de mezcla, de proyectos multicanal. MARTIN, M, fué uno de los críticos de cine más importantes que tuvo Francia. Escribió ensayos, y libros 171 sobre el séptimo arte, siendo el más conocido, “El lenguaje del Cine”, publicado por Gedisa, Barcelona 2009 donde están recogidas sus ideas y reflexiones más importantes. Sin duda Apocalypse Now, representa una de aquellas películas que serán siempre referente de lo que 172 es la esencia del cine. Por algo fue votada dentro de los cien mejores largometrajes de la historia. Es una joya en sí misma tanto por la imagen como por el sonido. �24 vida, o el momento de tensa espera en el barco antes de la muerte. Estos son momentos en los que la música cobra una fuerza y un protagonismo enorme ya que conduce la acción y ayuda a su desarrollo. Hablamos de la música como un aliado, poseedor de magnetismo, fuerza y profundidad, a través del cual se canalizan los pensamientos y las acciones de los personajes, y que es capaz de apoyar y enfatizar, no solo la secuencias y situaciones de la película, sino también de provocar sentimientos y emociones reactivos de enorme intensidad en el propio público. Sin duda la música es uno de los elementos que no pasa desapercibido en ningún momento, porque no funciona como mero invitado, sino que se coloca prácticamente casi a la altura del propio diálogo en determinados momentos del metraje. En la secuencia de la espera en la lancha (V43) escuchamos la música de los Rolling Stones y concretamente la canción de “Satisfaction”. En ésta ocasión y como Fotograma de la película �24 elemento diferenciador con respecto a otros momentos de la cinta, la música aparece aquí como elemento diegético, es decir perteneciente al fotograma de imagen. Esta canción transmite el optimismo de los soldados, el estado anímico de los protagonistas y da sensación de espectáculo. Casi podríamos decir que la película es el resultado del material captado por un redactor de guerra, donde la acción es puro espectáculo. En Apocalypse Now, la banda sonora tiene un especial protagonismo, sirve para proporcionar entre otras cosas apoyo a la narrativa de la película. Es el hilo conductor que permite conectar perfectamente todas las secuencias, como sucede por ejemplo, en las acciones que acontecen en el río. Aquí escuchamos, la música suave de fondo que acompaña la secuencia, y la voz diegética que se escucha a través de una radio. Es la voz de una madre que le habla a su hijo y que le anima a ser fuerte pidiéndole que vuelva a casa lo antes posible.(V46). El afamado montador de imagen y sonido Walter March, es el responsable de hilvanar a través de la banda musical todas las secuencias que van desde la acción en el río, hasta la destrucción del megáfono, utilizando la técnica del plano general. De esta forma, con este tipo de plano, él fija en un primer momento la ubicación del lugar, de la acción, y por consiguiente la ubicación de cada personaje, y posteriormente utilizando el �24 recurso de plano-contraplano, para añadir ritmo y tensión a la acción, o obtener el resultado opuesto, bajar de intensidad, como ocurre durante la secuencia de la charla con los superiores. Es decir, primero fijamos el marco general donde se desarrolla la acción, y más tarde, bajamos a nivel narrativo, buscando el ritmo correcto, o el cambio de velocidad si la historia lo requiere. Quizás una de las secuencias más impactantes y más recordadas de esta memorable cinta sea la del ataque con helicópteros al poblado vietnamita. Podemos ser protagonistas de todos los preparativos del ataque, como los soldados ponen a punto sus equipos y como emprenden el vuelo al toque de trompeta de la caballería americana. Todo esto claro está, aderezado por el increíble ritmo de montaje que Waketr March imprimió a la secuencia, haciendo que ésta se convierta prácticamente en un baile sincronizado, donde los helicópteros y la acción bélica va desgranando sus notas mortíferas sobre el poblado enemigo. Las imágenes son impactantes por su fiereza, desgarro y realismo. Todo lo que el director nos presenta en pantalla, el napalm estallando en los campos, los disparos enloquecidos de las ametralladoras, sirven sin duda perfectamente de apoyo a la pieza musical, la celebre “Cabalgata de las Valquirias” de Wagner, escrita por el compositor el 23 de julio de 1851, con la que abrimos esta secuencia mientras los helicópteros se van acercando a la aldea. Cada compás, prácticamente se sucede a cambio de plano, el montaje es vibrante, rítmico, lleno de fuerza, estruendo y poder sonoro (V44). Quizás esta secuencia si pensamos no solo en el �24 ritmo de montaje que tiene, sino también en la complejidad que exigió el rodaje de la misma, le confiera un protagonismo muy marcado sobre todas las demás de la cinta. Éste es uno de los ejemplos cinematográficos en el que se puede afirmar que el plano está montado a ritmo de música para transmitir esa misma sensación y no al contrario. Este concepto de montaje es muy importante, y una técnica muy conocida por el propio Walter March, que por supuesto utiliza con asombroso acierto, gracias principalmente a la fuerza emocional-épica que desprende la pieza musical, y que hace vibrar al espectador y sumergirle en la propia batalla. En los ejemplos que hemos citado anteriormente, la música se viste de tensión emocional con el ritmo que va desarrollando la propia orquestación tímbrica, y que va aumentando de intensidad, como una espiral imparable de tensiones y pulsiones crecientes lo que permite al público imaginar o más bien intuir un posible desenlace trágico. Son ejemplos donde la música, nos ayuda a narrar la historia, a apoyarla con sentimientos y emociones para magnificar el impacto de la secuencia. En otros momentos de la película, la música se convierte en mero acompañante, un colchón de fondo que no llama la atención pero rellena la secuencia sin tener protagonismo y pasando casi inadvertida. Esto permite, por otro lado al director, jugar con el público, relajando la tensión, manteniendo al espectador en un “impasse", que pueda preparar más adelante situaciones sonoras, musicales más impactantes o emotivas. Esto lo veremos más tarde en otra de sus grandes películas como es Cotton Club, (F. F. Coppola 1984) que sin duda, encierra una belleza rítmica y narrativa muy marcada y que a pesar de haber sido una mera película de encargo de las grandes productoras, ha marcado un antes y después en la manera de utilizar los tiempos y la métrica del montaje. �24 Es en “Cotton Club ” donde volvemos a encontrarnos con la técnica de la imagen 173 montada a ritmo de música. Es lo que técnicamente se denomina “montaje paralelo” 174 que Coppola utiliza brillantemente como recurso narrativo. (V45). Sin duda nadie se ha podido olvidar aún de la increíble secuencia del baile de Gregory Hines, hoy desgraciadamente desaparecido con tan solo 57 años. Es una secuencia que ya se ha convertido en un mito cinematográfico gracias a su belleza plástica y a la forma narrativa de su montaje. Montaje trepidante fundiéndose con la segunda acción y que termina con la emboscada y muerte de los mafiosos. Pocos ejemplos en el cine son capaces de transmitir tanta fuerza, emoción y narrativa poética utilizando el simple lenguaje musical de un baile de claqué, que se convierte en el hilo conductor de las dos historias. La evolución del baile de Hines, va discurriendo mientras paralelamente el director nos va narrando una acción que esta ocurriendo lejos de allí. Casi de forma imperceptible el ritmo de montaje se va acelerando con el ritmo de los golpes de tacón del bailarín, en 2 nominaciones al Oscar: Mejor dirección artística, montaje173 1 BAFTA: Mejor diseño de vestuario y nominada Mejor sonido Nominada a los Premios Razzie: Peor actriz secundaria (Diane Lane) La técnica del “Montaje Paralelo”, recibe también el nombre de “Cross Cutting”, y consiste en narrar de 174 forma simultánea dos o más acciones que tienen lugar en localizaciones o momentos diferentes. Con el montaje paralelo, pasamos de una acción a otra de forma de forma súbita, instantánea. Esta técnica de montaje se utiliza cuando queremos mostrar dos acciones que están relacionadas, para aumentar el dramatismo y tensión de la secuencia. �25 un increscendo infernal y trepidante, mientras paralelamente se sucede el genial y brutal montaje de March, mostrando el devenir de los acontecimientos, mientras la música sigue con fuerza su ritmo y su evolución a modo de espiral imparable de acontecimientos. La música en este caso se convierte en el principal protagonista de la acción, y funciona a modo de unión, de puente, de fusión entre dos historias que están ocurriendo en aquel preciso instante. La música adquiere lenguaje propio ya que la imagen lo que hace es apoyar cada golpe de tacón cada giro cada cambio de ritmo de una forma magistral y soberbia. Otro ejemplo de música en estado puro, lo tenemos con la cinta de “Collateral” (2004) de Michael Mann (V68). En esta secuencia, descubrimos un sonido minimalista, con fondos de trafico y ruido de motor, casi inexistente, para subrayar y acentuar toda la fuerza del diálogo entre los dos protagonistas. En un momento determinado irrumpe en escena en medio de las calles de la ciudad, un lobo, (que representa “la caza”, la misma que encarna el protagonista Vincent, en relación a sus futuras víctimas), pero aquí por arte de magia, los ambientes y sonidos lejanos de la ciudad, se difuminan hasta desaparecer por completo, para dar lugar a la entrada de la música que llena deliberadamente la secuencia, con todo su poder y emoción. V68 �25 Sin duda otro ejemplo musicalmente interesante para mi a la hora de hablar de la importancia de la banda sonora en un metraje, es el que representa la película “One from the heart” (1981), cuyo título fué traducido aquí en España como “Corazonada” también de F. F. Coppola. Aquí resplandece el portento y el genio de Coppola, que en diferentes momentos de la película, utilizando a tiempo real encadenados por iluminación, en plató, muestra la vida de los dos protagonistas (Tery Garr como “Frannie” y Frederic Forrest como “Hank”) , de una forma genial y única. Con el uso de una banda musical excepcional compuesta por Tom Waits y Teddy Edwards y de la luz, a través de las trasparencias, de los claro-oscuros, fundiendo “analógicamente” de forma natural diferentes espacios y localizaciones construidos y recreados en un plató, Coppola es capaz de narrar musicalmente con una gran carga emotiva, el estado anímico de los actores a través del papel que están representando. Soberbio son los fundidos de luz y decorados que nos trasladan incluso a otra época del cine, cuando éste era mucho más natural y exento de tanta tecnología y artificios (V69). “Cotton Club”, “One from the Heart” y otras muchas películas imposibles de nombrar todas en este trabajo, contienen escenas musicalmente memorables que han pasado al inconsciente colectivo de todos los que amamos apasionadamente el cine. Por V69 �25 último, me gustaría terminar este capítulo hablando de otra cinta del propio Coppola, al que admiro enormemente como no puede ser de otra forma, y que dirigió en 1992. A pesar de no haber obtenido el suficiente reconocimiento de la critica y de los medios, se alza como una gran pieza visual y fundamentalmente musical. Estoy hablando de Dracula de Bram Stocker. “Dracula de Bram Stocker” es ciertamente una película que ha marcado un antes y un después en la vida del director y del propio compositor Wojciech Kilar. Por muchas razones que mas adelante veremos, esta cinta representa el fin de una década, de un sueño, de un proyecto artístico y vital, que el propio Coppola dirigió y luchó por hacerlo realidad. Se trata de una nueva revisión de esta novela escrita por Bram Stocker en 1897. Sin duda, desde mi punto de vista, esta es una película icónica en la cinematografía de Coppola, por su estética, por el uso de las luces, los fundidos y el color. Esta cinta fue una apuesta arriesgada del propio director, al adentrarse por primera vez a reinterpretar una Poster de la película �25 historia sobradamente conocida y a reinventar a los personajes desde un nuevo prisma o punto de vista. En esta película Coppola nos presenta al personaje de Dracula bajo otro 175 aspecto, bajo otra visión totalmente diferente, una visión llena de romanticismo, de sensualidad y poesía. Nunca antes se había filmado a un Dracula bajo la apariencia de una simple persona, y lo que es más importante, con sentimientos humanos, capaz de llorar lágrimas de dolor y capaz de amar intensamente. En pocas palabras, no estamos ante una película de terror, sino ante una historia de amor profundo con mayúsculas, de romanticismo en su pura esencia y de momentos llenos de emociones, de dolor lacerante, y de tristeza profunda. Quizás sea ésta la versión del personaje con la que el espectador se identifique con mayor facilidad, y esto, porque Dracula aparece vestido con el semblante y el alma de un ser mortal, de carne y hueso, capaz de sufrir y sentir cada emoción con la misma intensidad y fuerza que nos sucede a la mayor parte de los mortales. En definitiva lo que busca es simple y llanamente lo que todos buscamos también en esta vida, por encima del éxito, el dinero o la fama. La búsqueda final, es el amor, ser amados y amar intensamente. Esta película, fué galardonada con tres premios Oscar, al mejor maquillaje, efectos de sonido y vestuario. 3 Oscars: Mejor vestuario, maquillaje, efectos de sonido.175 4 Nominaciones BAFTA: Mejor maquillaje, vestuario, diseño de prod. y efectos. visuales. �25 12.2 Wojciech Kilar Wojciech Kilar autor de la banda sonora nació el 17 de julio de 1932 en Leópolis Polonia. Es un compositor de música clásica cuya obra se ha prodigado tanto en el campo cinematográfico, cuanto en el artístico personal y que a lo largo de su carrera profesional ha ido acumulado premios y reconocimientos por su trabajo artística. Fué uno de los exponentes en la década de los 60 de la vanguardia de las artes musicales y poéticas en Polonia, junto a otros artistas como fueron Krzysztof Penderecki y Henryk Górecki. Wojciech, estudió en las mejores escuelas de música de Polonia, como era la Akademia Muzyczna w Katowicach, donde recibió una formación clásica, dedicado a su instrumento favorito, el piano. Luego Paris le abrió las puertas para estudiar en el conservatorio con Nadia Boulanger y perfeccionar su técnica y estilo, convirtiéndose en un virtuoso de la composición armónica y de la exploración sonora sensorial. Su trayectoria profesional siempre ha estado ligada a la música y al cine ya que éste ha sido uno de los campos donde su trabajo ha recibido más galardones y reconocimientos a nivel mundial. En 1959 compuso una primera banda sonora para la �25 película “Lunatycy” a la que siguieron muchas otras de nacionalidad polaca como son por ejemplo “Krzysztof Kieslowski”, “Krzysztof Zanussi”, “Kazimierz Kutz” y “Andrzej Wajda”. Si su trayectoria a nivel cinematográfico ha sido importante, como compositor clásico ha tenido una trayectoria aún más brillante y conocida ya que más de 100 obras avalan su trabajo incluyendo trabajos internacionales como son Bilans Kwartalny (1975), Spirala (1978), Constans (1980), Imperativ (1982), Rok Spokojnego Slonca (1984). El arte y la maestría profesional de Wojciech también se ha dejado ver en cintas 176 de directores europeos, franceses, pero fue el propio Coppola, el primero que le dio la oportunidad de participar en una producción de habla inglesa. El director conocía la trayectoria y la belleza musical que Wojciech era capaz de producir, y desde el primer momento, quiso que no solo participara en la cinta de Dracula, sino que su música llevara el verdadero peso especifico de la historia. Éste prolífico compositor, ha sido también el responsable de otras producciones musicales europeas dentro del terreno cinematográfico, muy conocidas, como son por ejemplo “La Novena Puerta” (1999), “La muerte y la doncella” (1994) o “El pianista” (2002), todas del director Roman Polansky, éste ultimo trabajo, quizás uno de los mas conocidos y reconocidos a nivel internacional. Destaco de su música, su dominio de la orquestación, de los ritmos y sobre todo, de las frecuencias graves y profundas, que son capaces por si solas de añadir peso 177 especifico a la composición y de fundirse con nuestra alma, con nuestro espíritu, a través de las emociones que este maestro, domina y sabe transmitir perfectamente. Conocido mayormente por la banda sonora de Dracula de Coppola, es autor de mas de 160 obras y 176 múltiples trabajos, como por ejemplo una sonata para trompa, una pieza para un quinteto de viento, obras para orquesta de cámara y coro, o los aclamados Baltic Canticles, la épica Èxode . Recibió distintas condecoraciones del gobierno polaco, como por ejemplo el de Comandante de la Orden o el de Orden del Águila Blanca.Falleció en Katowice, el 29 de diciembre de 2013 a los 81 años. NOXON, A.M. “Listening Room Corner Loaded Bass Traps,” 79th Convention, Audio Eng. Soc., Paper no. 177 B-12, 1985: uno de lo efectos indeseados a la hora de trabajar con sonido es el efecto de aumento de frecuencias graves en las esquinas de la sala de control. Este efecto multiplica por 6Db la carga en graves por pared. Lo que se denomina “trampa de graves” es una buena solución para este problema. �25 12.3 Análisis musical de “Dracula de Bram Stocker” Para comprender la importancia de la música en el cine, como apoyatura estética a la narrativa visual de la película, quiero demostrar aquí y ahora, como Wojciech a través de esta revisión cinematográfica que realiza Coppola del clásico de Bram Stocker, es capaz de crear toda una banda musical, repleta de guiños, destellos, violines envolventes, graves desgarradores, y coros sublimes, que nos transportan durante toda la proyección a lugares y tiempos imposibles, añadiendo vida a cada personaje, a cada personalidad de forma única y perfecta. Valoro de forma especial esta película, no solo por su temática, sino fundamentalmente por la fuerza expresiva de cada nota musical, y de la emoción que esto suscita en el espectador. Esta cinta, representa realmente todo un reto a la hora de la “creación musical”, ya que Wojciech tuvo que bucear en el alma de los personajes y traducir la música, en sentimientos, emociones, buscando de llegar a lo más hondo del alma humana. Y puedo decir, que lo logró con creces. El conjunto de las piezas musicales de esta película goza de una gran unidad y coherencia ya que no sólo consigue acompañar a la imagen con brillantez sino también transmite una gran carga emotiva por culpa de sus tonalidades y frecuencias que coexisten perfectamente complementando y enriqueciendo la historia. Wojciech utiliza inteligentemente lo que conocemos como “leit-motiv”, en especial en ésta cinta, ya que es una técnica fundamental que todo profesional debe de conocer para poder crear un mundo sonoro sincrónico con cada personaje e historia que llegue a impactar emocionalmente al público. El “leit-motiv”, tiene que ser utilizado con inteligencia �25 y astucia, para insinuar en vez de mostrar, para guiar en vez de señalar y para inspirar en vez de dirigir. Descubrir la belleza de esta banda sonora, significa disfrutar de tonalidades y disonancias, de barroquismo y minimalismo, de coros celestiales y frecuencias tenebrosas que funcionan perfectamente durante todo el metraje, ya que encajan a la perfección en cada secuencia, con cada gesto de los personajes, con cada acción y reacción de los protagonistas. Es una autentica gozada comprobar como Wojciech nos muestra hasta que punto la música es belleza en estado puro. Una de los aportaciones más sobresalientes de ésta película, es sin duda el tratamiento sonoro de los efectos y ambientes que empastan y evolucionan perfectamente, creando una atmósfera absolutamente sublime y emocionante. Por algo obtuvo el Oscar al mejor diseño de sonido que corrió a cargo de Tom C. McCarthy y David E. Stone. Ésta cinta que tenía un presupuesto muy alto, unos 50 millones de dólares aproximadamente, consiguió una recaudación final de 215.862.692 dólares en todo el mundo y supuso el retorno al éxito de Francis Ford Coppola. A continuación, desglosaremos los pasajes y secuencias más significativas de esta película, desde el punto de vista sonoro, para poder analizar, como el compositor utiliza la música y transmite a través de ella, sentimientos, sensaciones y estados de ánimo. 12.3.1 The Beginning Un ejemplo de esta fuerza sobrenatural de la música de Wojciech, la encontramos en la apertura o prólogo de la película con el tema de “The Beginning” (V47) donde se https://es.wikipedia.org/w/index.php?title=Tom_C._McCarthy&action=edit&redlink=1 https://es.wikipedia.org/w/index.php?title=David_E._Stone&action=edit&redlink=1 �25 condensan los principales leit-motiv de la película. Yo diría que es casi una introducción que nos va presentando a los protagonistas principales de la cinta, pero de una manera única y diferente. De hecho con las primeras escenas a contraluz de la batalla con los turcos escuchamos el tema del protagonista, el conde Dracula y que posteriormente volverá a aparecer a lo largo del metraje con distinta tonalidad o ritmo, pero siempre bajo la misma expresión musical. Otro de los leit-motiv de la película, es sin duda el tema de amor entre Dracula y Mina, que tiene su vértice más intenso y a la vez dramático, con la muerte de ésta (Elisabetha), y que adquiere la tonalidad de un lamento lejano y distante, pero que rasga el alma de parte a parte, jugando con cuerdas, violines y percusión. Uno de los momentos sin duda más dramáticos e impactantes durante las secuencias de arranque de esta cinta, lo representa la escena en la que Dracula renuncia a Dios, coincidiendo este momento con la desgarradora música del autentico Dracula, de su fuerza sobrenatural y brutal, y sobre todo de lo que representa como personaje mítico del inconsciente colectivo, es decir, de su sed de venganza y odio, mientras se alza al unísono la increíble belleza y fuerza de los coros masculinos, que se van elevando en el espacio hasta cubrir e inundar nuestros sentidos y sentimientos. De esta forma el musico en esta impactante obertura de la película nos presenta las �25 principales piezas musicales que van a ir repitiéndose a lo largo del metraje, jugando con diferentes tonalidades, diferente instrumentación, con cambios de ritmo y estructura que se va a ir adecuando a las distintas escenas y al momento de la historia. Nos encontramos con un Dracula joven, cuyo semblante se acompaña por los golpes lejanos de campanas que parecen provenir del propio infierno. Este es el prologo de la película, donde encontramos al joven conde, en el siglo XV, luchando contra la invasión de los turcos otomanos, los infieles a los que debe derrotar. Aquí es donde escuchamos por primera vez el tema musical de Dracula en su pura y brutal esencia, y he de decir, que impresiona realmente escuchar las notas graves y oscuras que rompen el silencio inundándolo todo, con la ayuda de cuerdas y una sección de viento poderosa y pesada, una melodía cadenciosa, tenebrosa, oscura. A continuación entran las trompetas que con su acompañamiento siniestro, describen la locura de la batalla que el conde libra contra el infiel, el todo aderezado con una imagen arrebatadamente bella, un juego de sombras y figuras recortadas de papel que representan los soldados y que se mueven sobre un horizonte rojizo, como la sangre que cubrirá los campos de batalla y teñirá de dramatismo la escena. Nos encontramos ante un caos de sangre y horror ante la fría y dura mirada del propio Dracula. Hay un cambio de plano, y vemos a Elizabetha la mujer amada por el conde, compungida y desesperada al leer la carta donde se narra la falsa muerte de su amado en campo de batalla. Es entonces cuando escuchamos unas notas de piano que se repiten una y otra vez. Esas notas no presagian nada bueno, ya que son casi un lamento profundo y desesperado que acompañará el momento en el que Elizabetha, loca de dolor se lanza al vacío suicidándose desde una de las almenas del castillo. La melodía se detiene de improviso. Cuando aparece segundos después el conde en pantalla, su presencia se enmarca musicalmente con un coro de voces, como si fuesen un coro de espíritus, y a continuación �26 surge lentamente una linea melódica liderada por una voz de mujer. Suena esta música angelical, pura y melancólica que simboliza la muerte de Elizabetha y su partida del mundo de los vivos. Pero es en este preciso instante cuando creíamos que el dolor y la desesperación iría desapareciendo lentamente, cuando de forma súbita hacen acto de presencia las campanas del principio, ésta vez mucho más violentas y penetrantes, con la que el compositor refuerza el desgarro emocional de Dracula, y la ira que poco a poco va apoderándose del personaje que se pregunta porqué el mismo Dios por el que él lucha ha podido permitir la muerte de su amada. Lo vemos en su expresión, en su mirada y en la banda sonora que acompaña la secuencia, y que desde la oscuridad y la gravedad de las notas, muestran la sed de venganza del protagonista, decidido a alejarse de la fe, del cristianismo para adentrarse en un camino lúgubre que le llevará a convertirse tiempo más tarde en un no muerto. La música adquiere un tintes, cada vez mas siniestros, y lo hace justo en el momento en el que el conde decide vender su alma al diablo. Aparecen dos coros de voces de diferente tonalidad y signo. El primero, es un fondo de voces, indefinidas sobre el que va surgiendo lentamente otro mucho más oscuro y perturbador, un coro masculino, que aumenta de intensidad en una espiral alocada, ensordecedora e interminable. De esta manera, se cierra este primer bloque de la película, que deja al espectador totalmente entregado al personaje, a la historia y al preciosismo en el uso del color, el vestuario y la ambientación de la película. La cinta a partir de aquí se articula en dos grandes bloques musicales que se van sucediendo armoniosamente a lo largo del relato. Por una parte nos encontramos con un conjunto de músicas que nos retratan a Dracula como el cruel y perverso Conde Dracula, sediento de sangre, de venganza, de odio hacia todo lo que se interponga en su camino. Por otra parte Coppola nos presenta la otra cara del conde, la cara mas humana y mortal que uno se pueda imaginar. Los bloques musicales que retratan de esta forma al �26 protagonista, respiran romanticismo, amor y necesidad de ser amado. Son suaves, ligeros, emotivos y llenos de humanidad. Éste es el Dracula que el director nos presenta en su remake. Una persona con las debilidades humanas con los sentimientos a flor de piel. Es un Dracula más cercano, un alma en busca del amor y de la salvación. La música recoge perfectamente este sentimiento y lo contrapone a ese otro personaje cuya desdicha es la de sufrir eternamente y vagar sin descanso por el tiempo y el espacio en busca de su “amor”. 12.3.2 Vampire Hunters Uno de los bloques más conocidos, y más sobrecogedores, es sin duda el tema de “Vampire Hunters”, (V48) cuya evolución musical se fundamenta en el uso de cuerdas, y el uso de instrumentos de viento que crean así una atmósfera opresiva y tenebrosa. �26 Este tema musical, corresponde a la secuencia del viaje del Jonathan Harker (Keanu Reeves) a Transilvania, donde asistimos a una serie perfecta y sincronizada de fundidos de imagen de gran belleza, la pluma del pavo real, una mirada siniestra, el humo del tren etc. Este mismo tema volverá a sonar más tarde, en escenas de acción como la que sucede en la secuencia el cazavampiros Helsing y su cuadrilla entrando en la abadía de Cardax. Esta secuencia arranca con el tema de Mina, asociada a la caja de música infantil e inocente. En el tren, de camino a Transilvania, aparecerá el tema principal del Conde Dracula, una composición oscura y tenebrosa, para volver más tarde otra vez al tema de Mina. Es decir, cada personaje, posee su propia música que evoluciona según la situación y el momento, cambia de tonalidad o ritmo, para en ocasiones fundirse con la propia música de otro protagonista. 12.3.3 The Hunters prelude Esta increíble composición, está construida de forma minimalista, a lo largo de cuatro compases sencillos y básicos que se repiten a lo largo de la pieza casi en forma de espiral �26 ascendente. Este momento musical resulta atesora una belleza y efectividad sublime, capaz de transmitir energía, inseguridad, temor y cuya melodía la escucharemos a lo largo del metraje repetida en distintas ocasiones durante la estancia de Harker en Transilvania, e incluso durante el desarrollo de escenas de acción. (V49). Aquí aparece el tema musical de Dracula, pero de una forma tan suave, tan transparente, que encaja perfectamente con la visión de Mina recostada en el vagón de tren, y la enfermedad que empieza a apoderarse lentamente de su sangre. 12.3.4 Lucy´s party Los personajes de Mina y su amiga Lucy, son dos ejemplos en los que Wojciech Kilar fija su atención, creando este maravilloso y peculiar universo musical. Instrumentos sacados de un cuento infantil, como son las notas de una caja de música, y el suave y dulce fondo que lo acompaña, sirven para enmarcar al personaje de Mina, y descargar sobre ella todos los sentimientos y atributos de pureza, fragilidad y sobretodo ingenuidad. �26 (V50). La pieza musical tal y como nos la presenta el compositor en este momento, se sustenta en una continua sucesión de cinco notas, delicadas y casi etéreas que se irán transformando lentamente. Parece que sea casi una música de un cuento infantil, donde se suceden notas y acordes de arpa, instrumentos de viento y acentos musicales que lentamente van mutando haciéndose poco a poco más discordantes perdiendo su posición tonal y su brillo, y esto acontece cuando aparece en pantalla la figura de Lucy, amiga de Mina, joven frívola, interesada, descarada y desahogada. Lucy representa y simboliza el mundo real, el mundo de las relaciones interesadas, la vanidad, la hipocresía, la superficialidad, etc. Ella representa todo lo que Mina no es, es decir, una mujer vivida, resabiada, materialista e interesada. Es así como la música se va oscureciendo poco a poco, convirtiéndose en algo absolutamente perturbador que anticipará el triste y terrible final de Lucy como sierva y esclava del “no muerto” como así se define en la novela de Stocker al personaje de Dracula. La música refleja perfectamente y retrata con claridad meridiana a las dos protagonistas en todo momento. Por un lado la pureza y la fragilidad de Mina y por otro el interés y el mundo de los sentidos de Lucy. Importante es atender a la belleza de este tema y sobre todo al increíble giro tonal que adquiere cuando pasamos de un personaje a otro. Sin duda, este bloque representa un ejemplo magistral en el uso que hace el maestro Kilar, del tono musical, de las escalas y de la elección de los instrumentos melódicos protagonistas. �26 12.3.5 Love Remembered El encuentro entre el conde Dracula y Mina (Elisabetha), se define por si solo, con este tema de amor (Love Remembered). Preciosa secuencia rodada simulando la técnica de los primeros aparatos de proyección de cine mudo, aquellos rudimentarios equipos en blanco y negro que habían surgido para el entretenimiento del pueblo llano, en aquella época, en el Londres victoriano. La música se mueve en unas escalas que se sincronizan perfectamente con la textura de la imagen, su color y profundidad. Ellos dos se acaban de conocer. Es otro tiempo y otro lugar. De ahora en adelante, este tema se convertirá en la pieza de amor entre Elisabetha y Dracula (V58). Los violines y chelos, aportan una presencia delicada y etérea transmitido un sentimiento positivo de esperanza, ritmo y belleza sonora. Más tarde, ya dentro del cinematógrafo, aparece toda una sucesión de sentimientos y de emociones. Mina descubre que hay algo que le atrae terriblemente hacia el conde. Hay una extraña sensación de Deja-Vu en ella que la hace sentir que las �26 emociones que experimenta no son tan extrañas. Así Dracula la dirá: “He atravesado mares de tiempo para encontrarte”. Hay dos melodías que cruzan y funden sus tonalidades en un baile sincrónico, armonioso y lleno de sensualidad. Por un lado el tema musical de Dracula, que mantiene ese gesto oscuro y tenebroso pero mostrado de una manera más dulce y cadenciosa, y por otro el tema de amor que siempre aparecerá de una forma u otra cuando Elizabetha y el Conde compartan plano de rodaje. (V59). El compositor, de una manera elegante y dulce, va entrelazando estos dos bloques musicales, de forma y manera que parecerían casi uno solo, a pesar, recordemos que veladamente y sin tener un protagonismo excesivo, siempre prevalecerá el tema musical de Dracula, cuyas notas serán o bien de tonalidad oscura y amenazadora, o bien simplemente servirá para marcar justificadamente la figura del Conde y todo lo que el representa. �26 12.3.6 Absenta El tema de amor entre los dos protagonistas, es también elemento central de esta secuencia donde los protagonistas viven las sensaciones y recuerdos de una vida pasada que les es familiar, mientras la absenta y sus efectos, hace posible que las inhibiciones desaparezcan y el alma viaje libremente por el espacio y el tiempo. Los sonidos se desgranan suavemente, pero esta vez el tema de amor aparece y desaparece con delicada armonía, fundiéndose con la caja de música, el tema de Mina, que representa la ingenuidad y pureza de su alma y espíritu y que ya vimos en secuencias anteriores. Todo esto va aconteciendo mientras Mina vive un viaje iniciático al pasado de su historia a una vida y a un mundo que la ata a otro hombre y a otra época. La absenta se convierte así en el cauce de un río de sentimientos y recuerdos que van aflorando en la memoria de ella, hasta llegar a comprender y volver a sentir todo su pasado, lo que fue, donde vivió y el dolor con el que siendo joven su corazón se detuvo. La escena culmina cuando Mina pronuncia esta frase :“La princesa es un río de lagrimas, tristeza y un corazón destrozado” pero cuando lo hace, Mina ya no es ella misma, es en realidad Elisabetha, que al fin, ha comprendido su destino y encontrado al amor de su vida. Su único y gran amor. (V60). �26 12.3.7 The Storm Con este increíble y voluptuoso tema, el compositor enmarca al personaje de Lucy, utilizando las notas de esa misma caja de música que escuchamos al principio de la secuencia, pero esta vez la tonalidad se vuelve tremendamente discordante con distorsiones y notas no armónicas. Estas primeras notas no presagian nada bueno, ya que más adelante, el compositor nos irá mostrando poco a poco el lado oscuro de Lucy, sus miedos, sus debilidades, para sumergirnos musicalmente hablando súbitamente en un mundo oscuro y tenebroso donde los instrumentos de viento y fuertes coros masculinos van repitiendo compulsivamente sus notas, en un torbellino ascendente que culminará con la aparición del conde Dracula, con su imponente presencia y su diabólica energía. (V51). El compositor Wojciech Kilar, utiliza los instrumentos de viento y los fuertes coros masculinos, con inteligencia, con ritmo, marcando cada segundo de película con notas �26 fuertes, pesadas, que caen de golpe sobre el espectador, y que permite entender y mostrar la aterradora y siniestra presencia del conde, el no muerto. Esta misma sensación es la que el compositor ya nos presenta durante el metraje en la secuencia del viaje que hace Dracula, desde los Cárpatos de Transilvania a Inglaterra y más tarde con el viaje en barco rumbo a Londres, donde va asesinando a toda la tripulación, como prueba de su sed de venganza y su presencia cruel y despiadada. Uno de los recursos sonoros que se emplean con relativa frecuencia en el cine es lo que denominamos como “letanías”. Éstas no son otra cosa que recursos sonoros que se repiten una y otra vez, para transmitir una determinada sensación o sentimiento en el espectador tal como ocurre por ejemplo en la película “La Profecía”. Esta banda sonora de Jerry Goldsmith, contiene una de las letanías más famosas del cine “Corpus edimus, sanguis bidimus”, de inspiración satánica que el compositor utiliza intencionadamente para crear un clima de desasosiego, de turbación que va increscendo lentamente. De la misma forma, Wojciech Kilar utiliza en este bloque otra letanía (“Sanguis cita est”. ) diferente para poder definir y enmarcar al personaje del conde. 12.3.8 The Green Mist Representa una variación del tema utilizado en una de las secuencias de la película, cuando Lucy es asesinada por el conde. Aquí, en cambio Dracula se acerca a los aposentos de Mina, atraído por el amor que siente hacia ella, transmutado en una densa niebla verde que se cuela por la ventana del dormitorio de ésta, con el único fin de poseer �27 su alma su espíritu, para fundirse con ella eternamente. Musicalmente el compositor polaco, utiliza unos suaves y enigmáticos violines que van acompañando la secuencia. A destacar sin duda, el minimalismo de la pieza, ya que utiliza únicamente dos notas musicales que irán jugando y entrelazándose en diferentes escalas, hasta llegar a desaparecer súbitamente. (V52). Pero en medio de esa tensión musical aparece el ya conocido tema de amor entre Mina y Dracula, de una forma casi subliminal, que va llenando con sus suaves y dulces cuerdas la estancia y la secuencia, añadiendo mayor belleza, emoción y simbolismo a las palabras del Conde que decide despejar toda duda, descubriendo su autentica personalidad a su amada. Solo puedo afirmar que la fuerza y la pasión de esta secuencia es tan abrumadora como la belleza de cada nota que el compositor desgrana en cada segundo de imagen. A destacar también y como recurso utilizado en gran parte de esta maravillosa película, el uso del director de colchones ambientales y efectos sonoros que hábilmente completan y enriquecer la banda sonora de esta cinta. Por algo sus creadores David E. �27 Stone y Tom McCarthy, se llevaron la estatuilla por la mejor edición de sonido en los premios Oscar de 1993. 12.3.9 The Encounter Otro de los momentos más impactantes musicalmente hablando, lo tenemos en la secuencia en la que Jonathan Archer se encuentra por primera vez con el Conde (V73). Aquí el director juega no solo con la belleza de una música llena de planos sonoros y profundidades acústicas , sino también con la fuerza arrolladora de los efectos de 178 sonido y el significativo poder evocador que permite sumergir al espectador en un increíble universo de emociones y sensaciones sonoras multicanal (Dolby 5.1). ANDO, Y., Sakai, H., and Sato, S. Formulae describing subjective attributes for sound fields based on a 178 model of the auditory-brain system,” J. Sound & Vib., 232. 2000, pp. 101–127 argumentan que las perspectivas sonoras es decir, los planos modulados dinámicamente, afectan de modo desigual, determinadas áreas cerebrales. V73 �27 “Bienvenido a mi hogar”, con estas palabras Dracula invita a pasar al joven a su mansión. Significativo es el momento visual y sonoro cuando Archer cruza el umbral de la puerta. Un conjunto de efectos de sonido, ruidos tenebrosos, voces de ultratumba, y lamentos desgarradores, se van sucediendo dando paso al tema de Dracula. Éste tema es ya familiar para nosotros. Dracula, aparece siempre majestuoso, poderoso y tenebroso, cuando su banda musical empieza a sonar. 12.3.10 The Brides Uno de los bloques musicales de la película que más me han impactado por su belleza y sencillez, es seguramente el que recibe el titulo de “The Brides”, es decir Las Novias. En esta secuencia no solo tenemos la belleza y la sensualidad de las imágenes, el tratamiento del color, de las luces y las sombras, sino también la fuerza erótica de los violines, que como en un vórtice minimalista, van aumentando en presencia y cambiando de una escala a una superior, con un virtuosismo y naturalidad sobrecogedora. (V53). �27 En esta secuencia, sobresale con diferencia, la maestría de Coppola, en el tratamiento de la imagen. Tanto los efectos visuales, como los sonoros, van haciendo acto de presencia desde el primer fotograma, combinando perfectamente los tonos musicales con los fondos ambientales y con un entramado de sonidos que surgen de la oscuridad del lugar, para inundar toda la escena. La tremenda belleza que encierra esta secuencia, es la de transmitir con unas simples pero adecuadas notas de violín, toda la carga erótica de las protagonistas, las novias de Dracula, incluso cuando los gritos de Archer desgarran el aire por el dolor de los mordiscos. La música por si sola con unas notas repetitivas pero que van saltando de escala en escala, y aumentando en intensidad, es capaz de transmutar un momento trágico, en el placer doloroso más grande que haya existido, mientras la acción va conduciendo al protagonista hacia un vórtice de locura, caos y muerte total. A lo largo de toda la película, la banda sonora de Dracula, se articula en dos grandes momentos. Una primera parte, donde descubrimos al Dracula, al príncipe del horror, del mal y de la venganza, donde los coros, las trompetas, los violines desatados, enmarcan a un personaje despiadado y violento. Más adelante, Wojciech, quiere presentarnos a un Dracula nuevo, diferente, al hombre y no a la bestia, a una persona humana, capaz de sentir, de sufrir y de llorar por su amor, es el drama romántico por excelencia. Wojciech Kilar expresa todos estos sentimientos con maestría y magia, utilizando el tema de amor entre Dracula y Elizabetha, que va apareciendo y desapareciendo a lo largo del metraje, y cuyo único sentido, es devolver al conde su condición de ser humano, de alma atormentada por el dolor de la perdida del ser amado, y por el deseo de volverla a recuperar. Este tema, sutilmente lo vamos a encontrar siempre que Mina y Dracula se encuentren y compartan pantalla, aunque sea solo durante unos breves momentos. �27 Lo hermoso y bello de esta banda sonora, es descubrir como el tema amoroso, se insinúa sutilmente entre las notas que pertenecen al tema musical del propio conde, en diferentes momentos del metraje, como sucede precisamente con la escena de la foto de Mina, cuando Jonathan cena en casa del Conde y éste descubre la foto que el joven guarda de ella. Aquí aparece por primera vez la música que subraya el amor y la relación que existe entre los dos protagonistas, pero aquí sutilmente Wojciech Kilar compone esta pieza utilizando un tono sonoro mas oscuro y menos esperanzador. Es realmente de una belleza sublime, comprobar como el compositor juega con las texturas sonoras, con los tonos, para mostrar el dolor, la amargura y el vacío del propio conde, de una vida vivida sin la persona amada, y transmitir todos estos sentimientos utilizando el espíritu del mismo tema amoroso pero recreándolo esta vez con tonalidades oscuras y tenebrosas. (V54). �27 12.3.11 Mina-Dracula Este mágico tema representa un autentico y maravilloso alarde musical, donde la pieza amorosa aparece nuevamente, pero en este caso, la escena esta teñida por la esencia del dolor. Ella no va a acudir a la cita en el restaurante, donde el conde la espera con impaciencia. Ella se despide simplemente con una carta para dar por zanjado su relación con el conde. Es así entonces, que la música se torna profundamente triste, y llena de desolación y desesperanza. Es una autentica joya musical. (V55). Las cuerdas, componen con maestría un fondo sonoro, denso y a la vez imperceptiblemente suave y frágil, capaz de describir perfectamente la relación que hay entre ambos, atracción y distancia, amor y ausencia. Pocas bandas sonoras como ésta, son capaces de transmitir tanta información y emoción con tan poco. Sin duda estamos ante una obra maestra del genero cinematográfico que pasará a la historia por su fuerza expresiva y por su musicalidad. Una vez mas la banda musical acompaña con increíble maestría a los protagonistas, convirtiendo esta cinta en una autentica obra de arte del cine �27 contemporáneo, ya que representa la expresión de la poesía en su pura esencia. Demoledora es la parte en donde se funden los dos temas musicales, el amoroso y el tema de Dracula. Son los dos polos opuestos, como hablábamos anteriormente, la suavidad, la ternura, la pasión, y el odio, el dolor, el desgarro, la venganza. Y esto lo articula Wojciech de forma magistral, fundiendo los dos temas, mientras en imagen se sucede la muerte de Lucy y el casamiento de Mina (montaje paralelo). Increíble la superposición de acordes, melodías que se desarrollan perfectamente y se compenetran nota a nota, con precisión matemática. 12.3.12 The Hunter Prelude En “The Hunter Prelude” (A13) nos encontramos con una versión diferente del ya conocido “Vampire Hunters”, aunque en esta ocasión, lo que hace especial este tema sea la fuerza de sus cuerdas, de los instrumentos de viento y su rotundidad musical. Es el tema que identificamos con el personaje del propio Dracula. En el adivinamos la fuerza arrolladora del personaje a través de la potencia musical de esta pieza, donde la sección de cuerdas adquiere un importante protagonismo. Éste tema, es un claro ejemplo, de como aún manteniendo la misma melodía, el compositor es capaz de cambiar textura y tonalidad a lo largo del metraje para que encaje a la perfección en los momentos adecuados, gracias al arte y al dominio musical del compositor. A13 �27 12.3.13 The Ring of Fire En “The Ring of Fire”, somos testigos de un increíble juego de efectos sonoros musicales, percusiones, lamentos, donde una vez más, la pieza musical va adquiriendo lentamente fuerza, poder y profundidad, mientras va desarrollándose en un increscendo brutal y demoledor hasta llegar al clímax final. (V56). Este bloque es simplemente soberbio y emocionante, donde podemos una vez mas comprobar la maestría compositiva de Wojciech. En ésta parte de la película, como en muchos otros momentos magistrales de la cinta, podemos percibir claramente lo que técnicamente denominamos como “diseño de efectos”, ya que el bloque musical se compone casi exclusivamente por un denso colchón de efectos de sonido, ritmos, golpes, lamentos, coros tenebrosos, risas y percusiones que golpean brutalmente al espectador, transmitiendo toda la energía de los personajes, especialmente en el momento cuando Helsing y su grupo acorrala al no muerto y a sus novias que le acompañan. �27 12.3.14 Love Eternal En “Love Eternal”, nos encontramos al final del metraje. Arranca esta pieza con el tema amoroso que ya vimos anteriormente en varios momentos de la cinta, pero lo hace utilizando en esta ocasión unos violines cuya tonalidad recuerda el dolor que impregna profundamente el corazón y el alma del conde. (V57). Este momento, el que representa el cierre definitivo de esta historia centenaria, es y simboliza el retorno al amor infinito de Dios, que encarna la esperanza y la salvación eterna, pero también este tema musical marca el reencuentro esperado entre Mina y Dracula después de una larga y casi interminable espera. El amor al fin y al cabo, todo lo puede, y es el único sentimiento capaz de liberar al espíritu de Dracula de su atormentada existencia. El no muerto, al fin, se abandona en los brazos del Señor, abrazando la Iglesia, la fe y la esperanza en una vida futura al lado de su amada. Es el triunfo de la bondad, de la generosidad, de la entrega, del amor infinito. En el instante en el que �27 Dracula lanza su último hálito de vida, es precisamente el momento cuando se alza majestuosa y profunda la música coral de voces masculinas y femeninas que elevan el espíritu del protagonista hacia los cielos, en una espiral de paz, serenidad y entrega infinita de amor. La música y en especial el tema de “Ascensión” porque así se denomina esta pieza coral, sirve de guía hacia un nuevo mundo espiritual, lejos del dolor, de la agonía eterna y de la separación de Dios. Se funden la vida y la muerte con extremada belleza y minimalismo, tras lo que súbitamente la imagen funde a negro. FIN. 12.4 La banda sonora Si tuviese que resumir la banda sonora de Dracula diría sin lugar a dudas que es una obra maestra. El autor Wojciech Kilar se inspira posiblemente, en la obra de otros compositores como Christopher Young, autor de “Hellraiser” o Elliot Goldenthal en “Entrevista con el vampiro”, pero la idea genial y única de Wojciech Kilar es acertar plenamente con una banda sonora que lo que nos transmite y comunica es una visión diferente y mucho más humana del protagonista, de Dracula, dejando de lado los tópicos terroríficos que rodean siempre a esta figura, y centrándose mucho más en la intención, en el alma del personaje. La música de esta manera, nos presenta a Dracula como un hombre y no como un ser sin espíritu, sin sentimientos. Es alguien como nosotros, que padece, que llora y se duele. �28 No está por encima del bien y del mal. Sin duda, Dracula de Coppola, es un exponente perfecto, no solo de la musicalización de una imagen , sino también de 179 180 cómo los personajes tienen sus propios leit-motiv musicales que se van entrelazando y modificando de forma perfecta, sincrónica y sublime a lo largo de la cinta. Este nuevo Dracula es concebido como un ser atormentado que vaga en el tiempo a causa de un amor no consumado. Coppola tenía como objetivo la realización de un film romántico con una marcada expresión estética a través de la fotografía, la luz, el color, la música. La película no es una historia de terror al uso. Podríamos decir que es una reinvención del mito de la Bella y la bestia, desde el prisma del romance y el amor. Coppola nos presenta al personaje de Dracula creado por Bram Stoker bajo una faceta eminentemente romántica. De esta manera la figura de Dracula ya no simboliza la encarnación del mal, sino un alma atormentada por el sentimiento, en busca de su amor eterno. Este sentimiento es tan fuerte que podremos ver al propio Dracula llorando, algo impensable en cualquiera de las anteriores revisiones de este mito cinematográfico. En comparación Van Helsing resulta mucho más vengativo y cruel, que el propio conde. En la película Coppola nos presenta a un hombre encadenado a vivir eternamente por amor y a buscarlo desesperadamente a lo largo del tiempo y el espacio. Dracula ya no es solo esa figura que inspira terror y rechazo. Se ha convertido en un hombre más, capaz de sufrir y amar todos nosotros. En la cinta, sorprende la habilidad del director para introducirse en el pasado del conde, ya que el autor de la novela Stoker, omite toda información, que en cambio MONER, Beltrán, La ambientación musical, IORTV. Madrid, 1991. El autor viene a decir que sin duda la 179 música y su poder de evocación, mantiene por si sola el flujo narrativo de una historia y que solo existe un solo elemento que puede empañar su fuerza y poder: el diálogo. Deutch, D. The Psychology of Music, Academic Press Orlando, FL 1982: El elemento puramente 180 psicológico que representa la música y su carga emotiva, es directamente proporcional al nivel de afinidad que ésta tenga con la imagen de referencia a la que acompaña. �28 Coppola retoma, para fijar también la atención del espectador en el pasado del protagonista. Como homenaje a Bram Stoker, se decidió emplazar la narración en el año en que fue escrita la novela; es decir, en 1897. Esto permitió recrearse en la belleza de la época victoriana, sus colores, sus modas, sus hábitos. También fue un acicate para que Coppola mostrara su particular visión acerca de los orígenes del cine.
 �28 13. Breve historia del sonido A modo de pequeño resumen que nos permita tener una clara visión de como ha sido el desarrollo del sonido en el cine, cabe resaltar los siguientes personajes y momentos, que han sido fundamentales para entender donde estamos y cual ha sido la evolución tecnológica hasta hoy en día. 13.1 Thomas A. Edison Thomas A. Edison , sin duda representa una pieza fundamental en la historia del 181 sonido, y concretamente del sonido cinematográfico. Tuvo una infancia muy complicada, salpicada de maltrato paterno, pero supo superar las carencias afectivas y materiales, con constancia y energía de superación, hasta llegar a ser una de las personalidades más grandes de su época, por todo lo que profesionalmente aportó a la sociedad y al mundo en general. Supo descubrir ya de joven cual podía ser su inclinación y su pasión, ya que se sentía atraído por la investigación, la técnica y por todo lo que suponía innovación y desarrollo. Pero recorrió antes un camino muy largo y complicado, desarrollándose profesionalmente en otras áreas, ya que entre otras cosas fue, telegrafista, pastor, electricista. Mas tarde Una de sus frases más conocidas y famosas es la siguiente: “El genio consiste en un uno por ciento de 181 inspiración, y noventa y nueve por ciento de sudor”.Thomas Edison, fue uno de los inventores más importantes de la historia y uno de los personajes que más influyó en el desarrollo de la humanidad.Muere el 18 de octubre de 1931 en West Orange, New Jersey, Estados Unidos. �28 fue prosperando lentamente, llegando a crear su propio laboratorio científico, donde fue desarrollando todo su potencial creativo. Edison representa para la humanidad, un personaje importantísimo ya que de él conocemos inventos como el teléfono, la bombilla, el telégrafo etc, pero sin duda fue el Fonógrafo en 1887 el invento más importante que 182 marcó un antes y un después en la industria cinematográfica. Dicho fonógrafo, a lo largo del tiempo, sufrió diferentes modificaciones y mejoras. No olvidemos que Edison era un perfeccionista, y siempre procuraba optimizar sus hallazgos, para conseguir versiones mas potentes y ajustadas a los objetivos que perseguía con cada invento. La primera versión del fonógrafo, fue sencilla y muy elemental, ya que el aparato estaba constituido por un cilindro que se tenía que mover a mano. Dicho cilindro recubierto de estaño, se conectaba por uno de los extremos más finos, a una bocina o HARVITH, J., and Harvith, S. Edison, Musicians and the Phonograph, Greenwood Press, N.Y. 1987: El 182 fonógrafo es un invento de Thomas Edison, que permite por primera vez grabar audio. Edison y el fonógrafo �28 especie de embudo, al extremo de la cual se colocaba un diafragma con una aguja muy fina. El cilindro, poco a poco al girar, se desplazaba por su eje en espiral, provocando que se grabara, sobre el soporte, por la presión de la aguja, un surco donde quedaría impreso el sonido. Un sistema ingenioso, sencillo, pero para aquella época, toda una hazaña de la tecnología. La presión sobre la aguja, dependía de la entrada de señal, de sonido, o lo que es igual, vibraciones sonoras, dentro de la bocina que funcionaba a modo de amplificador de señal. De éste modo, la vibración (la voz) se concentraba sobre un pequeño diafragma para que la aguja fuese capaz de grabar fisicamente las oscilaciones sobre la propia lamina. Con el paso del tiempo, Edison poco a poco, fue mejorando la calidad de la grabación, que llegó a ser muy buena, así como los materiales de los que estaba fabricado el fonógrafo, en especial la superficie del cilindro. Todo esto, significaba un gran paso adelante en la mejora de la captación de sonido, y por consiguiente de una tecnología que se iba desarrollando a pasos agigantados. El propio soporte, pasó a ser de fonógrafo �28 cera, a celuloide, y esto determinó un gran cambio en cuanto a la duración de la grabación. Los cilindros de cera podían almacenar una grabación de hasta dos minutos, mientras que los de celuloide llegaban a los cuatro. También mejoró con el tiempo la forma en la que el fonógrafo grababa la información. Pensemos que en un principio, los surcos que se imprimían sobre el cilindro de cera, eran muy profundos. Posteriormente y con mejoras evidentes del propio aparato, la imprimación del sonido acontecía con surcos mas superficiales, menos marcados, sobre los laterales del cilindro. Sin embargo Edison, tuvo un sueño que no le abandonaría nunca, y que persiguió con ahínco y tesón. Su sueño, era el de inventar un sonido para cine que fuese perfectamente sincrónico con la imagen. La idea de reproducir imágenes en movimiento y sonido a la vez, había existido sin duda, desde los albores del cine, ya que se entendía completamente natural, la visión de una cinta cinematográfica conjuntamente con el audio generado por los personajes, por la música etc. Es por ello que Thomas Edison se empeña en descubrir un método que le permitiese reproducir imagen y sonido de forma que éste ultimo se escuchase sincrónicamente con la imagen, y de esta forma mejorar de forma brutal este medio artístico. El primer paso que dio Edison, fue Inventar lo que él llamó, el Kinetoscopio, capaz de grabar imagen �28 sobre celuloide destinado a la visión individual de bloques de imágenes en “loop”. Es decir, estas imágenes que se repetían a modo de anillo, solo podían ser vistas por una sola persona, dada la peculiaridad del propio aparato. El Kinetoscopio hizo historia, ya que, hoy en día se considera como la primera máquina de cine. En un momento posterior, Edison desarrolla la idea de crear un nuevo aparato fruto de la unión entre la imagen, el Kinetoscopio y el sonido, el Fonógrafo. Nace así el Kinetophon que por primera vez permite proyectar imágenes visuales acompañadas de sonido sincrónico. Edison contrató entonces a otro ingeniero, William Dickson, que se convirtió en uno de sus ayudantes y que fue realmente el encargado de construir este nuevo aparato, en 1890 (V18). Uno de los descubrimientos técnicos más importante de William K.L. Dickson es sin duda el sistema mecánico interno del Kinetophon que inventó bajo patente de Edison, para poder mover perfectamente el material fotográfico dentro del aparato de cine, de forma que el celuloide podía discurrir a través de las guías mecánicas de forma suave y continua. Había nacido el primer proyector cinematográfico de la historia, capaz de reproducir de forma sincrónica sonido e imagen. En la imagen inferior vemos unos fotogramas de una de las grabaciones realizadas por el propio Edison. �28 13.2 Eugene Lauste Eugene Lauste fue uno de esos personajes claves dentro de la evolución que 183 tuvo la industria del cine a lo largo de los años, porque en 1904, patenta un invento que se sigue utilizando hoy en día, ya que por primera vez, gracias a su descubrimiento, el soporte fotográfico, representa la manera de poder grabar sonido e imagen sobre un mismo y único material. Aunque la calidad del sonido, en un principio no era muy buena, tenemos que recordar a esta gran figura y su descubrimiento, porque no olvidemos que hasta entonces, HOWARD, D. M. and Angus, J. Acoustics and Psychoacoustics, Focal Press. Oxford 1996.: Eugene 183 Lauste, creo el primer soporte fotográfico que incluía sincronización imagen y sonido sobre soporte fotográfico.
 Fotográfico fotogramas de la película �28 sincronizar sonido e imagen había sido el caballo de batalla de Edison y de muchos otros desarrolladores de su época. Aún deberían transcurrir unos años más hasta que se pudiera solucionar otro de los grandes inconvenientes técnicos del cine, y que era la imposibilidad de amplificar el sonido para poder ser escuchado por el público de una sala. 13.3 Lee De Forest En 1914, Lee de Forest inventor americano con mas de 180 patentes creadas, se convierte en una pieza clave para el desarrollo de la cinematografía, ya que realizó uno de los descubrimientos más importantes no solo para su época, sino para toda la humanidad. Inventa un aparato de sonido que lo llama, amplificador. Esta nueva e increíble patente, permitía resolver uno de los problemas insolubles hasta aquél momento: como amplificar el sonido de una película para que pudiese ser escuchado por el público en general. La De Forest �28 respuesta a este problema, la tuvo De Forest, con la creación de la válvula termoiónica denominada también como válvula auditrón y que recibió el nombre popular de tríodo. Este descubrimiento, permitió la construcción de amplificadores tanto de audio como de radiofrecuencia, como también osciladores y componentes electrónicos para los receptores de radio. Sin duda, De Forest se convirtió en una autentica estrella que revolucionó con sus patentes la tecnología de la época. Entre sus inventos cabe destacar: 1) En 1915 aparece la patente de De Forest basada en tecnología por triodos supuso la construcción de la primera radio, que se colocó en lo alto de la Torre Eiffel. 2) De Forest en 1921 innovó aún más si cabe la industria del cine, desarrollando un sistema de grabación de audio sobre cinta cinematográfica 3) En 1923 dio a conocer su invento del amplificador con una proyección pública, que se adelantó en 4 años a la ya conocida cinta del Cantor de Jazz, considerada la primera película sonora de la historia, aunque en realidad debería ser considerada la primera película sonora musical del la historia. Con el paso de los años, prácticamente todos los estudios de Hollywood adquirieron este aparato, dándose así un nuevo impulso al cine y al desarrollo tecnológico que se iría desarrollando y mejorando posteriormente. En España por aquel entonces, estamos hablando de la década del 1929, todos estos inventos tan importantes para el séptimo arte, y que ya se estaban explotando en otros países de Europa, fueron adoptados muy tardíamente, perdiendo nuestro país competitividad en el sector. Por aquél entonces, las salas de cine en nuestro país, no estaban preparadas para mostrar el nuevo formato sonido-imagen cinematográfico. �29 Recordemos una vez más que unos años más tarde, daría inicio una guerra civil que lograría paralizar casi por completo nuestra industria. Todo esto solo serviría para que nuestro país se quedara estancado cinematográficamente hablando, creándose así una profunda división con el resto del mundo, en especial con Europa y Estados Unidos. Para entender la situación de desconfianza y vacío que reinaba en esa época en nuestro país sobre el futuro del cine y de las artes cinematográficas, transcribo a continuación una nota de prensa que fue publicada por el periódico La Voz el 25 de Marzo de 1929: “Este año está en boga la película hablada. Creo que será en los cines de corta vida, pues el cine nació siendo escena muda. Así que aunque la hablada de momento progrese, no puede durar mucho tiempo, ahora, únicamente es la novedad, luego el público se cansará de oír las mismas voces, porque de artistas buenos hay pocos y para regulares o malos es mejor no oírlos, además, de todos los que hoy trabajan en el cinema, no serán muchos los que tendrán voces agradables para proyectarlos en el cine sonoro, y me figuro no los enviarán a paseo. Esto será en las capitales, ¿y los pueblos? ¿cuando los empresarios se recordarán de traer películas habladas? Habrá para tiempo, pues necesitarán aparatos, discos, y además aumento de alquiler de cintas, claro que el público será el pagano. Pero aún así hay mucha diferencia de que la cinta muda desaparezca y la hablada se empleará para discursos, alguna Opera, canto, etc.”. Así podemos comprender, como en pocos años España fue perdiendo importancia y peso en el sector, con pocas producciones cinematográficas al año, comparado con la industria europea y americana en especial. Esto provocó que nuestro país se convirtiera en importador de cine extranjero más que creador y exportador de producción nacional, �29 perdiendo así el importante tren de la innovación, la productividad y la creación audiovisual. Es el tiempo en el que el cine mudo, poco a poco va perdiendo protagonismo, a favor del sonido, es decir de un mundo de tecnología basado en la innovación y el desarrollo constante de los medios y procedimientos empleados. De esta forma, fue surgiendo un nuevo cine, que combinaba la imagen y el sonido en sincronía, permitiendo que la inmensa mayoría del público focalizara su interés en esta nueva tendencia artística. 14. El desarrollo de las tecnologías 14.1 Equipos de edición Con el tiempo y el devenir de los años, la aparotología empleada por los técnicos cinematográficos, fue sofisticándose y mejorando poco a poco. Es así como en la primera década de los años 30, surgen nuevos equipos capaces de sincronizar audio e imagen, que permitieron mejorar la técnica del montaje y edición. Uno de los más conocidos fue �29 sin duda, la Movióla el invento que mejoraría más tarde con la aparición del sistema de 184 control Steenbeck, mucho más perfecto y preciso. Con estos equipos, el montador podía insertar cualquier imagen en un punto determinado del metraje, así como sincronizar pistas de audio, y recrear toda una banda sonora, de forma fácil y ordenada. A este sistema se le denominó montaje no lineal. El sonido sufrió también mejoras sustanciales, como la aparición de las primeras mesas de mezcla, que aunque rudimentarias y muy limitadas, no eran otra cosa que consolas capaces de controlar un numero pequeño de canales de sonido al mismo tiempo. Las primeras mesas , utilizaban levas giratorias en lugar de potenciómetros o 185 faders para controlar cada pista. La evolución a las mesas con faders alineados en los años 60, significó que los mezcladores pudieran manejar fácilmente varias pistas con las dos manos. Las mezclas de largometrajes se realizan frecuentemente con dos o tres mezcladores sentados detrás de la mesa, controlando varios grupos de faders simultáneamente. Las primeras mesas no podían rebobinar ni realizar ningún inserto existente mientras la cinta estaba en marcha por lo cual, había que mezclar las bobinas enteras sin parar. Era lo que recibía el nombre de mezcla en “play-record”. Para poder completar la mezcla sonora de una película, se tenía que recurrir a la mezcla por STEMS, es decir a una premezcla previa de bandas por separado, agrupando los diálogos, la música y los La Moviola en un primer momento se trataba de un equipo capaz de visualizar películas de cine en casa. 184 Más tarde en 1924, el diseñador e investigador Serrurier vendió la primera máquina de edición a los estudios Fairbanks para mejorar la edición de los largometrajes . Poco a poco los grandes estudios de Hollywood empiezan a adquirir estos sistemas que permiten trabajar a gran velocidad y optimizar los resultados, algo por otro lado muy valioso si pensamos que las productoras eran las primeras interesadas en minimizar costes (tiempo y recursos) y mejorar sus beneficios económicos. RUMSEY F. and T. Mc Cornick. Sound and Recording. Focal Press. Oxford 1995: Los autores nos 185 hablan de las primeras mesas de mezcla de 2,4, 6 canales. Estas fueron las primeras configuraciones que aparecieron en el mercado, surgiendo otras mas tarde con mayores posibilidades y funcionalidad. En 1963 Los Beatles graban su primer disco “Please please me” en los estudios de Abbey Road con una mesa de tan solo 4 canales. �29 efectos sonoros y para poder manejar producciones mas complejas y sofisticadas. Cada consola de mezcla manejaba una banda de sonido y no era nada extraño ver 10 aparatos reproduciendo a la vez y sincronizadamente entre ellos. De esta forma, todas las consolas que controlaban cada STEM de sonido, mandaban la señal a una última consola de grabación, donde se realizaba lo que se denominaba como “regrabación final”, para conseguir así la mezcla total de todas las bandas de la película. Todo este trabajo se realizaba en salas especiales que recordaban o imitaban las dimensiones de una sala de cine, con el fin de reproducir el sonido bajo las mismas condiciones físicas que podíamos tener en las salas comerciales. Hemos de pensar que este primitivo sistema de trabajo, no permitía obtener un sonido de alta calidad debido a varios motivos. Uno de ellos era el ruido de fondo como resultado de la regrabación de pistas, ya que cada canal de sonido ya introducía per se ruido en la señal y todo este ruido al final acababa sumándose con las restantes bandas de la película en el proceso de regrabación final. El resultado era un margen dinámico pobre. Además de esto, la calidad también se empobrecía por este proceso de regrabación, provocando que cada nueva generación fuera una copia peor que la anterior. Tenemos que pensar que en estos primeros años, no existía un acuerdo o standard general de procedimientos y calidad final de los trabajos, y por consiguiente el resultado obtenido en un estudio de mezclas determinado podía ser radicalmente diferente a otro. Para hacer frente al problema, se creó The Academy of Motion Picture Arts and Sciences de Estados Unidos, (SMPT) o lo que es igual, una Academia de las artes cinematográficas cuyo objetivo era velar por la calidad de los trabajos y dictar una serie de reglas y recomendaciones para los profesionales del sector audiovisual. Con el paso de los años, los equipos y materiales de los estudios sufrieron mejoras y adelantos técnicos realmente importantes, y esto incentivo a la Academia a crear toda una serie de normas y reglas que sirvieron sin duda para elevar los estándares de calidad. La norma más �29 conocida es la que recibió el nombre de "Curva de la Academia". Esta era una ecualización estándar que aseguraba que todos los técnicos trabajaban bajo los mismos parámetros y que se estandarizara la monitorización de las grabaciones. Este estándar se mantuvo hasta los años 70, cuando la grabación de sonido de las películas mejoró gracias a la empresa Dolby. A finales de los años 30, podemos decir que la industria cinematográfica había mejorado la calidad general de las producciones sonoras, utilizando métodos y procedimientos que siguen siendo validos hoy en día. 14.2 La técnica de post-sincronización: el doblaje Varios eran los problemas con los que se enfrentaban las producciones cinematográficas sonoras desde sus orígenes. Uno de ellos era como corregir planos sonoros que se habían grabado en rodaje y que por diferentes motivos no eran validos para su inclusión en la mezcla final. Además la industria americana, necesitaba expandir sus fronteras comerciales y poder vender sus producciones al resto del mundo. Pero aquí aparecía otra vez el problema del sonido, pues el idioma de la película representaba una autentica barrera a la hora de vender la producción a países extranjeros. Es así como, para solventar estos problemas, nace un procedimiento técnico muy importante y que va a establecerse como un standard de trabajo en todo el mundo y que aun hoy en día permanece vigente. Esta técnica se denomina: doblaje (ADR para el mercado americano). El doblaje se convirtió en la herramienta más eficaz para reemplazar �29 planos de diálogos de rodaje por grabaciones de mejor calidad realizadas en un estudio . Esto se hacia a través de procedimientos de postsincronización de la voz 186 ajustándola a la imagen y consiguiendo una mezcla final exacta a la original. Y no solo esto. El doblaje se estableció también como el procedimiento fundamental para volver a grabar todos los diálogos de la película en un idioma extranjero, y posibilitar así la venta y explotación comercial de las producciones. Tengamos en cuenta que Estados Unidos siempre ha tenido un peso especifico muy grande en la industria cinematográfica mundial a nivel comercial, tal y como sucede también en nuestros días, y que su interés no es solo la de producir mas y mejores películas sino también la de ampliar sus fronteras y hacerse visible para el resto del mundo. Por eso se fue perfeccionando la técnica del doblaje hasta conseguir resultados realmente de alta calidad. Se utilizaban “bucles” es decir, planos o secuencias de la película a doblar, que incluyan frases de los actores. Dichos bucles podían ser reproducidos en anillo y el actor repetía la frase mientras miraba la película en la pantalla de proyección hasta que se conseguía un nivel aceptable de interpretación y calidad. Una marca en la película indicaba al actor el preciso momento del comienzo del bucle. Este sistema de reemplazo automático de diálogo (ADR automatic dialogue replacement) o looping está en uso todavía, aunque hoy en día las señales sonoras han sustituido las antiguas señales gráficas. La Academia del cine americano estaba marcando las pautas para una correcta realización y producción técnica de las películas, aumentando los estándares de calidad e impulsando la mejora de los estudios. Un elemento que sirvió para mejorar aún más el apartado de sonido cinematográfico fue la técnica que inventó un ingeniero de sonido americano llamado Jack Foley. Sin él, ni el doblaje a idioma extranjero, ni el doblaje como ISO 2969 “International Standard. Cinematography B-Chain Electroacoustic Response of Motion-Picture 186 Control Rooms and Indoor Theaters Specifications and Measurements.” iso.org 1987 :la acústica creada por la sala determina el tipo de escucha que vamos a tener. Por eso es importantísimo la corrección de errores de ecualización tanto de salas de grabación como de escucha o control. �29 solución de errores de diálogos en rodaje, hubiera sido posible. Su forma de trabajo se sigue utilizando hoy en día y representa ya un standard en todo el mundo y un procedimiento necesario para un acabado sonoro perfecto de una película. Recibe el nombre de Grabación de efectos Foley , y se trata de grabar todos 187 aquellos sonidos que están presentes en pantalla y que dan vida a los actores, como son por ejemplo los pasos, el ruido de movimientos, de ropa, puertas, gestos, etc. En este caso, el tecnico de foley es el que posicionándose delante de la pantalla de proyección en el estudio de sonido, y utilizando utensilios de muy diferente material, textura y tamaño, provoca sonidos o ruidos que imitan los originales de la imagen, y lo hace en sincronía con ésta. Hoy en día todas las películas que vemos en el cine tienen efectos foley y dichos efectos sirven también para realzar la calidad de todo el sonido y reforzar su presencia y protagonismo. 14.3 Grabación magnética La grabación de sonido en cine, a finales de los años 30, se realizaba sobre material óptico, fotográfico, es decir, en la misma película, modulando sobre ella, pero como contrapunto, la calidad resultante era baja. Por otro lado, tenía una ventaja, y era EARGLE, J., and Foreman, C. Audio Engineering for Sound Reinforcement, JBL Pro Audio Publications. 187 2002. Los autores hablan de la importancia de los efectos foley, sobre todo para la creación de lo que se denomina profesionalmente como banda internacional o M+E. �29 que el sonido se podía ver, las modulaciones de frecuencia se percibían visualmente sobre el mismo soporte fotográfico. La grabación magnética se desarrolló en los años 40 y reemplazó a la grabación óptica gracias a su incuestionable calidad sonora. Este tipo de grabación aumentó el ratio señal ruido, para poder conseguir una mejora significativa en dinámica sonora, y por consiguiente una baja tasa de ruido en la señal. La grabación magnética, se basaba físicamente en un soporte de plástico milar, sobre el que se depositaban polvo de partículas metálicas magnéticas. El micrófono es el responsable de transducir la energía vibratoria de la voz en energía eléctrica, y ésta electricidad a su vez era capaz de cambiar la polaridad del oxido ferroso magnético de la cinta, imprimiéndose sobre ella la voz. Esta técnica tenia la ventaja de que se podía trabajar con varias bandas de sonido a la vez, pero a una mayor calidad, lo que sin duda significaba sencillamente un mejor resultado final. La grabación magnética se siguió utilizando hasta principios de los años 80, período en el que apareció la última y mas reciente revolución tecnológica: la era digital. Esto provocó un auténtico vuelco en las técnicas y procedimientos de trabajo conocidos hasta la fecha, alcanzando aún más si cabe, una mayor calidad tanto en la grabación, como en la edición y reproducción del sonido. Un paso más allá, lo dio la televisión, con su aparición a modo experimental por los años 1938 en Francia e Inglaterra. Hacia los años 50 la televisión ya se había impuesto como nuevo formato de entretenimiento, robando publico a las salas de exhibición cinematográfica. Esto provocó un declive del sector cine a nivel mundial, que fue solo temporal, porque se buscaron posteriormente recursos y novedades tecnológicas que permitieron atraer otra vez al publico a las salas. �29 14.4 La Televisión La televisión, permitió que la comunicación y los medios de información, llegaran a todos los lugares, convirtiéndose en líderes en la industria del entretenimiento, con programas muy variados, que captaban el interés de un vasto publico de todas las edades. El único problema infranqueable hasta aquella fecha, era que una vez que el programa se había emitido, éste se perdía para siempre, ya que no había ninguna forma conocida de capturar esas imágenes en soporte físico. Esta situación persistió hasta 1954, cuando todo empezó a cambiar gracias a la invención del grabador de cinta de vídeo más conocido en el mundo, como el sistema VTR. La empresa americana de electrónica y componentes Ampex fundada en 1944, fue la responsable de crear el primer grabador electrónico de imagen. para poder grabar los programas en directo de la costa Este de América. Esto significó un paso adelante en la producción audiovisual televisiva, ya que la grabación podía así volver a emitirse unas horas más tarde en otras zonas de Norteamérica. Este salto cualitativo de las grabaciones en video, permitió que el editor de imagen pudiese realizar un montaje mucho más preciso y perfecto, ya que podía escoger de entre todas las tomas, aquella que era más valida, y por otra parte, el sonido podía ser mejorado mezclándose en el mismo soporte del VTR. De esta forma, nace el departamento de post-producción de imagen y sonido, ya que ahora los programas de TV podían ser grabados, editados y posteriormente mejorados de sonido, efectos y música para después ser emitidos por televisión. �29 Por aquel entonces la transmisión de programas por televisión, solo era posible realizarla en formato blanco & negro, pero en 1952 nace en Estados Unidos el primer equipo de transmisión en color (NTSC ) basado en el estándar de 525 líneas/60 Hz. 188 Como respuesta al descubrimiento del formato NTSC americano, a comienzos de los años 60, Europa reaccionó sacando al mercado el sistema PAL, basado a su vez en un estándar de 625 líneas/50 Hz, excepto en Francia, donde se introdujo en cambio el sistema SECAM que se basa también en el estándar 625 líneas/50 Hz, pero transmitiendo de diferente forma la información del color en comparación con el sistema PAL. Si se introdujeron mejoras técnicas sustanciales en los estándares de video, del color en la grabación y de la retransmisión de los programas tanto grabados como en directo. También mejoró la manera en que la postproducción de video se realizaba en los estudios de las grandes compañías de televisión. Se utilizaba entonces la técnica de edición no lineal, con el uso de múltiples reproductores VTR y un solo grabador, al que confluía las imágenes que el técnico iba mezclando y lanzando al grabador en tiempo real, pudiendo modificar o retocar el resultado en todo momento. Una de los problemas que en aquella época no se podía solventar, era la perdida de calidad tanto en imagen como en sonido, con las copias que se realizaban del master original. Ho y en día esto se ha resuelto con la implementación digital en el proceso de producción y postproducción tanto de audio como de video El formato de video americano NTSC funciona a una velocidad de 29.97 f/s, utilizado principalmente en 188 USA, Japón y en algunas áreas del Oriente Medio. La velocidad de paso de fotograma, difiere con el resto de los continentes, y responde a la necesidad de adecuarse a los hercios del sistema eléctrico del país. �30 14.5 Timecode Uno de los descubrimientos más importantes para el sector de la postproducción de video a mediados de los 60, fue sin duda la invención del TIME CODE o código de tiempo. La edición de sonido en las producciones de vídeo se realizaba utilizando grabadores multipistas que eran capaces de reproducir a la vez y en sincronía con la imagen, diferentes canales de sonido. Este sistema fue reemplazado más tarde por el timecode o código de tiempo, 189 una tecnología que fué desarrollada por el ejercito americano con el claro objetivo de poder seguir a los misiles, en situaciones bélicas. Este invento más tarde se llevaría al campo civil, y más específicamente al sector audiovisual, utilizándose en las cintas de vídeo en 1967 ya que este sistema tan avanzado de sincronismo, era capaz de identificar cada fotograma del vídeo de una forma absolutamente precisa. Pronto fue adoptado como un estándar de la industria por parte de la Society of Motion Picture y Televisión Engineers (SMPTE). Este código formado por 8 dígitos es la base de los sistemas de edición, que se usaron hasta los años 95 (SMPTE timecode) tiempo en el que la revolución digital introdujo mejoras sustanciales en los equipos de edición digital de sonido, que incorporaban ya sincronía automática entre imagen y audio. RUMSEY F. and T. Mc Cornick. Sound and Recording. Focal Press. Oxford 1995. La tecnología del 189 timecode permite entre otras cosas, sincronizar diferentes equipos convirtiendo a uno de ellos en maestro y al otro en esclavo y poder mantener una perfecta sincronización entre los dos. �30 14.6 Formatos de video analógico Los primeros equipamientos de vídeo eran muy difíciles de manejar y la propia cinta, tenía dos pulgadas de ancho. El formato de las cintas de video profesionales, también fue sometido a cambios, mejoras a lo largo de los años, apareciendo nuevos estándares que introdujeron beneficios en el sector audiovisual. En los años 70, la cinta de una pulgada se convirtió en el estándar para la grabación y masterización de estudio. Este formato por el contrario resultaba complicado para manipular y trabajar con el, pero se seguía utilizando para las localizaciones, para televisión (por ejemplo en las noticias, tele-series, comedias de situación etc.) A partir de los años 70, apareció el sistema U-MATIC de 3A de pulgada, existiendo dos modelos claramente diferenciados: banda alta y banda baja. Se diseñó para que fuera (relativamente) manejable y marcó los comienzos de las ENG (Electronic News 190 Gathering). De esta forma, las imágenes y el sonido se podían grabar simultáneamente en la misma cinta. Sin embargo fue la aparición del sistema Betacam de Sony, y su sucesor Betacam SP, después, los que marcaron el standard a partir de los años 90. Las cámaras ENG (Electronic News Gathering) son cámaras para uso en televisión cuyo tamaño es 190 sensiblemente inferior a las cámaras de gran formato para cine o para plató. Son camaras mas ligeras en peso y muy fáciles de transportar. �30 14.7 Formatos de video digital Con la aparición de la era digital, la forma de trabajar, los estándares y los equipos, sufrieron un cambio de 180 grados, ya que esta nueva tecnología basada en conceptos de la informática, abrió las posibilidad a una producción y manipulación tanto de imagen como de sonido impensable hasta la fecha. La primera cinta de vídeo digital, DI, fue desarrollada por Sony y lanzada en 1988. Este formato ofrecía una imagen digital de gran calidad, sin compresión ni perdida de información, y cuatro canales independientes de audio de 16-bit/48 kHz. Además a partir de ahora la generación de copias posteriores, ya no sufrirían degradación de la señal, tanto de imagen como de sonido. Sony continuó innovando su tecnología, sacando más tarde al mercado los grabadores D2, D3, D5 y finalmente el Betacam digital. Estos dos últimos ofrecían 4 canales de audio en una resolución mejorada de 20-bit/48 kHz. Sony introdujo entonces un segundo formato digital llamado Beta SX el cual se usa en ENGs. Usa un ratio de compresión más alto que el DigiBeta y es compatible con todos los formatos Beta que utilicen cinta de media pulgada. Desde 1990 se desarrollaron varios formatos que usaban cintas compactas Hi 8; sin embargo, han sido reemplazados en gran medida por el vídeo digital o formato DV. Un gran número de fabricantes desarrollaron el sistema DVCPRO, y DVCPRO 50 con dos canales digitales adicionales, y el DVCPRO HD, de alta calidad. Hoy en día el formato de video para uso cinematográfico más extendido y utilizado en todos los países, es el formato DCP (Digital Cinema Package) con calidad 2K y 4K a 24 y 48 FPS. Puede tener diferentes “capas” con subtítulos en varios idiomas, múltiples audios y es compatible con diferentes formatos de imagen como el “Flat, Full y Scope”. El formato de audio utilizado no utiliza ni codificación ni compresión alguna. �30 14.8 Innovación sonora A lo largo de los años, también el apartado del sonido, ha sufrido un gran cambio, tanto a nivel de procedimientos como de nuevas tecnologías. Hasta el año 1975, el formato estándar de sonido en cualquier producción era el monoaural, pero a partir de ése año, la empresa inglesa DOLBY introduce el sistema Dolby Estéreo . Dicho formato 191 original, de dos canales de reproducción de sonido, usaba además la tecnología reductora de ruido "Dolby A" para aminorar los problemas asociados a las bandas sonoras 192 ópticas, es decir el excesivo ruido de fondo. Más adelante la propia empresa Dolby introdujo otros patrones de eliminación de ruido como es el Dolby B y C a la propia copia fotográfica. Pero realmente el gran cambio se dará con la creación y aparición de dos formatos más de sonido, que sin duda no solo darán mucho que hablar, sino siguen representando los estándares de trabajo para las producciones audiovisuales hoy en día en todo el mundo. Estoy hablando del formato DOLBY SR y DOLBY SRD. El primero utiliza básicamente grabaciones de 4 pistas de sonido (localizadas en la posición izquierda, centro, y derecha de pantalla, más una sola pista ambiente para la zona de butacas). Posteriormente su mezcla se codifica mediante una matriz convirtiéndola en dos pistas conocidas como LT (left total) y RT (right total); una para la izquierda y otra para la derecha, a las cuales se derivan la pista del centro y la de ambiente. La primera película con una banda sonora óptica Dolby estéreo fue Lisztomania (1975) y Fantasia de la 191 factoría Disney. HUIDOBRO, JOSÉ MANUEL. Fundamentos de telecomunicaciones, Ed. Paraninfo, Madrid, 2001. El 192 autor comenta que la reducción de ruido es fundamental si se quiere mejorar la relación señal-ruido y por consiguiente la calidad del mismo. Es un sistema que sirve para eliminar frecuencias indeseadas en un ancho de banda muy concreto y prolongadas en el tiempo. http://es.wikipedia.org/wiki/Lisztomania �30 Estos dos canales se imprimen ópticamente en los bordes del fotográfico y son descodificados mediante una matriz Dolby durante su reproducción. De ésta manera, se volverán a crear esas mismas 4 pistas de sonido, que apuntarán a los correspondientes monitores de sonido de la sala cinematográfica. Cuando ocurra algún error en la lectura o descodificación de la matriz Dolby SR, un sistema de reproducción de seguridad, saltará automáticamente, ya que el sonido se empezará a reproducir en formato Estéreo de 2 canales. Este tipo de banda sonora se conoce como SVA o área de estéreo variable. De esta manera el público no dejará de escuchar la película, aunque la calidad en numero de pistas a reproducir se verá afectada enormemente. Esta grabación de sonido en formato SR (spectral recording) conlleva una mejora sustancial en la calidad del sonido, es decir en el rango dinámico de las grabaciones y transmisiones analógicas de hasta 25 Db, y a demás una mejora en el sistema de reducción de ruido de fondo de la cinta. Más adelante exploraremos con detenimiento estos formatos, y otros más que surgieron con el paso de los años y que siguen plenamente vigentes hoy en día. Si hablamos de innovaciones a nivel sonoro en otros sectores profesionales como el musical comercial no podríamos olvidarnos del formato de grabación en CD compact- disc, creado y desarrollado por la empresa Sony en 1980. Este formato permite reproducir sonido con calidad profesional en formato digital PCM a 16 Bits y 44.100 Hz de frecuencia de muestreo. Además años más tarde, en 1986 Sony lanza al mercado el formato de grabación DAT (Digital Audio Tape) como el formato de grabación estándar, que pronto 193 reemplazó a la cinta analógica de una pulgada, que ha sido utilizado tanto en estudios de grabación como en grabación cinematográfica. RUMSEY F. and T. Mc Cornick. Sound and Recording. Focal Press. Oxford 1995: los autores comentan 193 que el sistema digital audio tape (DAT) fue empleado en cine trabajando con una calidad de 48000Hz y 16 Bits de resolución. �30 Si hablamos en cambio, de las mezclas de sonido que se realizaban en salas profesionales para producciones cinematográficas, podemos señalar que también aparecieron cambios y mejoras sustanciales en los procesos y técnicas empleados. Así, a mediados de los años 80, las técnicas de mezcla se vieron significativamente mejoradas, con la aparición de la automatización de los faders, o de los controles de volumen de 194 las pistas, también llamados "flying faders". La automatización supuso que los movimientos de los faders se podían memorizar y se podían volver a reproducir automáticamente en una siguiente ocasión, permitiendo así enriquecer la mezcla final, y lograr sofisticadas ediciones y cambios sonoros en el producto final. Además este nuevo sistema de trabajo, permitía que un solo técnico pudiese realizar complejas mezclas de sonido multicanal, allí donde antes se necesitaba a más de un asistente para apoyar la labor. 14.9 Plataforma de trabajo de audio digital (DAW) Sin duda, una de las revoluciones más importantes a nivel sonoro, fue la entrada de la informática en los procesos de postproducción de audio para cine. A finales de los 80, aparecieron en el mercado sistemas especiales para editar audio. Estas plataformas de trabajo denominadas genéricamente DAW (digital audio workstation) estaban 195 STRATMAN, Eric. “Automated Conforming Using Change Note Assistant.” The Motion Picture Editors 194 Guild Magazine 24(6), November/December 2003.: La automatización permite realizar cambios de nivel y posición a tiempo real. Mientras reproducimos el audio lo podemos ir modificando, con la seguridad de que éstas modificaciones quedarán grabadas y memorizadas. Sinónimo de Digital Audio WorkStation195 �30 basadas en la utilización de ordenadores y de programas informáticos muy sofisticados, que permitían trabajar y manipular físicamente un gran numero de pistas de sonido. Entre los primeros modelos basados en procesador informático podemos recordar el Synclavier o el Audiofile. Estos equipos que eran extraordinariamente caros, permitían manipular el audio que se grababa digitalmente en un disco duro interno, y manipular así con un programa de edición de sonido incorporado al propio aparato, entre 8 y 16 pistas de audio. Pensemos que en aquellos años los equipos digitales DAW de edición de sonido funcionaron paralelamente a los analógicos con la moviola cinematográfica de toda la vida. Había también un cierto recelo hacia aquellos nuevos técnicos que se habían formado en el manejo de esta nueva tecnología informática, frente a los montadores por así decirlo de la vieja escuela, que en ocasiones no veían con buenos ojos la adopción y entrada de estos nuevos profesionales en el sector, como también el uso de la tecnología informática en la edición de sonido para cine. En los años 90, los nuevos equipos digitales ganaron la batalla definitivamente a la moviola tradicional, convirtiéndose en un aliado fundamental para el propio profesional del sonido tanto a nivel de la edición cinematográfica como en el sector musical, televisivo o audiovisual en general. Uno de los equipos que se desmarcó de sus competidores y que se impuso sobre el resto por innovación y potencia informática, fue sin duda el sistema de edición bajo plataforma PC y MAC denominado Pro Tools . 196 La empresa responsable de la creación de este potente y sofisticado equipo de sonido se llamaba Digidesign, de origen americano, que supo entender las necesidades del montador de sonido e incorporar en su sistema y software de edición todos los procesos que el técnico necesitaba para la realización de su trabajo, y además RUMSEY F. and T. Mc Cornick. Sound and Recording. Focal Press. Oxford 1995. La estación digital de 196 audio Protools, hoy en día considerada un referente en todos los estudios del mundo, trabaja bajo procesador externo, que recibe el nombre de DSP basado en tarjeta PCIe para plataformas PC y Mac. �30 implementarlo de tal manera que trabajar con este software no solo permitía obtener unos resultados espectaculares, sino también un ahorro en costes de tiempo y material muy significativo. Más adelante volveremos a hablar de esta potente herramienta que se ha convertido en el único standard que existe hoy en día en el sector profesional tanto free- lance como a nivel de grandes estudios de postproduccion y que ha logrado colocarse a los largo de estos años como el programa más valorado por la profesión, y que ha recibido más galardones por su excelencia e innovación tecnológica. Los problemas que los sistemas analógicos acarreaban en cuanto a la pérdida generacional y el ruido fueron, por fin, minimizados gracias a estas nuevas plataformas digitales. El devenir y desarrollo incesante de la informática también ha permitido que la evolución y mejora de estos nuevos equipos haya sido exponencial, llegando hoy en día a poder mostrar y ofrecer toda una serie de herramientas y paletas informáticas de edición absolutamente increíbles. Por citar solo algunos ejemplos de otras estaciones de edición que aparecieron en aquellos años, hablaremos de los equipos de AMS, los sistemas Fairlight, Akai, SSL, Audiofile, Soundstation, Audiovisíon, Sadie entre otros. Al caer el coste del espacio del disco e incrementar la velocidad de procesado, los fabricantes comenzaron a ofrecer sistemas que podían reproducir un mayor número de pistas y almacenar una mayor cantidad de audio. Para entender mejor el salto de calidad que el desarrollo de la tecnología provocó en el mundo profesional, y en especial el uso del sonido en el cine, es sin duda necesario profundizar en el concepto de sonido digital, y además en los siguientes capítulos que tienen que ver mucho con la explicación del mundo sonoro en general y su procesamiento a nivel cognitivo, elementos todos que sin duda vamos a manipular para aplicarlos directamente al sector audiovisual cinematográfico. De esta forma es conveniente conocer temas tan importantes como: �30 1) El Audio digital 2) Física del sonido 3) Anatomia del oído y percepción sonora 4) Cualidades del Sonido
 �30 15. Audio Digital El sonido digital es una tecnología basada en procesos informáticos, y utilizada en la vanguardia de muchas áreas artísticas y profesionales del sector audiovisual. La era digital apenas tiene 30 años y ya ha recorrido un largo camino y cosechado amplios logros profesionales, convirtiéndose en un conocimiento obligatorio para todo aquel técnico que se precie. En este sentido, el audio digital (el software y equipo de edición) ha pasado de ser una tecnología cara y disponible solo para unos pocos profesionales del sector, a convertirse hoy en día en una autentica fuerza impulsora en la producción de audio, el entretenimiento y la comunicación. De hecho, en nuestra sociedad actual, el audio digital y los medios empleados en los canales de distribución, tienen un enorme impacto en nuestras vidas. Vivimos en la era de la información. Hoy en día los múltiples canales de comunicación, cine, televisión, internet etc tienen como principal protagonista a la imagen y al sonido. La digitalización del sonido, es un proceso clave, para el procesamiento de la señal, pues de él dependerá la calidad y bondad de nuestro fichero final. Éste proceso puramente informático, tiene como centro, la transformación de ondas sonoras, es decir, de vibraciones, en valores discretos numéricos, datos binarios que representarán la forma de onda original. Estos datos binarios se pueden entender de varias formas, pero en definitiva responden a conceptos tan sencillos como: �31 0 (cero) o 1 (uno) On / Off. Voltaje o No Voltaje. Flujo magnético o ningún flujo. De éste modo, después de que la información se ha grabado, se ha procesado y finalmente almacenado en soporte informático, el proceso se puede revertir, es decir, podemos, convertir esos mismos datos binarios otra vez en ondas sonoras analógicas. Pero será conveniente para poder entender a que nivel de calidad y sofisticación se ha llegado hoy en día en el sonido y cómo esto ha impactado en las producciones cinematográficas, analizar con detenimiento los principios y los métodos de trabajo del audio DIGITAL. No olvidemos que también la técnica ha influido en la forma en que el director decide llegar al público, y mostrar su obra desde el punto de vista del sonido, objeto de esta tesis. �31 15.1 Principios básicos 15.1.1 Conversión analógico-digital A principios de los años 70 aparece un nuevo método para grabar el sonido. Hablamos de la grabación digital . En esta operación entra a formar parte, los procesos 197 informáticos ya que consiste en transformar la señal analógica, la forma de onda de la voz por ejemplo, en impulsos eléctricos que se codifican y quedan grabados en una cinta, cd, dvd, etc.. Este formato de grabación se le conoce técnicamente hablando como formato PMC o PCM (modulación de código de pulso). Para realizar este proceso, se utilizan lo 198 que se denominan conversores analógicos-digitales y conversores digitales-analógicos (abreviados como conversores A/D o ADC). La técnica de la conversión ha sido uno de los grandes descubrimientos del siglo pasado, que ha permitido marcar un antes y un después en el área no solo de las comunicaciones (audio y vídeo), sino que la propia revolución digital en general, ha impactado también en casi todos los sectores profesionales de nuestra sociedad. Cuando hablamos de información digital, hablamos de códigos binarios (dígito binario) , cuyo estado se representa tradicionalmente como "1" 199 LIPSHITZ, S., Pocock, M., and Vanderkooy, J. On the Audibility of Midrange Phase Distortion in Audio 197 Systems. J. Audio Eng. Soc., 30, 1982 La grabación digital, incrementa la dinámica, reduce el ruido y la distorsión. RUMSEY F. and T. Mc Cornick. Sound and Recording. Focal Press. Oxford 1995. Este formato 198 denominado PCM o Pulse Code Modulation tiene mayor calidad que cualquier otro formato conocido hasta el momento. No hay compresión de sonido ni perdida de frecuencias. Hoy en día es el formato profesional por excelencia. El bit es una unidad de medida en informática basado en las dos posibles opciones de voltaje eléctrico 1 199 (paso de corriente) y 0 (ningún paso de corriente). �31 y "0", o como voltajes eléctricos, ya que la conversión analógico-digital trata precisamente de eso, de traducir información eléctrica a código binario informativo. La información digital, es susceptible de ser grabada en distintos tipos de soporte, como son por ejemplo el CD, el DVD, el disco duro, un pen-drive, etc. Lo importante para que la reproducción de este sonido sea lo más fiel al original es que se mantengan los ajustes fundamentales con los que se convirtió dicho sonido de analógico a impresión digital y que veremos más adelante. Podríamos enumerar algunas de las ventajas de la utilización de la tecnología digital en la grabación y reproducción del sonido: 1) La grabación digital es sinónimo de calidad, ya que aumenta el margen dinámico del audio, por consiguiente tiene mayor fuerza y presencia, y además disminuimos el ruido o distorsión de la inherente en la propia grabación. 2) La grabación digital conlleva un bajo nivel de distorsión, pero sólo en el caso de que respetemos el margen dinámico permitido de 0Db durante el proceso de grabación (conversión analogico-digital) del sonido. En caso contrario los efectos pueden ser muy negativos y perniciosos, pues introduciremos un nivel de distorsión tan alto en la señal, que no podremos trabajar con el fichero resultante debido a los errores y distorsiones severos que se producirán durante la conversión del mismo. 3) La mayor ventaja del audio digital en comparación con el analógico es que con el audio digital se pueden realizar infinitas copias tantas veces como se quiera sin provocar ninguna degradación de calidad en el material transferido. Es precisamente este concepto el que resulta tremendamente atractivo y positivo cuando utilizamos procesos digitales en el campo de la postproducción de sonido ya se para cine, música, etc. �31 4) Existen dos características principales del sonido: Frecuencia (la componente de tiempo). Amplitud (la dinámica de la señal). Es decir, el audio digital se puede analizar desde dos componentes que responden a las características principales del sonido citadas anteriormente: Muestreo (que representa la componente del tiempo). Cuantización (que representa la componente de la dinámica de la señal). A continuación vamos a pasar a estudiar cuales son los pasos y factores que intervienen en las cuatro etapas básicas dentro del proceso de conversión de la señal analógica al formato digital : El filtro antialiasing (pasabajos). Muestreo (sampling) .200 Cuantización (quantizing) Codificación (coding). RUSS, M. Sound Sinthesys and Sampling. Focal Press. Oxford 1996. El autor explica como la calidad del 200 sonido depende de la frecuencia de muestreo y de la profundidad de bits a la que se haya trabajado. La calidad mínima exigida al sonido profesional corresponde a las 144.100 oscilaciones por segundo. A partir de aquí podemos llegar hasta los 192.000 hercios que se pueden utilizar hoy en día. �31 15.1.2 Filtro pasa-bajos o antialiasing Este primer proceso, es de vital importancia, ya que nos permitirá eliminar ruido y distorsión, desde antes de que se produzca la conversión digital de la señal. Pensemos por un instante, que en el proceso de conversión, la señal de entrada puede contener frecuencias muy altas, es decir, estamos hablando de frecuencias que se encuentran por encima del margen audible humano. Recordemos que dicho margen va desde los 20 Hz hasta los 20 Khz, y que todo lo que evoluciona por debajo o por arriba de este margen lo podemos denominar como ruido o distorsión sonora. Son estas mismas frecuencias, las responsables de añadir un ruido considerable a la propia señal, aunque se encuentre en esa zona de frecuencia no audible directamente por el hombre. Para conseguir una buena conversión digital de la señal entrante y eliminar cualquier rastro de distorsión en altas frecuencias, el sonido tiene que pasar por un filtro denominado pasabajos . Dicho filtro funciona como una compuerta dinámica que corta 201 todas las vibraciones sonoras que se encuentran por encima de un determinado valor, y por el contrario deja pasar aquellas que caen dentro del rango deseado. Esta etapa (antialiasing) elimina las altas frecuencias no deseadas antes del muestreo, y por lo 202 tanto, antes de cualquier proceso. RUMSEY F. and T. Mc Cornick. Sound and Recording. Focal Press. Oxford 1995. Los autores nos 201 informan de que este tipo de filtro, se utiliza para eliminar determinadas frecuencias no deseadas así como interferencias digitales de la señal. KATZ, B. Mastering Audio: The Art and the Science, Focal Press, Oxford. 2002 El propio autor nos viene 202 a decir algo muy importante: en todo proceso de limpieza de “ruido” de un archivo sonoro, ningún resultado es perfecto. Toda etapa de reducción de ruido, conlleva en cierta manera la eliminación de parte de la señal real. �31 Por esto, en el proceso de conversión analógico-digital, se suele aplicar la siguiente ley: el teorema de muestre o de Nyquist 15.1.3 EL Teorema de muestreo o NYQUIST En el mundo físico, cuando grabamos un sonido sobre un soporte analógico, cinta magnética por ejemplo, la forma de la señal tiene que ser idéntica a la original o al menos eso se pretende, para que el proceso tenga una calidad profesional, y para que la relación señal-ruido no introduzca más distorsión en el proceso. En la grabación digital, hablamos de un proceso de muestreo, que implica que se graban muestras sonoras, medidas en voltajes eléctricos de la señal original siguiendo unos intervalos de tiempo determinados. El ritmo de los intervalos fijados para las muestras de la señal original la llamaremos frecuencia de muestreo. Hace bastantes años se determinó que si la mayor frecuencia de una señal tuviera que ser sucesivamente codificada, debería hacerse con una frecuencia de muestreo de por lo menos el doble de su frecuencia. Esta conclusión fue desarrollada por muchos Curva sinusoidal �31 ingenieros y matemáticos como Harry Nyquist de los Laboratorios Bell, Shannon, Cauchy y muchos otros. En honor a este descubrimiento, a la frecuencia de muestreo se la ha llamado frecuencia de Nyquist .203 Este teorema nos dice que una señal continua en el tiempo (la misma que obtendríamos si dibujáramos con un lápiz una linea sobre un papel) y de frecuencia máxima (numero de vibraciones o ciclos por segundo) conocida, puede ser reemplazada por una señal mensurable y discreta de muestras (muestreo de la señal) sin que se produzca ninguna pérdida de información. Si seguimos la regla de Nyquist podemos recuperar la señal analógica original, realizando el procedimiento inverso de descodificar la información, con la ventaja de que no habremos perdido calidad, ya que podremos reconstruir el sonido original a partir de las muestras. De acuerdo con el teorema de Nyquist, si pretendemos que toda la codificación del sonido original, de analógico a digital tenga calidad y precisión, la frecuencia de muestreo con la que trabajemos, debe ser igual o por lo menos el doble de la frecuencia más alta que se va a grabar. Como ejemplo podríamos decir que una señal de audio con una frecuencia de 20 kHz requeriría, siguiendo éste mismo teorema, que la frecuencia de muestreo sea al menos de 40 kHz muestras/segundo, es decir, el doble de la original. De lo contrario, si trabajamos con frecuencias que son mayores de la mitad de la frecuencia de muestreo seleccionada, habremos añadido ruido y distorsión a nuestra grabación o conversión digital, ya que éste error se añadirá a aquellas frecuencias audibles, introduciendo ruido en la señal, mucho antes de que el proceso de digitalización haya comenzado, lo que sería percibido como distorsión armónica . Cuando creamos o 204 La teoría de NIquyst contempla la frecuencia mínima fundamental de conversión de sonido, necesaria 203 para eliminar cualquier tipo de error en el proceso inverso de descodificación y poder así reconstruir el espectro sonoro original sin distorsión. FRYER, P.A.”Intermodulation Distortion Listening Tests,” J. Audio Eng. Soc. (abstracts), 23, 1975: Son 204 señales mayores de la mitad de la frecuencia principal de muestreo. Si aparecen acompañando al resto de la señal serán percibidas como frecuencias “erróneas” a las que denominaremos como distorsión armónica. �31 marcamos un filtro antialising, lo tenemos que hacer con mucho cuidado y atención, ya que requiere que el corte de frecuencias (brickwalling) no sea muy abrupto, para no afectar aquellas otras que llevan información importante de la señal a muestrear. Teóricamente, si construyéramos un filtro ideal, éste dejaría pasar todas las frecuencias hasta la frecuencia de corte Nyquist y ademas tendría una atenuación infinita por encima de este punto. Sin embargo, en el mundo real, analógico, este filtro "brickwalling" no existe. Por esta razón, se debe elegir una frecuencia de muestreo ligeramente mayor para justificar una pendiente de atenuación donde el filtro sea eficaz. 15.1.4 Muestreo (SAMPLING) Por sonido analógico, entendemos aquellas señales que se graban en soporte físico (cinta abierta) y cuyo proceso de captación tiene que ver con el voltaje de señal, que el micrófono o el dispositivo capta de los cambios en dinámica a lo largo del tiempo. De esta forma es almacenado y después reproducido como una única señal, sin cortes ni bloques, sino como un continuo sonoro. Una onda analógica en el mundo real es entonces por así decirlo continua por naturaleza. Cuando por el contrario hablamos del proceso de grabación digital, éste no acontece de forma continua como sucede con la grabación analógica, sino que funciona de una manera discreta; más bien, la grabación digital toma muestras periódicas, y lo hace de una forma de onda de audio que cambia segundo a segundo. �31 Se captan muestras que se transformarán en información binarias que posteriormente se podrán manipular o almacenar para procesarlas o reproducirlas más tarde. De modo que una señal digital utiliza el muestreo periódico para codificar la información. Cuando hablamos de grabaciones digitales, debemos de tener en cuenta que es muy importante el numero de muestras que fijaremos de entrada para la correcta conversión de la fuente original de sonido. Tendremos en cuenta entonces también la convención de que la frecuencia de muestreo debe superar al menos los 40 kHz. Los CDs de audio por ejemplo, tienen una frecuencia de muestreo de 44.1 kHz. Escogemos entonces el margen mínimo de calidad profesional de muestreo de 44,1 kHz para codificar con precisión un ancho de banda audible hasta los 20 kHz, que es realmente lo que es capaz el hombre de percibir. Dichas muestras se deben captar respetando unos intervalos precisos y �31 regulares de tiempo, controlados por un reloj de cristal de cuarzo exacto, que será el encargado de analizar y corregir la precisión de las medidas. Además es muy importante tener en cuenta cómo podemos incrementar la calidad de nuestras grabaciones. Para ello solo tendremos que aumentar la frecuencia de muestreo que vayamos a emplear para realizar las mediciones a intervalos exactos de tiempo. Al aumentar la calidad del sonido, como resultado del aumento de su tasa de muestreo, también aumentará el tamaño del fichero y por consiguiente el espacio que ocupará en el disco duro o memoria donde vayamos a almacenar nuestra grabación. Longitud de onda Soportes diferentes de grabación �32 Cuando se elige una frecuencia de muestreo para un proyecto, es necesario 205 tener en cuenta el soporte final donde lo vayamos a grabar así como el ámbito artístico final. Por ejemplo, para el sector musical, utilizamos el estándar de CD, 44.1 kHz. No obstante, para vídeo, la frecuencia de muestreo estándar de audio es de 48 kHz. La calidad del sonido se ve afectada por la frecuencia de muestreo. Cuanto mayor es la frecuencia, mayor es la calidad. También podemos decir que cuando el audio llega a un determinado nivel de calidad (96 Khz) resulta realmente muy difícil de apreciar la diferencia en frecuencias superiores a la anteriormente descrita. Hoy en día se trabaja bajo unos estándares que están representados en la siguiente escala: 32 kHz. 44,054 kHz. 44,1 kHz 48 kHz. 96 KHz 192 KHz. Si hablamos de radio, la frecuencia de muestreo internacionalmente usada en el audio es la de 32 KHz, debido al máximo ancho de banda en la transmisión que es de 15 kHz. Ahora veamos más en profundidad que es lo que acontece durante el proceso de muestreo o comúnmente llamado “samplig”. Dentro de una plataforma de audio digital, la frecuencia de muestreo se define como las medidas (muestras) que se toman de una señal analógica continua en un espacio de tiempo determinado. Por otro lado, el periodo VIDALES, L, Peñafiel Saiz. La tecnología en radio: Principios básicos, desarrollo y revolución digital, 205 Editorial Universidad del País Vasco, Bilbao, 2000 La frecuencia de muestreo representa un numero determinado de “samples” o mediciones de la señal de entrada que se realiza durante el proceso de conversión analógico-digital de la señal. Su representación, generalmente se expresa en hercios (Hz) o múltiplos suyos, (kHz), aunque se pueden utilizar otras magnitudes. http://es.wikipedia.org/wiki/hercio �32 es el tiempo transcurrido entre la captación de cada muestra. Por ejemplo, una frecuencia de muestreo de 96 kHz corresponde a un periodo de 1/96,000 de un segundo. Tenemos que tener presente que en la conversión analógico-digital, el factor tiempo es muy importante ya que a mayores tasas de frecuencia por unidad de tiempo, obtendremos mayor calidad de sonido. Durante la fase de muestreo, una señal analógica de entrada es analizada a intervalos discretos y calculados de forma precisa (determinados por la frecuencia de muestreo). Estos son los procesos que acontecen durante la fase de muestreo o de frecuencia de muestreo sampling de un determinado sonido: (a) La señal analógica es "bloqueada" momentáneamente (congelada en el tiempo), mientras que el convertidor analiza el nivel de voltaje eléctrico de la muestra en ese punto para así convertir ese nivel posteriormente en una dato binario codificado. Es un proceso que esta ligado al análisis de la señal entrante en relación a la unidad de tiempo empleado. Conseguimos así fragmentar la señal eléctrica de entrada en miles Digitalización onda sonora �32 de muestras que descomponen el audio original y lo hacen reverenciando este proceso a una escala de medición temporal. (b) Después de que el convertidor ha analizado y almacenado la señal se repite el proceso para la siguiente muestra entrante, dándose lugar otra vez al análisis de la señal eléctrica y su posterior codificación binaria. Esta fase se repite a gran velocidad y de forma ininterrumpida. 15.1.5 Sobre-muestreo (Oversampling) Es otra técnica empleada en la industria profesional del sonido y tiene como finalidad. reducir mucho la intermodulación (“aliasing”) y otras tipos de errores o distorsión en la señal grabada. Cuando utilizamos la técnica del oversampling, la frecuencia de muestreo efectiva se multiplica por un factor que va de 12 hasta 128 veces la velocidad original. El aumento significativo de la a frecuencia de muestreo se lleva a cabo interpolando los puntos muestreados entre los tiempos de muestra original. Para eliminar errores y distorsiones se utilizará un filtro paso bajo analógico con una modulación más suave desarrollándose desde los 20 KHz hasta los 44,1 KHz. Después del proceso de conversión, el filtro paso bajo digital corta todas las frecuencias por encima de los 20 KHz eliminando así cualquier problema de aliasing. Finalmente, la frecuencia de muestreo es reducida simplemente eliminando una muestra de cada dos. Si el sobremuestreo hubiera sido 8x, se quitarían 7 muestras de cada 8. Si tenemos que hablar de las ventajas inherentes a la técnica del �32 sobremuestreo, podemos decir que el ruido en la banda de audio (de 20 a 20 KHz) se reducirá 3 dB por cada vez que se doble la frecuencia de sobremuestreo. Por otra parte todos sabemos que los filtros pasabajos eliminan mejor los ruidos o problemas por el efecto aliasing . El filtro paso bajo analógico tiene una respuesta plana y no distorsiona 206 la fase. La imagen estereofónica y el dithering (ruido de cuantificación) se mejoran con 207 frecuencias de muestreo superiores. 15.1.6 Cuantización Si la fase de muestreo representa el tiempo o momento de la medición, el de la cuantización representa el valor de la medición o, en el caso del audio, el valor binario que va atener la amplitud de la forma de onda en el momento de la captación de la muestra. El muestreo y la cuantización son las variables que determinan la calidad del sonido tanto KATZ, B. Mastering Audio: The Art and the Science, Focal Press, Oxford. 2002: el autor nos comenta 206 como una correcta cuantización y proceso de conversión analogico-digital es esencial para la obtención de una calidad suficiente del material profesional. VERMEULEN, R. “Estéreo Reverberation,” IRE Transactions on Audio, pp. 98–105, July–August. 1956207 El efecto de reverberación sobre canales estéreo de sonido, mejora la lateralización del sonido, así como la creación de fuentes imaginarias y planos sonoros independientes. �32 en su espectro completo de audición como en la calidad de ésta. El método de cuantización implica que el valor eléctrico de la señal de entrada que ha sido 208 almacenada, se convertirá por medio de éste proceso, en un valor mensurable y discreto que recibe el nombre de "nivel de cuantización". La cuantización es por tanto la técnica empleada para capturar un evento de audio analógico y convertirlo en un valor numérico binario. Necesitamos transformar la muestra o sampler de sonido en un valor discreto y para eso, el sistema analiza el voltaje eléctrico de la señal, y lanza un proceso de “cuantización” o representación de la señal analógica en información digital, es decir en ceros y unos, a través de diferentes formatos o modos de medición que veremos más adelante (bits). Si tenemos la señal de audio continua convertida en información binaria, el proceso resulta perfecto, ya que a partir de este momento, el audio podrá ser manipulado con toda libertad a través de cualquiera de los programas que existen en el mercado de edición de sonido, como por ejemplo Protools. Cuando una señal de audio es muestreada, cuantizada y almacenada en un sistema de edición de sonido, lo que jamás se podrá hacer es incluir en el mismo proyecto de trabajo muestras de sonido a una frecuencia diferente y un nivel de cuantización también distinto. Es decir no podemos mezclar sonidos convertidos a diferentes niveles de RUMSEY F. and T. Mc Cornick. Sound and Recording. Focal Press. Oxford 1995: la cuantización es un 208 proceso fundamental y critico a la hora de convertir un archivo de audio de onda continua analógica a archivo digital binario. Un error en este proceso conlleva distorsión y ruido en el archivo resultante. Valor de cuantización �32 muestreo en un mismo trabajo, ya que los codificadores/decodificadores digitales solo pueden trabajar bajo un solo formato determinado a la vez. 15.1.7 Precisión de cuantización El proceso de conversión analógico-digital tiene una fase importante y crítica que puede significar la calidad final de la señal tratada. Dicha señal como hemos visto es cuantizada, pero dicha cuantización pasa por diferentes bits o niveles de calidad. Es decir como vemos en la figura inferior, es la forma en la que traducimos el audio de entrada (linea verde) a codificación digital (linea roja) a través de un proceso de cuantización en bits. El ejemplo que tenemos a continuación permite ver claramente como a mayor numero de bits de cuantización la figura binaria se va ajustando cada vez mas a la forma de onda Niveles de cuantización en bits �32 original, que es el objetivo perseguido para una correcta conversión digital de la señal. Por lo tanto, a mayor número de niveles de cuantización, más fiel será la representación de la señal analógica. Así, la resolución empleada en la conversión, marcará sin duda, la diferencia y calidad en todo proceso de digitalización, obteniendo un sonido de calidad PCM . Por un 209 lado trabajamos con el concepto de resolución y por otro con el de muestreo, es decir con tiempo (muestreo ) y con el nivel (cuantización) como escalones discretos y 210 cuantificables. Cuanto mayor es la resolución, mayor el numero de escalones, como vemos en la figura, y aunque estos sean pequeños añaden un componente "cuadrado" a una forma de onda, ya que no olvidemos que la información en bits responde solo a dos valores discretos 0 y 1 Bits211 En un sistema binario, la cantidad de cifras expresada como un número binario se denomina "longitud de la palabra" o "palabra digital". La palabra digital determina el 212 número de intervalos de cuantización disponibles. Cada "bit" indica dos niveles de cuantización. Como ejemplo, podríamos resumir el numero posible de combinaciones que tendríamos para un proceso de cuantización de dos bits. RUMSEY, F. MIDI Systems and Control, Focal Press, Oxford. 1994. Es un formato de audio sin 209 compresión, que contiene sus propio formato de corrección de errores. LYVER, D., Principios básicos del sonido para video, Ed. Gedisa, Barcelona, 2000: el autor viene a 210 expresar que el muestreo digital se basa en el teorema de muestreo. Es una parte del proceso de digitalización de señales. Consiste en registrar muestras de señales analógicas a una frecuencia o tasa de muestreo constante, para cuantificarlas después. Se usa para digitalizar señales y codificar audio en formato digital. MIRANDA, E. R. (1995b). An artificial intelligence approach to sound design, Computer Music Journal, 211 19, 2, pp. 59–75: la idea que lanza Miranda, es que la profundidad de bits, se refiere a la calidad “resolución” del tamaño de la muestra analizada Representa la calidad en relación con la cantidad de información del sonido original. La profundidad de Bits, determina también el rango dinámico de la señal de audio, es decir determina el máximo y mínimo de “decibelios” que una señal puede tener al capturarse. PALOMO, Miguel. Autor-editor. El estudio de grabación personal. Madrid 2002.: Cuando hablamos de 212 palabra digital, hablamos de un grupo de 16 bits, donde el bit 0 es el bit de más bajo orden y el bit 16 es el de más alto orden. http://es.wikipedia.org/wiki/muestra_(se%C3%B1al) http://es.wikipedia.org/wiki/se%C3%B1al_anal%C3%B3gica http://es.wikipedia.org/wiki/frecuencia http://es.wikipedia.org/wiki/cuantificaci%C3%B3n_digital �32 Si tenemos una palabra de dos bits entonces podemos tener la siguiente combinación de valores: 00, 01, 10, el 11. Esto sería la forma correcta de representar los niveles de cuantizacion posibles en la conversión de una señal. Para una palabra de tres bits se pueden cuantizar los siguientes niveles: 000, 001, 010, 011, 100, 101, 110 y el 111. Hablamos entonces de resolución de un sonido, que es si duda el factor clave que será el responsable de la calidad del sonido convertido a formato digital. En la práctica el límite de la resolución está impuesto por la calidad del aparato convertidor analógico-digital. Actualmente, la longitud más frecuente de palabra binaria para audio profesional es la de 24 bits. Sin embargó, los sistemas profesionales también pueden trabajar a más baja resolución, 16 bits, aunque no tiene mucho sentido, ya que la calidad que representa la resolución a 24 bits es mucho mayor en comparación con cualquiera inferior. Además los ordenadores y equipos informáticos responsables de realizar esta operación a una gran velocidad trabajan ya sobre procesadores a 64 bits, lo que optimiza y agiliza esta fase de la conversión. Por eso, trabajar a una mayor resolución, implica una mayor relación señal-ruido, y de este modo se minimiza los errores o distorsiones de información dentro del procesamiento de señal digital (DSP ).213 Podemos concluir que resoluciones mayores en conversión de bits, normalmente se traducen en una mayor calidad resultante, debido a la variedad añadida de pasos finitos en los que una señal puede ser codificada de manera digital. Cuando estudiamos el concepto de conversión digital de la señal, el objetivo que debemos de buscar es el de obtener la máxima calidad en el producto final, pero tenemos que ser claros y asertivos en afirmar que desgraciadamente la digitalización del audio, por NAKAYAMA, T., Miura, T., Kosaka, O., Okamoto, M., and Shiga, T. Subjective Assessment of 213 Multichannel Reproduction.” J. Audio Eng. Soc., 19, pp. 744–751. 1971.: Dsp o procesamiento de señal digital es la manipulación matemática de la señal de información para modificarla o mejorarla. Este proceso se caracteriza por la representación en el dominio del tiempo discreto, en el dominio frecuencia discreta, u otro dominio discreto de señales por medio de una secuencia de números o símbolos y el procesado de esas señales. http://es.wikipedia.org/wiki/dominio_del_tiempo http://es.wikipedia.org/wiki/dominio_de_la_frecuencia �32 muy alta que sea la resolución (numero de bits) utilizada, nunca se acercará a igualar la onda continua analógica. Esto sucede porque una onda continua contiene un infinito numero de valores diferentes, mientras que un codificador, solo un numero finito de resolución o intervalos de digitalización. Es decir, aunque las señales analógicas son de carácter continuo, el proceso de 214 cuantificar una señal en una palabra digital equivalente no lo es. Como el número de pasos discretos que pueden ser codificados dentro de las palabras digitales limitan la 215 precisión del proceso de cuantificación, la palabra digital representativa sólo puede ser una aproximación del nivel de señal analógica original. Al cuantizar las señales analógicas en números binarios discretos (voltajes), se produce un ruido llamado ruido de cuantización y este indice de error 216 depende de la calidad del aparato digital de audio responsable de la conversión. Para obtener el valor dinámico de la señal digitalizada final, relacionando los diferentes errores generados en los diferentes procesos de cuantización (bits), podemos basarnos en el siguiente esquema: palabra de 8 bits = 49,8 dB palabra de 16 bits = 97,8dB palabra de 20 bits 121,8dB palabra de 24 bits = 145,8 dB LARRIBA, M.A., Sonorización, Ñaque Editora, Ciudad Real, 2000.: el autor viene a decir que una señal 214 analógica, conlleva una determinada duración a lo largo del tiempo, es decir es continuo, medible a través de dos valores fundamentales, el volumen y el numero de vibraciones que produce por segundo. OLIVE, S.E., and Martens, W.L. “Interaction Between Loudspeakers and Room Acoustics Influences 215 Loudspeaker Preferences in Multichannel Audio Reproduction,” 123rd Convention, Audio Eng. Soc., Preprint 7196. 2007: Es la relación de valores binarios, por los que se representa una frecuencia en bits. Así debe ser siempre en numeración par. Ejemplo (8, 16, 24 bits). RUMSEY F. and T. Mc Cornick. Sound and Recording. Focal Press. Oxford 1995: como resumen el 216 autor informa que en en el proceso de conversión analógico-digital, se pueden producir errores en la medición que añaden lo que se denomina ruido digital al fichero. Esto depende de la calidad en profundidad de BITS con la que deseemos trabajar. Cuanto menos Bits mayor ruido en la señal, y a mayor bits menor cantidad de error en la conversión. �32 palabra de 32 bits = 193,8dB. Si hablamos de ruido de cuantización, sí podemos convenir que una resolución de 24 bits de resolución es suficiente para minimizar esta distorsión, y conseguir un sonido aceptable profesionalmente. 15.1.8 Dithering Uno de los procesos empleados para reducir el ruido de cuantización es por ejemplo el uso de filtros dithering durante la conversión del sonido. Dithering no significa otra cosa que añadir un ruido blanco de fondo continuo a nuestra grabación, con el fin de enmascarar la distorsión. Recordemos como cuando digitalizamos sonido, el máximo nivel de relación señal-ruido usando una resolución de 16 Bits es de aproximadamente 96 db en rango dinámico. Pero esto es así, si siempre estuviéramos usando la amplitud o dinámica máxima, es decir ondas sinusoidales (+22 dBU de salida). Pero el sonido 217 cambia continuamente y los niveles dinámicos también, con lo que también serán cuantizados con menos bits de información. De aquí, podemos extrapolar que cuanto más pequeña sea la onda sinusoidal, mayor será el factor error de cuantización que se aplicará en la conversión. Sabemos que nuestro objetivo es obtener la mayor calidad y por consiguiente evitar la distorsión en la onda sonora y por eso resulta tremendamente CUENCA, IGNASI Y GÓMEZ EDUARD, Tecnología básica del sonido I y II, Thomson-Paraninfo, Madrid, 217 2005. Las curvas sinusoidales de análisis en laboratorio miden su ángulo de fase en radianes. (ßRd) siendo el valor 0 la unidad de medida de su inicio, y el valor 90 el inicio de la rampa de mayor valor. �33 beneficioso la aplicación de filtros dithering en el proceso, para así evitar estos pequeños niveles de distorsión armónica en la señal codificada. Esta distorsión depende de la 218 señal de entrada, pero se suele manifestar como “artifacts” o como ruido metálico. Como hemos dicho anteriormente, cuando activamos la herramienta del dithering, obtenemos un ruido o soplo de fondo, con un nivel menor que el bit menos significativo antes de redondear a 16 bits (o a otra profundidad), con lo que la distorsión inicial se ve sensiblemente reducida o anulada. Además, desde el punto de vista de la percepción sonora, el resultado de la utilización del dither es muy positivo, porque el ruido blanco de fondo resultará ser más natural a la percepción del oído humano. Incluso cuando aplicamos la herramienta del dithering, podemos mejorar su comportamiento, realizando pequeños cambios al algoritmo, utilizando lo que se denomina como Noise Shaping . Esta técnica consiste en 219 manipular digitalmente la señal, modificando (shaping) la densidad del ruido de cuantización, disminuyéndolo en la banda de audio a expensas de incrementar el ruido en la parte superior de la banda. Si se combina el Noise Shaping con el Oversampling conseguimos llevar el ruido a 220 zonas no audibles. Es otra manera adicional de mejorar mucho la relación señal ruido .221 Utilizar el sistema de corrección de errores dithering significa entre otras cosas: RUMSEY, F, Watkinson, J. The Digital Interface Handbook, Oxford: Focal Press. 1995. 218 Aparece cuando la señal entrante es modificada y se producen errores digitales en la señal codificada. RUMSEY F. and T. Mc Cornick. Sound and Recording. Focal Press. Oxford 1995: en resumen los autores 219 nos informan de que la técnica del noise shaping permite reducir el ruido de fondo de una señal aumentando su volumen en la zona audible por el oído humano y trasladándolo a la zona de agudos. SCHROEDER, M.R. Statistical Parameters of the Frequency Response Curves of Large Rooms, 220 Acustica, 4, 1954 pp. 594–600.: el autor comenta que ésta es una forma de aumentar la frecuencia de muestreo, donde ésta se multiplica por 4 o más veces que la señal de entrada. Este proceso nos da un resultado de mucha más resolución. HARRIS, C.M., Handbook of Acoustical Measurements and Noise Control. McGraw-Hill, Inc. 1991: Al 221 combinar el Noise shaping con el oversampling conseguiremos un buen objetivo: llevar a zonas no audibles el ruido indeseado. �33 1) Eliminar o reducir el ruido de cuantización en todos aquellos procesos de conversión donde pasamos de una resolución mayor a otra menor del sonido. Por ejemplo de 24 a 16 bits de conversión. Esto es fundamental si queremos dispersar y reducir la distorsión provocada por el sistema en dicho proceso. 2) Reducir la distorsión armónica de forma que se mejore de manera sustancial la calidad de la señal. 3) Mejorar la resolución del proceso de conversión por debajo del nivel de bit menos significativo. 4) Debemos de utilizar dithering en cualquier proceso de edición o masterización :222 5) En el proceso de normalización de un clip, al aumentar la dinámica del audio, 223 aumenta proporcionalmente el ruido. Por eso es de debido cumplimiento utilizar la herramienta de dithering. 6) El uso del dithering, mejora la relación señal-ruido, cuando utilizamos complejos sistema sed edición y montaje de sonido, donde trabajamos con más pistas a la vez. Aunque la suma de los pistas digitales aumenta el ruido final, este no se apreciará apenas a la salida del aparato. 7) En lo que concierne al audio, el muestreo digital de una señal analógica por encima de los 40 KHz y utilizando dithering, en un sistema de cuantización por encima de los 16 bits permite tener una grabación de alta fidelidad . Al 224 NAKAHARA, M., and Omoto, A. Room Acoustic Design for Small Multichannel Studios. 24th Conference, 222 Audio Eng. Soc., Paper 40. 2004: La masterización es el último proceso sonoro para un determinado archivo (sobre todo musical). Se trata de mejorar el sonido desde un punto de vista post-mezcla, alterando la ecualización, la dinámica o el tono sonoro del fichero. NEHER, T., Rumsey, F., & Brookes, T. Training of listeners for the evaluation of spatial sound 223 reproduction. Es un proceso automático por el cual se mejora el volumen de un fichero de sonido hasta el techo en 0 Db. GABRIELSSON, A., Frykholm, S.A., and Lindstrom, B. “Assessment of Perceived Sound Quality in High 224 Fidelity Sound Reproducing Systems,” Karolinska Institute, Stockholm. Rep. TA 93. 1979: Hay que intentar que el archivo sonoro, resultante del proceso de conversión digital-analógico, tenga la misma calidad del original no convertido. �33 reproducirla, y convertirla en sentido inverso de digital a analógico, tendremos un resultado sonoro de gran calidad, prácticamente idéntico a la señal original analógica .225 En resumen, si no utilizaremos un sistema de corrección de errores en el proceso de digitalización, la calidad de la mayoría de los medios de audio digital se reduciría enormemente o (en el caso del CD) se convertiría en algo casi inservible.
 KATZ, B. Mastering Audio: The Art and the Science, Focal Press, Oxford. 2002: en un sistema analógico 225 la señal es continúa, pero en un sistema digital, la señal es discreta, limitado a un conjunto de valores fijos. �33 16. Física del Sonido El sonido es un proceso físico, que acontece en el medio real y que tiene que ver con el fenómeno de la vibración. Como ejemplo podemos poner el efecto de golpear la superficie de un tambor, o de una cuerda de violín pellizcada por el músico. Es decir, acontece cuando un cuerpo es golpeado por otro, o por otros motivos que implique acción física sobre dicho objeto. El golpe que provocamos en el objeto, produce un efecto de rebote, es decir, las moléculas físicas del objeto se desplazarán con un movimiento vibratorio ondulatorio, que a su vez transmitirán dicha vibración a aquellas moléculas de aire que estén en 226 contacto con el objeto, comenzando a moverse impulsadas por el movimiento oscilante de dicho cuerpo. Este proceso seguirá produciéndose, pero esta vez serán las misma moléculas de aire del medio, las que transmitirán la vibración a otras más, y así sucesivamente, dando lugar a que la vibración original se propague por todo el medio en forma de onda . 227 Pensemos en el siguiente ejemplo. Cuando se arroja una piedra en un estanque de agua en el lugar donde ésta impacta, se producirá una onda vibratoria, que irá LABRADA, Jerónimo. El sentido del sonido. Alba Editorial, Madrid 2009: la sensación de percibir un 226 aumento o disminución del volumen de un sonido está asociado a la diferencia de presión acústica en un punto del espacio. Es interesante comprobar como la música podríamos decir que es una mezcla de presión acústica pero en relación a diferentes frecuencias. ASHIHARA, K. (2007). Hearing Thresholds for Pure Tones Above 16 kHz. J. Acoust. Soc. Am., 122. JASA 227 Express Letters. pp. 52–57 : Se habla de forma de onda cuando podemos ver la forma física o representación física de la misma que crea curvas que se desplazan en el tiempo y en el espacio físico. �33 transmitiendo su fuerza desplazándose físicamente por la superficie, hasta que, poco a poco desaparecerá. La onda vibratoria básica es la denominada curva sinusoidal. Esta trasferencia de energía de una molécula desplazada a sus inmediatas es posible en el aire, gracias a que es un medio con propiedades elásticas, siendo la elasticidad, el fenómeno por el cual una molécula desplazada tiende a recuperar su posición original después de transmitir su movimiento a las moléculas vecinas. Si hablamos de presión, estamos refiriéndonos a la dinámica o volumen de dicho sonido . En el dibujo superior, podemos ver como la vibración produce una curva 228 sinodal, siendo la distancia entre picos, equivalente a la longitud de ese ciclo o vibración. Vemos pues como la altura de la curva es menor al principio y mayor al final, debido a un aumento de la presión sonora, es decir de la vibración de aquellas moléculas afectadas, RUMSEY F. and T. Mc Cornick. Sound and Recording. Focal Press. Oxford 1995: 228 En complejos montajes multicanal cuando trabajamos con equipos DAW, existe la probabilidad que una o alguna pista (fichero de sonido), pueda provocar cancelaciones de fase, siendo este error más posible con sesiones técnicamente más complejas y pesadas. Propagación de la onda sonora �33 produciéndose así un visible cambio en la posición de equilibrio de éstas (presión 229 atmosférica). El sonido así, implica movimiento, desplazamiento físico de las moléculas que entran en vibración. Y lo hacen de dos maneras. Al principio con el efecto de compresión, es decir, las moléculas se expanden o se desplazan en un movimiento oscilatorio. Cambian físicamente de posición en el espacio. Cuando el movimiento de desplazamiento ha llegado a su máximo posible, acontece un segundo fenómeno, y que actúa en sentido contrario al primero. Se origina un segundo movimiento, vuelven entonces las moléculas a desplazarse en sentido opuesto al anterior, utilizando la energía residual que le comunicó el primer golpe, encontrándose otra vez en la situación de tener que regresar a la posición de equilibrio inicial. El valor que representa el máximo desplazamiento de las moléculas desde su punto de reposo absoluto se denomina amplitud de la vibración y la diferencia entre la amplitud en un sentido y la amplitud en sentido contrario (diferencia entre máximo y mínimo) se conoce por amplitud “pico a pico “ de la vibración . En cambio, el tiempo empleado en completar un ciclo, es decir una vibración completa, se denomina periodo y se representa por la letra T. La inversa del periodo se denomina frecuencia y representa el número de ciclos completos que se realizan en un segundo (ciclos/segundo). El periodo se mide en segundos y la frecuencia en ciclos por segundo o, lo que es lo mismo, hertzios (Hz).230 En las frecuencias subgraves, la representación gráfica de la forma de onda es mucho más evidente 229 desde el punto de vista de la presión acústica, ya que necesita una mayor energía para ser “sentida” por el publico de la sala. PURCELL, J. Dialogue Editing for Motion Pictures. A guide to the invisible Art. Focal Press, Oxfor 2007. 230 El autor viene a decir que a través de los hercios medimos el numero de oscilaciones de un material, es decir su frecuencia. Cada material tiene su frecuencia asociada, que la convierte en única e irrepetible. �33 Al espacio recorrido por una onda para completar un periodo, se le llama longitud de onda (X). Este movimiento oscilatorio, se irá repitiendo en el tiempo, pero cada vez irá haciéndose menos evidente, porque la fuerza o energía que se desencadenó con el golpe sobre la superficie de un tambor, o con el pellizco sobre la cuerda del violín, irá encontrándose con la resistencia por una parte del medio elástico, por el rozamiento con otros elementos, y también, por la disminución paulatina de la energía aportada en el momento del impacto. Así comprobamos que actúan los sonidos en un medio físico real, donde el movimiento vibratorio del objeto se transmite a las moléculas de aire cercanas; éstas 231 inducen vibraciones en sus vecinas, que a su vez ponen en movimiento a otras y así sucesivamente. El resultado global es una onda de presión (volumen) que se propaga en el aire. Ésta onda choca finalmente con nuestros oídos, que actúan como amplificadores de la señal por la disposición y forma de embudo invertido que tienen. Y lo hacen llegando con un retardo diferente de un oído a otro. Esto entre otras cosas permite al cerebro localizar en el espacio el punto de origen de la fuente de sonido, algo muy importante si queremos posicionar dicho sonido en un lugar determinado del espacio visual. La transmisión de la vibración sonora analógica, recorre el canal auditivo e impacta en una cadena de pequeños huesos, del oído interno. Aquí se transforma en impulsos eléctricos que son transportados por el nervio auditivo hasta el cerebro, donde son 232 interpretados. Se produce entonces la sensación auditiva, el sonido. Quizá convenga hacer una aclaración en este punto. Los sonidos se diferencian unos de otros, por las características físicas del objeto que las produce. Así influirá la masa del objeto, el El sonido para viajar por el espacio necesita un elemento elástico. Esto ocurre con elementos de nuestro 231 entorno como por ejemplo: el aire, el agua, el metal, la madera, etc. CORUGEDO, Marichu y Acha, José Luis. Libro Blanco del Sonido. Ed. AITE. Madrid, 2003: el autor 232 infoma de que la electricidad se comporta como una compuerta de información para el oído humano. Es decir, su carga energética es capaz de activar el circuito neuronal del cerebro asignando a cada voltaje un valor en termino absolutos que representa la entrada de señal (con su impacto sonoro) o la ausencia de la misma (falta de señal). El cerebro actúa de este modo como un autentico procesador de información. �33 material que lo conforma, el medio en el que se encuentra. Hay sonidos que son fácilmente identificables y que incluso solo pueden ser producidos de una sola manera, llegando el oyente a describir fisicamente el objeto con tan solo escuchar el sonido que lo provoca. Pero para escuchar no hace falta estar cerca de la vibración del objeto. Si pensamos que el sonido es capaz de recorrer 340 metros por segundo, nos daremos cuenta que solo necesitamos entre el emisor y el receptor, un medio elástico que propicie el desarrollo de las vibración molecular en el medio. La velocidad de propagación del 233 sonido es mayor en los líquidos y menor en los sólidos. Por eso, cuando estamos en la playa y buceamos somos capaces de escuchar el motor de un barco que esta muy lejos en la bahía. Pero estas vibraciones en el medio elástico van disminuyendo de intensidad . En la propagación del sonido en un medio 234 abierto, intervienen diferentes factores que producen una reducción en la intensidad sonora de la fuente original. Esto es debido principalmente a la tendencia de la vibración a volver a su posición de equilibrio original; sin embargo, no es la única causa. En líneas generales, y solo a modo de información, los factores principales que determinan las pérdidas de sonido en el aire son:235 Disminución del nivel por divergencia Absorción atmosférica Reflexión y difracción por obstáculos sólidos MEYER, E. “Definition and Diffusion in Rooms". J. Acoust. Soc. Am, 26,1954 pp.630–636. Las ondas de 233 sonido se propagan direccionalmente por el aire en espacios abiertos, pero cuando chocan con un material solido se reflectan. LARRIBA, M.A., Sonorización, Ñaque Editora, Ciudad Real, 2000: los autores comentan que una onda 234 sonora tiene un tiempo de desarrollo en el medio, pero éste va disminuyendo fundamentalmente por la perdida de energía que representan los obstáculos que la propia onda va encontrando por su camino y que produce la total o parcial absorción de la misma por el propio objeto u obstáculo. GRIESINGER, D. “Objective Measures of Spaciousness and Envelopment.” 16th International 235 Conference, Audio Eng. Soc. 1999, Paper 16-003.: El aire es un medio elástico donde los sonidos se transmiten, pero dicha transmisión esta sujeta a factores opuestos como son la difracción sonora o la absorción por objetos u obstáculos. �33 Refracción y formación de sombras por gradientes de temperatura y de viento. A continuación vamos a analizar las características cualidades principales del sonido. Me refiero a las cualidades fundamentales por las que podemos categorizar y distinguir los sonidos en general. Esto nos va a proporcionar las herramientas y el conocimiento fundamental para valorar cada sonido y poder organizarlo en nuestra estructura mental, a modo de gran biblioteca de la realidad sonora que nos rodea. Si conocemos los sonidos, y somos capaces de valorarlos y organizarlos en nuestro campo mental, podremos analizar correctamente una imagen y proponer toda aquella ambientación y tratamiento sonoro que estimemos oportuno para la comprensión de la cinta cinematográfica. Un ejemplo importante lo tenemos en los sistemas de afinación de un instrumento musical. Para corregir la afinación de un instrumento es indispensable conocer su sonido y poder corregir y retocar su tonalidad por medio de las escalas musicales .236 Entre las cualidades principales de toda vibración sonora, vamos a analizar y a explicar las siguientes: tono, intensidad, timbre, duración, envolvente y localización espacial de la fuente emisora , relación entre potencia-intensidad y presión, decibelio, micro y macro 237 dinámica, y efectos (compresores, reverberadores, ecualizadores, eco). BENADE A., Fundamentals of Musical Acoustics. New York: Oxford University Press 1976: las escalas 236 musicales son fracciones o divisiones del conjunto sonoro por frecuencias desde graves a agudos. A cada fracción se le denomina nota musical. y estas están relacionadas entre si bajo proporciones matemáticas. De echo la música se podría representar matemáticamente. WATERHOUSE, R.V. Output of a Sound Source in a Reflecting Chamber and Other Reflecting 237 Environments,” J. Acoust. Soc. Am., 30, 1958: Denominamos fuente sonora aquel sonido cuya procedencia es reconocida por nuestro cerebro. �33 16.1 Cualidades del Sonido En el sonido cabe distinguir las siguientes cualidades: 16.1.1 Tono El tono es una característica fundamental de todo sonido, en especial de aquellos que tienen que ver con el mundo musical. El tono de un sonido depende de su frecuencia, es decir, del número de veces que éste se comprime y se deprime por segundo. En pocas palabras, del numero de vibraciones que ése material u objeto provoca al ser pulsado. Cada objeto o instrumento, está compuesto por un material característico que por su conformación, morfología y esencia provoca al ser pulsado un numero de vibraciones determinadas. Mediante el tono y refiriéndonos al campo musical por ejemplo, se pueden distinguir las diferentes notas que emite ese mismo instrumento. En general se pueden distinguir tres clases de tonos: 
 los agudos, de frecuencia alta, 238 los medios, de frecuencia media, y los graves, de baja frecuencia. LYVER, D., Principios básicos del sonido para video, Ed. Gedisa, Barcelona, 2000: las frecuencias tienen 238 relación con el tiempo en el que se transmiten las vibraciones. Su unidad de medida es el Hercio (Hz). Al variar la altura de la onda, varia la frecuencia de muestreo. �34 
 GRAVES MEDIOS AGUDOS 20 250 2000 20000 Hz Aquí tenemos una tabla básica de como las frecuencias se distribuyen en el espectro sonoro. Un sonido cuanto mayor es su frecuencia, más su tonalidad es aguda, pero aunque tendemos a organizar los sonidos por la frecuencia de su vibración, sin embargo, el tono es una valor subjetivo mientras que la frecuencia es una valor físico y medible. Por otro lado, la respuesta del oído humano realmente no se ajusta totalmente a la división en octavas tal y como la definimos técnicamente. Siempre existe una ligera diferencia entre lo percibido y lo real. Por eso es muy importante tener en cuenta de que manera el oído es capaz de identificar variaciones en la frecuencia de un sonido, ya que esto es fundamental a la hora de diseñar y crear toda una banda de sonido para una película. En realidad, sólo es posible detectar cambios, cuando esa variación supera un cierto valor. Además ese valor esta no solo correlacionado con el tipo de objeto o material, sino también con el volumen o dinámica del mismo. Por ejemplo, para un sonido capaz de emitir una frecuencia superior a 1000 Hz y con una presión (volumen) por encima de 40 dB , el cambio mínimo perceptible en 239 frecuencia debe de ser mayor del 0.3%,. Así y todo, un sonido de 5000 Hz por ejemplo, puede variar 15 Hz arriba o abajo sin que el oído detecte ninguna variación en la altura del LARRIBA, M.A., Sonorización, Ñaque Editora, Ciudad Real, 2000.: Medida logarítmica de la intensidad 239 de un sonido. Es una unidad relativa que relaciona dos magnitudes. Se le asigna el nivel 0 db (en audio) al umbral del oído humano. Se toma como referencia para la medición del sonido ya que su escala es adecuada para representar el espectro auditivo del ser humano. �34 tono. Para frecuencias menores de 1000 Hz y con una presión por encima de 40 dB se pueden apreciar cambios de 3 Hz. Poder reconocer el tono de un instrumento, o también el de un ambiente, diálogo etc, es algo muy importante si hablamos de cine y de montaje sonoro, porque nos ayuda a corregir errores, a igualar colchones sonoros, o por lo contrario, a permitir que determinados sonidos sobresalgan sobre otros, a reforzar determinados efectos, o a modificar así, el matiz final de un dialogo, o de una secuencia completa. No olvidemos que el tono de una música por ejemplo puede modificarse, como también el de un efecto si percibimos que éstos entran en oposición con el diálogo, provocando alguna distorsión que impida la correcta comprensión de las voces de los protagonistas. Cuando hablamos de altura de un sonido, nos referimos claramente a la frecuencia fundamental (Pitch ) del mismo. Cuanto más alto sea el número de ciclos, vibraciones 240 por segundo, que es capaz de emitir, más agudo será aquél. El oído humano sano puede percibir determinados sonidos, pero no todos en general. Solo es capaz de percibir aquellas frecuencias que se encuentran comprendidas entre los 20Hz y los 20.000 Hz (20 KHz) aproximadamente. Además, hasta los 4.000 Hz el oído puede distinguir dos tonos cuyas frecuencias se diferencien tan sólo en una vibración por segundo, tal es su sensibilidad. Para aquellas frecuencias que evolucionan por debajo de los 20Hz, el oído no percibe sonido, se llaman infrasonidos . 241 ROMERO, Josep Maria, Todo lo que hay que saber del negocio musical, Alba Editorial, Barcelona, 2006 : 240 Con el término “Pitch” nos referimos al rango de frecuencias de un sonido en una determinado tiempo. El pitch nos permite cambiar de registro sonoro, de escala musical, y variar la altura tonal de un sonido. HELMHOLTZ, H. L. F. On the sensations of tone as a physiological basis for the theory of music, London, 241 1985: Denominamos infrasonidos a los sonidos que el oído no es capaz de percibir, como las frecuencias inferiores a 20Hz, que solo pueden llegar a ser percibidos físicamente. �34 Lo que percibimos de estas vibraciones es un efecto físico, es decir, los podemos sentir corporalmente. Tampoco podemos percibir las frecuencias que están por encima de los 20 KHz, que es la zona de los ultrasonidos. Por otro lado, se dice que el oído tiene una respuesta logarítmica con respecto a las frecuencias, ya que percibimos como similares los intervalos de frecuencia [40, 80 Hz] y [1000, 2000 Hz] por ejemplo, aún siendo la anchura del primero 25 veces menor que la del segundo. En el ámbito de los sonidos los armónicos también se llaman tonos, y sus frecuencias forman una progresión en la que cada una es múltiplo de la primera; en el ejemplo: 110 Hz, 220 Hz, 330 Hz, 440 Hz, etc. ¿Por qué forman esta progresión y no otra? Las condiciones de vibración no permiten otras relaciones entre las frecuencias que no sean éstas. De todos los armónicos y por tener una amplitud mayor, el que más contribuye generalmente al movimiento de la cuerda es el primero. A su frecuencia (110 Hz en este caso) la llamamos frecuencia fundamental de la vibración y por ende, del sonido producido. 16.1.2 Timbre El timbre de un sonido, esta en relación con esa cualidad que nos permite 242 distinguir el sonido de dos fuentes diferentes aunque estas sean del mismo tono o intensidad. PALOMO, Miguel. Autor-editor. El estudio de grabación personal. Madrid 2002.: El timbre de un sonido, 242 depende también entre otras cosas, de los cambios o variaciones de los propios armónicos así como de la amplitud de ellos. �34 Nosotros trabajamos con una constelación enorme de sonidos. Podemos trabajar con sonidos ambientes, con músicas, con efectos d sonido, incluso con diálogos de los personajes. Todo sonido provoca una vibración como las cuerdas en la guitarra, el piano o el arpa, o si queremos la percusión de un tema musical. Lo que debemos de tener en cuenta, es que el timbre no solo lo conforma la propia frecuencia a la que suena ese sonido, sino fundamentalmente por los armónicos que lo acompañan. Por ejemplo en el caso del diapasón y la ocarina, éstos dan tonos puros, sin 243 apenas armónicos En el caso de cualquier otro instrumento de una orquesta los armónicos son perfectamente reconocibles y están presentes en la evolución musical de la pieza interpretada. También cabe la posibilidad de no tener armónicos, y que únicamente escuchemos sobretonos, como es el caso de algún instrumento de percusión, como los timbales. Cuando hablamos de “timbre” de un sonido, o de un determinado instrumento, 244 etc entendemos que es el resultado de un proceso complejo, y no solo del contenido espectral de la señal, donde no solo intervienen los amónicos, sino también la 245 evolución de éstos a lo largo del tiempo. Reconocer el timbre de un sonido nos permite etiquetar ese sonido y darle un valor o puntuación, jerarquizando mejor nuestra biblioteca MUNRO, Chris. Multi-Track Production Recording: Using Digital Disk Recorders to. The Editors Guild 243 Magazine January 2004. El diapasón es un instrumento que emite una frecuencia o tono puro, sin armónicos, nos sirve para afinar instrumentos musicales. La frecuencia natural que se suele utilizar para la afinación es 440 Hz, que en notación musical corresponde a la nota musical “LA”. QUESNEL, R. Timbral ear trainer.100th Convention of the Audio Engineering Society, Preprint 4241, 244 Copenhagen, Denmark. 1996: demuestra como la experiencia, y el entrenamiento auditivo, afectan la calidad y la percepción del sonido. KATZ, M. Capturing Sound: How Technology Has Changed Music, University of California Press, 245 Berkeley and Los Angeles, California. 2004.: Con “contenido espectral de una señal” nos referimos a la representación gráfica en diferentes frecuencias del muestreo de la señal acústica. El espectro acústico es el límite tanto superior como inferior de las frecuencias analizadas por el muestreo. �34 sonora mental. Conocer el timbre de un sonido, permite asignarle determinadas 246 valoraciones, que no son otra cosa que conceptualizar un sentimiento, un adjetivo, para que nos ayude a categorizar ese sonido, esa estructura musical o colchón ambiental. De este modo, seremos capaces de organizar los sonidos y explicarlos con adjetivos como los que paso a reseñar: un sonido brillante, opaco, molesto, estridente, frenético, obsesivo, natural, cristalino, ensordecedor, repetitivo, ensoñador, dramático, oscuro, fresco, elegante, rústico, grandioso, espacioso, etc. 16.1.3 Intensidad Este concepto, tiene una gran importancia, ya que sirve para entender el volumen de un determinado sonido. Cuando hablamos de intensidad nos referimos a un efecto energético que tiene que ver con la propagación de la onda acústica, es decir de la amplitud de las vibraciones que se desencadenan en el espacio elástico, y que pueden ser fuertes (mayor intensidad) o débiles (poca intensidad). Pongamos como ejemplo, las cuerdas de una guitarra. Al pulsar o pellizcar una de ellas, ésta se desplaza de su punto de equilibrio central, donde se encuentra hacia una segunda posición, distante de la primera. Este desplazamiento, producto de la energía aplicada a la cuerda, es la que provoca vibraciones que cambian la situación de estabilidad, hacia una TOOLE, F.E., and Olive, S.E. The Modification of Timbre by Resonances: Perception and Measurement,” 246 J. Audio Eng. Soc., 36,1988, pp. 122–142. La percepción sonora de la reverberación especialmente en el caso de efectos aplicados al audio como la reverb algoritmica o de convolución produce cambios en el timbre del sonido que afecta directamente las frecuencias graves y agudas en mayor medida. �34 de movimiento. Un instante más tarde, la cuerda tiende a volver a su posición de equilibrio inicial, por el factor elasticidad del material y del medio en el que se propagan las vibraciones, pero no solo alcanza esta posición, sino que además la supera, impulsada por la energía transmitida en la pulsación inicial y que sigue presente en la propia cuerda. Al llegar a esta segunda posición extrema el proceso se repite en sentido inverso. Pero entre la primera posición y la segunda ha ocurrido algo importante. La energía que desplazó la cuerda ha perdido fuerza, se va desgastando con el paso del tiempo, por la presencia de múltiples factores físicos, como es el rozamiento en el medio elástico, que actúa también de “freno” a la acción energética inicial, si ésta no vuelve a repetirse. Así y todo, las oscilaciones se repiten pero ésta vez con menos intensidad . La amplitud de la 247 oscilación ha cambiado. De máxima al principio, se va minimizando lentamente hasta llegar otra vez al cero absoluto, es decir, la cuerda volvería a posicionarse en la situación de equilibrio central, inicial. Si no existiese amortiguamiento estaríamos ante una 248 oscilación periódica en la que los valores de la amplitud se repetirían cada cierto tiempo indefinidamente. Tenemos que señalar, que las vibraciones de la cuerda, provocan otras en el aire circundante donde se encuentra el instrumento, la cuerda de la guitarra. Éste es un dato muy importante, porque en realidad lo que aparece aquí son ondas de presión acústica que se propagan en el medio, y que a lo largo del tiempo de exposición a esa presión, producirán cambios en la percepción del volumen de ese sonido. La medida empleada para analizar la dinámica de un sonido es el Pascal (Pa). SATO, H., and Bradley, J. Evaluation of Acoustical Conditions for Speech Communication in Working 247 Elementary School Classrooms. J. Acoust. Soc. Am., 123, 2008. pp. 2064–2077: Es cuando la frecuencia de oscilación de un sonido decae en altura exponencialmente. No solo de altura sino de altitud de onda, todo guardando una proporción espacio-temporal. Un modo de oscilación amortiguada sería un fade lineal (ascendente o descendente) automatizado. SCHRAG, R. Exposing Acoustical Myths. A Collection of Time-Honored Misconceptions,” Broadcast 248 Engineering, March. rbdg.com/1998: las vibraciones sonoras en contacto con el elemento elástico del medio, pierden intensidad por la absorción parcial de energía, y por el tiempo durante el que dicha oscilación tiene lugar. �34 A partir de la presión acústica se puede calcular la intensidad (volumen) del sonido. Antes de adentrarnos en otras consideraciones, tenemos que hacer la siguiente distinción. Cuando hablamos técnicamente de sonidos, podemos analizarlo desde un punto de vista objetivo (la presión acústica mensurable) o desde un punto de vista más subjetivo, siempre y cuando intervenga un segundo elemento, el elemento humano. La persona es la que subjetivamente valora esa presión, y es una sensación individual e intransferible, lo que quiere decir que no todos tendrán la misma forma de valorar la misma presión sonora en un momento determinado. Cuando hablamos de volumen o intensidad, lo haremos siempre desde un punto de vista objetivo y mensurable. La sonoridad, (loudness ), el volumen de sonido de la 249 cuerda pinzada, aumentará cuanto más fuerte sea esta pulsación. Si ésta aumenta, también lo hará la amplitud de las vibraciones en la cuerda y de manera consecuente, 250 la amplitud de la onda de presión que se propaga en el aire. La Sociedad de las artes y ciencias audiovisuales americana (SMPTE), hace mucho tiempo, propuso un sistema y método de medición del volumen del sonido, que fuera utilizado por todos los profesionales para que se convirtiera en un standard. Tengo que advertir que hay muchas formas de medición, y de que no se trata de desarrollarlas ni aquí ni ahora, pero si es importante subrayar la importancia del “Decibelio” como medida universal del sonido. . El decibelio , es una unidad no lineal, de carácter logarítmico, que en particular es 251 muy utilizada dentro de la Acústica por dos razones principales. La primera, porque AMYES, T. Técnicas de postproducción de audio en video y film, IORTV, Madrid, 1992 : En general el 249 autor afirma que la sonoridad conlleva siempre un cambio (aumento o disminución) tanto del volumen nominal de una señal, como de su ecualización general favoreciendo la escucha de bajas frecuencias sobre las altas a niveles altos de intensidad de las primeras. TOOLE, F.E. Loudspeaker Measurements and Their Relationship to Listener Preferences,” J. Audio Eng. 250 Soc., 34, pt. 1,1986. pp. 227–235; pt. 2, pp. 323–348 La amplitud sonora de un fichero de audio no solo depende de la fuente misma que la origina sino también del tipo de altavoz si lo reproducimos por este medio, y de comportamiento acústico que es capaz de generar en el medio elástico o ambiente. KATZ, B. Mastering Audio: The Art and the Science, Focal Press, Oxford. 2002: El autor comenta que 251 cuando hablamos de decibelio, o medida acústica de un sonido, pensamos en una medida que ademas de ser exacta permite comparar muestras y simples sonoros. �34 soluciona el problema que aparece si manejamos unidades de medida lineales. De echo, el decibelio representa el valor del logaritmo neberiano del belio, lo que simplifica enormemente el manejo y calculo matemático. La segunda razón la tenemos en que el comportamiento del oído a los estímulos sonoros no es nunca lineal, sino que responde de forma logarítmica. De esta forma, al utilizar unidades logarítmicas nos adaptamos en cierta medida al propio comportamiento del oído. Por tanto, las magnitudes acústicas 252 más importantes, como son potencia, intensidad y presión sonoras , normalmente se 253 medirán en decibelios (dB). Así, el volumen resulta de medidas objetivas, y tiene 254 aparato específico diseñado para medirlo: el VU-metro255 Nivel de Presión Sonora: Lp = 20 Log x P/Pref (db) Nivel de Intensidad sonora: L = 10 log x I/Iref Iref = 1012 W/m2 HARRIS, C.M Acoustical Properties of Carpet, J. Acoust. Soc. Am., 27, 1995 pp. 1077–1082: la potencia, 252 la intensidad y la presión sonora, se miden en decibelios para facilitar el manejo de los valores y datos de dichas mediciones de forma más cómoda y universal, y éstas se verán influenciadas por las características físicas de la sala y materiales que la componen. HUIDOBRO, José Manuel. Fundamentos de telecomunicaciones, Ed. Paraninfo, Madrid, 2001: en 253 general, el autor viene a decir que es el fenómeno que hace vibrar el medio elástico cuando en ella irrumpe una onda sonora o acústica (una frecuencia) y se propaga dando lugar a frecuencias derivadas proporcionales a la primera. MARTINEZ, C., and Gilman, S. “Results of the 1986 AES Audiometric Survey,” J. Audio Eng. Soc., 254 36,1998 pp. 686–690. : en el campo de la medición sonora, es de vital importancia referenciarse a una escala nominal que nos permita tener un único sistema de análisis de la fuente sonora y que además sea extrapolarle a otros trabajos o profesionales. THOMPSON, E. “The Soundscape of Modernity,” MIT Press, Cambridge, Mass. 2002: El autor comenta 255 que llamamos VMETER a la unidad física o virtual de representación gráfica de las unidades de sonido medidas en decibelios, siendo 0 el valor máximo (más allá del cual acontece distorsión sonora) y -60 el valor negativo (diferentes según equipos y consolas). No se debe confundir con el picómetro que es el medidor de los picos de señal, también escalado en db. �34 Nivel de potencia sonora: Lw = 10 log x W/Wref Wref = 10-12W Estos valores de referencia tomados en los niveles anteriores no han sido elegidos al azar, sino que corresponden a los valores umbrales para la frecuencia de 1 Khz. Manejar el concepto de intensidad sonora, y entender como funciona, es de vital importancia, para poder no solo manipular el sonido, modificar su situación en el espacio de la pantalla de proyección, sino también realizar un correcto diseño de mezclas y encontrar el equilibrio perfecto entre las diferentes bandas de diálogos, doblajes, ambientes, efectos y músicas. Si no somos capaces de sensibilizar nuestra percepción y entrenar nuestros sentidos para este cometido, jamás podremos llegar a nuestro objetivo: emocionar y entretener al público. Dentro del capitulo dedicado a la intensidad del sonido hay que hacer referencia a otros conceptos importantes que tienen que ver con el manejo del volumen dentro de una producción audiovisual. Uno de estos conceptos es sin duda el de rango dinámico. Cuando hablamos de rango dinámico , hablamos en cambio de la 256 diferencia que existe entre la señal más fuerte y más débil de un mismo sonido. Dentro del rango dinámico pueden definirse tres niveles: 1) SOL: Standard Operation Level. 2) HEADROOM: Es la diferencia entre el nivel más alto de una señal y su noise floor. USHER, J. Visualizing auditory spatial imagery of multi-channel audio. Proceedings of the 116th 256 Convention of the Audio Engineering Society, Berlin, Germany. 2004: como concepto general tenemos que el sonido se mide en decibelios. Es la diferencia que hay entre el ruido de señal que genera un aparato y el volumen de la señal que emite dicho aparato electro acústico. �34 3) NOISE FLOOR: Piso de Ruido. Un CD tiene de 96 a 98 dB. Un Vinilo 75 dB y un Cassette 50 dB. El rango dinámico es muy variable ya que va desde el silencio hasta el habla a diferentes niveles, la música, el ruido, etc. El Tecno tiene poco rango, sin embargo la música clásica tiene mucho ya que existe en este tipo de música una notable diferencia entre partes suaves o valles y partes más llenas de intensidad y proyección sonora. Ha habido una evolución muy evidente desde los años 80 hasta nuestros días en el tratamiento de la música, ya que ésta ha ido disminuyendo paulatinamente su rango dinámico. En la actualidad, cuando hablamos de sonido digital, y de producciones musicales, podemos ver como ya dichas producciones han ido incrementando no solo el volumen o intensidad del sonido, sino también han ido reduciendo significativamente el margen dinámico natural de los instrumentos que componen la propia pieza, hasta 257 obtener bandas sonoras donde los valles y picos sonoros son prácticamente idénticos. Hay que añadir, que la disminución del rango dinámico, provoca en la escucha 258 prolongada fatiga auditiva. Cuando hablamos de dinámica del audio, podemos distinguir dos tipos muy importantes: 1) Macrodinamica 2) Microdinamica MEYER, J. Directivity of the Bowed Stringed Instruments and Its Effect on Orchestral Sound in Concert 257 Halls,” J. Acoust. Soc. Am., 51,1972. pp. 1994–2009: la conformación de la sala incide en la direccionalidad sobre todo de instrumentos de cuerda en una orquesta. TOOLE, F.E., and Olive, S.E. Hearing Is Believing vs. Believing Is Hearing. 97th Convention, Audio Eng. 258 Soc., Preprint 3894. 1994. El cansancio auditivo acontece aproximadamente a las dos horas de trabajo o escucha continuada de sonido a 80 Db de potencia aproximadamente, aconsejandose realizar interrupciones periódicas para evitar este efecto físico. �35 Macrodinamica: es aquella que tiene que ver con el análisis de una pista o fichero de audio, en su evolución general, es decir, cuando contemplamos físicamente a través de los sofisticados programas actuales de edición de sonido, toda la dinámica o volumen de un mismo fichero comes el caso que pintamos a continuación. Microdinamica: Podemos observarla cuando hacemos Zoom sobre zonas concretas dentro de nuestra región de audio. Es decir, nos paramos a analizar o estudiar una parte del fichero y no su conjunto en general. Como anotación final a este tema, podemos decir que digitalmente podemos influir en la dinámica del sonido, para controlarla, modificarla o acomodarla a nuestro proyecto. Macrodinámica Microdinamica �35 A tal finalidad, existen procesadores cuya misión es reducir o enfatizar la presencia de un sonido. Acorde a esta clasificación tendremos : REDUCTORES DE SONIDO: Compresor y Limitador (el compresor actuando como limitador). EXPANSORES DE SONIDO: Expansores y Noise Gate . 259 16.1.4 Duración La duración de un sonido representa su evolución en el tiempo. Como sabemos, sonidos y silencios se pueden combinar y organizarse en intervalos regulares de tiempo. De ésta forma hemos creado una estructura rítmica, en la que podemos distinguir por ejemplo los compases musicales. El modelo de organización rítmica dentro de cada OLIVE, S. A New Listener Training Software Application,” 110th Convention, Audio Eng. Soc., Preprint No. 259 5384. 2001: Es una puerta de ruido. Es decir, permite bloquear aquellas frecuencias que se encuentran por encima o por debajo de unos valores con el que hemos configurado nuestro plugin o equipo físico. Es un recorte de frecuencias. Hay que tener cuidado al utilizarlas, puesto que al eliminar ciertas frecuencias molestas, también eliminamos armónicos propios de la grabación de sonido. HODGSON, M. (1998). “Experimental Evaluation of Simplified Models for Predicting Noise Levels in Industrial Workrooms,”: Una puerta de ruido es un corte de señal automatizable que predeterminamos para eliminar frecuencias molestas. �35 compás viene dado por el tipo de compás . Según el número de partes de que consten y 260 el patrón de acentuaciones dentro de las mismas, el tipo (y los compases construidos a partir del mismo) puede ser binario, ternario, cuaternario y compuesto (con dos, tres, cuatro partes y una combinación de las anteriores respectivamente). Visto de otra forma, las notas en la música representan en realidad las alturas y duraciones relativas de los sonidos, o si se prefiere, relaciones entre alturas y relaciones entre duraciones. La redonda, blanca, negra, corchea, semicorchea, fusa y semifusa no expresan tiempos absolutos, solo relaciones de duración: la blanca dura la mitad que la redonda, la negra una cuarta parte, etc. La duración absoluta depende de la velocidad a la que se interpreta la pieza, expresada a grosso modo con términos como “andante, allegro, presto”, etc. o de forma exacta con la velocidad del compás (movimiento o tempo) en partes por minuto (ppm). Este carácter relativo de la duración, hace que la duración absoluta de una corchea sea de medio segundo tanto en un compás de 4/4 a 60 ppm como en otro de 4/8 a 120 ppm. 16.1.5 Envolventes La envolvente (envelope) de un sonido es la línea imaginaria que une los picos de su representación gráfica en el tiempo. Para analizar la envolvente de un sonido, tenemos que analizar el sonido en un período de tiempo determinado, ya que ésta, no solo depende de la fuerza o energía con la que actuamos sobre el objeto, sino también, de la RISSET, J.-C.Timbre et synthe`se des sons. Paris: Ircam and Christian Bourgois Editeur. 1992: Es un 260 término musical. El compás nos viene especificado en tiempos a principio del pentagrama. Nos dice los golpes sonoros continuos que va a haber en la división de la escritura o representación musical. Dirige u organiza nuestra partitura. �35 forma de tocarlo. Podemos distinguir entonces en las envolventes, cuatro fases o áreas principales: ataque, caída, mantenimiento y liberación (attack, decay , sustain y reléase, 261 designadas con el acrónimo ADSR ). 262 En el piano por ejemplo, el ataque comienza cuando el intérprete pulsa la tecla. Es en este momento, cuando el golpe sobre la cuerda del piano, provoca la aparición de las vibraciones, cuyo efecto nos llega bajo forma de volumen sonoro. La amplitud de dichas vibraciones es ahora máxima, ya que las oscilaciones moleculares se encuentran también en su máximo apogeo. A partir de ese momento comienza el decaimiento de la señal, que se caracteriza por la disminución de la amplitud en cada ciclo de vibración. Lentamente el volumen de un principio empieza a perder fuerza y presencia pero se va estabilizando durante un período de tiempo. A esta fase se la llama fase de mantenimiento. Cuando el pianista libera la tecla, la nota no deja de sonar de repente, sino que va paulatinamente perdiendo energía, hasta desaparecer. Esta es la fase de “release” del sonido. JONES, D. A Review of the Pertinent Measurements and Equations for Small Room Acoustics,” J. 261 Acoust. Soc. Am., 113,2004 p. 2274: En espacios pequeños el tiempo de decaimiento de la reverb es mínimo, así que debemos añadir una cola o decay artificial a nuestras reverb al entrar en un esudio de doblaje en un film. VAN KEULEN, W. Possible Mechanism for Explaining Monaural Phase Effects of Complex Tones,” 90th 262 Convention, Audio Eng. Soc., 1991: en general el autor afirma que con estas letras se designa las distintas fases del desarrollo de la onda sonora. Viene siendo Ataque (representado con una “A”) es cuando la señal gana amplitud. Decaimiento (“D”), cuando la señal pierde amplitud de forma exponencial. Sostenido (“S”), cuando mantiene la amplitud, y release (“R”) al desvanecimiento de la propia onda sonora. Evolución de una onda sonora en el tiempo �35 En los equipos sintetizadores , con propósitos creativos, podemos imponer 263 envolventes artificiales, distintas a la natural, utilizando circuitos electrónicos 264 específicos llamados generadores de envolvente. Los generadores LFO y envolventes producen cambios en las fuentes sintetizadas de sonido.265 16.1.6 Relación entre potencia, intensidad y presión sonora HOLTZMAN, S. R. Description of an automated digital sound synthesiser instrument, DAI Research 263 Paper No. 59, University of Edinburgh. 1978.: Es un instrumento que a través de la manipulación de corrientes eléctricas genera diversos sonidos algorítmicos o de convolución a través de un teclado de forma que podemos mapear el sonido a lo largo de las diferentes octavas del instrumento. ITU-R Recommendation BS.775–2 Multichannel Estéreophonic Sound System With and Without 264 Accompanying Picture. 2006. La envolvente de un sonido nos permite conocer como varia su intensidad a lo largo del tiempo. SERRA, X. and Smith, J. Spectral modelling synthesis: a sound analysis/synthesis system based on a 265 deterministic plus stochastic decomposition, Computer Music Journal, 14, 4, 12–24. 1990: los sintetizadores pueden generar a través de las LFO, los osciladores de frecuencia, algoritmos resultantes totalmente nuevos, susceptibles a su vez de crear nuevos sonidos al combinarse con otros sonidos sintetizados. Relación tiempo y amplitud �35 La potencia sonora es una propiedad física que depende únicamente de la fuente sonora. Se define como la energía acústica emitida por la fuente en la unidad de tiempo. Es un parámetro absoluto que no depende de factores externos o ajenos a la propia fuente. Se mide en Watios acústicos y su símbolo normalmente es W. La intensidad 266 sonora ha sido definida en un apartado anterior en función de la energía. La relación entre potencia e intensidad sonora es : 1= w/s donde s es el área atravesada, 1 la intensidad sonora y W la potencia. La intensidad siempre existe en relación a la fuente sonora y siempre es proporcional al cuadrado de la presión sonora. En otras palabras, cuando la presión sonora disminuye al 50%, la intensidad lo hará a la cuarta parte, y cuando la presión aumente el doble, la intensidad aumentará su valor cuatro veces más. 16.1.7 Velocidad del sonido El sonido, como hemos visto a lo largo de los anteriores capítulos, provoca vibraciones en el medio elástico donde aparece. Debemos de distinguir, que todos los FLANAGAN, S., Moore, B.C.J., and Stone, M. Discrimination of Group Delay in Clicklike Signals 266 Presented via Headphones and Loudspeakers. J. Audio Eng. Soc., 53, 2005. pp. 593–611.”: Representa la unidad de medida de la potencia acústica. Es decir, que cuando hablamos de watios nos referimos al volumen de un determinado sonido. Con ello no nos referimos al volumen de escucha humano, que depende de más factores, sino a la potencia de emisión de la fuente sonora. �35 diferentes medios elásticos que conocemos, no son capaces de transportar dicha vibración con la misma velocidad. Es decir, dependiendo del medio en el que nos encontramos, el sonido va a viajar a una velocidad o a otra. Las leyes de la física mandan en este aspecto, por lo que en condiciones normales a 20°C la velocidad del sonido en el aire es aproximadamente 344 m/s. En la tabla siguiente aparece una relación de la velocidad de propagación del sonido en diferentes medios :267 Aire a 0 =C 331 m/s Aire a 20 °C 344 m/s Hidrógeno puro 1 290 m/s Agua dulce 1 450 m/s Agua del mar 1 504 m/s 17. Principales efectos digitales aplicables al audio Conocer todas las posibilidades que la técnica moderna permite utilizar en el campo del sonido profesional aplicado al cine, es fundamental, para poder entender todas GABRIELSSON, A., Hagerman, B., and Bech-Kristensen, T. Perceived Sound Quality of Reproductions 267 with Different Sound Levels,” Karolinska Institute, Stockholm. Rep. 1991: Cuanto más denso es un medio, más rápido se propaga en él una onda sonora. En el aire no solo varia por la composición, sino por la temperatura, al igual que en el agua. �35 las alternativas sonoras que podemos provocar en la narrativa audiovisual de nuestro metraje. Sin duda, los siguientes efectos digitales, o procesamientos digitales de señal, representan ya una realidad, y han servido para mejorar y elevar la calidad de la banda sonora cinematográfica. Estos procesadores se han utilizado profesionalmente en las películas que he escogido a examen para esta investigación sonora, por lo que es esencial su comprensión para poder entender con precisión los estilos y modos usados en las distintas producciones. Tres son los principales efectos que generalmente se utilizan en post-producción de sonido: Dinámica (Compresión) Reverberación268 Ecualización269 17.1 Compresor NEWELL, P.R., and Holland, K.R. A Proposal for a More Perceptually Uniform Control Room for 268 Estéreophonic Music Recording Studios.” 103rd Convention, Audio Eng. Soc., Preprint 4580. 1997: el efecto de la reverberación que se produce cuando la onda sonora  incide contra las paredes, suelo y techo de un recinto, afecta singularmente el control room de una sala de grabación, por el tiempo en el que el efecto sigue afectando a la propia sala. El parámetro que permite medir el grado de reverberación se llama tiempo de reverberación (TR). MASSENBURG, G. Parametric equalization. Proceedings of the 42nd Convention of the Audio 269 Engineering Society, Los Angeles. Massenburg, G. 1972: Massenburg fué el creador del equalizador paramétrico, ampliamente utilizado hoy en día en las estaciones digitales DAW. �35 El compresor , es un dispositivo utilizado ampliamente por los profesionales del sonido, 270 cuyo objetivo es el de reducir el rango dinámico de una señal. Es decir, atenúa los picos de volumen, para igualar la dinámica de la pista de sonido, mejorando de este modo su inteligibilidad y calidad. El compresor se utiliza no solo en producciones musicales, sino también en producciones cinematográficas, donde el volumen de la suma de todas las bandas utilizadas en el montaje de sonido, diálogos, efectos, músicas etc, debe de ser consistente y permitir que el dialogo empaste perfectamente bien con el resto de los sonidos de la película. Para esto, existe una herramienta dentro del compresor que es de vital importancia: el THRESHOLD. El cambio sobre la dinámica del audio se establece a través de una segunda herramienta, el VCA que altera bajando o subiendo el volumen 271 final de salida. Los parámetros fundamentales de todo compresor, se resumen en los siguientes conceptos: THRESHOLD: Es el nivel por encima del cual el compresor va a actuar. RATIO: Es responsable de la cantidad de reducción expresada en una proporción entre la entrada y la salida. Por ejemplo, si tenemos un ratio de compresión de 2:1 (dos a uno) esto quiere decir que, cuando el compresor empiece a funcionar, cada dos decibelios de señal que exceda del threshold marcado, el compresor solo dejará pasar 1 solo decibelio, reduciéndose la señal general del fichero de sonido. MARTIN, B.L., and Martin, G.K. Modern Music-Playing Devices as Hearing Health Risks,” Acoustics 270 Today, 3, 1997 pp. 16–19.l. El compresor es un filtro ampliamente utilizado por todos los técnicos de sonido, que permite igualar las zonas más altas de dinámica con las más bajas, para conseguir un equilibrio de sonoridad y de presencia entre todos los elementos que la integran. HAGERMAN, Andrew Lee. Protools II Ignite, the visual guide for new users. Paperbook. London 2013.: 271 se denomina VCA a la amplification controlada por voltaje. Permite trabajar automatizando volúmenes sin modificar las curvas de intensidad automatizadas en la DAW. �35 KNEE: (Codo) Es el punto exacto donde comienza a actuar la compresión, distinguimos dos tipos:
 HARD: Curva muy abrupta. SOFT: Curva progresiva de compresión. ATTACK: es el tiempo que tarda el compresor en comenzar a actuar una vez que la señal ha superado el threshold . 272 RELEASE: Es el tiempo que tarda el compresor en dejar de comprimir una vez que la señal ha caído por debajo del threshold. MAKE-UP: (Ganancia) Es un control de volumen cuya función es devolver la ganancia que fue quitada durante el proceso de compresión. El problema que presenta este control es el ruido, por que al comprimir se aumenta el ruido. Para evitar este efecto no deseado es interesante grabar con un volumen suficientemente alto dentro de la situación en la que nos encontremos, pero evitando en todo momento saturar de señal la entrada o provocar distorsión, ruidos en la propia grabación. Si se diera este caso, nos encontraríamos en la necesidad de repetir la grabación, ya que la propia distorsión no se podría eliminar del fichero, con el consiguiente gasto de tiempo y recursos. WATKINS, A.J.. Perceptual Compensation for Effects of Echo and of Reverberation on Speech 272 Identification,” Acta Acustica united with Acustica, 91, 2005- pp. 892–901: Esta herramienta de treshold o umbral, al igual que todas las restantes funciones, es muy importante en un compresor de señal acústica. Permite no solamente igualar el sonido, sino que su uso añade color, textura y definición a la onda sonora, prediciendo un efecto claramente identificable en el propio fichero. �36 17.2 Reverberación Cuando hablamos de efecto de reverberación, o de reverberadores digitales, tenemos que saber, que casi todas las producciones utilizan esta herramienta. Una unidad de reverberación, está programada para poder filtrar cualquier sonido, utilizando estaciones de edición digital, y simular como sonaría esa fuente de audio dentro de un espacio físico determinado. La simulación responde al principio de la reflexión sonora sobre un espacio físico, lo que conlleva poder introducir la variable espacial y colocar el sonido en un ambiente determinado gracias al comportamiento de las reflexiones de 273 una vibración en un medio elástico. Como sucede con el compresor, podemos tener unidades físicas de reverb , es 274 275 decir equipos de hardware de estudio, o bien, podemos escoger la versión digital de los mismos, así como otras versiones de nuevos desarrolladores que han creado herramientas altamente sofisticadas que incluso pueden superar en calidad precisamente a los equipos hardware. Las versiones en software informático de los reverberadores físicos, empleadas para postproducción, se denominan plugins existiendo diferentes 276 versiones para las diferentes plataformas de audio del mercado. De igual modo que sucede con los compresores, los parámetros fundamentales de una unidad de reverberación son: SCHROEDER, M. R. Natural sounding reverberation. Journal of the Audio Engineering Society, 10(3), 273 1962. 219–223.: la reverberación natural del sonido depende de entre otros factores, de las reflexiones provocadas por las dimensiones físicas del entono así como de la temperatura y humedad en un lugar y tiempo especifico. Entre las mas conocidas: Lexicón MX200 y MX400; Bricasti Model 7; Alessi Microverb 4274 LONG, M. Architectural Acoustics, Elsevier Academic Press, New York. 2006. destacamos: VintageVerb, 275 TAL-Reverb, Lexicon PCM, 2CAudio Breeze,Exponential Audio Phoenix verb, 112db Redline Reverb. Entre las más conocidas encontramos: Dverb, Altiverb, Reinassance Reverb, Waves IR360276 �36 SONIDO DIRECTO: Sonido provocado por una fuente sonora y que se mueve hacia el oyente. ITDG: Initial Time Delay Gap: Es el tiempo que transcurre entre el sonido directo y las 277 primeras reflexiones. EARLY REFLECTIONS: son las primeras reflexiones que se producen al chocar el sonido contra un obstáculo o pared. Esto define el tamaño de la sala . Cuanto más separadas 278 estén entre sí estas reflexiones, mayor será la sensación de tamaño .279 LATE REFLECTIONS : (Reverb Decay o cola de Reverberación ). Acontece cuando 280 281 282 las reflexiones están tan juntas y aleatoriamente distribuidas que ya no se pueden distinguir. DUMPING : Consiste en la atenuación de las reflexiones por parte del material de que 283 estén construidas las paredes. Por supuesto, las unidades de reverb realizan este LOCHNER, J.P.A., and Burger, J.F. The Subjective Masking of Short Time-Delayed Echoes by Their 277 Primary Sounds and Their Contribution to the Intelligibility of Speech. Acustica, 8, 1958, pp. 1–10.: Hablamos de delay cuando la imagen sonora se repite en el tiempo con menor potencia progresivamente. BRONKHORST, A.W., and Houtgast, T. Auditory Distance Perception in Rooms,” Nature, 397, 1998 pp. 278 517–520.: las dimensiones de un determinado lugar, la distancia entre paredes, profundidad, altura, longitud de la sala, son factores determinantes para que el sonido que allí se propague resulte afectado por las características físicas ambientales. PELLEGRINI, R.S. Perception-Based Design of Virtual Rooms for Sound Reproduction,” 22nd International 279 Conference, Audio Eng. Soc., Paper 000245. 2002: la reverberancia controlada en estudio a través de plugins informaticos, permite manipular el tamaño de la sala, mediante la modificación del delay de las reflexiones de la propia sala. LIPSHITZ, S., and Vanderkooy, J. The Great Debate: Subjective Evaluation,” J. Audio Eng. Soc., 29, 280 1981. pp. 482–491. La sensaciones provocadas por la reverberación, permiten la aparición del factor “profundidad de campo sonoro” que altera la percepción espacial del entorno físico donde se propaga ese sonido, gracias al factor audio reflejado. ALLISON, R.F. The Influence of Room Boundaries on Loudspeaker Power Output.” J. Audio Eng. Soc., 281 22, 1974 pp: Es el final o cola de la reverberación. Se puede emular y modificar de manera artificial, con las unidades reverberadoras, o los plugins informáticos, creando una sensación sonora más natural. SOULODRE, G.A., Popplewell, N., and Bradley, J.S. Combined Effects of Early Reflections and 282 Background Noise on Speech Intelligibility,” J. Sound Vib., 135, 1989. pp. 123–133.”Con los diferentes efectos de modelado de reverb se consigue un resultado de simulación de espacios sonoros prácticamente perfecto. Una de las funciones importantes que contienen estos módulos es el DECAY ya que nos cambiará totalmente la percepción sonora si la reverb decae rápido o si por el contrario se prolonga en el tiempo. FITZROY, D. Reverberation Formula Which Seems to Be More Accurate with Nonuniform Distribution of 283 Absorption,” J. Acoust. Soc. Am., 31, 1959. pp. 893– 897. : el efecto dumping lo producen los materiales de absorción en los recintos. Se trata de la atenuación del sonido dentro del recinto acústico al chocar contra un material solido. Cada material atenúa de diferente manera el sonido. �36 proceso mediante simulación. Este parámetro simula diferentes factores de absorción 284 para diferentes materiales .285 RT60: Es el tiempo que transcurre desde que se produce el sonido directo hasta que este cae a 60 dB. Existen diferentes tipos de reverb. Las más conocidas y utilizadas son las siguientes: SIMULACIÓN ACÚSTICA : Consiste en meter un altavoz y un micrófono en una sala 286 con alta reverberación. La señal se emite a través del altavoz y el micrófono va a captar la señal llena de ambiente. SIMULACIÓN MECÁNICA: Básicamente hay dos tipos: 1) DE PLACAS (PLATE REVERB ): Se basa en una placa metálica suspendida en el 287 interior de un mueble de madera mediante unos muelles. En esta placa hay unos drivers (altavoces) que transforman voltaje en movimiento, y micrófonos de contacto 288 que transforman movimiento en voltaje. D’ANTONIO, P. Acoustic Absorbers and Diffusers, Taylor and Francis, London. 2008. en general el autor 284 comenta que cuando hablamos de las propiedades absorbentes de sonido de un material nos referimos a su coeficiente de retención o eliminación de ondas acústicas, α, (alfa) . Los valores de absorción de un material en función de la frecuencia, oscila de 0 (reflexión total) a 1.00 (absorción total).  MEYER, E., and Schodder, G.R. On the Influence of Reflected Sound on Directional Localization and 285 Loudness of Speech,” Nachr. Akad. Wiss. Gottingen, Math. Phys. Klasse IIa, 6, 1952. pp. 31–42: Se trata de superficies u objetos sólidos que interceden en el sonido cambiando y reflectando diferentes frecuencias armónicas. Los sistemas de análisis acústico basados en software son capaces de crear simulaciones de espacios 286 físicos y de su reverberación correspondiente a través de muestras reales de sonido. Se trata de transformar voltaje en movimiento y movimiento en voltaje. Para ello se utiliza un altavoz que 287 produce la fuente se sonido dentro de un mueble y recogerlo con un micrófono de contacto. MOULTON, D.The Loudspeaker as Musical Instrument: An Examination of the Issues Surrounding 288 Loudspeaker Performance of Music in Typical Rooms,” J. Acoust. Soc. Am., 113, 2004 p. 2215: Es un instrumento, un tipo de micrófono, que no capta como los habituales las vibraciones a través del aíre, sino que las capta de un medio solido con el que está en contacto, transformándolas en señal acústica. �36 2) DE MUELLES: Es un sistema muy parecido al de placas, en el cual dos muelles suspendidos sobre una placa producen el efecto de reverberación a consecuencia de la vibración de estos. DIGITALES: Son procesadores digitales que reproducen por medio de algoritmos matemáticos el ambiente de varios tipos de salas. Son las más utilizadas hoy en día (RTAS, AU, VST etc). REVERB DE CONVOLUCIÓN : Su fundamento es el modelado físico , ya que se 289 290 muestrea un ambiente determinado y se analiza, capturando la “reverberación” real que existe en un espacio físico determinado. (ALTIVERB de AudioEase). Un ejemplo muy notorio de reverb de convolución es la denominada Altiverb de la empresa americana 289 Audio Ease. Ésta permite también la grabación y creación de nuestros propios patrones y muestras de reverberación para su carga y uso posterior a través del plugin. SMITH, J. Physical modeling using digital waveguides, Computer Music Journal, 16, 4, 1992.: la 290 distorsión y modificación de una onda vibratoria de sonido determina una serie de alteraciones físicas del mismo que debe de ser siempre revisada y probada para comprobar su calidad y su capacidad de encaje dentro de un proyecto audiovisual. Altiverb: reverb de convolución �36 El analizador realiza complejas mediciones sobre los tiempos de reverberación , 291 en base a un calculo de las reflexiones primarias y secundarias que el sonido produce en dicho lugar físico, analiza el comportamiento de dichas reflexiones y almacena un fichero en el ordenador, que contendrá la reverb real de dicho espacio físico, como un preset del mismo plugin. Los archivos de las reverbs de convolución no ocupan mucho espacio, pues solo guardan información del comportamiento de un entorno acústico. Una de las reverb de convolución más conocidas es sin duda la ALTIVERB de la casa AudioEase. Este modelo es el último avance en efectos de reverberación, y ha tenido una gran acogida entre los técnicos de sonido, por su calidad y porque básicamente no simulan un determinado ambiente físico, sino que realmente reproducen ése mismo medio físico. Posee una interfaz muy potente y flexible donde podemos acomodar y editar cualquiera de los principales parámetros del efecto, y de esta forma, ajustar el resultado según nuestras necesidades. Una de las principales ventajas de utilizar esta reverb, radica en que el usuario puede descargarse de internet una amplia biblioteca de muestras reales de reverberación de diferentes lugares, países, y entornos, y de esta manera poder aumentar todo el potencial que este gran plugin puede ofrecernos a la hora de postproducir el sonido de un proyecto audiovisual. COX, T., and D’Antonio, P. Acoustic Absorbers and Diffusers, Spon Press, London & N.Y.2004.: La 291 emulación de un ambiente sonoro, se realiza a través de la creación de algoritmos capaces de predecir el comportamiento de esa onda sonora en un espacio físico. Las reverbs de convolución en cambio, se basan en la misma realidad, capturando el efecto mismo de reverberación con todas sus componentes físicos y espaciales. �36 17.3 Eco El efecto del eco , es un efecto psicoacústico, que forma parte de la familia de 292 efectos que alteran el tiempo o duración de la fuente de sonido. En este caso, en cambio, no hablamos de reflexiones (sonidos reflejos) sonoras sobre superficies reales, sino 293 repeticiones de una onda sonora en el tiempo. Hay que tener en cuenta que el oído humano es capaz de distinguir sonidos y percibirlos como eco, cuando estos se mantienen en el tiempo por encima del tiempo de persistencia sonora (0,1s para sonidos musicales y 0,067s para sonidos directos), es decir sin efectos añadidos, como sería el caso del diálogo por ejemplo. Es decir, si escuchamos un sonido directo y si supera el tiempo de persistencia sonora, entonces aparecerá lo que se denomina efecto eco .294 El sonido tiene que cumplir la siguiente fórmula:   Distancia = velocidad x tiempo295 ANDO, Y. Subjective Preference in Relation to Objective Parameters of Music Sound Fields with a Single 292 Echo. J. Acoust. Soc. Am., 62, 1977: estudió el impacto de la simulación de una única reflexión acústica en camera anecoica y su correlación con la escucha interaural. WATERHOUSE, R.V. Output of a Sound Source in a Reflecting Chamber and Other Reflecting 293 Environments,” J. Acoust. Soc. Am., 30, 1958. pp. 4–13. Los sonidos reflejos se comportan de forma distinta si la longitud de onda del sonido es larga (puede llegar a ser hasta de 18m) o por el contrario, corta. En el primer caso, la onda rodea un obstáculo que puede encontrar por el camino, mientras que en el segundo caso y siempre que ésta incida de forma perpendicular puede verse reflejada completamente. Los ecos provocados por algoritmo son aproximaciones matemáticas a la física sonora, donde el limite 294 practicable esta marcado por la inteligibilidad del material sonoro siempre y cuando el efecto provocado no interfiera en la comunicación. NEILSEN, S.H. Auditory Distance Perception in Different Rooms. J. Audio Eng. Soc., 41,1993 pp. 755–295 770.:La distancia percibida de una fuente de sonido en una habitación se ha demostrado que dependerá de la relación de las energías del sonido directo y del sonido reflejado. �36 La velocidad del sonido es de 340 m/seg Tiempo = 0,1 seg D = v t = 340 0,1 = 34 metros Por tanto el sonido tiene que recorrer a la ida y a la vuelta 17m + 17m El cálculo para un sonido seco será D = v t = 340 0,067 = 22,78 metros = 11,4 + 11,4 metros. 17.4 Ecualización El ecualizador es quizás la herramienta sonora más utilizada en cualquier producción tanto musical , como cinematográfica en general. Es una herramienta muy 296 potente que permite editar un sonido alterando sus frecuencias, graves, medias o agudas, y de esta manera, corregir errores de grabación, o mejorar el sonido existente. Estos cambios son posibles gracias a la utilización de controles y herramientas especificas que permiten filtrar el sonido atenuando o exagerando las frecuencias deseadas. La ecualización es una herramienta necesaria y absolutamente útil dentro del campo de la 297 MOORE, F. R. Elements of Computer Music, Prentice Hall. NJ 1990. El autor comenta que hoy en día los 296 elementos pregrabados MIDI, como percusión, cuerdas o sintetizadores se utilizan cada vez más en producciones musicales en directo, reduciendo así el riesgo de errores, y fallos técnicos a la hora de la representación. RUBAK, P., and Johansen, L.G. Design and Evaluation of Digital Filters Applied to Loudspeaker/Room 297 Equalization. 108th Convention, Audio Eng. Soc., 2000: Se realiza con un aparato al que denominamos ecualizador. Al ecualizar modificamos la señal en el espectro que va desde los 20Hz a los 20Khz.. Esto se hace dividiendo la señal en anchos de banda y atenuando o aumentando el que nos interese modificar. �36 producción y postproducción de sonido ya que nos permite alterar el campo de sonido desde los 20Hz hasta los 20Khz. Ecualizador Focusrite D2 �36 18. Anatomía del oído y percepción sonora 18.1 Estructura del oído humano Para comprender el uso de sonido en el cine y cómo éste es capaz de impactar sobre las emociones del público, también es necesario poder analizar aunque sea brevemente y de forma resumida, que papel juega el órgano del oído en el procesamiento de la información sonora. El órgano del oído, representa el elemento receptor que permite percibir conscientemente el medio sonoro que nos rodea, convirtiendo los estímulos acústicos 298 EVEREST, F.A. Master Handbook of Acoustics. McGraw-Hill, New York. 2001: El oído humano 298 representa un órgano importante dentro del sentido del equilibrio y del de la audición. Dentro del campo de la medicina al oído se le denomina también órgano vestibulococlear. El oído humano �36 en estímulos sensoriales, gracias a la enorme e importante labor que realiza nuestro cerebro. Desde un punto de vista anatómico, lo podemos dividir en tres grandes zonas: oído externo , oído medio y oído interno.299 18.1.1 Oído Externo El órgano del oído esta programado genéticamente, para preservar nuestra integridad física, cuida de nosotros, nos protege del medio que nos rodea. Ésta es una función cuya programación esta impresa en nuestro ADN genético, ya que es el único órgano sensorial capaz de alertarnos de un peligro, aún inclusive cuando no podamos ver físicamente esa misma fuente de peligro. Pongamos el caso por ejemplo del sonido del frenazo en seco de unas ruedas de un coche. El oído es el único órgano que nos avisa del peligro incluso si el coche viene desde una posición que no podemos advertir. Solo el sonido del chirriar de las llantas sobre el asfalto, son per se suficiente para ponernos en guardia y buscar refugio sin pararnos a identificar la fuente de tal sonido. El oído externo está formado por tres elementos importantes: el pabellón auditivo, el conducto auditivo y la membrana del tímpano. Como indica la palabra, el oído externo, es la zona del órgano más periférico, más expuesta al exterior, y por consiguiente al AARTS, R.M. A Comparison of Some Loudness Measures for Loudspeaker Listening Tests. J. Audio Eng. 299 Soc. NY, 1992.: Es la parte exterior del oído, a él llegan las ondas sonoras y a través del pabellón auditivo las transmite hacía el oído interno. �37 mundo que nos rodea, al mundo de los sonidos reales. El pabellón auditivo tiene la función de recoger las vibraciones sonoras que viajan en el medio elástico, y dirigirlas hacia el conducto auditivo. El oído externo, también es el responsable de distinguir la procedencia de la fuente sonora, es decir, si ésta viene por delante o por detrás. Podemos distinguir su procedencia gracias a que el oído por naturaleza es mucho más sensible a los sonidos frontales que a los traseros. El canal auditivo es una cavidad en forma de tubo, que se une al pabellón auricular por un lado abierto al exterior, y or el otro, a una membrana física denominada tímpano, que es la que separa los dos elementos, el oído externo del oído medio. En verdad si estudiamos con detenimiento el canal auditivo, descubriremos que funciona como una cámara de resonancia es decir es un sistema mecánico, y dicha resonancia permite que se cree una presión sonora dentro del canal que producirá su efecto sobre la membrana timpánica a la que está unida es su parte mas interna. Las dimensiones de éste canal para un adulto, es de aproximadamente 2,7 cm. de longitud y 0,7 cm. de diámetro. Como hemos dicho, es capaz de amplificar las frecuencias sonoras que llegan del exterior, aplicando esta resonancia a un primer grupo de frecuencias que se sitúan entorno a los 3 KHz. El oído externo �37 Esta caja de resonancia natural, es capaz de amplificar la energía de las frecuencias que se sitúan entre los 2 y los 5Khz, pudiendo conseguir una ganancia de 10 o inclusive 12 dB en el tímpano respecto del nivel a la entrada del canal. Esta membrana de aproximadamente 1cm de superficie, tiene forma cónica con su vértice orientado al interior del oído. Es la encargada de recibir la presión que viene del canal auditivo (exterior), y transmitir esa información a la zona del oído medio. 18.1.2 El oído medio El tímpano representa el primer órgano del oído medio, una cavidad con un 300 volumen de unos 6cm3. En el oído medio, se encuentran alojados tres huesos muy ZUREK, P.M. Measurements of Binaural Echo Suppression,” J. Acoust. Soc. Am., 66, 1979. pp. 1750–300 1757: El tímpano está dentro del oído, entre el oído externo y medio . Es el receptor de las ondas sonoras, que lo hacen vibrar ya que se trata de una membrana elástica, y que es capaz de transmitir la vibración de sonido hacía el oído interno. Corte transversal oído medio �37 importantes llamados martillo, yunque y estribo, los cuales transmiten la información desde el tímpano al oído interno. Éstos constituyen una verdadera cadena transmisora de información. El martillo es el hueso que está en contacto con la membrana del tímpano, y con los otros dos, el yunque y el estribo, conduciendo la información sonora del mundo exterior. La trompa de Eustaquio, permite conectar el oído medio por medio de un 301 conducto o canal muy fino, con la garganta, con el objetivo de igualar las presiones a los dos lados de la membrana del tímpano, y de éste modo, permitir que ésta vibre libremente, para poder transmitir mejor la información sonora. El estado normal de la trompa de Eustaquio, es estar perfectamente cerrada, contribuyendo a crear una cámara o espacio estanco dentro del oído medio. Pero regularmente el orificio de este conducto se abre, sobre todo cuando bostezamos o tragamos. Esto acontece para permitir liberar aire desde el interior del oído medio, e igualar presiones interna y externa. El hueso del estribo tiene una vital importancia en la cadena de transmisión de información, ya que su base se apoya sobre una pequeña abertura, el espacio oval, que es la encargada de conectar el oído medio con el interno y de esta forma transmitir la información liberada por la cadena de huesecillos. AES Staff Writer. New Horizons in Listening Test Design,” J. Audio Eng. Soc., 52, 2004. pp. 65–73: El 301 oído medio se encuentra dentro del oído, entre el oído interno y el oído externo. Es una cavidad donde se encuentra la trompa de eustaquio, la cadena de huesecillos, y el antro mastoideo (cavidad del hueso mastoides que comunica con la cavidad del tímpano), todos ellos conforman la caja del tímpano. �37 18.1.3 El oído Interno El oído interno está constituido por dos elementos importantes: el laberinto óseo y el laberinto membranoso. El laberinto óseo recubre totalmente el laberinto membranoso. Éste es un espacio relleno de un liquido denominado endolinfa que lo recorre en su totalidad y al que se accede a través de la ventana oval. La información sensorial del mundo exterior (ondas vibratorias), a través de la conexión que existe entre el oído medio y el oído interno, penetra en esta cavidad, convirtiéndose ésta en un elemento esencial en el proceso de la audición. Tiene tres partes globalmente diferenciadas: El vestíbulo o cámara de entrada. Los canales semicirculares. La cóclea o caracol. El oído interno �37 El vestíbulo conecta directamente con el oído medio. Los canales semicirculares son tres canales óseos, que son responsables del sentido del equilibrio. La cóclea, que es la zona más importante, tiene unas dimensiones aproximadas de unos 3,1 cm de longitud medidos desde la ventana oval al vértice. Se llama así, porque es de forma circular, tanto que su forma recuerda una concha de caracol, situada oblicuamente con respecto al eje central. En el caracol, se halla la estructura más importante responsable de la audición en su interior. Se denomina como membrana basilar , que será la encargada de analizar los 302 sonidos (vibraciones sonoras) y convertirlos en información eléctrica que más tarde será transmitida al cerebro por medio del nervio acústico (nervio vestibular). 18.2 Mecanismo de la Audición En el proceso de la audición , los sonidos o vibraciones sonoras (hablamos de 303 vibraciones por segundo que representa la frecuencia de un determinado sonido) siguen un camino muy sencillo, que va del oído externo, al oído medio y de éste, al oído interno . Sin embargo, existe otra forma en la que la información del mundo exterior 304 “RUMSEY F. and T. Mc Cornick. Sound and Recording. Focal Press. Oxford 1995. Los autores, han 302 comprobado y analizado como la membrana basilar ante sonidos de baja frecuencia, vibra uniformemente en toda su extensión, mientras que ante frecuencias agudas lo hace diferencialmente a lo largo de la extensión de la misma. MOORE, B.C.J. An Introduction to the Psychology of Hearing. Academic Press, London. 2003. :Las 303 ondas sonoras penetran en el oído externo, hacen vibrar la membrana timpánica, que a su vez se traduce en impulsos cerebrales y provocan la sensación de audición en el oído interno. ZAHORIK, P. Assessing Auditory Distance Perception Using Virtual Acoustics,” J. Acoust. Soc. Am., 111, 304 2002, pp. 1832–1846.:Se encuentra dentro del oído, en el hueso temporal. Es el encargado de recoger las señales sonoras que recibe y transformarlas en impulsos cerebrales. �37 puede ser transferida al oído interno sin que tenga que intervenir ni el tímpano, ni el oído medio. Esta segunda vía de acceso, se da a través de los huesos del cráneo que actúan per se como una caja de resonancia de amplificación de las vibraciones sonoras. El mecanismo de la audición puede ser desglosado en tres momentos fundamentales: 305 recepción, transmisión y percepción. 18.2.1 Recepción La captación del sonido es la misión fundamental que tiene el oído externo. Las ondas sonoras que chocan en el pabellón auditivo, son dirigidas al interno de éste por la conformación del propio pabellón auricular, y transmitidas así al oído medio a través del canal auditivo. Dicho canal tiene una forma peculiar de comportarse, pues dependiendo de la frecuencia, de las vibraciones y de las continuas reflexiones de las ondas a lo 306 largo de dicho conducto, guía las ondas de presión sobre la membrana del tímpano, produciendo la vibración de éste ultimo. Este paso es sumamente importante porque de él GABOR, D. Acoustical quanta and the theory of hearing, Nature, 1947. 159, 591–594 :El mecanismo de 305 audición del ser humano tiene tres etapas fundamentales: Recepción, transmisión y percepción. OLIVE, S.E., and Toole, F.E. The Detection of Reflections in Typical Rooms,” J. Audio Eng. Soc., 37, 306 1989. pp. 539–553.: las ondas reflejas en una determinada sala, se comportan de forma diferente físicamente dependiendo de los materiales y las dimensiones de la propia sala donde se produce la vibración sonora. �37 depende la correcta captación de las ondas vibratorias externas que posteriormente serán traducidas a información eléctrica .307 18.2.2 Transmisión Cuando las vibraciones sonoras se trasforman en ondas de presión, éstas inciden sobre el tímpano, una membrana de material flexible y muy sensible a los desplazamientos físicos, Esta membrana, empezará a vibrar de acuerdo con las frecuencias (numero de vibraciones por segundo) de la onda incidente. Como hemos explicado anteriormente, esa vibración timpánica se transmite a la cadena de los tres huesecillos, formados por el martillo, yunque y el estribo, y, se amplifica al lo largo del recorrido hasta llegar a la ventana oval , lugar por el cual la 308 presión de las ondas penetran en el oído interno, que será el encargado de codificar eléctricamente la información sonora del mundo exterior. La cadena de huesos del oído medio desempeña además una función doble que podríamos denominar: adaptadora y protectora. MIRANDA, E. R. Machine learning of sound attributes: a case study, Leonardo Music Journal, 7,1997. 307 47– 54. La recepción del sonido en el ser humano recibe el nombre de audición. Las ondas sonoras se propagan a través del aire o el medio en el que se encuentre, así el oído actúa de receptor en el ser humano, transformando esa vibración en impulsos cerebrales, que este identifica como sonido. LEE, L.W., and Geddes, E.R. Audibility of Linear Distortion with Variations in Sound Pressure Level and 308 Group Delay. 115th Convention, Audio Eng. Soc.,2006 Preprint 6888.: la ventana oval transmite el sonido desde el oído interno hacia el oído medio. Recubre la abertura de la cóclea. La ventana oval contiene un líquido que al vibrar el tímpano, entra también en vibración. �37 Adaptadora: Acompaña la onda procedente del medio externo, para que actúe correctamente y se adecue a las condiciones físicas del oído interno y del medio líquido donde van a incidir posteriormente.. Protectora: Los huesos del martillo y del estribo, tienen una función protectora, ya que los músculos que controlan estos huesos, actúan como auténticos compresores sonoros, es decir, como atenuadores de la señal de entrada, evitado así que vibraciones de excesiva amplitud o aquellas demasiado intensas de baja frecuencia, puedan dañar al órgano. 18.2.3 Percepción Cuando la presión sonora del tímpano llega al oído interno, éste procede a su análisis que acontece fisicamente dentro de la cóclea o caracol. El movimiento de la ventana oval origina ondas de presión dentro de la cóclea que está rellena de un líquido denominado perilinfa. Las ondas entonces transmiten su vibración a la membrana basilar. La membrana basilar es el órgano encargado de analizar la onda en sus diferentes 309 RUMSEY F. and T. Mc Cornick. Sound and Recording. Focal Press. Oxford 1995: la membrana basilar 309 es la responsable de nuestra capacidad de percibir frecuencias que van desde los 20 Hz hasta los 20 KHz. El oído humano es más sensible a las frecuencias que se encuentra entre los 1000 y los 5000 Hz. Esta membrana es más sensible a las frecuencias agudas. �37 componentes de frecuencia. En realidad se comporta como un analizador de espectro, a través de las células ciliadas que recorren la superficie de la membrana y que son capaces de activarse dependiendo de la frecuencia que incida en ese instante y en esa zona. Cada una de estas células resonantes se comunican con las fibras nerviosas del paquete del nervio auditivo. Éste por último, será el encargado de transportar el impulso eléctrico a las áreas de la corteza cerebral donde se procesarán las señales sonoras, produciéndose así el fenómeno del la audición. 19. Características de la Audición Con respecto al tema de la audición, muchas son las preguntas que surgen al tratar este tema. Aquí vamos a analizar conceptos básicos pero muy necesarios para nuestro trabajo. Tenemos que saber qué clase de sonidos somos capaces de percibir, cuando percibimos, bajo qué circunstancias, qué elementos pueden interferir o no en el proceso auditivo, cuanto puede oír una persona, etc. Responder a la pregunta de bajo qué condiciones podemos percibir un sonido, la respuesta es muy fácil, ya que para escuchar un sonido dependemos básicamente de dos conceptos: su intensidad y su frecuencia. De todos es sabido que el oído humano sólo percibe sonidos cuyas frecuencias se encuentran dentro del margen de 20 Hz a 20 KHz. Llamamos espectro audible , al rango de frecuencias que el ser humano puede percibir. 310 BACKUS, J. The Acoustical Foundations of Music, Norton, New York. 1969: El autor comenta que es el 310 rango de frecuencias sensibles por el oído humano. Se encuentra entre los 20 Hz y 20 Khz. Por encima o por debajo de este límite no distinguimos sonido alguno. �37 Recordemos que no todos los sonidos (frecuencias) pueden ser identificados por el hombre, así como que también la edad de un sujeto es determinante para la calidad de la captación sonora. Normalmente ésta decae con el paso de los años, y sobre todo lo hace a edad más temprana o con mayor intensidad, si el oído del sujeto ha estado sometido durante largos períodos de tiempo (condiciones de trabajo, etc) a sonidos intensos, sobre todo en altas frecuencias. Este es el caso por ejemplo del músico de una banda de rock, o del trabajo diario de un disk-jockey. La intensidad o volumen de un determinado sonido es fundamental para poder ser captados por en sujeto. Es decir, el sonido tiene que tener al menos un margen mínimo de intensidad para que éste pueda excitar los órganos del oído. Por ejemplo: ¿quién ha escuchado directamente el sonido de las pisadas de una araña? Hay sonidos cuya intensidad es tan baja, que a pesar de que el oído funcione también como amplificador de dicha señal, no lo vamos a poder percibir. Necesitamos al menos que el sonido supere un cierto nivel mínimo de volumen para que sea procesado por el cerebro. Aunque el umbral de volumen de la audición depende de las frecuncias que percibimos, podemos decir que la horquilla se sitúa entre 0 y 120 decibelios. Por encima de éste valor, acontece la sensación de dolor físico. Áreas de la audición �38 Por consiguiente, también necesitamos que los sonidos que llegan a nuestros oídos no superen un cierto umbral máximo de frecuencia (20Khz), y por consiguiente de volumen ya que en caso contrario, podríamos poner en peligro nuestro mecanismo auditivo. De hecho, para un técnico de sonido, el oído representa su herramienta de trabajo, que debe de cuidar para mantenerla en perfecto estado a lo largo de sus años como profesional. En definitiva, existe un área en la que puede producirse el fenómeno de la audición, siempre y cuando se cumplan las condiciones arriba indicadas, es decir, un nivel máximo y mínimo de volumen, y un margen de frecuencia. Es la llamada zona de audición normal. 311 Un dato importante a subrayar, y contrariamente a lo que se podría creer en un primer momento, es que la percepción sonora no es directamente proporcional a la intensidad física de la onda de sonido, sino que depende de otros factores como veremos seguidamente. 19.1 Sonoridad y curvas isofónicas Analicemos a continuación el concepto de sonoridad y curvas isofónicas. Hemos dicho anteriormente que para percibir un sonido, éste tiene que tener un determinado volumen y debe de encontrarse dentro del rango de frecuencias correcto. Así, por KRAUSS, G.J. On the Audibility of Group Distortion at Low Frequencies,” 88th Convention, Audio Eng. 311 Soc. 1990, Preprint 2894: en general el autor informa que es el rango de frecuencias sonoras que percibe el oído humano sin ningún tipo de problema. Este fenómeno viene dado por la presión que aguanta el oído interno a la vibración de ciertas frecuencias. �38 ejemplo, se da la siguiente paradoja. Somos capaces de percibir un tono de 1 KHz con 10 dB de nivel de intensidad, pero sin embargo, un tono de 100 Hz y con esos mismos 10 dB no será perceptible para nosotros. Para que pudiéramos escuchar estos dos tonos con la misma intensidad, deberíamos de aumentar el volumen del segundo hasta los 30 dB. Esto tiene que ver con la característica subjetiva de un sonido, es decir, por la sensación sonora que produce su intensidad en nosotros. A esa sensación sonora es a lo que llamamos SONORIDAD. Se define sonoridad (loudness) como la sensación subjetiva que produce la intensidad real de un sonido. Esta sensación, ademas de depender de la intensidad física de la onda, depende de la frecuencia y del ancho de banda (ancho de banda crítico). Llamamos ancho de banda 312 critico, el área dentro del cual la sonoridad permanece constante. Como hemos adelantado anteriormente, el oído no responde por igual a todas las frecuencias sonoras si éstas tienen la misma intensidad. Es decir, el oído tiene un comportamiento que no es lineal para todo tipo de volumenes. Teniendo en cuenta este factor, se han calculado unas curvas que marcan zonas de igual sensación sonora, también llamadas líneas isofónicas. Cada línea isofónica representa puntos de igual fuerza sonora, es decir, a lo largo de cualquiera de esas líneas los sonidos aparecen igual de intensos, aunque las intensidades reales varíen notablemente. Es decir, al aumentar el volumen sonoro, las curvas presentan menos variaciones. A menor volumen sonoro las curvas presentan más variaciones. Esto se explica porque la relación disminuye al aumentar el nivel de presión sonora. Si tenemos un sonido determinado, al disminuir la intensidad del mismo, las frecuencias graves se perderán FLETCHER, H., and Munson, W.A. Loudness, Its Definition, Measurement and Calculation, J. Acoust. 312 Soc. Am. 1933, 5, pp. 82–108: representa la extensión de frecuencias donde están concentradas la mayor intensidad de la señal. A estas frecuencias se les llama también, frecuencias efectivas. Sus diferentes magnitudes se miden en Hz, Khz. �38 mucho antes, y las frecuencias agudas dejaran de escucharse por ultimas. (altas 313 frecuencias ).314 El concepto de sonoridad es por consiguiente muy importante desde nuestro punto de vista como montadores y diseñadores de sonido para cine, porque nos permite entender y valorar mejor la forma no solo con la que escuchamos el mundo que nos rodea, sino también cómo éste, afecta a nuestra percepción subjetiva (psíquica). Aquí entra en escena toda una serie de conceptos que tiene que ver con el procesamiento cognitivo de la señal, y sus influencias en la conducta. Pero si esto es así, ¿como podemos medir la sonoridad, es decir la experiencia sensorial subjetiva del individuo? Medimos la sonoridad a través de un proceso de comparación, es decir utilizando una unidad de cálculo, llamada fonos que se puede definir como la intensidad que debe tener un tono de 1 KHz para que su sensación subjetiva de volumen sea igual a la del MIYASAKA, E. Consideration on Perceptual Effects of Sounds with Ultra-high Frequencies,” J. Acoust. 313 Soc. Japan, 8, 1999. pp. 569–572.: viene a demostrar la importancia de las altas frecuencias en la percepción humana más allá de lo que hasta la fecha se pensaba. MOULTON, D. The Significance of Early High-Frequency Reflections from Loudspeakers in Listening 314 Rooms. 99th Convention, Audio Eng. Soc. 1995: Se denomina altas frecuencias, aquellas que vibran con un ancho de banda de miles de hercios, el oído humano solo distingue hasta los 20.000 hercios (20 Khz.). Se corresponde con los sonidos de tonos agudos. Curvas isofónicas �38 sonido cuya sonoridad se quiere determinar. Así, por ejemplo, un sonido que parezca igualmente sonoro que un tono de 1 KHz y 40 dB tendrá un nivel de sonoridad de 40 fonos. Esta escala es logarítmica, lo que impide que puedan sumarse ni restarse fonos aritméticamente. Cuando analizamos la sonoridad y la audición en general, vemos como aparece un concepto muy importante a tener en cuenta: el margen de audición . A este 315 concepto, se le denomina también, umbral de audición, y se corresponde con las curvas más extremas isofónicas, e decir: la primera marca el umbral mínimo de audición (limite inferior de audición) y la última el umbral intolerable o umbral del dolor (limite superior 316 de audición). La zona delimitada por las dos líneas umbrales constituye la denominada zona de audición normal . Una característica que se puede apreciar en esas curvas es la 317 dependencia que existe entre la sensibilidad del oído y la frecuencia, encontrándose la BARRON, M. The subjective effects of first reflections in concert halls: The need for lateral reflections. 315 Journal of Sound and Vibration, 1971, 475–494: Corresponde a la escala logarítmica de fons. Tiene que ver con el decibelio en cuanto a que no se trata de una magnitud fija. Nos permite relacionar y diferenciar dos señales con respecto a su sonoridad. KUTTRUFF, H. Room Acoustics, 3rd ed. E & FN Spon, London. 1991: Entendemos como umbral del 316 dolor todas aquellas frecuencias perjudiciales para el oído humano. Si hablamos en términos de decibelios, nos referiremos a aquellos sonidos cuya presión sonora supera los 120 decibelios. HANSEN, V., and Madsen, E.R. On Aural Phase Detection. J. Audio Eng. Soc., 22, 1974: la zona de 317 audición normal esta constituida por aquellas frecuencias audibles con un máximo y un minimo de intensidad sonora. Ese máximo sería el sonido a gran volumen capaz de rompernos el tímpano, y el minimo aquellos sonidos por el contrario, inaudibles, por su levedad. Mapa de la audición humana �38 sensibilidad máxima a la frecuencia de 10 KHz. En la figura superior, podemos ver claramente como se distribuye la sonoridad según frecuencias, intensidades de sonido y lo que es más importante, dependiendo del sonido que estemos captando. Así, si lo que necesitamos es mejorar la sensibilidad a los diálogos, de la voz humana, podemos ver como ésta abarca las frecuencias que van de los 100Hz a los 4Khz, con una intensidad entre 20 y 70db. En el caso de la música, el rango audible se mueve en cambio desde los 50Hz a los 10Khz, mientras que la dinámica llega incluso a alcanzar los 100db. 19.2 Efecto de enmascaramiento Un fenómeno importante a tener en cuenta en el estudio de la audición es el así llamado, efecto de enmascaramiento, por el cual la percepción de un sonido se ve afectado por la presencia de otro. Más concretamente, dependiendo si los dos se escuchan simultáneamente o con un pequeño retardo , entonces puede acontecer un 318 enmascaramiento simultáneo o no simultáneo.319 Si dos sonidos, llegan al oído al mismo tiempo, y además tienen frecuencias muy próximas (están dentro de la misma banda crítica), sucederá que uno ocultará al otro, parcialmente o completamente. Cuanto más parecidas sean las frecuencias de los dos MARTENS, W.L., Braasch, J., and Woszczyk, W. Identification and Discrimination of Listener Percepts 318 Associated with Multiple Low-Frequency Signals in Multichannel Sound Reproduction,” 117th Convention, Audio Eng. Soc., 2004: el efecto de “delay” aplicado a frecuencias inferiores a 30Hz origina una subganancia dinamica que pueden afectar directamente a la audición de frecuencias limítrofes. EVEREST, F.A. Master Handbook of Acoustics, 4th ed. McGraw-Hill, New York. 2001.: Se produce cuando 319 coinciden a la vez en el tiempo varios sonidos de frecuencias parecidas y similar intensidad, provocando mucha dificultad para el oído humano para poder distinguir uno de otro, perdiéndose así bastante información correspondiente a cada audio. �38 sonidos y se den en el mismo tiempo, más se ocultarán mutuamente y la sonoridad total de los dos conjuntamente será inferior a la suma de las sonoridades de ambos por separado. Este fenómeno sonoro, es muy común, sobre todo cuando estamos creando toda una banda de sonido para una película, y acontece que de repente algún sonido desaparece y dejamos de oírlo. Lo que sucede realmente es que éste ha quedado oculto o enmascarado por otro, que puede ser, una música, un efecto de sonido, o un determinado ambiente que en algún momento ha competido en frecuencias con el diálogo original, y eso ha motivado que alguna parte, palabra o frase deje de escucharse. Es decir, ha habido un “ruido de fondo” donde un sonido ha sido enmascarado por otro enmascarante. Para que éste efecto se produzca, además de existir una cercanía entre las frecuencias del sonido enmascarante y las del sonido enmascarado, el efecto será 320 mucho más intenso cuanto mayor sea el volumen del sonido enmascarante sobre el enmascarado. Generalmente, tanto el sonido enmascarante como el enmascarado se caracterizan por tener formas de ondas muy complejas. En el caso de que se traten de formas de onda sinusoidal, el efecto de enmascaramiento resulta mas evidente. Por ejemplo, una señal de 12 KHz de frecuencia y un nivel de intensidad de 40 dB es enmascarada completamente por un tono de 18 KHz cuyo nivel de intensidad es de 80 dB. Sin embargo, si la diferencia entre frecuencias fuera mayor, imaginemos que el tono enmascarante fuera de 2 Khz, el efecto no se produciría. Para que el enmascaramiento sea efectivo, el sonido enmascarador, ademas de contener casi las mismas frecuencias del enmascarado, debe de ser como mínimo 20 dB más HOLLYN, Norman. The Film Editing Room Handbook, Third Edition. Los Angeles: Lone Eagle Press, 320 1999: El efecto enmascarante se percibe independientemente de las dimensiones de la sala o recinto en el que se propagan los sonidos. Es más pronunciado el efecto de enmascaramiento cuanto mayor sea la diferencia de nivel entre el sonido enmascarante y el enmascarado. �38 intenso en volumen, en dinámica, que el enmascarado. Si estas condiciones no se dan totalmente, tendremos entonces un enmascaramiento parcial y no total. Por último subrayar aquí, que el enmascaramiento será más efectivo si cabe, si la frecuencia del sonido enmascarante es inferior al enmascarado. En general, y resumiendo, el enmascaramiento más efectivo se consigue cuando las dos frecuencias están próximas y cuando la frecuencia del enmascarante es más baja que la del enmascarado (la baja frecuencia enmascara más efectivamente a la alta frecuencia que viceversa). Con el enmascaramiento no simultáneo, sucede lo mismo pero bajo condiciones diferentes. Es decir, un sonido enmascarará a otro si el primero tiene mayor amplitud que el segundo y ademas desaparece antes de que escuchemos el segundo sonido. Parecería arte de magia, pero tiene su lógica fisiológica. Cuando esto sucede es porque el segundo sonido llega entre 250 y 300 ms después del primero, y además ha provocado con la intensidad de su volumen, por así decirlo “aturdir” al oído que no ha tenido tiempo de recuperar su estado de reposo. 19.3 Audición binaural y localización de fuentes de sonido321 Tenemos que pensar que nuestros oídos son dos canales independientes receptores del mundo exterior y que funcionan también independientemente el uno del TALBOT-SMITH, M. Audio Engineer’s Reference Book, Focal Press, Oxford. 1999.: el cerebro funciona 321 como un procesador informático de la información sonora. La localización de la fuente sonora, es objetivo primordial en el procesado cognitivo, pues responde al instinto básico de seguridad o de supervivencia que persigue nuestro cerebro. �38 otro, afectando separadamente a nuestro cerebro. La información que llega a cada oído pasará al cerebro con una codificación diferente, interpretando éste el estimulo recibido también de forma independiente. Todo esto sucede porque nuestra audición es binaural 322 o binauricular, es decir, el cerebro procesa separadamente la información sonora que le llega de cada oído, para obtener al final una única respuesta cognitiva. La audición binaural, es la responsable por ejemplo de que podamos distinguir la ubicación de un foco de sonido, siendo ésta función fundamental para poder percibir con todo lujo de detalles los montajes multicanal 5.1 o 7.1 cinematográficos. La localización espacial de una fuente de sonido acontece gracias a dos factores: 1) La diferencia de intensidades llegadas a cada oído. 2) La diferencia de tiempos de llegada a los dos oídos. Es interesante poder comprobar el efecto que produce percibir el origen del foco sonoro, en especial con el ejemplo que presento a continuación y que resume perfectamente lo que entendemos por escucha binaural . Para la correcta audición del 323 siguiente clip de audio, se recomienda utilizar unos auriculares para la percepción de la fuente de sonido 3D (V65). Si analizamos las bajas frecuencias que llegan a los dos oídos, la diferencia de intensidades es inapreciable, no pudiendo así determinar el foco del sonido. SAYERS, B. McA., and Toole, F.E. Acoustic-Image Lateralization Judgments with Binaural Transients,” J. 322 Acoust. Soc. Am., vol. 36, 1964.: Nos referimos con la audición binaural a la recepción y captación de sonido a través de nuestros oídos. Al tener dos receptores (oídos) separados entre sí y orientados cada uno hacía un campo sonoro se produce el efecto de tridimensionalidad, esta escucha tridimensional, nos permite distinguir la distancia y profundidad de la fuente se sonido. Se trata de una técnica de captación de audio basada en dos micrófonos omnidireccionales colocados 323 uno a cada lado de una cabeza humana artificial de material rígido. Está técnica recrea la escucha 3d del ser humano. �38 En las altas frecuencias sin embargo, es donde podemos notar mayor direccionalidad, ya que la longitud de onda es menor siendo más sensible aquel que ha llegado antes al oído más cercano de la fuente sonora. Esto permite que seamos capaces de descubrir el foco u origen del sonido, como sucede con este ejemplo tan aclaratorio. Según estudios realizados en laboratorio, a 250 Hz, la sonoridad en ambos oídos es prácticamente idéntica, no importa donde esté situada la fuente sonora, pero para una frecuencia de 1000 Hz, el oído más cercano a la fuente percibirá unos 8 dB más de intensidad en la señal, mientras que a 10 KHz esa cantidad se eleva a 30 dB. Concluyendo, podemos decir que en el caso de las altas frecuencias que se mueven por encima de 1200 Hz, la localización de la fuente sonora se basa en la 324 intensidad del sonido, mientras que para las frecuencias bajas o graves por debajo de 325 800 Hz, la localización se realiza por medio de la fase y de la diferencia temporal medida en milisegundos que transcurre para que el sonido llegue a ambos oídos. KUROZUMI, K., and Ohgushi,K. The Relationship between the Cross-Correlation Coefficient of Two-324 Channel Acoustic Signals and Sound Image Quality,” J. Acoust. Soc. Am., 74, 1983 pp. 1726–1733 : cuando intentamos discriminar la procedencia de un sonido, el eje horizontal es más fácil de detectar que el vertical (la altura de un sonido). WATKINS, A.J. Subjective Comparison of Single Channel Versus Two Channel Subwoofer Reproduction,” 325 117th Convention, Audio Eng. Soc. 2004.: el autor resume que no solo por la diferencia de intensidad de cada sonido nuestros oídos diferencian la fuente de la que proviene el sonido, sino también por la intensidad del mismo. Si la frecuencia es muy baja (unos 250 hz) el oído es incapaz de discriminar la ubicación de la fuente sonora. V65 �38 La localización espacial por parte del cerebro de una fuente de sonido, se realiza tanto en el plano horizontal como vertical, siendo para el hombre mas fácil de localizar el plano horizontal del sonido que el vertical. 19.3.1 Fuentes Imaginarias de sonido Vamos a analizar a continuación un efecto muy importante que acontece cuando varias son las fuentes sonoras que llegan a ambos oídos, procedentes por ejemplo de dos altavoces . En estos casos puede aparecer lo que denominamos como fuentes 326 fantasma o imaginarias de sonido. Esto quiere decir que percibiremos determinadas fuentes de sonido ubicadas en posiciones que no se corresponden con la de los altavoces reales. Este efecto ha sido siempre muy explotado sobre todo por el mercado musical, a través de realización de mezclas sonoras que contienen información en canales fantasma .327 Veamos el siguiente ejemplo: MOORE, B.C.J. An Introduction to the Psychology of Hearing. Academic Press, London. 2003.: el autor 326 transmite la idea de que el cerebro percibe y procesa como fuentes sonoras reales, aquellas que no lo son, en situación de escucha estereofónica controlada. SHIRLEY, B.G., Kendrick, P., and Churchill, C. The Effect of Estéreo Crosstalk on Intelligibility: 327 Comparison of a Phantom Estéreo Image and a Central Loudspeaker SourceJ. Audio Eng. Soc., 55, 2007. pp. 852–863.: estudiaron las diferencias existentes cuando se comparaban una altavoz central real y su correspondiente fantasma. Se comprueba el efecto de la lateralización del sonido en canales estéreo. �39 Tenemos un par de altavoces situados frente al oyente, y equidistante 328 simétricamente el uno del otro. Si reproducimos por los dos altavoces L y R un 329 330 mismo sonido, de igual intensidad en ambos canales, la sensación resultante que tendrá el oyente, será la de percibir dicho sonido justo en el centro, entre los dos altavoces. Es decir, al oyente le parecerá que los sonidos provienen de la zona intermedia entre los altavoces, según aparece en la siguiente figura. Éste tercer “altavoz” recibe el nombre de altavoz fantasma. Este efecto se debe a la escucha binaural que hemos visto anteriormente, 331 aunque con una peculiaridad, ya que si los dos sonidos llegan en el mismo tiempo y con DAVIES, W.J., Cox, T.J., Acta Acustica united with Acustica, Volume 82, Number 5, September/October 328 1996: comenta el autor que si los altavoces se sitúan por encima de la cabeza del receptor, acontecería el efecto seat-dip. Cuando esto sucede, entonces acontece un efecto de absorción de energía de las frecuencias graves entre 100 y 300 Hz (direccionales) con una perdida de dinámica de entre 10 y 20 db. ALEXANDER, R.C. The Inventor of Estéreo.The Life and Works of Alan Dower Blumlein, Focal Press, 329 Oxford. 1999. Hablamos de fuentes sonoras simétricas cuando recibimos la misma información sonora por delante que por detrás de ambos altavoces. Aunque por la forma de los oídos recibimos siempre por su orientación mayor sensación sonora por delante que por detrás de ellos. TOOLE, F.E. Principles of Sound and Hearing,” McGraw-Hill, New York.1988. En general el autor afirma 330 que la fuerza o potencia sonora que llega a nuestros oídos desde unos altavoces de característica acústica plana, es directamente proporcional a los factores ambientales y espaciales del lugar que en el que este se propaga. SIVONEN, V.P., and Ellermeier, W. Directional Loudness in an Anechoic Sound Field, Head Related 331 Transfer Functions, and Binaural Summation,” J. Acoust. Soc. Am., vol. 119, 2006 pp. 2965–2980.: descubrieron que la intensidad del sonido nunca es constante y que depende del ángulo de incidencia sobre la persona que escucha. Ellos estudiaron este efecto, analizando 8 fuentes sonoras dispuestas en diferentes ángulos, en una cámara anecoica. Escucha central “fantasma” �39 igual intensidad, la percepción que tendremos será la de escuchar ese sonido solamente en el centro. Si en cambio, algún de los dos factores mencionados, intensidad o tiempo cambiaran para un altavoz de forma distinta que para el otro, entonces el cerebro seguirá percibiendo el sonido en un canal fantasma, pero éste se situará más cerca del altavoz332 próximo al que tenga mayor nivel. Así, por ejemplo, si aplicamos el nivel mayor al altavoz de la izquierda, el resultado será tal y como aparece en la figura superior. Las fuentes imaginarias no 333 necesariamente siempre están localizadas entre dos fuentes reales. Existen casos donde estas se localizan fuera de la región comprendida entre dos fuentes reales. Esto puede conseguirse aplicando a los altavoces señales desfasadas con unos niveles apropiados. Uno de los usos de las fuentes imaginarias de sonido, ha sido la grabación DEUTCH, D. The Psychology of Music, Academic Press Orlando, FL 1982: el autor transmite el concepto 332 de que el altavoz traduce los impulsos eléctricos en ondas analógicas acústicas, ondas que se propagan en el aíre y que el oído humano manda al cerebro para transformarlo en impulsos cerebrales. GERZON, M. Ambisonics in Multichannel Broadcasting and Video,” 74th Convention, Audio Eng. Soc. 333 1983, Preprint 2034.: Se da cuando nos encontramos dentro de un campo sonoro generado por más de una fuente, como es el caso por ejemplo de las fuentes multicanales de sonido. Es fruto de la percepción humana, ya que nos da la impresión de que el sonido procede de una fuente imaginaria, y no de donde se encuentra físicamente el altavoz. �39 estereofónica para la difusión del sonido utilizando más de un altavoz, es decir L y R 334 estéreo .335 BLAUERT, J., and Divenyi, P.L. Spectral Selectivity in Binaural Contralateral Inhibition,” Acustica, 66, 1988 334 pp. 267–274.: Se llama así al tipo de captación de audio con microfonía estereofónica, que reproducimos electrónicamente desde una plataforma de altavoces. CELESTINOS, A., and Nielsen, S.B. Optimizing Placement and Equalization of Multiple Low Frequency 335 Loudspeakers in Rooms.119th Convention, Audio Eng. Soc., 2005. Como los autores comentan, la adecuada colocación de los altavoces, tanto en altura como profundidad, va a repercutir en la captación no solo de fuentes estéreo sonoras sino tambien en la localización de estas. �39 20. Sistema de sonido Surround 20.1 Un breve repaso a la historia Para poder comprender y analizar las claves sonoras de una película, es imprescindible hacer referencia a todo lo que tiene que ver con el audio surround 336 multicanal. Vamos a analizar en que consiste, que características presenta y que formatos son los que encontramos en el mercado. La sociedad de audio y video americana (SMPTE) en 1987 para unificar la forma de trabajar y poder mantener un mismo criterio 337 de calidad en todas las producciones, creó el standard multicanal digital, un sistema de reproducción de 5.1 canales para el área cinematográfica, incluyendo sus características técnicas, como son, la frecuencia de muestreo, matriz de reproducción y codificación, la longitud de la palabra, o el número de canales de audio disponibles para su escucha en salas de exhibición. En 1991, nace el primer sonido digital para cine, y se crea bajo las siglas CDS con el nombre de Cinema digital sound, pero fracasó muy pronto, entre otras causas por no contar con una copia de seguridad en formato analógico del sonido del film. Esto provocaba que al fallar la versión digital, no se pudiera continuar con la proyección de la película. La sociedad SMPTE articuló también los requisitos necesarios para los sistemas broadcast de retransmisión, TV, Radio, etc. Además de esto, otros RUMSEY, F. Controlled Subjective Assessments of Two-to-Five-Channel Surround Sound Processing 336 Algorithms,” J. Audio Eng. Soc. 1999, 47, pp. 563–582.: estudio y analizó los diferentes efectos sonoros al analizar altavoces multicana en salas de exhibición. (SMPTE), es una sociedad técnica internacional que publica normas de audio y video y que tiene su 337 sede principal en Estados Unidos de América. �39 muchos formatos salieron a la luz, como estándares de trabajo para todos los profesionales del sector audiovisual, como por ejemplo, el A/52-A/54. Si tenemos que hablar de sistemas digitales multicanales para cine, obviando el primero que hemos comentado anteriormente, pero que no tuvo ninguna repercusión ni para técnicos, ni para los exhibidores, deberíamos de destacar el sistema de sonido multicanal lanzado para el ámbito domestico, que fue el Láser Disc. Éste sistema tuvo una vida muy corta, pero indudablemente, a nivel domestico tuvo una cierta aceptación. Quizás el inconveniente mas grande lo representaba el precio de los equipos, y sobre todo el soporte sobre el que el material se grababa. Paralelamente, y en un período relativamente corto de tiempo el DVD, otro sistema creado para la reproducción de sonido domestico, acabó siendo el sistema de reproducción multicanal más extendido en todos los hogares. Para mejorar el uso y convertir estos equipos en más amigables para el público en general, se creó un único cable de conexión de audio en formato comprimido al que se llamó, conexión digital S / PDIF (IEC 958), denominado por la SMPTE como conexión "IEC 61937-1” para flujo de bits de audio codificados en PCM no lineal, compatible tanto para el formato Dolby Digital y DTS que veremos más tarde.338 Mientras que los reproductores de Láser Disc sólo tenían espacio para una señal codificada, es decir para un solo idioma en formato 5.1 canales de audio, los DVDs podían almacenar varios idiomas, y además hacerlo en formato 5.1 canales de mezcla. El DVD se impuso así como sistema de reproducción domestico durante algunos años. Las diferentes producciones cinematográficas, sabían que éste soporte, cubría tanto las necesidades técnicas como de calidad de imagen y sonido, y además las necesidades comerciales para su venta y distribución para varios idiomas y países. El disco versátil COREY, J., and Woszczyk, W. Localization of Lateral Phantom Images in a 5- Channel System With and 338 Without Simulated Early Reflections.” 113th Convention, Audio Eng. Soc., 2002 Preprint 5673.: Es el sistema de sonido o más bien dicho de compresión desarrollado por la casa Dolby para su uso en cine. �39 digital DVD contiene un conjunto de normas y ajustes tanto de imagen como de audio, permitiendo incluso insertar información en formato ROM. Si hablamos de capacidad, los DVDs pueden almacenar siete veces más información, es decir tienen más capacidad de almacenamiento que el disco compacto CD, y esto si nos referimos sólo a la capacidad para un disco de una sola capa. Quiere esto decir, que el formato DVD permite crear soportes digitales de doble capa (dos capas de memoria), aumentando así su capacidad. Los discos se pueden hacer de doble capa, de doble cara, o una mezcla, para así poder cubrir, una amplia gama de necesidades y aplicaciones. Los discos que se usan solo para reproducción, es decir de sólo lectura, tienen una capacidad de almacenamiento mayor que los discos gravables o regrabables (RWD). Por el contrario, el CD tiene una capacidad de 650 MB, una séptima parte de la del DVD de una sola capa de una sola cara. Para aumentar el espacio de almacenamiento del DVD, se puede conseguir, de diferentes formas, o bien a través de una codificación de los datos con compresión más alta, con un sistema más versátil de corrección de errores, o grabando los datos en el soporte, aprovechando mejor el espacio y creando microsurcos más finos y menos distantes los unos de los otros sobre el mismo soporte físico. Tipos de soporte DVD y capacidad de almacenamiento �39 Si hablamos de velocidad de lectura de información de los equipos DVD dicha velocidad estaba relacionada con la capacidad del láser de la unidad de descodificar la información, tanto de imagen como de sonido, contenida en el propio soporte. El formato físico del DVD, ha sido durante años el standard en el mercado audiovisual. Esto implicaba un máximo de calidad sonora de 16bits y 48Khz, y todas las producciones cinematográficas, mantenían este ajuste de calidad, lo que permitía comercializar DVDs con el siguiente ajuste de imagen 740 x 480 pixeles. Con el paso de los años, y con el continuo desarrollo de la tecnología, se ha llegado a un nuevo standard de calidad, en cuanto a grabación y reproducción del material audiovisual. Es lo que hoy denominamos como HD y SHD (alta definición, y ultra alta definición). El formato HD de 1280 x 720 p/p o 1080 x 920 pp, ha sido ampliamente utilizado en los últimos años, pero con la aparición del nuevo formato SHD, ha ido poco a poco desapareciendo, para dar paso a la tendencia actual. La calidad llega a niveles increíbles, cuando podemos ver películas comerciales y reproducirlas en el salón de nuestra casa, con todo lujo de detalles. Aunque la imagen ha sufrido unas transformaciones muy importantes en las ultimas décadas, el sonido también ha evolucionado, pero de una forma menos evidente, aumentando también la calidad del material, con archivos grabados a 24Bits y 98Khz de frecuencia de muestreo. Todo esto, ha empujado a los técnicos e investigadores a crear un nuevo soporte para reproducción domestica, que fuese capaz de almacenar una imagen en HD y SHD y a la vez mantener una calidad de audio muy alta. Así en 2003 aparece el soporte óptico, de grabación con láser azul, denominado Blue-Ray, capaz de almacenar hasta 60 Gb de memoria. �39 De entre todos los sistemas de sonido multicanal para reproducción en salas 339 cinematográficas que han ido apareciendo en el mercado a lo largo de los años, me gustaría presentar en primer lugar el sistema de los laboratorios DOLBY .340 20.2 DOLBY Desde principios de los años 60, la empresa británica Dolby , no ha parado de 341 innovar y mejorar los estándares de calidad del sonido en general. Primero a través de los sistemas DOLBY “A” y DOLBY “B” de reducción de ruido o “soplo” del siseo de fondo, en las grabaciones analógicas , y más tarde introduciendo en el mercado el formato 342 multicanal para las salas comerciales de cine. Dolby es la marca que está más presente OLIVE, S.E., Castro, B., and Toole, F.E. A New Laboratory for Evaluating Multichannel Audio 339 Components and Systems,” 105th Convention, Audio Eng. Soc. 1988, Preprint 4842.: es el sistema de sonido en el que se reproducen varias pistas a la vez, cada canal en una posición (altavoz de sala), creando un sinfín de fuentes imaginarias de sonido. Se utiliza en producciones cinematograficas, para crear la sensación en el público de tridimensionalidad de la imagen. http://www.dolby.com/us/en/index.html340 TOOLE, F.E., and Sayers, B. McA .Highlights in the History of Multichannel Sound. J. Audio Eng. Soc., 341 46,1998 pp. 27–31. Los autores comentan como el desarrollo de Dolby en la historia de esta compañia ha estado orientado a potenciar y garantizar un I+D sostenido, que permitiera a esta gran empresa mantenderse muy arriba en los estándares de calidad y de innovación tecnologica. DICKREITER, M. Tonmeister technology: Recording environments, sound sources, and microphone 342 techniques. New Tech. New York, 1989: en general el autor afirma que el efecto de Proximidad aparece cuando utilizamos micrófonos direccionales, cardioides y supercardioides. Los micrófonos omnidireccionales son "inmunes" a tal efecto. Logotipo de Dolby http://www.dolby.com/us/en/index.html �39 hoy en día en la mayoría de las salas de exhibición de todo el mundo. El descubrimiento más importante que ha presentado Dolby en las ultimas décadas, lo ha realizado sin duda en el terreno del sonido para el sector cinematográfico, y más concretamente con la aparición en 1984 del sistema Dolby SR (Spectral Recording) y en 1986 del formato Dolby Surround. Ambos formatos basan su funcionamiento en el uso de un complicado sistema informático de compresión y expansión de la información sonora, que posteriormente se graba fisicamente en el soporte fotográfico de la película. Desde los primeros inicios, Dolby tuvo siempre como objetivo principal, mejorar y desarrollar la tecnología del sonido en el terreno profesional, pero además, nunca ha olvidado su aplicación al entorno domestico, desarrollando como veremos más tarde, los famosos equipos DOLBY HOME CINEMA, que han permitido llevar las salas de cine a nuestro propio salón de nuestra casa. Este es el secreto por el que hoy en día Dolby, se encuentra tan presente en el sector cinematográfico, musical, de la industria del videojuego, estudios de grabación, discos Láser, dvd, transmisión por Tv digital, sistemas de información vía satélite, etc. La historia de Dolby Laboratories se basa en una importantísima inversión en I+D en la tecnología del audio. Esta incansable tendencia, sigue siendo imparable para la compañía. Ya veremos, en capítulos posteriores, como Dolby a día de hoy, vuelve a revolucionar el mercado del audio, con el esperado e increíble sistema DOLBY ATMOS. Aún no todas las salas están preparadas para exhibir películas en este formato, pero ATMOS representa la última frontera en investigación sonora, para llevar a las salas de cine una nueva, brutal y realmente inmersiva experiencia 3D de sonido. La cronología que sigue, describe los 343 acontecimientos más importantes del mencionado avance. Cortesía de Dolby Laboratories343 �39 20.3 La evolución de DOLBY344 1965: Dolby lanza la reducción de ruido A-type® para el mercado profesional. 1968: Dolby lanza la reducción de ruido Dolby B-type® para productos para el consumidor. 1970: Advent, Fisher, y Harman Kardon comienzan a ofrecer grabadoras de cinta en casete con reducción de ruido Dolby B-type. 1971: Dolby y Signetics crean un circuito integrado Dolby B-type simplificado que amplía la gama de productos en los que se puede utilizar esta tecnología. 1975: Dolby lanza Dolby Estéreo®, un formato de impresión muy práctico de emisión óptica estéreo de 35 mm. 1977: Dolby obtiene reconocimiento con el lanzamiento de Star Wars (La Guerra de las Galaxias) y Close Encounters of the Third Kind (Encuentros Cercanos del Tercer Tipo), ambos en Dolby Estéreo. 1981: Llega al mercado el primer producto con reducción de ruido Dolby C-type. 1982: Dolby lanza Dolby Surround, que codifica las dos pistas de cualquier fuente estéreo en sonido envolvente de cuatro canales. 1984: Dolby lanza Dolby AC-1, nuestro primer sistema de codificación digital. 1986: Dolby SR (grabación espectral) mejora el rendimiento de grabación analógica para igualar, y en algunos aspectos superar, a las costosas grabadoras digitales. 1987: Dolby Pro Logic® envolvente mejora la experiencia del cine hogareño con el sonido envolvente de cuatro canales.1989: Dolby lanza Dolby AC-2, que permite realizar, MANUEL SANCHEZ CID, Una posible solución a la crisis publicitaria radiofónica en España.Editorial 344 Dickinson, Madrid 2008. Este autor hace referencia en su libro a la evolución histórica de la tecnología Dolby. Pag. 34. �40 de manera remota, el monitoreo y el doblaje de audio de calidad profesional completos entre estudios separados a través de las líneas ISDN. 1991: Se presenta el nuevo sistema de codificación de audio de canales múltiples, Dolby AC-3. Ahora conocido como Dolby Digital, su primera aplicación es en formato de sonido para películas. 1992: Aparece el nuevo formato óptico digital SRD 5.1 que incluye también la codificación en formato SR del sonido de la película como copia de seguridad. 1995: Se presentan los primeros productos para el consumidor con compatibilidad de reproducción de Dolby Digital. 1998: Se lanza el primer videojuego con audio interactivo Dolby Digital 5.1. Se presenta la tecnología Dolby Headphone. 1999: Se produce el debut de los Codec (codificador/decodificador) que presentan el nuevo Dolby E para producción y distribución de audio de canales múltiples para DTV (Televisión Digital). 2000: Se presenta la tecnología Dolby Pro Logic II. 2002: Se lanza la tecnología Dolby Virtual Speaker para consumidores que carecen de espacio para un sistema de reproducción de 5.1 canales. 2005: Se produce el debut de la codificación sin pérdida de Dolby TrueHD para discos de video de alta definición. 2007: Se demuestra Dolby 3D Digital Cinema en la industria cinematográfica. 2009: Dolby Axon introduce la comunicación de voz en 3D en los videojuegos en línea. 2010: Primera demostración pública del sonido envolvente de 5.1 canales en un teléfono móvil mediante el uso de la tecnología Dolby Mobile. 2013: Presentación del nuevo formato multicanal DOLBY ATMOS �40 Cuando hablamos de sonido multicanal, en formato 5.1, estamos hablando de una tecnología implementada originariamente por Dolby, y que consiste en poder incluir en el propio soporte cinematográfico, 6 pistas de sonido independientes, que están sincronizadas con la imagen, y que permiten añadir profundidad al sonido, convirtiendo la sala de exhibición, en toda una compleja realidad sonora donde el espectador es capaz de vivir sensorialmente la experiencia del protagonista casi como fuese en primera persona . Mucha agua ha pasado por debajo del puente, desde los primeros años del 345 sonido Estéreo. El primer sistema desarrollado por la compañía fue el sistema SURROUND , con 346 la utilización de canales cuadrafónicos en las salas de cine, el famoso sonido envolvente. Pero la innovación no terminaba ahí. Al mismo tiempo ingenieros y técnicos de sonido también realizaban sus pruebas, y aportaban su granito de arena, con mejoras sustanciales en el uso y la tecnología de los micrófonos, en la mejora de la captación de audio directo, y de las técnicas empleadas, de forma que el sonido grabado pudiese mostrar todo su potencial en las salas de exhibición. Pero si Dolby se ha hecho realmente conocido en todo el mundo, tanto por profesionales, técnicos como publico en general, ha sido gracias a la invención del formato DIGITAL multicanal, o como es conocido popularmente, como sonido DOLBY DIGITAL (SRD). Ray Dolby , fue el fundador de DOLBY LABORATORIES en 1997. No solo ganó 347 diferentes premios por sus avances tecnológicos como el NR (equipos de reducción de ruido), o incluso el reconocimiento por parte de la propia Academia Cinematográfica MANUEL SANCHEZ CID, Una posible solución a la crisis publicitaria radiofónica en España.Editorial 345 Dickinson, Madrid 2008 En su libro Sanchez Cid comenta el efecto inversivo que se pretende conseguir con la experiencia multicanal sensorial. Pag. 87. MÄKIVIRTA, A.V., and Anet, C.A Survey Study of In-Situ Estéreo and Multi-Channel Monitoring 346 Conditions,” 111th Convention, Audio Eng. Soc. 2001 En 1982 la casa DOLBY lanzo su primer sistema con dos canales de sonido traseros, para dotar la experiencia sonora de sonido cuadrafónico. Hoy en día el Kodak Theatre de Hollywood, se le conoce como el DOLBY THEATRE347 �40 Americana por su aportación al cine, sino que su marca sigue siendo hoy en día el líder en el sector técnico audiovisual en todo el mundo. Por así decirlo, Dolby, ha marcado un standard, muy difícil de desbancar, no solo por la calidad que tiene, sino también por la popularidad de la que goza en casi la mayoría de las salas de reproducción de cine de todo el mundo. Por descontado, el descubrimiento más popular fruto del desarrollo e investigación de sus técnicos, fue el sistema de codificación Dolby 5.1 que fue capaz de revitalizar el cine, y devolver a las salas el esplendor e interés del que había gozado en sus primeros momentos de la historia. Es un etapa importante para la producción de cintas audiovisuales, ya que la tecnología permite convertir al sonido en protagonista indiscutible del nuevo cine comercial, dando la oportunidad al director, de utilizar todas las posibilidades que el nuevo formato permite y de esta manera introducir un valor añadido más a la narrativa de la historia. Este sistema, gracias a su equipo denominado Matriz activa de sonido, del que Dolby tienen la patente mundial, permite codificar seis canales de sonido y reproducirlos también en perfecta sincronización con la cinta cinematográfica. Cuando hablamos de “inmersión sonora”, nos referimos claramente a la tecnología que Dolby ha llevado a todas las salas de cine. Esta innovación técnica, permite, como la palabra indica, “sumergir” al espectador en una experiencia única, convirtiéndole en el protagonista de la historia, en una experiencia sonora total, donde los altavoces de salida cubren todo el perímetro de la sala cinematográfica, permitiendo que el publico experimente el autentico sonido envolvente. Dolby, pone a disposición así en las salas de exhibición, unos nuevos equipos, que permiten decodificar la señal grabada en la cinta fotográfica, a través de un cabezal de lectura situado en el mismo proyector de 35mm de la cabina, como se muestra en la fotografía superior. Será el propio decodificador el encargado de analizar y separar en 6 �40 canales independientes de sonido, la información grabada en el propio soporte del metraje. Con el paso de los años, las matrices decodificadoras han evolucionado enormemente, tanto en potencia como en calidad de reproducción. Además podemos indicar que el gran éxito de este sistema, instalado en la mayoría de las salas de todo el mundo, no solo se basa en inversiones relativamente asequibles para el propio exhibidor, sino también, como veremos más tarde y mas detenidamente, en el sistema de seguridad del propio soporte, que incluía una copia adicional del audio en formato analógico. Éste audio permitiría al propio público seguir viendo la película, aunque el sistema de descodificación digital hubiese fallado. Recordemos como éste mismo motivo, significó la desaparición de sistemas tan validos como el disco CDS (Cinema Digital Sound). Proyector 35mm dotado con cabezal lector digital Dolby Interface Matrix de conversión Dolby Digital �40 20.4 Tipos de codificación con sonido analógico 20.4.1 Sonido Monoaural Si analizamos secuencialmente los diferentes sistemas de codificación de sonido, el primero en aparecer en el mercado, fue el sistema monoaural que permitía la grabación y después, reproducción del material bajo este formato (MONO). Éste tipo de grabación se utilizaba al principio en la radio, y para ser más concreto, en la transmisiones de frecuencia de onda media y corta. El sistema MONO de sonido, también fue utilizado durante mucho tiempo en otros sectores artísticos, como la producción cinematográfica, la televisión, o las grabaciones de música. Los primeros discos que salieron a la venta estaban grabados en este formato, y se reproducían a través de un único altavoz. Recordemos así los famosos tocadiscos, alguno de ellos portátiles que incorporaban el altavoz, en la propia caja del maletín. La tecnología monoaural, permanecido en el mercado algunos años, pero no cabe duda que significaba un gran avance para su época y un sistema que podía ser utilizado en varios ámbitos profesionales, y que además no requería de una especial preparación para su uso y desarrollo. Años más tarde, la ciencia sonora da otro paso hacia adelante, con la incorporación de un nuevo sistema de codificación. �40 20.4.2 Sonido estereofónico El segundo sistema de formato analógico (en cinta) fue el llamado EEstéreoFONICO. Este nuevo y revolucionario formato para aquél entonces, suponía la inclusión de un canal adicional de sonido. Es decir, en total 2 (izquierdo y derecho) o también comúnmente llamados L y R. Estos dos canales se grababan en el mismo soporte físico, evitando así problemas que tuviesen que ver con la sincronía entre las dos pistas de sonido. Al contrario del formato monoaural, el Estéreo sigue teniendo vigencia hoy en día, ya que es el sistema más utilizado en muchos sectores, como por ejemplo la radio (emisoras de frecuencia modulada FM ), la televisión, la música, el video, etc.348 20.4.3 Sonido cuadrafónico Si prestamos una especial atención al mundo cinematográfico, podemos subrayar, como en este caso, Dolby desarrolló un sistema para poder llevar a las salas más de dos canales de sonido de reproducción (altavoces ) y de esta manera, añadir profundidad 349 física a la experiencia sonora que el público podía vivir en directo. Éste formato recibió el nombre de sistema SURROUND. Lo único que necesitaba el exhibidor era añadir dos WHITAKER, J., and Benson. Standard Handbook of Audio and Radio Engineering. McGraw-Hill, 2001: La 348 tecnología FM, corresponde a las siglas de frecuencia modulada, a través de la que se transmiten las ondas sonoras eligiendo la frecuencia en la que se envía y recibe. Es un método muy utilizado para la radiodifusión. EARGLE, J., Bonner, J., and Ross, D. The Academy’s New State-of-the-Art Loudspeaker System,” 349 SMPTE Journal, 1985 pp. 667–675.: el sistema de sonido cuadrafonico o tetrafonico, es el precursor de lo que aparecerá mas tarde como sonido multicanal 5.1. Nace sobre los años 70. �40 salidas más de sonido en la parte trasera de la sala, y un pequeño equipo de descodificación en la propia cabina del proyeccionista. El sistema SURROUND, también era conocido como sonido cuadrafónico ya 350 que resumía en una sola palabra, toda su esencia. Es decir, en pantalla se localizaban dos altavoces estéreo, y al final de la sala, otros dos altavoces estéreo, con lo que se podía conseguir, una inmersión sonora total, ya que el público se sentía literalmente rodeado por el sonido, la música, los efectos, durante la reproducción de la película. Esta innovación técnica, fue la responsable de revitalizar el cine y atraer publico a las salas. Recordemos que la competencia de la radio pero sobre todo de la televisión, también en su momento había restado popularidad al propio cine y a la industria cinematográfica en general. 20.4.4 Dolby SR (Spectral Recording) Dolby, pionera en el desarrollo e investigación del sonido, sorprende nuevamente con la aparición de un increíble y revolucionario formato de audio cinematográfico. Este sistema recibe el nombre de DOLBY SR (spectral recording). Esta nueva forma de exhibir RATLIFF, P.A. Properties of Hearing Related to Quadraphonic Reproduction,” BBC Research Department 350 Report No. BBC RD 1974: estudios de este autor demuestran como los problemas de fase entre canales, son mucho más críticos en sistemas cuadrafónicos de reproducción de sonido. Logotipo Dolby �40 en las salas el sonido, realmente representaba una evolución posterior del sistema cuadrafónico, y supuso un éxito rotundo para la compañía, y sobre todo para que Dolby se erigiera en líder absoluto en muy poco tiempo, para el formato cinematográfico. La primera película en incorporar este formato fue “Robocop ” en 1987. 351 El éxito de esta cinta fue memorable no solo por la historia de los personajes, pero sobre todo por el interés del público en sentir realmente una nueva experiencia sonora. A partir de este momento, podemos decir que prácticamente todas las salas de Norteamérica al principio, y posteriormente de todo el mundo, adoptaron esta innovadora tecnología. Con la utilización del equipo Dolby y de la matriz de decodificación, los proyeccionistas fueron formados por la compañía, ya que se requería determinados conocimientos y habilidades técnicas para manejarse con este nuevo formato y de ésta forma lograr que la experiencia del publico fuera totalmente satisfactoria. El sistema Dolby SR, consta de la codificación de 5 canales de audio en el mismo soporte fotográfico de la película. Hablamos de una codificación, es decir, que los 5 canales de sonido se comprimen en solo dos pistas analógicas, visualmente localizadas y que ocupan el espacio que existe entre el borde del fotograma de imagen y la perforación del soporte, como bien podemos ver en la fotografía adjunta en la pagina siguiente. Para que la matriz pueda descodificar correctamente el audio y distribuirlo por los seis canales de altavoces de la sala, estos canales tiene que respetar el formato y el orden que aparece a continuación: WELTI, T., and Devantier, A. Low-Frequency Optimization Using Multiple Subwoofers,” J. Audio Eng. 351 Soc., 54, 2006 pp. 347–364.: el sistema SR incorpora altavoz independiente de subgraves. La colocación de estos altavoces es importante por el efecto que las frecuencias de larga longitud de onda tienen sobre los objetos en los que impacta. �40 Canales 1. L (Izquierdo) 2. C (Centro) 3. R (Derecho) 4. S (Surround trasero monoaural) 5. LFE (Subgraves) De ésta forma, el espectador tiene la oportunidad de vivir una experiencia única. El sonido no solo le llega de la pantalla de proyección, sino también le rodea a lo largo de toda la sala, por medio de los altavoces surround fácilmente visibles a lo largo de las paredes del recinto. Como vemos en la figura inferior, el cabezal Dolby del proyector lee la información codificada en dos canales y la transmite al “Sound Processor” matriz de Dolby que decodifica el sonido convirtiendo dos canales en seis, y distribuyendo la señal con la ayuda de amplificadores dedicados a los altavoces de la sala. Importante destacar que el sistema SR incorpora un único canal monoaural surround, envolvente que se localiza a lo largo de todo el perímetro lateral de la sala, rodeando las butacas. Sala de cine con sistema Fotográfico con sonido codificado Dolby SR �40 Prácticamente todas las salas de cine hoy en día, como poco, llevan instaladas este sistema, ya que aunque otros formatos diferentes han aparecido en el mercado, el que realmente sigue dominando es sin duda el sistema ideado por Dolby, ya que es el más versátil, y sobre todo el menos costoso de introducir, ya que el formato SR, como evolución del cuadrafónico, exigió en su momento un desembolso no demasiado cuantioso, para completar el equipo y convertirlo de este modo en un sistema de reproducción multicanal real. Dolby SR Spectral Recording, o también llamado de “grabación espectral’ es un sistema de codificación profesional que se viene usando desde 1986. Entre sus bondades, está la de mejorar sustancialmente el rango dinámico tanto del material grabado como el de las transmisiones analógicas. 352 20.5 Tipos de codificación con sonido digital. 20.5.1 DOLBY SR-D En 1992, Dolby vuelve a innovar el formato sonoro cinematográfico con la explosión de la era digital. Vuelve a presentar un nuevo formato de reproducción de sonido para las salas MANUEL SANCHEZ CID, Una posible solución a la crisis publicitaria radiofónica en España.Editorial 352 Dickinson, Madrid 2008. El autor destaca la importancia de la experiencia inmerecida 360 grados de la tecnología de sonido multicanal. Pag. 88. �41 de cine . Llega de esta manera, el sistema Dolby denominado Dolby SR-D (Spectral 353 354 Recording digital) con un montón de novedades, y sobre todo con la ventaja de poder disfrutar un sonido de mayor calidad en todos los aspectos. La primera película en soportar este nuevo sistema de codificación, fue “Batman´s return” de la productora Warner Bros. Sin duda el nuevo formato SR-D tiene muchas ventajas, pero si tuviese que citar una en especial, no dudaría en decir que es la mejora en la dinámica y potencia del sonido. La codificación SRD incluye una mejor y más perfecta compresión de la información. No olvidemos que el objetivo de estos sistemas eran el de incluir dentro del reducido espacio de un fotograma de cine, nada mas y nada menos que seis canales de audio, y para ello la compresión es un elemento fundamental tanto para conseguir el espacio suficiente dentro del soporte, como para no perder de vista la calidad del propio material sonoro. Con el SRD se consigue una mayor compresión del material con poca perdida de calidad y mayor volumen de reproducción. Para entender este nuevo formato vamos a ver a continuación el soporte físico y como se distribuyen los canales de sonido. Como vemos, seguimos teniendo los 6 canales de sonido, pero en este caso responden digitalmente. Es decir lo que grabamos en el soporte fotográfico son datos informáticos, datos que el codificador de Dolby ha convertido de audio a información binaria 0 y 1. No olvidemos que esto es sumamente importante ya que no tratamos con información analógica sino con datos digitales. Como vemos en la imagen inferior, los canales tienen que seguir respetando un orden de codificación, desde el izquierdo de pantalla al ARGY, Stephanie. Roll, Cut, Print: A Conversation Between Sound Professionals from the Set, the Edit 353 Room and the Mixing Stage. February 2004: el autor viene a decir que el objetivo tanto del tecnico de sonido como del director es mantener la misma experiencia sonora desde la propia sala de mezclas hasta la sala de exhibición, para que el mismo publico pueda experimentar el sonido genuino que se creó para la película. Ben Burtt, diseñador de sonido y creador de la increíble colección de efectos de sonido de StarWars, es 354 un conocedor profundo de las potencialidades de los sistemas de codificación Dolby. �41 subgrave, pero en este caso, y por seguridad, Dolby entrega al productor y sin coste alguno, la versión codificada analógicamente de la película, en formato SR. Dicho formato se encuentra en su habitual localización, a lo largo de la película entre el espacio que hay entre el fotograma de imagen y las perforaciones laterales. Este doble sistema de sonido, permite tener una copia de seguridad en un formato paralelo. Esto quiere decir, que si en las salas de proyección en un momento determinado podía fallar la información digital del mismo soporte, o bien del decodificador SRD, automáticamente saltaba el decodificador analógico SR, permitiendo que el público pudiese seguir disfrutando de la proyección. El sistema Dolby SRD, posee un canal adicional surround, convirtiéndolo realmente, en un canal estéreo (a diferencia del monoaural que incorpora el sistema SR) y permitiendo de este modo una mejor y más precisa manipulación del sonido en la propia sala de exhibición.355 Canales 1. L (Izquierdo) 2. C (Centro) 3. R (Derecho) 4. SL (Surround Izquierdo) 5. SR (Surround Derecho) 6. LFE (Subgraves) MANUEL SANCHEZ CID, Una posible solución a la crisis publicitaria radiofónica en España.Editorial 355 Dickinson, Madrid 2008. El autor subraya la importancia de la reproducción multicanal de sonido y su exacta localización de altavoces parta conseguir un procesado perfecto del mimso. Pag. 74 a 82. Fotográfico con sonido Dolby SRD (digital track) y SR (analog track) �41 Por ultimo señalar que en los sistemas SRD los 6 canales son codificados digitalmente, imprimiendo los datos digitales entre perforación y perforación del fotográfico, como podemos ver en la fotografía superior. Sin lugar a dudas, el sistema Dolby SRD, es el más extendido en prácticamente todas las salas de cine, siendo el formato más utilizado por las productoras mas importantes del mundo. Como vemos en el gráfico inferior, el proyector, lee a través de un doble cabezal decodificador la información digital (SRD), situada entre perforación y perforación de los fotogramas y la información analógica (SR) situada en el lateral interno de la película. Esta ultima funcionaría como hemos mencionado ya, por un lado como copia de protección, o por el contrario, en aquellas salas dotadas únicamente de sistema de reproducción Dolby SR. Como curiosidad añadida, podemos señalar que en el centro del espacio reservado a la codificación digital SRD, entre perforación y perforación, encontramos el símbolo del logotipo de Dolby que identifica la autenticidad del sonido de la película. El proyector, como hemos dicho, lee la información y la manda a un decodificador o matriz de Dolby, que será la encargada de recrear, a partir de la información de ceros y unos que contiene la codificación SRD, los seis canales discretos que irán a alimentar el conjunto de altavoces de la sala como podemos ver en la imagen que a continuación se adjunta. Imagen ampliada perforación fotografico �41 20.5.2 DOLBY AC3 A lo largo de la historia de esta gran compañía, Dolby no ha dejado de investigar y mejorar sus productos. Fruto de este compromiso ha sido sin duda, la innovación del sonido en el terreno doméstico. Gracias a todo el trabajo de I+D desarrollado a partir de los formatos profesionales de audio para cine, en 1991 aparece un novedoso sistema denominado Dolby AC3, capaz de llevar el sonido tal y como lo escuchamos en las salas de cine, al salón de nuestra propia casa. El formato AC3 aún siendo “el hermano menor” del sistema profesional de cine broadcast, ha tenido una gran aceptación, ya que el espectador con un gasto mínimo (decodificador y 6 altavoces), puede disfrutar de una experiencia única, a través de la inmersión sonora 5.1 en su propio hogar.. El formato AC3 , ha sido y aún lo sigue 356 siendo, un protocolo de codificación con un muy buen factor de compresión de sonido en formato 5.1 tanto para DVD, CD, LASER DISC, como para su uso en TV digital. En el caso del sistema de codificación AC3, el orden de las pistas ya codificadas es diferente a los restantes formatos que hemos ya hemos visto antes. Nos referimos con AC3 a la codificación final de sonido para sistemas home cinema dotados con Dolby 356 surround encoding. Sala de cine con sistema Dolby SRD �41 Canales 1. L (Izquierdo) 2. R (Derecho) 3. SL (Surround Izquierdo) 4. SR (Surround Derecho) 5. C (Centro) 6. LFE(Subgraves) A día de hoy, éste formato esta implantado en la televisión, gracias a la llegada de la transmisión digital de audio y video (TDT). Ahora muchos programas, series y documentales, llevan incorporado el formato AC3 de sonido, con posibilidad de ser descodificado por el propio usuario a través de un sistema home cinema de audio, a un 357 coste muy reducido. Recordemos que este formato ha sido adoptado como el estándar internacional por el Moving Picture Experts Group desde 1997. OCTOBER. Hodgson, M. The Number of Loudspeaker Channels. 19th International Conference, Audio 357 Eng. Soc. 2001, Paper No. 1906.: la escucha de sonido en aparatos home cinema, permite reproducir el sonido con total fidelidad al original, perdiendo únicamente los niveles y la curva X que como estándar se aplican a las salas de cine. �41 20.5.3 DOLBY SURROUND EX Dolby ha desarrollado otro formato más de sonido para cine, el sistema DOLBY EX. El resultado es muy interesante, ya que se añade un canal de audio adicional, localizado en la parte trasera de la sala que denominaremos canal Surround Central. Aunque éste formato no ha tenido gran aceptación entre los profesionales, hoy en día hay determinadas compañías que lo usan, ya que ganamos en espectacularidad, al poder mover la fuente de sonido a lo largo de toda la sala gracias al canal trasero surround. En este caso, la codificación se sigue grabando en el espacio que hay entre perforación y perforación del fotográfico, tal y como teníamos con el sistema SRD. Además la adecuación de las salas a este nuevo sistema, no requiere gasto alguno, ya que los exhibidores que cuentan con proyección en formato SRD, solo tienen que realizar una pequeña actualización de sus equipos a nivel de software, para poder utilizar la tecnología EX. Como sucede con los anteriores sistemas, existe un orden de codificación de canales, y este es el siguiente: Canales 1. L (Izquierdo) 2. C (Centro) 3. R (Derecho) Logotipo Dolby EX �41 4. SL (Surround Izquierdo) 7. SC (Surround Central) 5. SR (Surround Derecho) 6. LFE (Subgraves) El formato EX de Dolby, lo que hace realmente no es añadir un nuevo canal independiente real, sino que el canal trasero central (CS), lo extrae a partir de los dos canales surround derecho SR y surround izquierdo, a través de una matriz activa de interpolación. El formato final de sonido será un sonido en 6.1 pero en realidad tendremos 358 siempre 6 pistas reales aunque se añada una extra “virtual” por así decirlo, en la matriz final de codificación. Pero a lo largo de los años, otras empresas, sistemas y equipos han ido apareciendo en el sector cinematográfico, aportando nuevas ideas, nuevas tendencias, nuevos estándares. A continuación, veremos otras opciones que están aportando nuevas soluciones de sonido, y que se han transformado con el paso de los años, en otros formatos profesionales para la explotación comercial de las películas. MARTENS, W.L., Braasch, J., and Woszczyk, W. Identification and Discrimination of Listener Percepts 358 Associated with Multiple Low-Frequency Signals in Multichannel Sound Reproduction,” 117th Convention, Audio Eng. Soc., 2004: este formato permite una más precisa identificación de los sonidos subgraves repartidos por la sala, en reproducción de sonido multicanal EX. �41 20.5.4 DTS En 1990 aparece por primera vez la marca DTS, propietaria de la empresa americana DTS Technologies, con un nuevo, revolucionario y potente sistema de codificación de sonido multicanal. El sistema DTS (Digital Theater System) significa la respuesta de la industria americana al formato digital de Dolby. Creada por Terry Beard y fundada por los Universal City Studios en 1993, se utiliza por primera vez con el estreno de la película del aclamado director Steven Spielberg, “Parque Jurásico” en ese mismo año. Con solo cinco empleados, que fueron los que dieron vida a esta compañía en un primer momento, la empresa DTS logro en pocos meses distribuir aproximadamente 870 sistemas en las salas de cine americanas. Esto significó no solo un gran cambio para la industria cinematográfica de aquél país, sino también la posibilidad de competir cara a cara con sistemas de otras compañías extranjeras y nacionales y a la vez poder desarrollar un formato propio de codificación multicanal. Para muchos que amamos el séptimo arte, el sonido del cine cambió totalmente con la aparición de esta nueva y prometedora compañía. Hoy en día, el formato DTS es sinónimo de calidad en todo el mundo. De hecho, las producciones de Hollywood con mayor presupuesto y más ambiciosas se codifican en este formato por la potencia de sonido, la versatilidad, y su indudable avance tecnológico. Además DTS no solo ha desarrollado este formato para cine en salas comerciales, sino también para el ámbito del Home Cinema, dando así la posibilidad a los amantes del buen Logotipo DTS �41 sonido, poder disfrutar de los estrenos cinematográficos en este formato, desde el salón de nuestra propia casa. DTS brinda la posibilidad de codificar 6 canales de audio independientes en formato 5.1 pero lo hace aumentando brutalmente la calidad del sonido, ofreciendo una resolución a 24 Bits y con una mayor carga dinámica de potencia. Es decir, con mayor volumen en general. Este nuevo formato, implica una ventaja y una desventaja a la vez. La ventaja es la de poder trabajar con tasas de compresión mucho menores que las utilizadas en otros formatos como el de Dolby. Comprimir menos significa trabajar con una señal prácticamente idéntica a la original que escuchó en su momento el director durante la fase de mezcla de sonido de su película. Es decir que trabajamos con una mínima perdida de calidad de sonido. La desventaja aparece por el hecho de que tanta calidad siempre ocupa espacio. Pensemos en el soporte cinematográfico, donde los espacios están aprovechados al máximo como se muestra en la imagen. La calidad de audio de Soportes de sonido comprimido en fotográfico �41 este formato impide que se pueda grabar directamente sobre el fotográfico , por falta de 359 espacio. Esto provocó que la compañía desarrollara un sistema alternativo sofisticado y prometedor. Sin duda éste obstáculo inicial, motivó a los desarrolladores a buscar una alternativa de almacenamiento que solucionara no solo este inconveniente, sino también mejorara la calidad del propio sonido final. Al no poder físicamente grabar esta información en el mismo fotográfico por falta de espacio físico, DTS utiliza equipos externos. Se trata de un lector CD-ROM 360 sincronizado con el proyector, en el que se encuentra almacenado toda la información sonora de la película. Para que el reproductor CD-ROM y la película estén perfectamente sincronizados, lo único que necesitamos, es grabar una pista de código de tiempo, tal y como aparece fisicamente en la foto superior (Señal sincronismo DTS), es decir una pista grabada en el extremo del soporte físico, justo a la derecha de la pista estéreo codificada Dolby SR. CROSS, Mike. Audio Post Production for Film and Television. Berkley Press. 2013. El autor informa de 359 que hoy en día el formato físico más extendido para la distribución cinematográfica ya no es el propio celuloide, sino el formato digital basado en fichero de datos tanto en modo multicanal como para visionado domestico. BLECH, D., and Yang, Min-Chi DVD-Audio versus SACD. 116th Convention, Audio Eng. Soc. 2004, 360 Preprint 6086.: Soporte de plástico con un tapizado de micro surcos equidistantes entre si, donde se almacena la información. Dicha información se graba sobre el soporte gracias a a un grabador láser, en formato digital. que a su vez también actúa como lector. Señal sincronismo DTS �42 Aunque este formato permite la reproducción a mayor calidad (dynamic full range), el sistema DTS de alguna u otra forma, puede añadir variables o fuentes de error adicionales a las que ya podemos tener. Me refiero, al posible fallo de sincronización entre reproductor DTS y el soporte de la película, al fallo solo del reproductor CD-ROM, o al gasto que puede significar para las salas de cine, la adquisición de un nuevo equipo de descodificación digital propio de la compañía DTS. Si tuviéramos que resumir el trayecto empresarial de DTS Technologies, deberíamos de decir que hoy por hoy este formato, no es el más utilizado tanto a nivel profesional en salas de cine, como a nivel domestico. Muchos han sido las posibles desventajas de este sistema, lo que ha hecho desistir a un gran numero de exhibidores, que veían como el sistema DOLBY representaba una forma fácil, cómoda y segura de trabajar. Lector Digital DTS para salas de cine �42 20.5.5 SONY SDDS Este formato propietario de SONY , vió la luz en 1993 con el estreno de la 361 película “Last Action Hero” del director John McTiernan. Este formato de reproducción y codificación multicanal, permite trabajar hasta con 8 canales independientes reales de sonido en formato (7.1). La ventaja de codificar el sonido en este formato radica en la posibilidad de añadir en total 2 pistas más a la salida final de sonido. No existe hoy por hoy, formato complementario para el ámbito Home Cinema de este sistema digital de codificación. Así pues, el orden de las pistas bajo codificación SDDS, sigue las siguientes pautas: Canales: 1. L (Izquierdo) 2. LC (Centro izquierda) 3. C (Central) 4. RC (Centro derecha) 5. R (Derecha) 6. SL (Surround Izquierdo) 7. SR (Surround derecho) WHEELER, Paul. High Definition and 24p Cinematography. Oxford: Focal Press, 2003.: Para los autores, 361 el gigante japonés especializado en la electrónica de consumo. Entraron de lleno en el negocio cinematográfico con la adquisición de Columbia pictures y en el mercado musical con la compra de la cadena CBS. �42 8. LFE(Subgraves) Estas dos pistas extra de audio, son las que están colocadas detrás de la pantalla de proyección a ambos lados del altavoz central. Es decir, se trata del canal LC (centro izquierda) y el canal RC (centro derecha). Una de las ventajas principales de utilizar este formato de proyección, es la de poder cubrir mejor toda la superficie de pantalla, permitiendo mover el dialogo mucho más suavemente y de forma más precisa, con el movimiento del actor a lo largo de la pantalla. Otra de las ventajas principales de este formato, es la de utilizar una parte del fotográfico para almacenar el audio de la película. Como muestra la foto a continuación, podemos comprobar como el sonido codificado se graba a ambos lados del lateral del fotográfico de la película (zonas de color celeste). SDDS duplica el sonido, ya que tenemos dos copias idénticas del mismo material, y lo hace por seguridad, es decir, para poder tener una copia de seguridad, en caso de que una de las bandas tenga algún problema de lectura. Si fuese así, saltaría automáticamente la banda opuesta, para que la proyección digital de sonido pueda continuar sin ningún contratiempo. Por descontado queda por señalar que las salas tienen Soporte SSDS en fotográfico �42 que estar equipadas, por un lado, con el cabezal lector de audio instalado en el propio proyector, y por otro, de un equipo de descodificación propio SDDS. 20.5.6 DOLBY ATMOS Siempre he comentado que sin duda una de las empresas más ágiles, potentes y versátiles del mercado ha sido precisamente Dolby. Mientras las restantes compañías han perdido el carro de la innovación y del desarrollo, Dolby por el contrario, ha focalizado su interés en descubrir, nuevos formatos y posibilidades de proyección digital de sonido. Imagen publicitaria Dolby ATMOS �42 Por esto en 2013 Dolby estrena un novedoso y totalmente revolucionario formato de audio digital. Se trata de Dolby Atmos, una nueva manera de vivir el sonido para permitir al espectador, vivir una diferente y absolutamente sorprendente experiencia de inmersión total de sonido. Dolby Atmos , representa una nueva frontera en el modo de hacer 362 sonido, de codificar el audio y de procesarlo para su reproducción posterior. Implica toda una nueva serie de equipos, de tecnología informática, donde el sonido viaja en un formato 9.1, con la particularidad de que este audio se va a distribuir a lo largo de la sala de proyección no solo detrás de la pantalla y a lo largo del perímetro de la sala, sino también en el techo del local de proyección. Así y todo, utilizaremos toda la potencia ATMOS descargando sonido sobre una superficie rodeada de 64 altavoces en total. Esto convierte a ATMOS en el único 363 formato del mundo capaz de hacer sentir al espectador no solo el sonido con toda su presencia y dinámica, sino también de poderlo ubicar en el espacio tridimensional de la sala de proyección. La colocación de estos altavoces repartidos por la sala de cine permite por 364 ejemplo distinguir el sonido de los pájaros, pero en esta ocasión, como si estuviesen sonando por encima de nuestras cabezas, ya que seremos capaces de ubicar perfectamente la fuente sonora sin ningún problema. Imaginemos también la sensación de estar rodeados por el trafico de una gran ciudad, o la de escuchar un avión que sobrevuela nuestro asiento del cine. Percibiremos exactamente el movimiento del aparato, Está remasterización conlleva una mezcla 9.1. La gran innovación es un canal sobre el espectador, 362 aportando altura al sonido. Solo se pueden utilizar en está tecnología las películas masterizadas para ello. KANTOR, K.L., and de Koster, A.P. A Psychoacoustically Optimized Loudspeaker. J. Audio Eng. Soc., 34, 363 1986 pp. 990–996: la distribución de loa altavoces en una sala, tiene que responder a las condiciones psicoacústicas que Dolby recomienda, para que la experiencia multicanal pueda ser completa. COREY, J. An integrated system for dynamic control of auditory perspective in a multichannel sound field. 364 Ph.D. thesis. McGill University, Montreal, Canada 2004: para el autor los formatos multicanal tal y como los conocemos hoy en día, son una evolución de los sistemas tanto estereofónicos como cuadrafónicos desarrollados a principios de los 70. Esto contempla una mejora sustancial en la reproducción y la experiencia sonora del propio usuario. �42 sintiendo que esta rozando nuestras posición. La sensación cobra un realismo brutal y añade una gran dosis de emoción a la imagen. Atmos utiliza la técnica de la colocación dinámica del sonido utilizando lo que ellos denominan “objetos” (cada sonido representa un objeto gráfico en la matriz Dolby Atmos), transmitiendo así la  ilusión de canales infinitos. Técnicamente podemos utilizar 128 canales o voces de sonido simultáneos y una cantidad de 64 altavoces en sala. La tecnología Atmos, implica la utilización de altavoces repartidos por toda la superficie del techo de la sala de exhibición de forma que el publico podrá escuchar perfectamente 365 cada sonido y efecto ubicándolo espacialmente en su posición correcta. Es decir, estamos trabajando con sonido en 3D localizándolos espacialmente y transmitiendo realismo y energía a la imagen. La nueva técnica ATMOS, ha sido la encargada de elevar el standard de calidad del sonido, ya que implementa toda una nueva tecnología al servicio del cine profesional, no existiendo hoy por hoy ningún formato equivalente para la explotación en equipos Home Cinema domésticos. Esto no quita que en un futuro relativamente cercano se pueda desarrollar este formato paralelo. Quizás el inconveniente más grande que tenga el sistema ATMOS, sea el cuantioso desembolso que significa sonorizar una sala de exhibición ajustándola a este formato en cuestión, ya que estamos hablando de un desembolso aproximado de 30.000 Euros por equipo. Cuando una película se estrena con Dolby ATMOS, este formato también incluye la codificación bajo sistema SRD por seguridad y también para que la película pueda exhibirse en aquellas salas que no están preparadas para dicho formato. Se han estrenado muchas películas hasta la fecha, como “Brave” de Pixar y “Gravity” con OLIVE, S. A method for training listeners and selecting program material for listening tests. Proceedings 365 of the 97th Convention of the Audio Engineering Society, Preprint 3893, San Francisco. 1994; para el autor se comprueba como el entrenamiento previo de sujetos frente al sonido, los coloca con ventaja a la hora de discriminar fuentes de audio, ecualizaciones, sonoridad o timbre, que otras personas que no han pasado por esta fase de entrenamiento. �42 éxito total entre el público. A día de hoy, la tecnología ATMOS se esta exportando a muchos otros países como, Inglaterra, Japón, China, Francia o España y en salas muy selectas. Dolby con su proyecto ATMOS, pretende conseguir los siguientes objetivos: 1) Transmitir al espectador una intensa experiencia a nivel sonoro jamás experimentada antes. 2) Mover una fuente de sonido en el espacio tridimensional de una sala de cine con el objetivo de trasladar a las butacas, lo que esta ocurriendo en la pantalla cinematográfica. 3) Reproducir el sonido tal y como acontece en la vida real, convirtiendo la experiencia cinematográfica en algo vivo y auténtico. 4) Reflejar realmente la intención final del director y de como éste quiere que el sonido sea reproducido y escuchado por su público. Hay 200 salas a nivel mundial equipadas con sistema Atmos y 9 salas en España de las cuales 3 en Madrid donde podemos disfrutar del sonido Atmos en acción con más de 50 títulos de películas donde elegir. Cuando hablamos de sonido Atmos, debemos de conocer y saber manejar toda una nueva clase de conceptos tecnológicos, como los que presento a continuación: OBJETS VETS Llamaremos “OBJETS” a cada sonido susceptible de ser posicionado en cualquier ubicación tridimensional de la sala. Los sofisticados sistemas de codificación, permiten �42 trabajar hasta con un máximo de 118 objetos diferentes de sonido en un momento concreto de una secuencia de la película. Si imaginamos por un instante esta posibilidad, y la de poder colocar cada fuente de sonido en una ubicación diferente de la sala, nos daremos cuenta de la potencia de este sistema y de las inmensas posibilidades que brinda tanto a los técnicos como a los exhibidores. Finalmente el proceso de codificación se almacena en un fichero denominado fichero de metadatos, que es reproducido sincrónicamente con la propia película en formato también digital (DCP). Como muestra la figura superior, la posibilidad de hacer vivir al espectador una experiencia absolutamente increíble de realismo sonoro en 3D es muy grande, ya que toda la sala conjuntamente con la superficie del techo está cubierta de altavoces de reproducción, para permitir una escucha del sonido tal y como sucedería en el mundo real. Sin duda ATMOS significa un gran salto de calidad y de técnica con un gran potencial de futuro y desarrollo aún por descubrir. Cuando hablamos de “VETS” (vectores) nos estamos refiriendo en cambio a los canales surround tradicionales, en definitiva los altavoces de la sala, es decir SUR(C) 366 RAKERD, B., Hartmann, W.M., and Hsu, J. Echo Suppression in the Horizontal and Median Sagittal 366 Planes,” J. Acoust. 2000 : los autores informan que para equipos multicanal es importante poder controlar el efecto eco en salas de exhibición, y poder así aislar perfectamente cada escucha direccional. Colocación altavoces sala ATMOS de cine �42 SUR(L), SUR(R) a los que tenemos que añadir además aquellos nuevos canales (altavoces surround) situados en el techo de la sala. De esta forma podemos trabajar bajo un formato 9.1 y de esta manera tener la posibilidad de poder mover y distribuir libremente cada sonido (objeto) a cada determinado altavoz (vector). Como hemos comentado anteriormente, no habría ningún problema de reproducción de sonido de una película ATMOS incluso si la sala no estuviese preparada a tal efecto, ya que automáticamente saltaría la codificación Dolby SRD en formato 5.1 tradicional o bien en formato 7.1367 20.6 THX (Lucas Corporation)   
 El sistema THX no es un nuevo formato multicanal de codificación para cine, 368 369 GIDDINGS, P. Audio systems design and installation. Boston: Focal Press. 1990.: para el autor, el 367 sistema 5.1 cuenta con 6 canales que se reparten en diferentes altavoces a lo largo y ancho de la sala de cine. Estos canales son Central, Derecho, Izquierdo, derecho e izquierdo traseros y subgraves. El central que se sitúa en pantalla se acompaña de dos a cada lado para mejor localización del diálogo. En cuanto a los demás se suelen apoyar de altavoces a la misma altura que reparten y localizan mejor los diferentes sonidos de la película. El subgrave llena la sala, se sitúa en el suelo. El sistema THX fue fundado por George Lucas en 1980 y recibe el nombre de un tecnico llamado 368 Tomlinson Holman y que tuvo como cometido diseñar un sistema de sonido que aumentara los estándares de calidad tanto en las salas de cine, como para los equipos de reproducción de audio domestico. OLIVE, S.E., and Martens, W.L. Interaction Between Loudspeakers and Room Acoustics Influences 369 Loudspeaker Preferences in Multichannel Audio Reproduction. 123rd Convention, Audio Eng. Soc. 2007.: Los autores demuestran que los sujetos sometidos a la misma escucha surround multicanal pero en salas con acustica diferente, informan de diferencias significativas en el sonido percibido, y por consiguiente muestran preferencias por una sala u otra de escucha. Logotipo THX �42 sino simplemente un estándar de calidad. THX nace como una exigencia del propio George Lucas, de poder experimentar el sonido en las salas de cine, de la misma forma y con la misma calidad técnica, que él lo mezclaba en los estudios de sonido. Es decir, su objetivo es poder certificar la salas a través de una tecnología que asegurara la máxima calidad desde la mezcla del técnico, hasta la experiencia del propio espectador. Además Lucas, no solamente ha impulsado esta certificación, que hoy en día es sinónimo de marchamo de calidad, y que podemos ver fácilmente en muchas salas de exhibición, sino también extiende este sistema al área domestica, a equipos multimedia surround, y reproductores de sonido digital AC3 Home Cinema. Fue desarrollado en 1982 de la mano de Tomlinson Holman y de este señor 370 tomó el nombre (T)omlinson (H)olman e(X)periment. Para que esta certificación tenga sentido, no solamente la sala debe cumplir unos determinados requisitos físicos y dimensiones (características acústicas de la sala, distancia entre primera fila de butacas y pantalla, entre techo y suelo, etc) sino también toda la cadena de equipos que intervienen en el proceso deben de estar homologados siguiendo una serie de características físicas y electroacústicas capaces de poder 371 reproducir fielmente el sonido de la película tal y como el director lo ideó. Es por ello que la exhibición del logotipo THX en una sala de cine es sinónimo de calidad y asegura al espectador la perfecta reproducción y experiencia tanto en imagen como en sonido. THX ha desarrollado dos estándares últimamente. Uno, mucho mas exigente y reservado a las grandes salas THX ULTRA, y otro para salas de gama media THX SELECT.
 Es un ingeniero de sonido que de la mano de George Lucas crea el estándar de calidad de sonido para 370 salas THX. http://mkloudspeakers.com/home-cinema-design/home-cinema-thx: En general, cuando hablamos de 371 electroacústica hablamos de las transformaciones de las señales acústicas en eléctricas y viceversa. Cuando mezclamos y masterizamos el sonido de una película, debemos de tener en cuenta que los estandares de las salas de cine tienen que permanecer dentro de los márgenes de sonoridad, dinámica y dispersión descritos por la sociedad americana SMPTE de las ciencias audiovisuales, ya que todos los sistemas multicanal hacen referencia y se apoyan en todo momento en estos mismos estandares. http://mkloudspeakers.com/home-cinema-design/home-cinema-thx: �43 21. Post-producción de sonido Para poder comprender mejor como el director y el montador de sonido crean lo que al final será el la banda sonora de una película, sería interesante acercarnos al proceso de post-producción de sonido para cualquier proyecto audiovisual, teniendo en 372 cuenta que lo importante es entender la filosofía de trabajo, los pasos o etapas y conceptos fundamentales del mismo. Aquí es donde se concentra todo el trabajo de un montón de profesionales. Incluso de la elección que se haya hecho de la micrófonos empleada. El tipo y característica de un micrófono, también influye en el resultado final de como se capta el audio, y que características deseamos marcar o potenciar en una determinada escena. Supongamos que rodamos una secuencia, en interior, donde el guión va a marcar la ruptura sentimental de una pareja. Para expresar sonoramente la emotividad del momento, podemos utilizar algún micrófono, cuya característica principal sea la de obtener un sonido poco cálido, y más bien agudo, podríamos utilizar la expresión de “chirriante”, lejano, distante. Para conseguir esta atmósfera molesta y desagradable que el momento requiere, también influirá la colocación de los micrófonos así como la elección del mobiliario y EARGLE, J., Mayfield, M., and Gray, D. Improvements in Motion Picture Sound: The Academy’s New 372 Three-Way Loudspeaker System. SMPTE Journal, 1997,106, pp. 464–476.: The Academy’s New Three- Way Loudspeaker System”: Es el proceso siguiente al montaje. Un técnico en postproducción de sonido es el encargado de mejorar el montaje de la película. Añade ambientes y efectos sonoros, limpia diálogos, mezcla toda la pieza dándole un acabado que permita al espectador sumergirse en la historia cómodamente. �43 decoración del lugar donde transcurre dicha acción. Los más adecuados para grabar voces son los de condensador debido a su gran sensibilidad.373 De lo que se trata es de subrayar la técnica de trabajo y la forma de encarar el proceso de sonido en general, siempre bajo el objetivo de sonorizar y construir una banda completa de audio para cualquier tipo de imagen. El sonido esta en la base de la vida, de lo que nos rodea. Lo importante y trascendente es entender su lenguaje, su peso especifico en relación con la imagen que acompaña, y saber como manejar todos los elementos que intervienen en el proceso. Dicho esto, es importante subrayar, que los ejemplos y proyectos aportados en este trabajo, han sido editados utilizando uno de los programas más potentes que existen actualmente en el mercado, concretamente el sistema Protools HD de la empresa americana AVID.374 He escogido este sistema por su amplia difusión en el medio audiovisual, por la calidad de sus herramientas y por estar presente en la mayoría de los estudios de sonido del mundo. Otros equipos como por ejemplo Piramix son los que hoy en día están impulsando este sector, con nuevos y mas altos estándares de calidad, pero por el momento, creo que lo mas oportuno es independientemente de la elección que cada uno hagamos de programas y hardware, indicar que el desarrollo del presente capitulo tendrá como foco BEVAN W. et al., Design of a Studio Quality Condenser Microphone Using Electret Technology,” Journal 373 of the Audio Engineering Society 26, no. 12, 1998: en sonido para cine, un tipo de alimentación muy utilizado es la alimentación A-B entre 0,5 y 0,8 mA. HAGERMAN, Andrew Lee. Protools II Ignite, the visual guide for new users. Paperbook. London 2013. El 374 autor nos informa que el Protools HD representa una mejora en la calidad del audio a nivel profesional. Los equipos utilizados hoy en día, están considerados un estándar no solo en prestación sino también se ha convertido en líder del sector audiovisual. Las tarjetas DSP empleadas, pueden procesar 5 veces más señal que las de la generación anterior. El sistema de audio HD es sin duda una herramienta importantísima para los técnicos y profesionales del sector audiovisual. �43 fundamental el sistema digital Protools , y la aplicación de plugins de terceras partes, 375 376 en el proceso de postproducción. Estos mismos plugins en un 95% están disponibles bajo otros formatos, 377 compatibles con diferentes editores de audio como pueden ser, Performer, Logic, Cubase etc. Lo importante es la filosofía de trabajo. Para comprender el sentido del montaje de sonido, hay que previamente entender las cualidades y las características de la figura del editor de sonido, es decir, del profesional capaz de crear toda una banda sonora completa, y de transmitir las emociones y las sensaciones que el propio director busca provocar en el espectador. 21.1 La importancia del Sonido El editor de sonido, es un profesional creativo, con imaginación, dotes técnicas, y conocimiento del material y sistemas de trabajo. Su labor será la de crear una completa banda de audio con toda la información relevante al proyecto de trabajo. Esta banda HOLMAN, T. (1991). “New Factors in Sound for Cinema and Television,” Jour. Audio Eng. Soc., 39, pp. 375 529–539.:Es el sofware más hardware de edición de audio para cine. Se trata de un programa informático de edición no lineal de sonido. KWON, Y., and Siebein, G.W. Chronological Analysis of Architectural and Acoustical Indices in Music 376 Performance Halls. J. Acoust. Soc. Am., Vol. 121, 2007, pp. 2691–2699. Hay software informáticos dedicados a emular efectos específicos que se dan en la naturaleza del sonido, para producir artificialmente dichos efectos, como la reverb. COLLINS Mike. A professional Guide to Audio plugins and Virtual instruments, Linacre House P. London. 377 2003.: el autor comenta a lo largo del libro que los filtros de sonido para equipos DAW utilizan en su mayoría recursos de procesador con una tasa de 32 Bits de información. Actualmente y debido a los cambios registrados en los nuevos equipos informáticos, los plugins utilizan paquetes de información a 64 Bits mejorando su rendimiento y calidad. �43 sonora contará con los tres pilares básicos sobre los que se apoya la post-producción de sonido: Diálogos Ambientes + Efectos378 Músicas La post-producción de audio, en toda producción audiovisual, incorpora una serie de elementos o etapas claves importantes y determinantes que tenemos que respetar siempre rigurosamente. Post-producción sonora, significa construir ese 50% de información que acompaña a la imagen, ya sea cinematográfica o videográfica. Este concepto se extiende realmente a cualquier fuente o programa artístico, en el que el sonido, ya sean músicas, efectos o ambientes, hace su aparición, como elemento principal o en su caso como mero elemento acompañante del producto final. La imagen por si sola tiene gran fuerza expresiva y comunicativa, pero el sonido le añade realismo, profundidad, dimensionalidad y proximidad a sentimientos, sensaciones, recuerdos, etc. El diálogo por supuesto representa el valor añadido más importante en una película, es el hilo conductor, nos permite conocer a los personajes, sus historias, sus deseos y luchas, es decir a través del diálogo entendemos lo que esta ocurriendo en la gran pantalla. Un ejemplo lo podemos tener con la cinta “Expediente Warren” de James Wan (2015) porque aquí no solamente el diálogo permite entender lo que esta ocurriendo en la secuencia, sino que también presenta la peculiaridad de que cambia de cualidad sonora cuando el protagonista se coloca los auriculares para escuchar el micrófono que lleva en la mano (V61). THEME, Ament, The Foley Grail: The Art of Performing Sound for Film, Games, and Animation. 378 Paperback, 2009.: Los llamados Foleys o efectos sala son los efectos sonoros que se recrean a posteriori para dar más realidad a la imagen. Sirven para completar la banda internacional M+E. �43 Podemos apreciar así, como en un alarde de realismo, el sonido riza el rizo, y el diálogo se trasforma en algo tan real y concreto que es capaz de regalar a la imagen, un atractivo muy interesante. También los efectos de sonido pueden ser determinantes en una producción, ya que en ocasiones pueden llegar incluso a sustituir al mismo diálogo, como por ejemplo sucede en la película de “E.T.” (The extra-terrestrial) de Steven Spielberg. En la secuencia inicial de la cinta, oímos el sonido de un ser pequeño y extraño que se oculta entre las ramas de un bosque cercano a la ciudad. Inesperadamente unas furgonetas y coches se acercan a gran velocidad con gran estruendo al lugar. La cámara recorre con primeros planos, distintas imágenes, la rueda de un automóvil frenando sobre tierra, el tubo de escape de un “pick-up”, etc. Bajan personas de los vehículos, y lo que el director nos enseña en éste momento, es a alguien que lleva colgado del pantalón un juego de llaves. El tintineo de estas llaves en primer plano de pantalla, nos va a acompañar durante toda esta secuencia (V66), durante la persecución que se origina para dar caza a este ser de otro mundo. V61 �43 No hay voces ni frases, ni diálogos, pero el espectador ha fijado ya su atención en este “personaje” al que no vemos la cara, pero que identificamos por las llaves que lleva colgadas del cinturón. Sin duda es alguien importante. Más adelante en la cinta, veremos en otra secuencia (V67), como estas mismas llaves vuelven a sonar con la aparición de un personaje enfundado en un traje de aislamiento. Incluso las llaves siguen sonando dentro de un traje de protección a contagios, cuando por lógica física, no se deberían de oír como es el caso de la secuencia en la que los científicos han construido un túnel de plástico donde camina el protagonista para dirigirse al interior de la vivienda que aísla la casa de Elliot del mundo exterior, y así evitar el riesgo de cualquier contaminación. La secuencia concluye con el personaje y sus V66 V67 �43 llaves, cuando la cámara en un suave “paneo” de abajo hacia arriba, nos desvela finalmente la cara del actor. El director no ha necesitado contar con una voz en off, o con diálogos para informarnos que ese sujeto que lleva las llaves, es alguien con poder, el que manda y que asociamos a la secuencia anterior de la persecución a E.T. El sonido no es solo un elemento mas en la producción. No es un mero objeto estático, incoloro, insignificante, sino que es capaz de movilizar múltiples sensaciones, sentimientos y reacciones en el público. Y precisamente es el publico el objetivo final de nuestro trabajo, de esta etapa denominada post-producción que consiste en la elaboración de toda la banda sonora que acompaña y centra dimensionalmente a la imagen. Desde los inicios del cine mudo, hasta nuestros días, el sonido ha sido y es uno de las técnicas de expresión artística más y mejor utilizadas. Al principio, las primeras salas de proyección, descubrieron el valor añadido que representaba la música como acompañante de la imagen. En las salas, grupos de músicos interpretaban piezas que servían de acompañamiento a la imagen proyectada. Por otro lado, esta misma música se convertía en lenguaje diegético , es decir, en 379 la propia voz y sentimientos de los actores, reforzando el significado de la propia imagen, de la propia acción, y añadiendo una dimensión informativa más para el público del momento. Desde aquellos tiempos hasta hoy en día, la técnica, el estilo y las formas de utilizar el sonido en general, han sufrido una gran transformación, pero lo que nunca ha cambiado, lo que ha permanecido inalterable con el paso del tiempo, es el objetivo y la finalidad del sonido como elemento dinamizador de una historia contada en imágenes, RUMSEY, F. The Audio Workstation Handbook, Oxford: Focal Press. 1996. Denominamos sonido 379 diegético a aquel sonido que se encuentra en pantalla y que no puede faltar para que la narración tenga su curso natural. �43 como elemento comunicativo, capaz de provocar pensamientos, propuestas de sentimientos y lugares de sensaciones. El sonido no solo toca nuestra alma, nuestro interior, nuestro inconsciente, sino también nos golpea físicamente, podemos percibir su presencia y su fuerza de forma clara y contundente. Antes de adentraron en temas técnicos de post-producción, quisiera realizar un apunte sobre los cuatros ejes fundamentales sobre los que a mi juicio se enmarca el “sonido” como elemento narrativo y comunicativo. El elemento sonoro, ya sean ambientes, efectos o músicas, como mecanismo transmisor de información gira entorno a cuatro extremos fundamentales: Fuerte Débil Diegético No diegético o extra-diegético Así podríamos representar un esquema donde el sonido puede recorrer una gama muy amplia de posiciones en un circulo imaginario donde el centro representa el cero absoluto y las esquinas, los elementos nombrados anteriormente, es decir, estaríamos ante un eje de coordenadas donde el papel del sonido se mueve libremente, adoptando Esquema imaginario de sonido �43 en cada momento, y en cada secuencia de imagen un peso especifico diferente, dando protagonismo a estos cuatro elementos que a continuación paso a describir. Un sonido puede pertenecer a la imagen. Esto sucede claro esta, en la inmensa mayoría de los casos, es decir, es diegético, su fuente esta en la imagen que vemos, por ejemplo el sonido de un reloj, la música de un viejo gramófono, una puerta que se cierra, etc todos objetos u elementos que están presentes en la secuencia, y que son el foco u origen del sonido que escuchamos. En estos casos, los sonidos tienen que tener una plasticidad tal, que su tonalidad, color, brillo, dinámica y evolución en el tiempo, acompañe y sea sincrónico con lo que estamos viendo en pantalla en cada momento. Aquí estamos atados a la realidad, a lo expresivamente visual y físico. Las dimensiones de la imagen y del sonido tienen que ser directamente proporcionales o correspondientes. Es la imagen la que manda y organiza nuestra labor, dependemos física y narrativamente de ella. Por otro lado, nuestra labor, como técnicos de post- producción nos dota de elementos y técnicas sonoras que liberan nuestro trabajo, y nos permite jugar con la profundidad artística con la que podemos no solo expresarnos libremente, sino también motivar al espectador, proponiéndole situaciones, sensaciones que van mas allá de la pantalla. Además, la narrativa sonora, también nos permite interpretar un sonido de forma no diegética, es decir, su origen o procedencia no está en la imagen proyectada, sino en otro lugar, en otras fronteras. Estamos jugando aquí con lo visible y lo invisible, con la capacidad de proponer nuevas situaciones y sensaciones al espectador. Este es el caso por ejemplo de la técnica del contrapunto sonoro (V26), es decir, de contar con sonidos una determinada situación, una secuencia, pero expresada con una técnica diferente, es decir, utilizar sonidos que no están presentes en imagen y que �43 pertenecen a esa parte de nuestro inconsciente, a otra realidad opuesta a la que vemos, pero llena de fuerza expresiva y comunicativa. Por ultimo citar que cada elemento sonoro que utilizamos puede tener mayor carga o menor de información o sensación. Serian los polos opuestos de Fuerte y Débil, ya que toda fuente de sonido, juega constantemente con estos dos factores, con estas dos realidades que mutan y cambian a lo largo del tiempo. El sonido es como un ser vivo, esta en continua evolución, se desarrolla, cambia y posee su propia fuerza expresiva o emotiva. No solo a través de su protagonismo, sino también a través de su fuerte o débil personalidad, presencia, capaz de transmitir, sensaciones, sentimientos, recuerdos etc. En una palabra, su capacidad para motivar al espectador y convertirle en protagonista de la proyección, de la historia que contamos. No olvidemos que éste es nuestro objetivo, emocionar y motivar al público, haciendo que el sonido se convierta en un linea de diálogo más que acompaña cada fotograma de la proyección. V26 �44 21.2 Material de trabajo La primera labor a realizar por el equipo de post-producción de sonido, será en un primer momento el de comprobar que el montador ha exportado todo el material de 380 audio necesario para que el equipo de post-pro de sonido, pueda empezar a trabajar. Cuando hablamos de material, nos referimos tanto a imagen como a sonido. El montaje de imagen lo podemos definir como la ordenación en imágenes de una historia narrativa que se desarrolla en un tiempo y en un lugar. A partir de un guión y de la intención del propio director, ya mucho antes del rodaje físico de la película, se ordenan y organizan los planos, secuencias que se van a utilizar en la filmación. (Story Board). Cada plano grabado exige la realización de un numero determinado de tomas para que el montador tenga la posibilidad de escoger la más idónea o interesante teniendo en cuenta la narrativa de la historia, el acting de los actores etc. De esta forma el propio montador va colocando plano a plano el metraje de la película y añadiendo los efectos y transiciones necesarias. Todo esto hace que el montaje de imagen de una película se convierta realmente en un proceso fundamental donde finalmente cobra vida cada secuencia grabada y toma realizada. Si esta fase es importante, recordemos que no menos decisivo es el apartado de postproduccion de sonido, donde la película adquiere una nueva dimensión y profundidad, donde añadimos realismo y narrativa sonora a la historia. A la hora de importar material es necesario tener un OMF consolidado, para así poder repasar las tomas 380 de sonido directo. Debemos asegurarnos que tenemos todos y cada uno de los audios. �44 Tenemos que respetar un standard, una forma de trabajar que sea comprensible y familiar para el propio montador como para el técnico de post-producción, independientemente de donde se encuentra . Es por ello que la forma mas corriente y extendida de organizar el flujo de trabajo es a través de unas normas para preparar el material a entregar al equipo de sonido. Todo proyecto audiovisual, puede haber sido rodado en dos formatos diferentes. Por un lado el video digital, ya que hoy en día la calidad de las cámaras y objetivos es muy alta y permite el rodaje de productos comerciales con muy buenos resultados, y por otro el formato tradicional de 35mm o 16mm, hoy en día cada vez más en desuso por su alto coste e inconvenientes. Todos estos proyectos procedentes de cualquiera de los dos formatos, se montarán en cualesquiera de los sistemas digitales de edición de imagen que existen hoy en día, 381 ya que ahorran tiempo y dinero y permiten operar sobre el material de una forma sofisticada sin perder calidad, como son por ejemplo la plataforma Avid Media Composer o Film Composer, Adobe Premiere o FinalCut Pro de Apple. Ésto es posible, ya que es más practico incluso para la productora convertir el material fotográfico de 35mm a formato de video digital y así ahorrar tiempo y dinero en el proceso de postproducción. Todos los proyectos que vayan a finalizar en formato DVD o BLUERAY o en formato de fichero digital y que no se estrenen en salas de cinematográficas de exhibición, pueden ser editados en una única bobina o sesión de trabajo, sin importar el tiempo de duración del mismo y siempre que la post-producción de sonido y mezcla final del mismo se haga dentro de cualesquiera sistemas de edición digital de sonido que existen en el mercado: Protools, Nuendo, Logic etc. FOREMAN, C. Sound System Design.” Chapter 34 in Handbook for Sound Engineers, ed. Ballou, G.M, 381 editor, Focal Press. 2002. Todo proyecto de audio para cine, tiene su etapa de premontaje en equipos de edición de imagen como FinalCut, Adobe Premiere etc. �44 El sistema por excelencia mas extendido en muchos locales y estudios de mezcla, es la plataforma Protools de la empresa americana AVID, por su versatilidad, por su capacidad de edición, mezcla y lo que es mas importante, por la cantidad y variedad de plugins de terceras partes que añaden potencia en software y procesamiento de la señal. Si el producto audiovisual esta dirigido a la explotación cinematográfica en salas de exhibición ya sea en formato de celuloide o video digital, y si su duración es superior a 21 minutos, el montador de imagen nos entregará lo que llamamos bobinas de trabajo para la post-producción de audio, cada una de ellas de duración igual o preferiblemente inferior a 21 minutos. Esto se debe a que la casa Dolby, que es el formato más utilizado en cine para la codificación del sonido, obliga a toda producción cinematográfica a pasar por una sala certificada donde se mezclarán todas las bandas de audio del proyecto y se codificara en la matriz Dolby deseada SR o SRD o Estéreo. En estas salas, como las de Tecnison o Cinearte en Madrid etc, los proyectores 382 de cine de alta o baja velocidad tienen una capacidad máxima por rollo de 21 minutos, y esta limitación es la que debemos de tener en cuenta a la hora de involucrarnos en la post-pro de audio de un proyecto. En este caso lo mas importante es recordar que nuestro trabajo tendrá tantas bobinas dependiendo de la duración del mismo. Es decir, para una película de 1h.27 383 minutos, el montador nos la entregará en bobinas o cortes de 21 minutos de duración como máximo, en este ejemplo, podríamos tener: Éste mítico estudio de sonido estaba situado en en la Plaza del Conde de Barajas de Madrid. Hoy en 382 día , desgraciadamente ya no existe. GRIESINGER, D. Theory and Design of a Digital Audio Signal Processor for Home Use,” J. Audio Eng. 383 Soc. 1989, 37, pp. 40–50.: Si la duración de la película es superior a veinte minutos se divide en varios fragmentos a los que llamamos bobinas. Ya que a la hora de la mezcla final Dolby solo admite mezclas por lotes de hasta 21 minutos. �44 4 bobinas de 20 minutos 1 bobina de 7 minutos. Numero total de bobinas: 5 21.3 Guía de operador La ultima norma a tener en cuenta es la inclusión por parte del montador, de lo que se denomina Guía de Operador , o sistema de control del sync de cada bobina de 384 montaje. Toda imagen, llevará una serie de elementos adicionales renderizados en pantalla siguiendo un estándar de trabajo para toda producción audiovisual. Es decir, la norma empleada será la siguiente: a- Colocar un código de tiempo TC impreso en pantalla, en ventanilla y 385 posicionarlo a ser posible fuera del cuadro de imagen, intentando no tapar u ocultar la acción de los personajes. b- Colocar una cuenta atrás o reloj de cuenta atrás con los dígitos numéricos de mayor a menor al principio de cada bobina. Esta cuenta atrás será de 5 segundos contando hacia atrás. Antiguamente se usaban guías de operador que contaban en segundos. El start correspondía al 8 y 384 contaba hacia atrás hasta el 2 incluido que correspondía a su vez a los 48 fotogramas actuales. WEIS, Elisabeth, and Belton, John, eds. Film Sound: Theory and Practice. New York: Columbia 385 University Press, 1985.: Time code o código de tiempo es un reloj que marca un tiempo en horas, minutos, segundos y fotogramas, para mantener la sincronía del audio, y para poder localizar con exactitud, cualquier fotograba de sonido que tengamos necesidad de editar o modificar. �44 c- Colocar un “beep" de sonido de un fotograma de duración al principio, que coincida exactamente con el código 00.59.58.00, es decir dos segundos exactos antes del inicio de imagen. d- En este mismo fotograma y código de tiempo, colocaremos en imagen un fotograma con marca (troquel, aspa, fotograma blanco etc), de forma que el “beep” de audio coincidirá con el código TC en pantalla de 00.59.58.00 y a la vez con el fotograma marcado. Esto nos servirá de guía para identificar que la bobina esta sincrónica de imagen y audio. Es decir el TC 01.00.00.00 será el punto de arranque del montaje de sonido de cada bobina. e- Al final de cada bobina colocaremos de la misma forma, un “beep” de audio de 1 fotograma + un fotograma marcado en imagen, dos segundos después del ultimo fotograma de imagen en pantalla. De esta forma, nos aseguramos el control de sync de cada bobina tanto de principio como de final. El objetivo de esta guía de operador, es también la de determinar sin lugar a dudas o equivocaciones, cual es el punto exacto de arranque y final de cada bobina de imagen, incluso si ésta abre o cierra con un fade en negro. Por ultimo, indicar que el montador de imagen será el encargado de colocar esta guía, y dependiendo del numero de bobinas, el timecode de pantalla, empezará en: 01.00.00.00, 02.00.00.00, 03.00.00.00 etc según se trate de la primera, segunda o tercera bobina etc. �44 Aunque cada bobina tendrá una hora diferente de arranque, todo lo hablado anteriormente sobre colocación del beep, y fotograma marcado, se mantendrá igual. Es decir, el fotograma marcado en la primera bobina coincidirá con el TC 00.59.58.00, en la segunda coincidirá en el 01.59.58.00 y así sucesivamente para cada una de las bobinas de nuestra producción.386 21.4 OMF (Open Media FrameWork) Podemos montar la imagen utilizando muchos de los programas de edición que existen en el mercado actualmente. La elección por parte del montador del software CROSS, Mike. Audio Post Production for Film and Television. Berkley Press. 2013. El autor insiste como 386 idea fundamental a la hora de la realización de la postproducción sonora de una película, que la guía de operador debe de ser un estándar que utilicemos siempre para asegurar no solo el ajuste de sincronización audio-video, sino también, la posibilidad de controlar el posicionamiento de cualquier fotograma en el timeline de edición. Fotograma ejemplo de guía de TC en pantalla �44 donde va a trabajar es muy importante a la hora de la exportación del material y entrega al equipo de sonido ya que no todas las plataformas permiten el uso del formato OMF 387 para el intercambio de archivos. Este formato muy extendido entre los profesionales, permite la exportación de todo el montaje de sonido realizado en FinalCut Pro, Adobe o Avid por ejemplo para que pueda ser traducido e importado bajo plataforma Protools, que es el sistema líder en todo el mundo para temas de post-producción y diseño sonoro. Solo este formato de intercambio de ficheros permite la perfecta sincronización del material de sonido, incluyendo faders, volúmenes y pannings. Incluso podemos añadir lo que llamamos “handle lenght” o material extra de sonido antes y después de la toma escogida, dando la posibilidad al técnico de audio de estirar el material de sonido y por consiguiente poder recuperar palabras, fondos ambientes etc. No olvidemos que el montador, ha realizado ya una sincronización de diálogos de cada plano de imagen montado, es decir, ya ha preparado un primer montaje “en bruto” del sonido original que nosotros posteriormente mejoraremos, hasta conseguir el resultado final perfecto. HARRIS, Brooks. Advance Authoring Format and Media Exchange Format.” The Motion Picture Editors 387 Guild Magazine 2003. El formato OMF admite la posibilidad de poder exportar datos referentes a volumenes y automatizaciones de posicionamiento multicanal, siempre y cuando utilicemos la versión 2.0 de dicho programa. Si exportamos la información utilizando el formato 1.0 esta información se perderá inexorablemente. Modo exportación OMF en ProTools �44 Siempre que vayamos a exportar el sonido de nuestra sesión de video, tenemos que saber de antemano si nuestro programa permite realizar exportaciones en formato OMF tipo 2, ya que es el único tipo de archivo que permite incluir todas las automatizaciones que hayamos realizado en el montaje. A la hora de exportar este fichero lo haremos bajo la opción de Consolidate (Consolidado) es decir, en un único fichero comprimido, de considerable peso, tendremos los metadata, archivos de audio, de todo el sonido utilizado en el montaje, y la EDL o Edition Decision List, de nuestro montaje. Al importar en Protools este fichero, obtendremos una sesión con el mismo numero de pistas, los mismos archivos de sonido, y el mismo timecode de cada uno de ellos, tal y como los trabajamos antes de la exportación. De esta forma, actualmente, traducir e importar audio de equipos de montaje de imagen a Protools, (y viceversa) es algo fácil, rápido y extremamente fiable. Hace unos años, todo este trabajo se hacia prácticamente a mano, sincronizando el audio la película que se había montado previamente en moviola. Con posterioridad a la aparición de equipo digitales de montaje de imagen, salieron al mercado, programas que leían las EDLS generados por estos, y con la ayuda de un equipo digital DAT con código de tiempo, se podía recapturar automáticamente cada Ejemplo formato exportación OMF �44 sonido con una alta fiabilidad, ahorrándose así el trabajo tedioso y manual de capturar y sincronizar el montaje toma a toma. La forma mas correcta de preparar y exportar nuestro montaje en formato OMF es la siguiente: 1. Abrir nuestra sesión de montaje de imagen en Avid, FinalCut, Adobe etc, y realizar una copia de la misma asegurándonos que la bobina de montaje tiene correctamente colocado su Guía de Operador. Cerrar la sesión original y trabajar de ahora en adelante, solo con la copia. Borrar la o las pistas de video de nuestro montaje. 2. Seleccionar todo el sonido, desde el primer beep de sincro hasta el beep final incluyendo todas las pistas de audio utilizadas.En el menú del programa, buscar la opción “export” y seleccionar la opción OMF2. 3. Seleccionar un “handle lenght” que en muchos programas aparece como numero de fotogramas. Se recomienda aproximadamente no menos de 5 segundos. Seleccionar el formato “Consolidate”. Hay programas que por defecto seleccionan ya esta opción como es el caso de FinalCut. 4. Escoger el lugar físico del disco donde vamos a crear nuestro fichero OMF2. Recordemos que dependiendo de la cantidad de audio que tengamos en nuestra sesión, este fichero tendrá mayor o menor peso. �44 5. Exportar a disco duro : Este proceso dura un cierto tiempo, ya que el programa 388 editor de video lo que hace es seleccionar todo el material de sonido que hemos utilizado en nuestro montaje y comprimirlo sin perdida de calidad añadiendo la EDL en un único fichero OMF. Una vez realizado este proceso, nos queda únicamente, exportar la imagen de nuestro montaje. Esto no lo haremos mediante el formato OMF, sino que aquí tenemos dos opciones. Una posibilidad es exportar el montaje como fichero Quicktime DV PAL que entregaremos grabándolo en un DVD de datos o desde un disco duro externo portátil. Otra posibilidad es entregar directamente un DVD de la película. Este ultimo sistema tiene la desventaja que tendremos posteriormente que extraer el video y el audio de dicho soporte y convertirlo a fichero DV PAL. Mi consejo es el de trabajar siempre utilizando la primera opción es decir, el fichero imagen que el propio montador nos ha preparado evitando así conversiones y procesos que podrían generar errores posteriores. 21.5 Edición de diálogos Antes de enumerar los distintos elementos que entran a formar parte de la post- producción de sonido en si misma, quisiera realizar un apunte breve y claro. Nuestro KRUG, Jeremy. Mastering Pro Tools Effects: Getting the Most Out of Pro Tools Effects Processors. 388 Paperbook, 2012. La memoria en formato hard drive debe de tener en cuenta no solo las características de nuestro proyecto, sino también la velocidad de reproducción del propio disco 7200 rpm y sobre todo el sistema operativo sobre el cual se desenvuelve. �45 objetivo como técnicos de sonido no es la de utilizar el sonido como mero relleno para una historia, sino, la de provocar al público. Tenemos que ser capaces de interesar al espectador, de meterle de lleno en la película, en la historia, y de convertirle en un acompañante activo de lo que vemos en pantalla y no de un simple y pasivo oyente. Nuestro trabajo tiene que provocar sentimientos, sensaciones, tenemos que tocar física y espiritualmente al publico, y hacerle nuestro aliado y cómplice secreto. Para que todo este proceso llegue a buen fin, tenemos que analizar las partes o apartados mas importantes que la conforman. Es decir, las distintas fases o trabajos que vamos a realizar a lo largo de todo el proyecto, hasta conseguir una banda sonora compacta, creíble, real y capaz de transmitir ese “algo mas” que queremos que llegue al espectador. Por ello el primer elemento de análisis y estudio será, el propio diálogo. Las voces de nuestra historia, sus matices, sus características, timbre , color, presencia 389 etc. Este es nuestro material de trabajo mas importante. El elemento que lleva gran parte de la carga comunicativa de la historia, y por consiguiente, el que tenemos que cuidar y mimar especialmente, es la voz, el elemento hablado como forma de expresión principal en la mayoría de las producciones. QUESNEL, R., & Woszczyk, W. R. A computer-aided system for timbral ear training. Proceedings of the 389 96th Convention of the Audio Engineering Society, Amsterdam, Netherlands. 1994.: proponen un sistema computerizado de entrenamiento para entrenar la sensiblidad al cambio tímbrico sonoro y de esta forma entrenar positivamente el oído humano. �45 21.5.1 Limpieza de diálogos y directo En toda producción audiovisual, el dialogo es el rey. Si no hay diálogo , serán las 390 músicas a adoptar este rol activo y dinámico. Y en caso de que no exista ninguno de los elementos anteriormente mencionados, serán los efectos y los ambientes, capaces por si solos de contar y narrar una determinada historia. Pero volvamos a nuestros diálogos. A las voces originales de actores, que dan vida a los personajes de la pantalla. El primer paso a realizar será el visionado de todo el material, tomando nota escrita de los momentos o partes mas criticas del mismo. Cuando digo critica, me refiero a las partes del dialogo que por distintos problemas son de difícil comprensión o simplemente por su calidad, no valen para incluir en mezclas. En algunas ocasiones, el director puede preferir una toma de imagen, que por acting y por imagen le convence, pero no así su sonido asociado. Es pues muy importante conocer de antemano todo el material montado en las distintas bobinas, y de esta forma, tener una clara y primera impresión del estado general de sonido del proyecto. Importante será sin duda, realizar un segundo visionado conjuntamente con el director, y conocer los comentarios, sugerencias, o simplemente las notas que este, nos quiera indicar a lo largo del desarrollo de la proyección. Conocer de antemano la opinión y el punto de vista del director, de como desea o quiere el sonido para su película, es sin lugar a dudas una información muy valiosa para nosotros. RUMSEY F. and T. Mc Cornick. Sound and Recording. Focal Press. Oxford 1995: para ellos, el dialogo 390 es el material más importante en toda producción, ya que contiene a priori la narrativa principal de la historia. Es por ello que su comprensión es de vital importancia, por encima de cualquier otro sonido u efecto. �45 Recordemos que la grabación en directo, ya sea en plató o en interiores o exteriores reales, es la mas rica y autentica capaz de transmitir toda la fuerza y profundidad de la acción. Por contrapartida, este sonido directo no es del todo perfecto. Existen elementos incontrolables por ejemplo cuando rodamos en exteriores, ruidos, fuentes sonoras indeseables , tráfico, viento, fondos demasiado presentes, 391 ruidos del propio equipo técnico o actores, etc. Por otro lado los interiores son localizaciones que tampoco están exentas del todo de problemas. Ruidos excesivos de pasos, fondos ambientales, reverberancias excesivas, ruido de equipos, etc pueden ensuciar en un momento determinado las voces con las que vamos a trabajar. Es así, que el equipo de post-producción tiene que prepararse para realizar un proceso de limpieza o por así llamarlo, de conformado del sonido. Una buena escucha del sonido directo a un volumen adecuado, nos permitirá detectar aquellos 392 393 errores o problemas que alteran los diálogos, y que generan solamente fuente de ruido y error. Imaginemos el rodaje en interiores en una casa rural. Una secuencia que acontece en el salón y pasillo de una casa antigua de madera. Estamos en interiores, donde las fuentes de ruido pueden estar más controladas, pero nunca jamas controladas totalmente. Y digo esto, porque durante la grabación de la escena, no solamente nos encontramos con los actores de la historia, sino a todo un equipo completo de rodaje. KATZ, B. Mastering Audio: The Art and the Science, Focal Press, Oxford. 2002: Los autores hablan de 391 chasquidos, ruidos y suciedades que no deberían estar en el resultado final. Siempre que no pisen diálogo son fáciles de eliminar. Si pisa un diálogo tendremos que buscar y cuadrar otra toma de diálogo con la boca del actor o doblarlo. SOULODRE, G.A., and Norcross, S.G. Objective Measures of Loudness. 115th Convention, Audio Eng. 392 Soc. 2003, Preprint 5896.: Para ellos, la escucha ha de ser plana para la perfecta identificación de cualquier error o anomalía en el mismo. Se trata de las escuchas utilizadas en los estudios de audio profesional, cajas (altavoces) que no colorean la señal al hacer las correspondientes conversiones electroacústicas. ROBINSON, D.W., and Dadson, R.S. A Re-Determination of the Equal-Loudness Relations for Pure 393 Tones,” British J. of App. Physics, 1956, pp. 166–181.: Para los autores, los sistemas de ecualizacion de las escuchas sonoras son fundamentales para la determinación de las curvas de volumen y de la percepción de la dinámica del sonido. �45 Ya sea grande o pequeña la producción, siempre contaremos con un director y ayudantes, cámara y foquista, equipo de iluminación, script, técnicos de sonido por supuesto, y profesionales o técnicos de distinta índole. Todos ellos, son posibles fuentes de ruido, incluso en el caso de que éstos no hicieran ningún ruido determinado, seguiríamos teniendo el mismo problema del principio. El ruido indeseado. En este caso el ruido puede provenir también de la propia madera, que al pisarla no solo los actores sino el resto del equipo que sigue el rodaje en sus movimientos y evolución, crujirá produciendo una cantidad de “ruido” añadido al directo de diálogos. En algunos casos éste ruido puede ser aceptable, como elemento dinamizador y rítmico subordinado a la voz. Pero seguro que en determinados momentos, se convertirá no en un aliado de la historia que se esta grabando, sino en una fuente problemática para el entendimiento y comprensión de la voz , que recordemos juega siempre un papel principal y 394 protagonista. Si los diálogos no se entienden, entonces la historia pierde su sentido y objetivo. Es así que nuestro primer cometido es limpiar y dejar los diálogos libres de todo ruido. En este caso, cuando los sonidos no deseados son ruidos concretos producidos por los actores caminando (taconeo excesivo, golpes etc), o por el propio equipo técnico, estaríamos hablando de una técnica de edición de sonido, basada en la eliminación puntual de estos elementos. Es decir tendríamos que cortar, pegar, y utilizar porciones de sonido libre de ruido sobre aquellos puntos problemáticos del dialogo etc. Seleccionamos la porción de dialogo con ruido analizando si éste pisa o enmascara la voz, o si tenemos la suerte de que acontece entre palabras, frases, o silencios. Ésta condición es RANADA, D. Maxing Out Resolution,” Sound and Vision Magazine, 2006 Feb./Mar., p. 20.: El autor 394 comenta que hay que tener cuidado si intentamos comprimir el sonido excesivamente para sacar más dinámica a las voces, ya que cualquier distorsión se hará audible para el público y provocará una reacción negativa y de rechazo a la propia película. �45 francamente importante ya que será mas sencillo de eliminar en este caso que si el ruido pisa alguna palabra o letra. El ruido en este ejemplo es un crujido de madera y lo podemos eliminar fácilmente ya que no pisa nuestro dialogo. Cortamos la porción de audio no deseado y buscamos 395 en la misma toma o posibles tomas dobles, material de fondo ambiente sin dialogo para cubrir la parte de sonido donde hemos borrado los chasquidos de madera. De esta manera podremos cubrir el espacio editado realizando en los extremos de la misma fundidos “crossfades” que nos permitan suavizar las transiciones de sonido, eliminando así los ruidos o chasquidos que se suelen producir en las zonas de corte. AVID INC. Pro Tools 101 Official Courseware. Ed. Course Technology. Boston 2005. El autor informa 395 como las curvas de los fundidos cruzados si se diseñan con amplitud equivalente tanto en entrada como en salida, eliminan de mejor manera cualquier clase de ruido o interferencia que se pueda provocar durante el proceso de edición. Limpieza de diálogos Igualado de fondos �45 Copiamos y rellenamos con este fondo neutro del propio ambiente original. Finalmente como hemos comentado antes, realizamos crossfades para suavizar las transiciones. 396 En el caso de que el ruido pise una letra, seleccionamos el ruido y lo eliminamos del dialogo. Buscamos seguidamente esa misma letra, con el tono mas parecido posible, en la secuencia o secuencias semejantes del propio actor. Cortamos la letra y la pegamos en nuestro dialogo completando la palabra. Aplicamos crossfades a las transiciones. Otra posibilidad es la de tener que eliminar ruido, un golpe por ejemplo en medio de una palabra. Empleamos la misma técnica si es posible, ya que tendremos que encontrar esa misma palabra en otra toma doble de ese plano, sustituyéndola, siempre y cuando el tono, ritmo y color de la palabra sea similar a nuestro dialogo. En caso contrario, si el ruido es excesivo, molesto y no nos deja entender la frase, y no tenemos material donde extraer esa palabra limpia, entonces esa toma será candidata a doblaje . Estos ruidos son aleatorios, así denominados porque acontecen 397 de forma irregular, son cambiantes, dinámicos y se funden en ocasiones con otras fuentes de posible ruido. Las propias luminarias utilizadas en rodaje, son en muchos casos fuente de otro tipo de interferencias, continua y estable en el tiempo, como pueden ser, ruido de cámara, ruido de fluorescentes, aire acondicionado, o cualquier ruido que se mantenga su frecuencia a lo largo del tiempo. Este ruido aunque por un lado puede tener mejor solución, por otro también nos puede incrementar otro tipo de problemas a la hora de eliminarlo y son los denominados “artifacts”. FLOYD, E. Sound Reproduction. Loudspeakers and rooms. Focal Press. London, 2008.: el autor 396 comenta que con crossfades nos referimos al paso atenuado de un fichero de audio a otro, la primera funde con la siguiente decayendo el nivel de una, mientras sube el de la otra. : HOLLYN, Norman. The Film Editing Room Handbook, Lone Eagle Press, Los Angeles 1999.: El autor 397 comenta que cuando editamos sonido, el objetivo es el de trabajar con la mayor cantidad posible de sonido directo. El doblaje es y debe ser, solo un recurso para mejorar la película, o para poderla vender a otros idiomas. �45 En estos casos, cuando el ruido no es puntual, sino que se desarrolla en el tiempo, puede enmascarar o ensuciar tomas enteras de sonido, y en algunos casos hasta secuencias completas. Por ello debemos utilizar un software especial de terceras partes, para eliminar la fuente de ruido. Podemos también utilizar plugins reductores de ruido 398 como el DINR de Avid, el RX de Izotope, o el SoundSoap de Bias, todos ellos son 399 también capaces de realizar ésta misma labor. El plugin DINR es uno de los muchos utilizados en postproducción cinematográfica para cine. De ésta manera, intentaremos eliminar o reducir el ruido de fondo provocado por el zumbido de un generador eléctrico por ejemplo. Para realizar este proceso, nos serviremos de éste software, capaz de funcionar dentro de nuestra estación de edición host de audio ya sea Protools, Logic, etc. Activamos el software DINR de reducción de ruido continuo. Seleccionamos 400 exclusivamente una porción de fondo de ruido de nuestro fichero que no contenga BRAASCH, J., Blauert, J., and Djelani, T. The Precedence Effect for Noise Bursts of Different 398 Bandwidths. I. Psychoacoustical Data. J. Acoust. Soc. Japan, 24, 2003. pp. 233–241.: Se trata de plugins que eliminan las frecuencias molestas del espectro sonoro. Hay que usarlos con cuidado y moderación, ya que podemos eliminar frecuencias que contienen material importante de sonido. El iZotope RX incluye funciones para remover Hum, Declipper, Declicker, Denoiser, Reparación 399 Espectral, y un avanzado Espectrograma. Este plugin permite eliminar reverberación de una fuente sonora, borrar fondos no deseados, eliminar ruidos digitales tales como chasquidos etc. COOK, Frank. Pro Tools 101 An Introduction to Pro Tools 10. Paperback Nov. 2011. El autor reseña como 400 importante esta herramienta para la eliminación de ruidos de fondo cuya frecuencia sea siempre estable y prácticamente casi constante. Programa DINR �45 diálogos o material sensible y pulsaremos el botón “PREVIEW” del plugin para escuchar el ruido aisladamente. Acto seguido pulsamos el botón “LEARN” para que el programa aprenda o memorice la frecuencia del propio ruido y posteriormente pueda separarla de nuestro diálogo. Pulsamos el botón “SUPERFIT” con el que creamos una barrera por debajo de la cual permanecerá atenuado nuestra fuente de ruido. Cuanto mas subamos la posición de esta linea de corte con la ayuda de los botones que permiten desplazar esta barrera, más cantidad de ruido indeseado estaremos eliminando con la ayuda del botón de eliminación de ruido NR AMMOUNT. Con el “preview” del plugin iremos escuchando el efecto sobre el ruido teniendo en cuenta que si forzamos demasiado estos parámetros, estaremos creando mas ruido e interferencias “artifacts”. Es muy importante que al terminar el proceso de “limpieza” del directo, comprobemos como todo el material de audio editado es perfectamente audible, inteligible, sin ruidos, pops, clics y sobre todo que mantenga su tono o desarrollo sonoro. Existe por otra parte dos tipos más de interferencias o problemas sonoros que pueden molestar al propio diálogo. Por una parte tenemos el eco o reverberancia excesiva, y por otro los fondos o ambientes molestos o demasiado presentes en la captación del diálogo. Pensemos que muchas series, proyectos, publicidad se ruedan en platós, cuya característica fundamental no radica precisamente en las mejores cualidades sonoras del propio local. 401 Hay muchos platós que son naves industriales reutilizadas y adaptadas, pero en muchos casos sin acondicionamiento acústico necesario. Es entonces cuando aparece el problema de la reverberancia o rebote de sonido. Este elemento, aunque no se pueda eliminar de la banda sonora, si podemos atenuarlo, o por lo menos rebajar su efecto. ROBINSON, D.W., and Whittle, L.S. The Loudness of Directional Sound Fields,” Acustica 10, 1960, pp. 401 74–80.: Éste es un problema muy común cuando se rueda en plató, ya que no siempre tenemos la posibilidad eliminar o rebajar la reverberación del espacio físico, y en ocasiones el rodaje se realiza en espacios sin ningún tipo de barrera o insonorización. La necesidad de captar el sonido directo con un nivel de volumen suficientemente alto, hace que en ocasiones y debido a las características del lugar de rodaje, aparezcan problemas y ruidos de fondo. �45 Para ello utilizaremos otro tipo de software de terceras empresas, como el Noise Suppressor de Waves , pensado especialmente para dialogo.402 Hay situaciones, donde por problemas de tiempo, de localización, etc, los ambientes suenan de forma excesiva y molestan ostensiblemente al diálogo. Pensemos en una carretera cercana con mucho trafico, en un fondo de mar demasiado presente o en un fondo de viento continuo y molesto. En estos casos, el plugin de Waves puede ser para nosotros nuestra tabla de salvación. Para que este software pueda realizar su cometido de la forma mas perfecta y precisa, los fondos a limpiar, tendrán que ser bastante estables en el tiempo, o por lo menos contener frecuencias que no cambien drásticamente de tono o de color. Todo este conjunto de herramientas de terceras empresas para las estaciones digitales de sonido que tenemos en el mercado, aporta una ayuda muy importante al sector de la edición y restauración de sonido, ya que el poder transformar el sonido analógico en sonido de código binario, permite manipular con total libertad estos elementos hasta conseguir resultados jamás antes logrados con otros medios tradicionales. El color o timbre de un sonido es un importante ingrediente de 403 información del mismo Sin duda la empresa Waves, es la más importante de cuantas existen hoy en día como fabricantes de 402 plugins para plataformas como Protools, Cubase, Logic, etc. GIBSON, E. J. Principles of perceptual learning and development. Appleton-Century-Crofts. New York 403 1969.: El color o timbre de un sonido es muy importante. Dos instrumentos pueden dar la misma frecuencia (tono), pero cada uno con un color diferente (o timbre). Esto sucede por la intensidad de sus frecuencias y sobre todo por los armónicos que se generan alrededor de la nota fundamental. �45 21.6. Técnica de montaje de sonido Para arrancar correctamente el montaje de sonido de nuestra producción, una condición indispensable será la de conocer por boca de la productora o del director de producción, cual será el tipo de mezcla (analógica o digital) y el tipo de soporte final del proyecto (DCP, DVD, 35mm). La primera condición resulta indispensable ya que del formato final de mezclas dependerá todo el proceso anterior de montaje, o lo que normalmente se llama DISEÑO DE SONIDO . El formato final es importante, ya que si el 404 sonido acaba fotografiado a 35mm la mezcla final se realizará como indicamos anteriormente en una sala con certificación DOLBY. En e l caso de que nues t ra producción termine exclusivamente en DVD y no se decida entrar en estudio, la mezcla la realizaremos enteramente en Protools. La teoría aquí expuesta, sirve de base para cualquier montaje ya sea cinematográfico, video-publicitario, documental etc. Para entender el verdadero sentido de “DISEÑO DE SONIDO” partiremos de una premisa fundamental. Todos los sonidos por molestos o desagradables que sean, son importantes, útiles y a tener en cuenta. No existen sonidos malos para un montador, sino sonidos que técnicamente están mal grabados o distorsionados . 405 HOLLYN, Norman. The Film Editing Room Handbook, Lone Eagle Press, Los Angeles 1999.el autor 404 comenta que el diseño de sonido de un film es una parte muy compleja de la producción de una película. Recoge todo lo que son músicas, diálogos, efectos, ambientes, es decir, representa la filosofía y estructura básica de nuestro proyecto sonoro. GEDDES, E., & Lee, L. Auditory perception of nonlinear distortion: Theory. Proceedings of the 115th 405 Convention of the Audio Engineering Society, Preprint 5890, New York. 2003. Los autores comentan que la distorsión es un fenómeno eléctrico del sonido. Se da cuando una onda o frecuencia sonora pasa a tener un techo de volumen mayor del 0db o bien presenta graves deficiencias tanto en la frecuencia de sampleo como en la profundidad de bits de información. �46 Es muy importante realizar un ejercicio individual, que ademas de sencillo y cómodo no requiere el uso de ningún tipo de equipo o sistema. Para poder añadir sonido a nuestra película es necesario conocer el mundo que nos rodea, y fijarnos en cada sonido que llega a nuestros oídos por pequeño o insignificante que éste sea. Conocer la existencia de un determinado sonido, nos enriquece y alimenta nuestro cerebro para 406 que posteriormente podamos rescatar este material y utilizarlo en nuestra producción. El diseñador de sonido, es el encargado de la creación de bandas de efecto, colchones ambientales , y de todos aquellos sonidos que vamos a producir 407 ayudándonos de herramientas informáticas a través de la estación digital Protools. De esta manera, para realizar nuestra labor, partiremos de sonidos reales, existentes en la vida real, para luego realizar modificaciones en ellos, a través de la aplicación de los denominados plugins, es decir, programas de terceras partes, que servirán para crear nuevos sonidos que no existen en el medio real. Este es el caso por ejemplo de dos películas españolas, en las que trabajé como diseñador de sonido. En “99.9 la frecuencia del terror” de Agustí de Villaronga, realicé toda una serie de estructuras sonoras para muchas de las secuencias de la película. En particular, yo destacaría las escenas del televisor, donde según el guión, se escuchan psicofonias de los muertos y del mas allá, cuando el aparato no esta sintonizado en ningún canal y solo aparece en pantalla la típica niebla blanca o ruido rosa. STORR, Anthony. La música y la mente, Paidos, Barcelona, 2002. El autor introduce la idea de que 406 nuestro cerebro necesita un tiempo determinado para poder procesar el sonido. De este modo solo somos capaces de distinguir un sonido de otro si esta separado por una cantidad mínima de milisegundos, mientras que para detectar su amplitud necesitamos al menos una escucha de 13 milisegundos. SCHOOLMASTER, M., Kopco, N., and Shinn-Cunningham, B.G. Effects of Reverberation and 407 Experience on Distance Perception in Simulated Environments. J. Acoust. Soc. Am., 113, p. 2285, 2003.: Los efectos de reverberacion (plugins) permiten añadir profundidad a los sonidos y añadir realismo y dimensionalidad a los planos de imagen. �46 Lara es la presentadora de un programa de radio, 99.9, sobre fenómenos paranormales. Una noche, mientras se encuentra frente al micrófono, recibe la noticia de que Víctor, un viejo amigo, ha muerto en extrañas circunstancias en el cementerio de un pequeño pueblo. (V62). La idea final era la de transmitir, una sensación de miedo, agobio, inseguridad, y sobre todo la de dejar una puerta abierta a la idea de que alguien desde otra dimensión, estaba intentando ponerse en contacto con la locutora de radio (Maria Barranco). Estos tipos de trabajo, son muy gratificantes ya que permiten crear toda una serie de ambientes y colchones sonoros a través de la manipulación de archivos y el uso de programas informáticos para conseguir los resultados deseados. 21.6.1 Diseño de pistas Cuando arrancamos un proyecto, lo hacemos desde la sesión de OMF2 que ha sido creada desde el sistema de edición de imagen del montador. Normalmente los programas �46 más utilizados son Adobe Premiere, FinalCut , Avid-Media-Composer etc. Abrimos el 408 programa Protools y desde el menú file, escogemos la opción “import” y el submenú “session data”. De esta forma, importaremos el montaje de sonido tal y como se realizó durante el proceso de imagen, y a partir de aquí empezaremos a trabajar. El siguiente paso, será importar la imagen del proyecto. Recordemos que la imagen tendrá que estar en formato DVPAL o QUICKTIME MOV para su correcto 409 arrastre y sincronización . 410 Para ello nos vamos al menú File, opción Import opción Video y navegamos en nuestro disco duro hasta encontrar el fichero de imagen. Nos aparecerá en la sesión nuestra pista de imagen. Para no sobrecargar el procesador del ordenador, dicha pista se mostrará como “bloque” y no como “fotograma” escogiendo la opción correspondiente en Final Cut Pro es un programa dedicado a la postproducción profesional de imagen. Originariamente de la 408 empresa Macromedia, este programa fue adquirido por Apple. Con el tiempo y a través de las distintas versiones ha terminado por convertirse en uno de las aplicaciones más utilizados por la industria audiovisual. QuickTime es un reproductor de contenido multimedia de Apple, Inc. Se considera un complemento del 409 sistema operativo de Mac OSX, y que permite la visualización de contenido de imagen. Existe una versión modificada para correr en sistemas operativos window. Ha tenido una gran aceptación en el mercado gracias a su capacidad de compresión de imagen, com o a la cantidad de codecs de compresión que trabajan bajo el formato Quicktime. OWSINSKI, B. The Mixing Engineer’s Handbook, MixBooks, Boston 1999.: el autor comenta que la 410 sincronización entre imagen y sonido es necesaria para una correcta postproducción. No solamente a nivel de fofotgraoas, sino cuando hablamos en especial de diálogos, tenemos que poder sincronizar con una precisión de centésima de segundo. Ejemplo montaje de pistas en Protools �46 el menú que la pista de video nos muestra. El resultado será un proyecto de Protools 411 con nuestra pista de imagen y nuestras pistas de dialogo. Convendría hacer un repaso de cuales son las variables sonoras que nos vamos a encontrar en los diálogos y como se van a colocar en la sesión de Protools. Ante todo, recordemos que cada plano de imagen esta asociado a una grabación de sonido ya sea directamente a cámara, o en equipo externo independiente como pueda ser un sistema digital portátil de grabación a disco duro . El diálogo suele contener 2 canales de 412 información. Según las circunstancias, el principal puede ser el micro de cañón con 413 pértiga colocado para un personaje, y un segundo micro inalámbrico por ejemplo para un segundo actor. Otra disposición puede ser un micro de cañón que cubra un dialogo de dos actores mas un micrófono ambiente un poco mas alejado para cubrir y dar profundidad a la toma. Otra posible disposición puede ser 3 micros inalámbricos para 3 personajes, o dos pértigas para dos personajes y dos radio micros para otros dos actores, etc. Sea el tipo de toma que sea, el sonidista se habrá preocupado de premezclar los audios separadamente, de forma que nos llegue en pista L por ejemplo la pértiga o pértigas utilizadas, y en pista R el inalámbrico o inalámbricos utilizados. Esto es muy importante, ya que jamás podremos utilizar una premezcla de sonido, si el técnico ha mezclado diferentes tipos de micrófono (cañón y radio-micro) en un mismo canal de grabación. EARGLE, J., and Foreman, C. Audio Engineering for Sound Reinforcement, JBL Pro Audio Publications. 411 2002.: los autores comentan que el premontaje de sonido durante el proceso de edición de imagen (FinalCut, Premiere) es también parte fundamental en la estructuración del proyecto. Necesitamos un bloque origen de audio que más tarde, el editor de sonido reforzará y mejorará produciendo al final una banda sonora completa capaz de emocionar y transmitir el mensaje de la película. Los grabadores SoundDevices de 6 y 8 pistas para directo de cine, es uno de los sistemas más 412 utilizados hoy en día en la producción cinematográfica. Emplea previos de micro de alta calidad y un disco duro portátil tanto externo como interno al propio aparato. BARTLETT, B., Técnicas de micrófonos en estéreo, IORTV, Madrid, 1995.: el autor informa que es un 413 micro cardióide y direccional, se emplea agarrando al extremo de una pértiga que su operador direcciona hacía el talento. �46 Es decir, el técnico de sonido directo, no sólo ha realizado su trabajo de forma correcta y compensada, donde habrá mezclado microfonos de cañón y microfonos de radio-frecuencia en pistas separadas, sino que también habrá grabado en pistas independientes (grabación abierta) cada micrófono utilizado de forma que si tenemos que rescatar alguna parte del dialogo que ha quedado descompasada en las dos pistas de mezcla principal, lo podamos hacer sin ningún problema buscando ése material en las pistas abiertas. De esta forma en el grabador de sonido multicopista tendremos: Pista 1 L: se graban mezclados los canales de dialogo correspondientes a micrófonos de cañón (pértiga) Pista 2 R: se graban mezclados los canales correspondientes a radio-micrófonos (micrófono de radio frecuencia), sin olvidarnos nunca de la polaridad del micrófono .414 415 Pista 3, 4, 5 etc : se graban todos los microfonos separadamente, uno por pista (pistas abiertas). Es importante saber, que como montadores y editores de sonido, el material de audio grabado con micrófono de cañón (ya sea corto o largo) será para nosotros el de mayor fiabilidad y calidad, ya que éste sonido capta la voz, dejando atrás elementos ambientales o fondos, descartando en gran medida el ambiente. Es decir, son micrófonos direccionales, cardioides que capturan con nitidez y claridad el diálogo. Los micrófonos de radio-frecuencia, trabajan expuestos a diferentes OLIVE, S. The Evaluation of Microphones. Part 1: Measurements. 87th Convention, Audio Eng. Soc.. 414 1989.: El autor comenta que las características sonoras de los micrófonos, dependen de la polaridad de los mismos y de la conformación de la cápsula de captación sonora. GOVER, B.N., Ryan, J.G., and Stinson, M.R. Measurements of Directional Properties of Reverberant 415 Sound Fields in Rooms Using a Spherical Microphone Array. J. Acoust. Soc. Am., 116, 2004, pp. 2138– 2148.”: los patrones de polaridad provocan diferencias en la captación de audio de los micrófonos, como también su sensibilidad con respecto al ángulo de incidencia del sonido. �46 fuentes de ruido ademas del ambiente o localización en donde nos encontremos. Son micrófonos de cápsula omnidireccional, y además están sujetos a interferencias y 416 distorsiones aleatorias. Utilizaremos esta fuente de sonido con precaución, y valorando siempre su calidad. Al importar el fichero de OMF, nuestro montaje tiene que adaptarse a un diseño de pistas que nos permita trabajar con comodidad y eficacia y para eso, recolocaremos el audio de forma que encaje perfectamente en nuestra estructura de trabajo de la siguiente manera: Los diálogos en nuestro software de edición Protools deberán ir colocados en pistas independientes, y como mínimo, utilizaremos 4 pistas a tal efecto, de modo que moveremos cada plano de audio a cada par de pistas separadamente, como aparece en la siguiente imagen. Es decir, realizaremos lo que se denomina “pisteado de diálogos por planos”, 417 utilizando pista 1 y de 2 de diálogo para el plano A de imagen, y pista 3 y 4 para el plano BORÉ G., Microphones. Neumann USA, Sennheiser Electronics, 6 Vista Drive, Old Lyme, CT, 06371 416 (1989).: el autor informa que el primer micrófono de condensador de la casa Neumann fue el modelo CMV3 de cápsula intercambiable. Por su típica forma fue denominado el micrófono botella y qué utilizado mayormente durante la segunda guerra mundial. COREY, J. Beyond splicing: Technical ear training methods derived from digital audio editing techniques. 417 Proceedings of the 123rd Convention of the Audio Engineering Society, Preprint 7212, New York. 2007: El autor comenta que se trata de un método de montaje denominado “pisteado de planos”, por el cual alternamos los planos de diálogo en pistas 1,2,3,4, para que los ficheros puedan editarse con facilidad. De esta manera podemos realizar crossfades, fases y automatizaciones de volumen de forma rápida y sencilla. Pisteado de diálogos por planos �46 B, para luego volver a la pista 1 y 2 donde colocaremos el plano C de sonido y así sucesivamente. Existe una segunda técnica de montaje, denominada “pisteado por personaje”, pero en este caso, trabajar cada personaje en pistas independiente, complicaría seriamente el montaje y lo que es más importante, aumentaría el gasto de recursos del 418 ordenador: procesador, CPU, plugin y efectos, etc. Hay montadores de imagen, que conocen esta técnica y colocan el audio de esta forma, ya que nos facilita posteriormente una parte de nuestro trabajo. En otras ocasiones, desgraciadamente, esto no acontece y seremos nosotros los encargados claro está de ajustar el diseño de la sesión. En el caso de que al importar nuestro OMF, comprobamos que los diálogos no respetan este diseño, tendremos que modificar el proyecto en general y la configuración de pistas, de forma que éstas nuevas pistas cumplan su correcta función y se acomoden al standard de trabajo en postproducción. Los diálogos captados con micros de cañón irán en una pista, y los captados con radios, en otra, con el objetivo de poder tratar el color del sonido de forma independiente para cada fuente original, agrupando éstas por canal. Mas importante que todo esto, es entender el concepto de “pisteado”. Pistear quiere decir saltar de una pista o pareja de pistas a otras de forma que la norma a seguir sea colocar cada plano de sonido (que corresponde a su plano de imagen) por ejemplo en pista 1 y 2 (una pista para cada canal) y pistear o saltar a pistas 3 y 4 cuando haya un cambio de plano. Es decir, pisteamos por planos, por cambios de plano, de forma que estaremos saltando continuamente de las pistas 1 y 2 a la 3 y 4 y viceversa, teniendo como única HOLLYN, Norman. The Film Editing Room Handbook, Lone Eagle Press, Los Angeles 1999. El autor 418 comenta que la técnica del piste por personajes, es posible utilizarla, pero si somos prácticos, veremos como complicará muchísimo nuestro trabajo, ya que estaremos empleando una gran cantidad de recursos del ordenador, de la cpu, con el consiguiente gasto de memoria y tiempo de proceso de la información. �46 guía, el cambio de plano de imagen. Ademas, nos cuidaremos muy mucho en controlar, que los micrófonos de cañón viajen en su canal y los radios en el suyo correspondiente. A través de esta técnica, lo que conseguimos es poder manipular el audio con mayor facilidad y libertad, ya que los ficheros de sonido en la edición de Protools, nunca se tocarán, es decir, el efecto de “pistearlos”, de cambiarlos de pista al cambio de plano, va a evitar que los archivos se pisen unos a otros, además de facilitar también la labor de edición posterior como ya veremos. Por otro lado, los ambientes o colchones ambientales pueden tener distinto origen: 1. Ambientes importados de librerías comercializadas por terceras empresas. Estos ambientes se han grabado y editado (es decir, están limpios de errores y ruidos) con gran calidad, empleando los mejores convertidores analogico-digitales que hay en el mercado, y utilizando los ajustes de mayor calidad, tanto a nivel de frecuencia de muestreo como sobre todo, de bits de información. Son colecciones muy extensas de diferentes ambientes en formatos CD, DVD de empresas muy conocidas como HOLLYWOOD EDGE, SOUND IDEAS; WARNER BROS, etc.419 2. Ambientes grabados durante el rodaje. Se denominan WILD-TRACKS DE 420 AMBIENTES. Los ambientes, viajaran preferentemente en pistas estéreo, tanto de pantalla como de surround. En el caso de ambientes, éstos también se pistean, pero al contrario de los Existe una gran cantidad de colecciones de efectos de sonido tanto europeas como americanas y 419 británicas. Prácticamente cubren todo el espectro de efectos y ambientes para ser utilizados en cualquier producción audiovisual. MORTON, D.. The Life Story of a Technology, Greenwood Press, Westport, Connecticut. 2000: Para el 420 autor, un wildtrack es un sonido que se graba en rodaje. Se trata de grabaciones fuera de cámara. Se suelen centrar en la grabación del ambiente sonoro de una localización, de frases o partes de un diálogo, o de determinados sonidos o gestos actorales, pasos, sonidos diegéticos que no deben faltar en la edición, y que permiten completar la banda sonora de la película. �46 diálogos, aquí jugamos con secuencias completas. Montaremos por ejemplo, en la sesión de Protools, nuestro sonido de trafico ciudad para los altavoces L y R de pantalla, de forma que podamos cubrir cada secuencia en su totalidad y repitamos también lo que hicimos con los diálogos, es decir, cambiar de pista, al cambio de secuencia. De esta forma tampoco los ambientes de diferentes secuencias se hallaran físicamente pegados el uno al otro en la misma pista, ya que éste es en definitiva, el objetivo que queremos lograr. Pistearemos entonces por secuencias y el numero mínimo de pistas para ambientes serán 2 pistas estéreo para L y R de pantalla y 2 pistas estéreo para el canal Surround si la mezcla final se realiza en formato DOLBY SRD (digital). En caso de que la mezcla final sea analógica DOLBY SR, utilizaremos 2 pistas estéreo para L y R de pantalla y 2 pistas monoaurales para el canal surround trasero. Si hablamos de efectos de sonido, éstos pueden viajar en pistas mono (el caso de un golpe, una puerta que se cierra etc) o estéreo (una explosión, la pasada de un coche etc). Los efectos de sonido pueden proceder de distinta fuente: 1. Efectos grabados durante el rodaje. Se denominan WILD-TRCAKS DE EFECTOS. 2. Efectos importados de librerías. Pertenecen a colecciones especializadas en todo tipo de temática sonora, animales, truenos, impactos, disparos, etc. Las empresas más conocidas que comercializan estos productos, son americanas en su inmensa mayoría. Las pistas musicales, dependiendo de los instrumentos utilizados y de su composición, podrán viajar en Protools en formato ESTÉREO, LCR, QUAD, o 5.1 y seguirán la misma técnica ya conocida de pisteado, para que en ningún momento nos podamos encontrar con bloques musicales adyacentes en la misma pista. �46 El músico, normalmente compone su trabajo intentando trasmitir intensidad, emoción y sorpresa, y para ello, trabaja pensando en las posibilidades que le brinda un tipo de mezcla (SR) u otra (SRD). Así lo que hace es sencillamente componer jugando con los distintos altavoces de la sala, de forma que algunos bloques tendrán salida de pantalla LCR, otros 5.1, y otros LR o LsRs (surround) por ejemplo. Si dos bloques musicales en un momento dado se solapan o se pisan (el final de un bloque y el principio de otro), abriremos otra pista de música donde colocaremos el fichero, de forma que no coincidan en el mismo momento y en la misma pista. Recordemos que nuestro objetivo será en primer lugar el de obtener un dialogo claro y nítido durante toda la duración del metraje. Además de limpiar el directo de rodaje de ruidos y fondos no deseados, tendremos que mejorar nuestro sonido si esto fuera necesario utilizando toda una serie de baterías de plugins digitales tanto para nuestro montaje de sonido como para nuestra mezcla final multicanal. �47 21.7 Edición con plugins de efectos Las modernas estaciones digitales de edición de sonido, hoy en día indispensables para construir las complejas bandas sonoras de una película, tienen la enorme ventaja de ser equipos abiertos, es decir, susceptibles de aumentar su potencia añadiendo software (plugins) de terceras partes. Los plugins son programas que funcionan dentro de la plataforma digital de edición de sonido, y se hacen operativos con tan solo añadir dicho efecto a la pista de sonido correspondiente de nuestro proyecto de PROTOOLS, por ejemplo. Esto hace que nuestro equipo de edición, se convierta en un sistema abierto, muy sofisticado y con gran potencia de edición. Por eso no podemos pasar por alto, los principales plugins que todo montador, debe de conocer y utilizar, para conseguir una perfecta edición y manipulación del sonido. Esto también nos permitirá comprender mejor como se consiguen determinados efectos sonoros, y de esta forma descubrir por qué medios el editor logra emocionar al publico o provocar diferentes estados de animo. Uno de los plugins más utilizados y necesarios en todo trabajo de sonido, es sin duda el ecualizador. Un ecualizador, es un sistema virtual por software que permite modificar las frecuencias de un fichero de sonido, aumentándolas o disminuyéndolas de volumen o incluso eliminándolas como seria el caso de ruidos o fondos no deseados que necesitaremos limpiar de un determinado fichero de sonido. Para ello, basta con modificar las amplitudes de sus coeficientes de Fourier, es decir modificar los distintos volumenes para cada frecuencia, logrando el efecto deseado en nuestro fichero final. �47 Hay determinados ecualizadores gráficos que funcionan sobre la fase de las señales que procesan, y otros que actúan sobre la amplitud. Un ecualizador se puede utilizar tanto a nivel profesional como domestico. Los equipos de sonido domestico, también permiten el uso de ecualizadores para reforzar frecuencias mejorando la escucha dependiendo de la sala y del entorno físico. Existen diferentes tipos de ecualizadores: paramétricos, gráficos analógicos o 421 digitales. Los diferentes fabricantes de ecualizadores como por ejemplo los míticos Focusrite, han decidido crear versiones para software de sus equipos, tanto para plataforma Protools (con el standard RTAS o TDM), como LogicPro, (con la versión AudioUnit), o Cubase (con la versión VTS). Si hablamos de ecualizadores profesionales, estos deben de tener un mínimo de 10 bandas de corte de frecuencia , para poder sacar 422 todo el potencial que tiene el propio equipo. Para cumplir las normas ISO debemos de EARGLE, J. Equalizing the Monitoring Environment. J. Audio Eng. Soc., 21, 1973. pp. 103–107.: el autor 421 comenta que los ecualizadores gráficos pueden ser físicos o basados en software. Son capaces de dividir el espectro sonoro en varios anchos de banda representados por potenciómetros. Al subir o bajar un potenciómetro se altera la ganancia que afecta a ese ancho de banda. Se denomina gráfico porque podemos dibujar fisicamente los cambios de ganancia según las diferentes frecuencias. GOULD, G. The Prospects of Recording,” High Fidelity Magazine, April, 1966 pp. 46–63.: Llamamos así a 422 la división que se hace en los ecualizadores. Se dividen en diez o más anchos de banda en los que los faders de cada banda afectan a unas frecuencias determinadas. Ejemplo ecualizador paramétrico �47 trabajar sobre unas determinadas frecuencias que detallamos a continuación: 31, 63, 125, 250, 500, 1000, 2000, 4000, 8000 y 16 000 hercios. En la plataforma Protools, podemos trabajar con formatos de plugins diferentes: TDM, RTAS (real time audio suite) y AUDIOSUITE. La diferencia entre los tres radica en la forma de procesar la señal. El formato TDM es exclusivo para los equipos HD de alta definición, donde el procesado lo realiza la tarjeta interna DSP de sonido. En los RTAS y AUDIOSUITE, el procesado de la señal lo realiza el propio chip DSP (digital sound processor) de nuestro ordenador. Además, éstos dos formatos actúan de forma distinta: a) Plugin en formato RTAS: se insertan en una pista de audio de la sesión y afecta a todos los ficheros que se encuentren en ella .423 b) Plugin en formato AUDIOSUITE: afecta exclusivamente a 1 fichero o grupo de ficheros de sonido, modificando aquellos que hemos seleccionado. Jamás se insertan en pista alguna. HUTCHINS, B. Application of real-time Hadamard transform network to sound synthesis, Journal of the 423 Audio Engineering Society, 23, 1975, pp. 558–562.: los efectos aplicados en pista permiten mejorar nuestro proyecto sonoro con un consumo reducido de recursos a nivel de procesamiento de la información. Ejemplo ecualizador AVID �47 Imaginemos la voz de una chica demasiado aguda y chirriante. Para evitar este efecto, podremos utilizar alguno de los plugins tanto en formato TDM, RTAS o AUDIOSUITE, como por ejemplo el modelo Oxford EQ de Sony. Retocaremos las frecuencias que resulten mas molestas, intentando suavizar el sonido y hacerlo mucho mas agradable al oído. Por otra parte, si éste viene demasiado bajo de volumen en origen y percibimos que es imposible trabajar en esas condiciones, podríamos comprimirlo con alguno de los programas a tal efecto, como es el caso del plugin MCDSP4000 que es un buen compresor multibanda para pistas tanto mono 424 Los formatos de plugins comercializados hoy en día, están disponibles para prácticamente todos los 424 programas de edición más importantes, como Protools, Cubase, LogicPro etc. Ejemplo ecualizador OXFORD Compresor multibanda MCDSP 4000 �47 como estéreo. Actuaremos en dos vertientes, comprimiendo el sonido colocando el threshold a un nivel aceptable de trabajo y comprobando el nivel de compresión por bandas graves, medias y agudas y corrigiendo cada factor de compresión individual en el caso de que necesitemos ajustar al máximo nuestro sonido. Es decir, intentaremos igualar los diálogos, de forma que su escucha resulte perfecta y sin distorsiones ni errores. Cuando hablamos de plugins, nos referimos, a toda una gran variedad de software, como pueden ser efectos dinámicos entre los que encontramos los compresores, los limitadores, expansores, o efectos que manipulan el tiempo de un fichero, como son los revrberadores, el eco, etc. Pero además de estos, también existen programas capaces de realizar una gama de tareas muy amplia, pero muy interesante para el propio técnico. Son plugins que mejoran o redefinen cualquiera de las tareas que podemos realizar internamente en el editor de sonido. Por ejemplo podemos servirnos de programas que permiten alterar el campo sonoro 5.1, creando interpolaciones de pistas, reduciendo o expandiendo canales de salida. Hay otros efectos digitales en cambio que nos pueden ayudar a la hora de sincronizar un doblaje, o crear una textura sonora para un efecto o un ambiente determinado. Hay tantos plugins y tan diferentes, que no podemos abarcarlos en este trabajo, ni éste es el objetivo planteado. Bastará recordar el concepto de plugins, a través del ejemplo que hemos comentado, como el ecualizador o el compresor de sonido, y saber que estos programas están comercializados por empresas de terceras partes. Entre los conocidos por la profesión, podemos citar a WAVES, MCDSP, AUDIOEASE, SPECTRASONICS, FOCUSRITE, SPL, NEYRINCK, BLUECATS, y muchos otros más. �47 Ya inmersos en el proceso de montaje de sonido, no debemos de descuidar un concepto fundamental: el orden que debemos de seguir en el montaje de pistas de nuestra sesión de Protools. Hay que mantener una coherencia de estructura de la sesión, donde todas las pistas sigan una determinada norma y función. El orden de montaje irá siempre de pista superior a la inferior y de izquierda a derecha. De ésta forma iremos dando vida y contenido a una sesión de trabajo, creando las pistas necesarias para los distintos sonidos que iremos utilizando y direccionando a las distintas salidas de altavoces. Normalmente seguiremos el siguiente orden en nuestro diseño de pistas: 1. Pistas de Diálogos 2. Pistas de Fx 3. Pistas de Ambientes C (centro de pantalla) 4. Pistas de Ambientes LR (estéreo de pantalla) 5. Pistas de Ambientes Surround (traseras) 6. Pistas de Música 7. Pistas de Foleys (efectos sala)425 Éste es el orden correcto, teniendo en cuenta que las pistas foleys o de efectos sala, funcionan de forma especial, ya que están compuestas realmente por 8 pistas independientes. En estas 8 pistas, vamos a repartir diferentes tipos de sonidos. Son aquellos efectos que se pueden captar en un estudio de grabación y que van a permitir, mejorar y reforzar la banda sonora de toda la película. Las primeras pistas de la 1 a la 3 CASE, A. U. Sound FX: Unlocking the creative potential of recording studio effects. Focal Press/Elsevier. 425 Boston 2007: El autor comenta que los foleys son efectos grabados en estudio y que permiten completar la banda sonora y realizar la banda internacional. Tres son los tipos de efectos que se pueden grabar: pasos, movimiento y ropas, y efectos varios relacionados con todos aquellos sonidos de pantalla que son susceptibles de grabarse en un estudio. �47 están reservadas para grabar los pasos de los protagonistas y de otros actores que se encuentren en segundo plano de imagen. Las pistas 4 y 5 permiten almacenar todos aquellos sonidos que tiene que ver con el movimiento de la ropa cuando se mueven los actores. Y finalmente en las pistas 6, 7 y 8, viajaran efectos variados de sonido, como abrir o cerrar puertas, sonido de tijeras, de un cajón que se abre etc. Representan todos aquellos efectos de sonido que se pueden grabar dentro de un estudio. Todas estas pistas, más los diálogos, efectos, ambientes y músicas, conformaran nuestra banda sonora en formato 5.1 multicanal. La construcción de todo el sonido de una película, es un proceso lento, muy trabajoso y sobre todo muy técnico, ya que debemos de cumplir como hemos visto, toda una serie de estándares, que nos van a permitir realizar nuestro trabajo de una forma más cómoda y segura. Además debemos de tener en cuenta que nuestro montaje final se tiene que acomodar a una serie de requisitos de dinámica, frecuencias etc para que su exhibición en sala sea perfecta y acorde a los deseos del propio director. Todo esto hace que sea realmente emocionante crear una banda sonora para una película. Buscar la forma de tocar la fibra del público, de contar con sonidos, ambientes, músicas y efectos, una historia, y producir algo que además de ser bello, sirva para añadir más información y contenido al propio guión. Por eso cuando hablamos de técnicos de sonido para postproducción de cine, realmente nos referimos a diseñadores de sonido, capaces de inventar, de soñar, de modificar la realidad del mundo que nos rodea, y sumergirnos en un mundo totalmente diferente. La palabra correcta es justamente ésta: “soñar”. La capacidad de soñar no se debe ni se puede perder nunca, y las películas en definitiva tienen ese poder. Necesitamos volar con la imaginación, recrear mundos, planos sonoros. En definitiva, buscar el mejor camino para llegar al corazón del público con el sonido.Y ese camino se llama: EMOCIÓN. �47 22. La Mezcla de Sonido Cuando llegamos a la etapa de la mezcla sonora, podemos decir que estamos preparados para utilizar en toda su potencia el formato multicanal, y de esta manera programar toda una serie de juegos sonoros que van a permitir crear un mundo lleno de sensaciones y de emociones para cualquier trabajo audiovisual. Entender éste complicado proceso nos permitirá analizar de una forma más precisa y profunda los diferentes ejemplos de las películas objeto de estudio de esta investigación. Además supondrá abrir nuestro conocimiento a una técnica interesante que es capaz de transmitir toda la fuerza sonora a una sala de cine. La mezcla de sonido, es una técnica que tiene que ver con varios procesos, como por ejemplo, compensar y trabajar los volumenes de las pistas, añadir efectos finales para mejorar la calidad del sonido, y fundamentalmente trabajar con el direccionamiento de las pistas de sonido hacia su salida física correspondiente, pensando en la disposición de los altavoces en una sala de cine y buscando reproducir ese efecto en nuestro montaje. 426 Recordemos que estamos trabajando con nuestro proyecto (montaje de sonido) bajo la plataforma digital Protools, donde hemos creado toda una serie de pistas que dan vida sonoramente a la película. Si tenemos presente una sala de proyección, nos daremos cuenta de que los altavoces están distribuidos de una forma muy particular. Por ENGEBRETSON, M., and Eargle, J. Cinema Sound Reproduction Systems: Technology Advances and 426 System Design Considerations. SMPTE Journal, 91, 1982 pp. 1046–1057: los sistemas de reproducción digital de sonido han permitido la exploración del campo sonoro y del efecto provocado en el público en las salas de cine. Tanto la técnica estereofónica, cuadrafónica o multicanal 5.1 y 7.1 permiten el diseño espacial del sonido, añadiendo profundidad a la imagen, a través de la teoría psicológica del space management, o del alcance físico del sonido. �47 eso, estableceremos un estándar de trabajo ya que es la forma en la que el técnico basa su trabajo, para crear una mezcla de sonido correcta y compensada. Éste standard, pasa por dirigir cada pista de sonido de nuestro montaje, a una salida física final que va a respetar la misma configuración que tienen las salas de cine . Así las pistas de dialogo tendrán salida C canal central (situado detrás y en el centro de la pantalla), las de ambiente de pantalla canal LR (situadas a izquierda y 427 derecha de la pantalla) y las envolventes (surround) canal LS - RS (altavoces que rodean loas laterales y pared trasera de la sala) pero como mas adelante veremos, utilizaremos STEMS para agrupar las salidas y facilitar la labor de mezcla final del sonido. En los dibujos que añado a continuación, podemos comparar como la disposición de los altavoces de un estudio de sonido (fotografía de la izqda.) imita perfectamente la localización de los altavoces de una sala de cine (fotografía de la dcha.). WILLCOCKS, M.E.G. Surround Sound in the Eighties. Advances in Decoder Technologies. 74th 427 Convention, Audio Eng. Soc. 1983: el autor comenta que los canales estéreo de pantalla, son canales de ambientes sonoros. La frecuencias utilizadas y la intensidad de las mismas, permite que pueda coexistir el canal central referenciado de diálogos, sin que el estéreo de pantalla pueda ocultar o hacer sombra al resto de los sonidos de la producción. Colocación altavoces formato 5.1 �47 De esta forma estaremos reproduciendo en nuestro estudio el mismo efecto real que el público percibirá en una sala, ya que nuestro montaje y la disposición de nuestros altavoces, corresponderá con el aspecto físico de una cualesquiera sala comercial de cine. A la hora de realizar un correcto diseño de pistas, tenemos que tener en cuenta el formato de mezcla que vamos a emplear. La casa Dolby creadora de la matriz del mismo nombre, ha licenciado 5 tipos de mezcla principales como ya hemos visto con anterioridad: Dolby Mono Dolby ST (Estéreo) Dolby SR Dolby SRD Dolby EX De todos los sistemas licenciados por Dolby, el más extendido es la versión SRD (codificación digital) que contiene hasta un total de 6 canales de sonido, con 5 canales de ancho de banda completa de 20 Hz - 20 Khz para los altavoces de rango-normal (R frontal derecho, C centro, frontal izquierdo, SR trasero derecho y SL trasero izquierdo), y un canal de subgraves (LFE) capaz de transmitir únicamente frecuencias de hasta 100HZ. . 428 Éste mismo canal de frecuencias subgraves representa el ".1" dentro de la 429 denominación 5.1 utilizada por todos los técnicos. El formato digital Dolby soporta también HODGSON, M. The Number of Audio Channels,” 100th Convention, Audio Eng. Soc. 1996. El autor deja 428 claro como el aumento de canales de salida en producciones audiovisuales, responde a una necesidad de mejorar el material sonoro, y envolver al publico a través de las múltiples salidas en los diferentes formatos que existen y conseguir de esta forma producir un elemento motivador y emotivo para el propio espectador. ARAU-PUCHADES, H. An Improved Reverberation Formula. Acustica, 65, 2007 pp. 163–180. : las 429 frecuencias subgraves, pueden presentar errores digitales, si aplicamos reverberadores. En tales situaciones podremos filtrar el sonido utilizando un ecualizador y recortando las frecuencias no deseadas. �48 el uso de un formato mono y estéreo. Estos formatos básicos además de otros intermedios, son los que nos van a servir de guía para el correcto diseño de pistas de nuestro proyecto. Un ejercicio interesante y a la vez que útil para entender los formatos arriba señalados, es el de imaginarnos una sala de cine, y la disposición de sus diferentes altavoces de salida .430 La localización ideal dentro de una sala de cine, para percibir perfectamente el formato 5.1 digital de Dolby (y de cualquier otra compañía) se encuentra a un tercio de la distancia total de la pantalla. Además detrás de esta no olvidemos, se encuentran los tres altavoces frontales, es decir: L, C y R. Rodeando al espectador, en los laterales de la sala, tendremos las escuchas surround LS y RS , y el altavoz de subgraves, irá 431 PHILBECK, J.W., and Mershon, D.H. Knowledge about Typical Source Output Influences Perceived 430 Auditory Distance. J. Acoust. Soc. Am., 111, 2002. pp. 1980–1983.: En principio a cada pista en montaje le asignamos una salida como si fuese la sala de cine o sistema de reproducción. Luego más adelante las agrupamos para facilitar el trabajo y ahorrar tiempo. Las salidas deben ser clónicas en el montaje, en la mezcla y en la proyección. Las frecuencias y amplitud de cada sonido, influirá tanto en la percepción del público como en el efecto emocional provocado. GRIESINGER, D. General Overview of Spatial Impression, Envelopment, Localization, and 431 Externalization. 15th International Conference, Audio Eng. Soc. 1998, Paper 15-013. El autor refiere que en general nos referimos con esta nomenclatura a los canales izquierdo y derecho traseros de los equipos surround de sonido envolvente. Su uso debe ser puntual y nunca debe provocar la distracción del público. Es un recurso sonoro más, para contar a través del sonido, la historia de la película. Ajuste distancia de altavoces en sala de cine �48 colocado también detrás de la pantalla entre el altavoz L y C o bien R y C y estará 432 colocado debajo de la pantalla apoyado en el suelo . 433 Esto sucede así porque las frecuencias graves (LFE) se desplazan uniformemente por la sala, ya que son ondas o vibraciones omnidireccionales. Por eso, realmente no importa demasiado la colocación de este altavoz, ya que siempre producirá el mismo efecto, se encuentre donde se encuentre. Las frecuencias medias y agudas son mas direccionales y necesitan de una disposición en el espacio, es decir debemos de posicionar el altavoz dirigiéndolo más hacia el espectador. Como hemos comentado antes, también existe un formato estereofónico, pero aunque es un formato de mezcla más económico, su impacto en el publico y en la sala es mas limitado al tener tan solo 2 canal físicos reales de salida. El formato DOLBY SR o analógico (el segundo formato de Dolby más utilizado comercialmente) nos permite colocar sonidos en los canales L, C, R (de pantalla) y surround (de sala). En este caso perdemos el canal de subgraves (LFE), con la peculiaridad de que el canal surround contendrá una única pista mono de sonido para todos los altavoces que rodean las butacas de la sala. El formato DOLBY SRD o digital, permite en cambio jugar con todas las posibilidades que el sistema permite. Es decir, la diferencia de este formato Dolby SR con el Dolby SRD, radica en que en el sistema SRD, el canal SR surround, es un canal OLIVE, S.E., Schuck, P.L., Sally, S.L., and Bonneville, M. The Variability of Loudspeaker Sound Quality 432 Among Four Domestic Sized Rooms. 99th Convention, Audio Eng. Soc., 1995.: los autores comentan que la escucha sonora depende fisicamente del tamaño de la sala, ya que la altura, profundidad y colocación de los altavoces influyen directamente sobre la sensación de percepción acústica. SHINN-CUNNINGHAM, B.G. Localizing Sound in Rooms. Proc. ACM SIGRAPH and EUROGRAPHICS, 433 2001: un comentario general del autor es que el canal de subgraves es muy importante ya que mejora la experiencia del espectador y además contribuye a completar la narrativa de la película, gracias a su capacidad de provocar efectos físicos sobre le publico asistente. �48 estéreo real , es decir podemos jugar con dos salidas independientes; en este caso 434 ganamos una salida física más, y ademas el campo surround permite utilizar sonidos estéreo de la siguiente forma: diseñamos una linea imaginaria que divida perfectamente la mitad de la sala de proyección longitudinalmente a lo largo de su eje. De esta manera, las escuchas surround que queden a la izquierda, serán las del canal L y las de la derecha, las del canal R. En España, uno de los distribuidores mas conocidos en altavoces y sistemas de amplificación para salas de exhibición cinematográficas es KELONIK. Los sistemas de monitorización KCS son muy conocidos tanto por su robustez y diseño como por la 435 calidad de sonido tanto en sistemas DOLBY 5.1 como 7.1 DEVANTIER, A. Characterizing the Amplitude Response of Loudspeaker Systems. 113th Convention, 434 Audio Eng. Soc., 2002.: el autor comenta éstos son altavoces de salida física, cuyo rango de frecuencia coincide con la del material de sonido que vamos a utilizar. Se conocen estos monitores tanto por ser los más utilizados en la mayoría de las salas de exhibición 435 como en los propios estudios de grabación y mezcla digital. Esquema de altavoces en formato 7.1 �48 Esta disposición será la que nosotros vamos a reproducir por así decirlo en nuestra sesión de montaje. Es decir, dentro del proyecto de sonido en formato Protools, dispondremos de 6 salidas principales para las pistas de sonido L, C, R, LS, RS, LFE. Cuando hablamos de formato 5.1 cinematográfico, hablamos de audio sin compresión, en estado puro. Por eso, nunca utilizaremos el sistema de compresión AC3 para las salas 436 de cine. El AC-3 como ya hemos visto, es un método de compresión de sonido muy utilizado hoy en día para transportar grandes archivos de audio. Este formato logra comprimir una canción por ejemplo, de 45 Mg en 4,3 Mg, y lo hace de forma muy agresiva, ya que funciona eliminando franjas de frecuencias que supuestamente no pueden ser percibidas por el oído humano. Aunque esto es así, en la realidad se eliminan también una parte de frecuencias medias, graves y agudas y de ésta forma, se logra disminuir el tamaño real de ese archivo de sonido. Este formato de compresión permite añadir información adicional a este tipo de fichero, como la que indicamos a continuación: 1. Mas canales adicionales de audio 2. Información de la lengua o idioma del audio. 3. Información para la corrección de errores. Pero volvamos a nuestro proyecto en Protools. Cada pista de sonido del protools se enviará a una salida real de escucha. Para ello será importante configurar las salidas del equipo. a tal efecto nos vamos al menú “setup” y escogemos la opción i/o. Nos aparecerá una pantalla con las salidas físicas de nuestro hardware y la posibilidad de FLOYD, E. Sound Reproduction. Loudspeakers and rooms. Focal Press. London, 2008. El autor comenta 436 que el sistema de compresión AC3 solo es compatible con los formatos de home cinema, con soporte DVD o BLUERAY. El soporte profesional 5.1 para salas de exhibición, siempre conlleva una cierta cantidad de compresión para que el material de sonido pueda encajar dentro del fotográfico. �48 escoger y conectar por software cada salida a nuestros altavoces. En esta captura de pantalla, vemos como las 8 salidas de nuestro equipo están configuradas de la siguiente manera: salida 1: canal L (izquierda de pantalla) salida 2: canal C (central) salida 3: canal R (derecha de pantalla) salida 4: canal LS (izquierda de surround) salida 5: canal RS (derecha de surround) salida 6: canal LFE (subgrave) salida 7 y 8: salida digital opcional. Utilizaremos según que tipo de mezcla vayamos a realizar (Estéreo, SR, SRD, EX) unos canales u otros, para dar vida a nuestro montaje sonoro.437 Es muy importante tener en cuenta qué sonidos vamos a utilizar en nuestro montaje y sobre todo a que salida los vamos a direccionar. Con esto quiero decir, que en post-pro audiovisual, existen unas normas que nos obligan a utilizar por así decirlo un mismo código de montaje, para que cualquier profesional, como puede ser el técnico de mezclas Dolby, pueda entender perfectamente la estructura y diseño de pistas de nuestro trabajo. Por así decirlo, tenemos que hablar un mismo lenguaje técnico, y mantener siempre una coherencia de montaje. Así, los diálogos se tendrán que colocar en el canal C aunque esporádicamente puedan viajar en el L, R, LS o RS puntualmente. es decir, los diálogos tendrán el formato 5.0. Los efectos de sonido y ambientes, por ejemplo un coche pasando, un disparo, un La imagen superior esta extraída del ajuste real de monitoreo de un equipo profesional protools HD.437 Ajustes salida Protools a monitores �48 ladrido etc., viajaran en cualquiera de las 6 salidas posibles de altavoces, incluyendo el sub-grave LFE . Es decir los efectos y ambientes tendrán formato 5.1. Y por ultimo las 438 músicas, podrán viajar también en cualesquiera de las seis posibles salidas para un montaje digital de sonido, es decir su formato también será 5.1. En resumen, tendremos la posibilidad de jugar con todos los canales de salida, dependiendo claro esta del formato que vayamos a utilizar SR, SRD, Estéreo etc., y dependiendo de la información que viajen en los mismos tendremos: diálogos 5.0 ambientes + Fx 5.1 músicas 5.1 En cine, nuestro montaje acabará fotografiado a 35mm. es decir, nuestra mezcla final será entregada a un laboratorio, que se ocupará del filmado del sonido a fotográfico. En el caso del nuevo cine digital, el formato denominado DCP se anuncia como el estándar por excelencia, por muchos motivos, pero fundamentalmente por el ahorro que significa en copias y en distribución. En este caso, nuestro sonido final de la película ya sea en formato digital SRD o analógico SR, no variará en absoluto. Solo cambiará la forma en que se codificará dentro del fichero DCP para su proyección. Un aspecto a tener en cuenta para el correcto análisis de la señal, es la ecualización de la salas de exhibición o lo que Allen, Loan (2006) y Allen, J.F. (2001) denominan como “curva X de sonido” . Por otro lado, no olvidemos que DOLBY ha 439 BENJAMIN, E., and Gannon, B. Effect of Room Acoustics on Subwoofer Performance and Level Setting. 438 109th Convention, Audio Eng. Soc., 2002 .: El sistema Dolby reparte los sonidos subgraves hacía los altavoces que tienen ese cometido, el de reproducir frecuencias que están por debajo de -20 hz. La conformación de la sala y la altura de los techos, puede afectar a la intensidad en la reproducción de dichas frecuencias. FLOYD, E. Sound Reproduction. Loudspeakers and rooms. Focal Press. London, 2008. El autor informa 439 de que la SMPTE incluyó en los estándares de calidad de sonido para cine, la curva de ecualización “X” para adecuar las escuchas de ambas salas, mezcla y exhibición. �48 licenciado el sistema DOLBY PROLOGIC, como forma de reproducción de archivos 5.1 en entorno domestico. De esta forma, la experiencia sonora cinematográfica puede ser reproducida en un entorno diferente al de una sala de cine convencional. 22.1 Stems La técnica de trabajar las pistas de sonido a través de STEMS fue introducida en el año 1960, momento en el que aparecen las primeras mesas de mezcla en los estudios profesionales de sonido. Estas mesas, tenían la posibilidad de mandar pistas individuales de sonido a grupos concretos (STEMS) y desde cada uno de estos individualmente poder manipular todas las bandas de la mezcla final. Otros técnicos denominan a este tipo de grupos, separadores, pero lo más significativo, es que como hemos dicho, permiten dividir la mezcla final en bloques concretos que contendrán las diferentes familias de sonido, ambientes, diálogos, efectos etc y que conjuntamente funcionarán perfectamente para crear la banda sonora de nuestra película. Es importantísimo, poder trabajar agrupando las pistas en bloques denominados STEMS (grupos) ya que será mucho mas fácil poder afrontar el proceso de mezcla, y así tendremos un sonido final con más calidad, y más capacidad de provocar emociones en el espectador. Los STEMS son buses o caminos por el que agrupamos las salidas de pistas �48 según la información que viajen en ellos. Con esto quiero decir, que cada pista de nuestro montaje irá direccionada a una pista auxiliar STEM y ésta a una salida física del equipo. Existen 3 tipos de stems: STEM de dialogos STEM de Fx y ambientes STEM de músicas. Cada uno de estos tres grupos de pistas auxiliares llevaran exclusivamente el sonido de las pistas que correspondan; todas las pistas de dialogo (incluidas las pistas de wild track de diálogo y doblajes) irán direccionadas al STEM de dialogo. Las pistas de ambientes y afectos, tanto los de pantalla como aquellos de surround, irán direccionadas al STEM de efectos y ambientes. Finalmente todas las pistas de música, ya sean en formato estéreo o multicanal irán direccionadas al STEM de música. Es decir, hemos creado grupos que se conectan con todas las pistas de nuestro montaje. De esta forma, si en un momento determinado, vemos que todos los efectos y Formato salida STEM Protools �48 ambientes, o las músicas han quedado demasiado bajas de volumen y descompensadas con respecto al resto, bastara solo con subir el de volumen del STEM de músicas o el de ambientes y efectos, para corregir el problema sin tener que modificar el volumen de cada pista independientemente, lo que llevaría mucho mas tiempo de trabajo. También nos permite poder separar la mezcla con diálogos, de una mezcla sin diálogos, ya que si silenciamos el canal de salida del STEM de diálogos, tendremos lo que se denomina soundtrack o banda internacional de la película, para poder doblar al idioma extranjero 440 para su posterior exhibición. Es decir, habremos anulado el diálogo original, para obtener así una banda sonora formada exclusivamente por ambientes, efectos y músicas. En todas las producciones cinematográficas se realiza este trabajo, ya que permite vender las cinta a muchos otros países donde se podrá doblar posteriormente a otros idiomas. Muy importante es configurar correctamente cada grupo o STEM. Para ello, dentro de la plataforma Protools, en nuestro proyecto, iremos al menú setup del protools y CHOISEL, S., and Wickelmaier, F. Evaluation of Multichannel Reproduced Sound: Scaling Auditory 440 Attributes Underlying Listener Preferences. J. Acoust. Soc. Am., 121, 2007 pp. 388–400.: Los autores indican que por banda internacional nos referimos a una exportación de la mezcla en la que no hay diálogos, ya que se enviará junto con la copia de la película a otros países donde se doblara a su idioma. Montaje por STEMS en Protools �48 escogeremos la opción i/o. Haremos click sobre la pestaña bus y configuraremos el formato de nuestro envío (bus/grupo) nombrándolo según sea STEM de diálogos, de ambientes y Fx o de músicas. Hay que reseñar que cada plataforma de trabajo, cada software que nos permita editar y mezclar sonido (Cubase, Nuendo, Logic), como en nuestro caso con Protools, tendrá que permitir configurar la sesión para poder trabajar por STEMS y realizar así un 441 diseño de ajustes completo que nos sirva para cualquier producción de sonido. Una vez configurado, dicho ajuste no lo perderemos. Se guardará como un fichero de trabajo que podremos recuperar y añadir a nuestra sesión o modificar en cualquier momento. Además esto nos permitirá guardar más de un ajuste diferente, según los distintos trabajos que vayamos a realizar y así personalizar mejor nuestra sesión de trabajo de Protools. Cada STEM que hayamos creado (recordemos que son pistas auxiliares o BUS) irá direccionado a su salida física del interface de sonido correspondiente. Así el STEM-D que corresponde a los diálogos, estará configurado para los 5 posibles canales de salida, como vimos anteriormente, ya que aunque los diálogos deberán sonar preferentemente en el canal C central, podrán también puntualmente viajar en los canales L, R, LS y RS. Lo mismo haremos con los otros dos STEMS. El STEM-FXA de efectos y ambientes, podrán tener 6 canales de salida 5.1 y el STEM-M de músicas estará direccionado también a los 6 posibles canales de salida 5.1 final. De esta manera, las salidas de cada pista de nuestro montaje irán direccionadas no a una salida directa, sino al canal STEM EARGLE, J., and Foreman, C. Audio Engineering for Sound Reinforcement, JBL Pro Audio Publications. 441 2002: Los autores comentan que al utilizar STEMS en nuestra sesión de Protools, reduciremos la mezcla a 3 grupos de pistas fundamentales: Música, Diálogo y Ambientes + Fx. De esta manera podremos controlar rápidamente la mezcla sin necesidad de ir pista por pista, con la ventaja de mejorar la calidad y la potencia de nuestro proyecto. Cada una de estos grupos tendrá asignada unas salidas; en el caso del de Diálogos 5.0, dejaremos abierta la posibilidad de manejar puntualmente los diálogos en otra parte que no sea el Centro de la mezcla. En cuanto a Ambientes, Música y FX les asignaremos las salidas 5.1. �49 correspondiente. Así, si el proceso se ha realizado correctamente, al final de nuestra sesión de Protools nos encontraremos con las siguientes pistas multicanal: 1. STEM-D (diálogos) con formato 5.0 2. STEM-FXA (efectos y músicas) con formato 5.1 3. STEM-M (música) con formato 5.1 Estas pistas STEMS irán colocadas al final de todas las pistas en nuestra sesión de trabajo, por este orden: primero el STEM de diálogos, el segundo el STEM de ambientes y efectos y el tercero el STEM de músicas. Nuestro diseño se completará finalmente, con la inclusión de una nueva y ultima pista. la pista MASTER. Para ello volveremos al menú track, opción new y seleccionaremos la opción 5.1 y el tipo de pista (master track). La pista master es la que gobierna toda nuestra sesión y a la que todas la salida de todas las pistas STEMS van a parar automáticamente. Un elemento muy importante a tener en cuenta en nuestro montaje y post-pro final de audio son los efectos de sonido que tienen movimiento propio y se desplazan por los distintos ejes de la sala. Estos sonidos viajan en pistas mono o estéreo con salida 5.1 y se pueden automatizar dentro del propio software del protools o utilizando un controlador externo. Serán efectos que por su contenido y contexto visual necesitan desplazarse por la sala, para seguir al objeto o protagonista de la pantalla. Imaginemos por ejemplo un avión que llega por detrás, desde el fondo de la sala. El sonido se empezará a escuchar desde uno de los canales de salida surround trasero, hasta acabar entrando por el canal L izquierdo de pantalla, atravesando este (pasando por el canal central C) y saliendo de imagen por la derecha (R canal derecho de pantalla). Habremos así automatizado todo un �49 movimiento preciso y sincrónico del sonido y del objeto-avión consiguiendo un resultado efectista y muy impactante en el publico. Recurrir a estos tipos de recursos sonoros es una técnica de trabajo muy extendida y necesaria si nuestro objetivo es dar al proyecto una dimensionalidad espacial .442 Principales ventajas de trabajar con la técnica STEM-MIXING: 1. Organizar, ordenar y planificar todo un proyecto audiovisual dentro de la plataforma de sonido (Protools en nuestro caso), por muy complejo y sofisticado que éste pueda ser. 2. Facilidad para ajustar con rapidez y relativa sencillez mezclas que están descompensadas. 3. Posibilidad de asignar a cada STEM de mezcla una fuente o efecto de procesamiento de señal independiente (reverberación, compresión, ecualización etc) La etapa de las mezclas de sonido, no es un proceso sencillo. Lleva horas y una atención muy minuciosa a todos los detalles. Es importante realizar una buena mezcla de nuestro trabajo, es decir, construir una banda sonora compacta, coherente, teniendo en cuenta COOPER, D.H., and Shiga, T. Discrete-Matrix Multichannel Estéreo. J. Audio Eng. Soc. 1972, 20, pp. 442 346–360. El autor comenta como la automatización de pistas se convierte en un paso obligado cuando trabajamos con matrices de sonido multicanal, como sucede en el terreno cinematográfico. Formato STEMS en el programa Nuendo �49 que lo mas importante, es la comprensión de los diálogos. Estos tienen que entenderse en todo momento y nunca quedar ocultos por efectos, músicas etc., salvo en el caso de que se busque intencionadamente ese efecto. Para ello, utilizaremos la herramienta denominada “curva de volumen” accesible en cada pista. Para poder trabajar bajo visión de volumen , haremos click en el menú que 443 aparece justo debajo de la etiqueta del nombre de cada pista y escogeremos la opción volumen. Es decir, igualaremos los volumenes del dialogo, y posteriormente iremos retocando el volumen de todas las restantes pistas. Para mezclar el sonido dentro de la propia plataforma de protools, podemos utilizar dos técnicas o dos modos de trabajo: 1. Servirnos de una mesa externa de mezcla , controladora de protools, es decir 444 una mesa conectada a nuestro software por medio de cable usb o firewire al FLETCHER, H., and Munson, W.A. Loudness, Its Definition, Measurement and Calculation, J. Acoust. 443 Soc. Am. 1933, 5, pp. 82–108: la sensación de incremento de volumen de sonido, está en relación a la energía capaz de impactar sobre una superficie física por segundo. MORTON, D.. The Life Story of a Technology, Greenwood Press, Westport, Connecticut. 2000: el autor 444 afirma que la automatización de mezclas aparecen con las primeras consolas capaces de registrar y almacenar los ajustes sonoros de cada pista, como las mesas que AVID y otras compañías, SSL, SPIRIT etc introdujeron en el mercado profesional. Edición manual de la curva de volumen en Protools �49 ordenador, donde podremos automatizar todos los parámetros utilizando a tal efecto el hardware de la mesa con sus potenciometros, botones, etc. que lo que harán será controlar y memorizar en el propio software todo lo que vayamos realizando sobre el propio equipo. Existen varios modelos en el mercado, como por ejemplo la mesa D-COMAND o por ejemplo la CONTROL 24 . Son superficies de control que ayudan al tecnico 445 en la elaboración de la mezcla de sonido y la automatización 5.1 . La diferencia 446 447 en utilizar uno de estos equipos a las tradicionales mesas analógicas es muy grande, ya que se trata de dos tecnologías completamente diferentes y con flujos de trabajo que requieren una específica planificación del trabajo. Quizás una de las desventajas de las nuevas mesas digitales cuyo tamaño es mas reducido y por eso Esta mesa de mezcla versátil y potente, permite automatizaciones de pista por capas de forma 445 automática. El sistema lleva incluido un control de monitorización 5.1 completo. MURAOKA, T., and Nakazato, T. Examination of Multichannel Sound Field Recomposition Utilizing 446 Frequency Dependent Interaural Cross Correlation (FIACC). J. Audio Eng. Soc., 55, 2007, pp. 236–256: En el proceso de mezcla es donde se la juega un postproductor de sonido. Tiene que quedar claro y nítido el diálogo y todos los restantes sonidos, teniendo en cuenta la correlación de fase entre ellos y los problemas de enmascaramiento que pueden derivarse de una incorrecta mezcla de todas las bandas. Una automatización se hace en tiempo real. A la vez que se reproduce un sonido se le asigna un 447 movimiento dentro del espacio sonoro, éste movimiento queda registrado siendo reproducido y aplicado a continuación. Es una parte más de la mezcla. Mesa automatizada AVID D-COMMAND �49 mas económico, sea la de tener que trabajar las pistas por capas, es decir, no tenemos a tiempo real la supervisión y el control sobre todos los parámetros de cada pista. 2. La otra forma de trabajo, será la de utilizar exclusivamente el ratón y el teclado para retocar y modificar los parámetros de cada pista dentro de la ventana mix del mezclador virtual del protools para conseguir una mezcla perfecta, sin tener que acudir a ningún hardware controlador externo. Hay muchos técnicos que están acostumbrados a trabajar con mesas físicas ya sean analógicas o digitales, pero hay otros profesionales, que prefieren realizar todo el proceso sin acudir a equipos adicionales. Cualquier forma de trabajo será buena y efectiva si el proceso termina correctamente y las mezclas finales son claras y compensadas . Cuando digo 448 compensadas, me refiero a una mezcla donde los diálogos tengan su lugar adecuado, HAMASAKI, E., Hiyama, K., Nishiguchi, T., and Ono, K. Advanced Multichannel Audio Systems with 448 Superior Impression of Presence and Reality. 116th Convention, 2004 Audio Eng. Soc., Preprint 6053.: se dice que una mezcla multicanal es correcta cuando su resultado es compensado (por pistas), equilibrado (en dinámica) y los stems abiertos en 360 grados. Mesa automatizada AVID CONTROL 24 �49 sean comprensibles en todo momento y el resto de los elementos que configuren la banda final de audio no la oscurezcan ni la oculten. Si escuchamos atentamente los dos ejemplos, mezcla compensada y mezcla descompensada, veremos bien que los dos trabajos son radicalmente distintos. Mientras en la descompensada la voz queda oculta por la música, en la compensada, esto no sucede, ya que las distintas bandas que configuran la mezcla final, ambientes, músicas, diálogos juegan cada uno un papel diferente, creando planos sonoros que conviven perfectamente, llenando la imagen y recreando la acción de los personajes con naturalidad y realismo. Las mezclas de sonido, representan el ultimo peldaño, como resumen final de un trabajo realizado por el equipo de post-producción de sonido. En el se han integrado diálogos, doblajes, efectos, músicas , ambientes, consiguiendo que cada sonido, cada efecto, 449 cada palabra armonice perfectamente con la imagen, con el texto y con el contexto de la ROADS, C. Introduction to granular synthesis, Computer Music Journal, 1998.: el autor comenta que los 449 primeros instrumentos musicales para secuenciadores informaticos, estaban basados en muestras algorítmicas, es decir cálculos matemáticos que generaban sonidos sintetizados de instrumentos reales. Editor de sonido en Protools �49 historia. Es una labor que precisa de un trabajo detallado, minucioso y casi preciosista hasta conseguir el balance justo de todos los audios para formar la mezcla final. Para ello también es importante contar con unas buenas escuchas lo mas 450 planas posibles, que no coloreen el sonido y lo distorsionen creando un efecto 451 452 fantasma que nos empuje a realizar cambios en el sonido que no sean necesarios realmente. Existen diferentes tipos de escuchas, pero las más utilizadas y populares, pueden ser las GENELC, HAFLER, KRK, DYNAUDIO etc. Trabajar con una escucha fiel en dinámica y frecuencias es una condición indispensable para poder crear una correcta mezcla final de audio. Una vez que nuestro material de sonido ha sido montado y hemos nivelado y ajustado los efectos, ambientes y músicas, nos quedaría por trabajar el ultimo y más delicado apartado de post-producción: la exportación de la mezcla final, en formato multicanal o estéreo. En el caso de que nuestra producción termine únicamente en formato dvd podremos realizar la exportación desde el mismo equipo de edición Protools, utilizando algunos de los convertidores digitales en formato plugin que hay en el mercado como el de la casa NEYRINCK . Este plugin nos va a permitir por ejemplo, codificar todo el 453 AUGSPURGER, G.L. Loudspeakers in Control Rooms and Living Rooms. 8th International Conference, 450 Audio Eng. Soc. 1990: El autor resume en su libro que por escuchas de estudio nos referimos a los monitores de respuesta plana que hay en los estudios, ellos nos permiten tener una respuesta fiel de lo que buscamos. KLIPPEL, W.. Assessing the Subjectively Perceived Loudspeaker Quality on the Basis of Objective 451 Parameters,. 88th Convention, Audio Eng. Soc., 1990. : Klippel, comenta que el efecto producido por una calibración incorrecta de la sala, puede provocar problemas importantes a la hora de detectar errores de ecualización y distorsión sonora. La calibración de la sala, es un factor muy importante a tener en cuenta. KLIPPEL, W. Multidimensional Relationship between Subjective Listening Impression and Objective 452 Loudspeaker Parameters. Acustica, 70, 1990 pp. 45–54: el autor informa de que la mayoria de equipos de audio del mercado, salvo los equipos profesionales de respuesta plana, colorean la señal, esto sucede cuando el propio altavoz enfatiza determinadas frecuencias (graves-agudos) para mejorar el sonido percibido por el oyente. COLLINS Mike. A professional Guide to Audio plugins and Virtual instruments, Linacre House P. London. 453 2003.: Es un convertidor de la casa DOLBY. Este plugin nos crea el archivo AC3 el exportado de nuestra sesión a un único fichero compatible con el estándar Dolby Surround para home cinema. Permite comprimir así 6 canales en un único archivo con extensión AC3. �49 sonido en formato multicanal, para que posteriormente sea añadido en un soporte de reproducción externo com o el dvd. Si la mezcla final de nuestro proyecto va a terminar en formato betacam para TV, 454 publicidad, nuestro master final deberá cumplir el standard de emisión broadcast de -10 db como máxima dinámica permitida. Este formato nos obligará muy seguramente a comprimir en cierta cantidad el sonido, para lograr que éste, tenga presencia y fuerza. Siempre el Setting de compresión tendrá que limitarse a los efectos que queremos resaltar en el sonido, sin distorsionarlo o recargar ciertas frecuencias indeseadas. Para ello, es indispensable jugar con los distintos parámetros en el software para tocar la dinámica del audio. Cuando hablamos de sonido para cine, no existe la limitación o recorte de sonido a -10db, sino todo lo contrario. Podemos llegar a la máxima resolución posible siempre y cuando el audio no distorsione, es decir no supere los 0 Db de dinámica. La banda del Dolby digital, se incrusta dentro del celuloide, concretamente en el lateral izquierdo del CHION, MICHEL. La audiovisión, 1998: El autor comenta que el formato de cinta magnética usado en 454 televisión, actualmente ha quedado totalmente obsoleto. Plugin de Neyrinck para codificación DOLBY SR y SRD �49 fotográfico, entre perforación y perforación del soporte físico como ya vimos en un capítulo anterior. Esta información se imprime con forma de pixeles negros y trasparentes como podemos comprobar en la fotografía superior. Para leer esta información necesitamos un cabezal especial en el proyector digital de imagen, que emite un sensor de luz capaz de leer los datos digitales de sonido (ceros y unos), y mandarlos a una matriz dolby de decodificación, que será la encargada de reconocer la señal binara informática, es decir los ceros y unos, para luego amplificar la señal y descodificarla en seis canales independientes de sonido. A continuación esta señal será transmitida a cada uno de los altavoces de la sala, y de ésta manera podremos reproducir el formato original de sonido. Para que la proyección sea perfecta y con calidad, el material fotográfico tiene que estar en buenas condiciones, sin raspones, manchas o defectos, ya que esto podría causar un error en la lectura de la información por el cabezal del proyector. Aunque durante el proceso de proyección del metraje 455 RUMSEY, F., Zielinski, S., and Kassier, R. On the relative importance of spatial and timbral fidelities in 455 judgments of degraded multichannel audio quality. J. Acoust. Soc. Am., 118, 2005 pp. 968–976.: estudian y analizan los resultados de la degradación de la señal multicanal dependiendo de las características del espacio sonoro y las frecuencias de respuesta de la sala. Localización banda 5.1 SRD �49 pueden aparecer errores de lectura , la matriz está ya preparada para reaccionar 456 buscando la mejor solución en poco tiempo para que la reproducción del metraje no sufra ningún problema. Vamos a ver por un instante algo muy interesante y a la vez importante para nuestra película. Para eliminar la posibilidad de que falle la descodificación de la cinta, cuando el equipo se encuentra con dos o tres bloques de sonido (0/1) ilegibles, el sistema repite entonces el ultimo bloque cuya lectura ha sido correcta. El error entonces no es perceptible al oído humano. En el caso de que se produzcan cuatro o más bloques erróneos de lectura, entonces el sistema pasa a modo analógico Dolby SR, que es la información que discurre por el lateral del fotográfico. Cuando el equipo de descodificación por la cantidad de errores de lectura pasa de modo digital a modo analógico, se puede percibir en la sala un fuerte chasquido de sonido agudo en los altavoces, todo esto debido al cambio de programa en el proceso digital del decodificador; pero con este sistema de seguridad la sala nunca se quedará sin sonido. En el caso de que los fallos se siguieran repitiendo, el sistema Dolby pasaría automáticamente de modo SR (analógico) a modo Dolby A, que es un sistema analógico patentado por esta casa, con reducción estéreo de sonido y filtro de ruido TYPE-A. : MÄKIVIRTA, A.V., and Anet, C. The Quality of Professional Surround Audio Reproduction. A Survey 456 Study, 19th International Conference, Audio Eng. Soc., 2001.: Los autores comentan que la lectura del material tiene su propio sistema de seguridad para las salas. Si la reproducción digital del sonido falla, por cualquier motivo bien del proyector, bien de la propia cinta etc, saltará automáticamente la versión SR de la película, para que la proyección no se tenga que detener. Si aún así, falla también esta versión analógica, entonces saltaría la versión estéreo (por reducción de la matriz DOLBY) y si aún así ésta diera errores, entonces la película se reproduciría en versión mono. �50 23. Utilización de los canales 5.1 23.1 Cómo utilizar el canal CENTRAL El uso de dicho canal se he dado en el cine por varios motivos, aunque los dos más 457 importantes han sido sin duda: 1. Tamaño de la pantalla: el tamaño de la imagen de la pantalla de los cines tiene un ancho considerable. Los canales estéreo de pantalla difícilmente podían por si solos cubrir toda la extensa superficie de imagen proyectada, dificultando la capacidad de distinguir la fuente sonora y su correlación con la pantalla. Más tarde, la sociedad SMPTE introdujo entonces un nuevo concepto técnico: un tercer canal denominado C o central,, llenando de esta forma toda la superficie de la pantalla y completando el vacío que existía antes cuando se proyectaba la imagen en modo formato estéreo. 2. Importancia de los diálogos en una producción audiovisual: se llega al acuerdo de utilizar los canales LR de pantalla como meros rellenos de ambiente, y usar el central exclusivamente para diálogos. Esto tenia sentido y verosimilitud ya que de esta forma la : Es el más importante de todos en una proyección. El editor W. Munch solía decir que lo silencios en una 457 película eran importantes, pero los diálogos, absolutamente necesarios. �50 imagen tenía su continuidad de sonido a lo largo de toda la superficie de la pantalla, llenando el espacio y mejorando la sensación de especialidad del espectador. Nos podríamos preguntar cuales fueron los motivos por los que surge profesionalmente el canal de sonido central C en el cine. La contestación es muy sencilla: comercialmente el cine estaba perdiendo cuotas de mercado a favor de la televisión. Se buscó un nuevo motivo que provocara la llegada de más público a las taquillas de los cines. Fue entonces cuando los técnicos propusieron añadir un nuevo altavoz de pantalla, para crear sensaciones y emociones diferentes en el público. Para poder jugar con un sonido cuasi tridimensional, se plantea entonces la posibilidad de trabajar con 4 canales y provocar el regreso del público a las pantallas. 458 Efectivamente, a principios de los 70 se utilizó este sistema cuadrafónico no solo en 459 determinadas producciones de Hollywood sino también en una gran variedad de discos y música comercial. En el cine la implantación del sistema cuadrafónico de sonido fue un poco mas difícil y complicado ya que se luchaba contra uno de los efectos que hemos visto con anterioridad: el efecto HAAS . En un sistema multicanal, podemos crear la 460 sensación de que la fuente de audio sale por el altavoz central de tres formas diferentes: • Podemos crear lo que se denomina como “centro fantasma” (esto se consigue mezclando las pistas a L y R en partes iguales y así crear la sensación de que existe una fuente central de sonido.). Este recurso se utiliza habitualmente sobre todo en música, pero para que funcione, el oyente debe colocarse en el centro perfecto de escucha entre ALLISON, R.F., and Berkovitz, R. The Sound Field in Home Listening Rooms. J. Audio Eng. Soc., 20, pp. 458 1972 459–469.: este sistema extendido en el ámbito del home studio, tuvo una vida muy corta cinematográficamente hablando, siendo sustituido mas tarde por el sistema multicanal de dolby, pero tuvo en su momento un gran y decisivo impacto atractivo en el público. Se basa en la conjunción de dos sistemas de sonido estéreo, delantero uno y el otro trasero. Se 459 reproducen simultáneamente creando el efecto envolvente. Se trata un problema de percepción de nuestro cerebro. Se produce al no identificar con claridad la 460 procedencia de la fuente sonora o percibirla por otro lado al que se percibe la imagen de dicho sonido. Es lo que técnicamente se entiende como efecto Haas. Este fue el motivo por el que el sistema cuadrafónico fue sustituido en poco tiempo de la salas de exhibición. �50 los dos altavoces. Esto no siempre es posible, como en el caso de la música en el coche o en el hogar. • Utilizar el canal central directamente: esta técnica permite la escucha estable por el canal central, y se completa añadiendo una pequeña cámara o reverb en los altavoces laterales estéreo LR para crear cierta profundidad de campo y realidad sonora .461 • Utilizar proporcionalmente las tres salidas de pantalla por igual LCR: trabajar bajo este parámetro permite controlar de manera fina y calculada la cantidad de sonido que mandamos a cada uno de los canales de pantalla con el valor añadido de poder 462 introducir el efecto de reverberancia y poder rellenar de forma real y creíble la pantalla 463 de sonido. Para contrarrestar estos efectos secundarios se pueden procesar previamente las señales adicionales para cambiar su carácter espacial, su color tonal o su prominencia con relación a la señal central principal. Podemos utilizar en nuestro proyecto de sonido de Protools incluso herramientas especialmente dedicadas de software como es el plugin de Waves M360 capaz de realizar un ajuste real en sala de la presión acústica por 464 canal y conseguir una mezcla efectiva y equilibrada. HIYAMA, K., Komiyama, S., and Hamasaki, K. The Minimum Number of Loudspeakers and Its 461 Arrangement for Reproducing the Spatial Impression of Diffuse Sound Field. 113th Convention, Audio Eng. Soc., 2002.: Lo autores coinciden en afirmar que la reverb del canal central en la sala de cine se redirecciona a los canales L y R para darle más amplitud a la imagen sonora. ROBINSON, A. The Importance of Choosing the Right Cinema Screen, Part 2. Cinema Systems, June, 462 pp. 38–42. 2005: el autor afirma que el tamaño de la pantalla de proyección, también afecta psicoacústicamente al cerebro, ya que necesitamos unas dimensiones determinadas para poder percibir el sonido en un determinado punto de la pantalla, y de este modo, añadir profundidad y espacialidad al sonido. KUTTRUFF, H. Sound Fields in Small Rooms. 15th Conference, Audio Eng. Soc. 1998, Paper 15-002.: el 463 autor comenta que la reverberancia sonora, añade plano y profundidad no solo al sonido sino también a la propia imagen. Ganamos en realismo y sobre todo nos permite jugar con múltiples fuentes sonoras y colocarlas espacialmente en posiciones diferentes ya sea en pequeñas como en grandes salas de exhibición.. Este plugin puede manejar sesiones completas en los formatos digital estéreo, 5.1, 7.1 e incluso 464 sistemas exclusivamente cuadrafónicos. �50 23.2 Cómo utilizar los canales SURROUND La utilización de los canales surround de audio , puede mejorar sensiblemente la 465 experiencia del oyente, siempre que lo hagamos de forma proporcionada y justa. La regla de la industria cinematográfica es no utilizar efectos surround que distraigan al espectador de la historia, es decir, de la pantalla donde acontece la acción. 23.3 Limitaciones del canal LFE El canal de efectos de baja frecuencia (LFE) es una señal per se, con un rango de frecuencias de 40Hz hacia bajo.466 Técnicamente se crea en post-producción para añadir peso y cuerpo al sonido. Un filtro “brick-wall” a 120 Hz colocado en el codificador Dolby Digital limita el uso del canal LFE a las dos octavas audibles más bajas. Es recomendable cuando mezclamos un proyecto limitar la señal a 80Hz. Musicalmente hablando, el canal LFE no se emplea en muchas CORUGEDO, Marichu y Acha, José Luis. Libro Blanco del Sonido. Ed. AITE. Madrid, 2003: Los autores 465 comentan que los canales traseros hay que usarlos con cuidado, ya que la película delante del espectador, en la pantalla, y no detrás. Su uso debe ser esporádico, y necesario si por narrativa sonora se precisa. Así evitaremos el cansancio auditivo y la habituación a la fuente sonora surround. NEWELL, P.R., and Holland, K.R. Loudspeakers for music recording and reproduction,” Focal Press, 466 Oxford, U.K. 2003 . Para los autores, este rango de frecuencias se ve claramente afectado por la reflexión y dispersión del sonido a través del medio en el que se encuentra. De ahí la necesidad de que la salas de exhibición cumplan la normativa marcada por Dolby que también esta recogida en el estándar de sonido THX de Lucas. �50 producciones. Solamente en aquellas que demandan una necesidad real de impactar en el público y conseguir atraer la atención del espectador. Este es el caso de la “Obertura 1812” de Chaikovski donde musicalmente el autor imita el sonido de disparos de cañón. El canal LFE también desaparece de los procesos downmix para evitar 467 sobrecargar el canal Dolby estéreo final. En producciones estéreo o prologic es importante no incluir material de audio importante porque de ser así no se incluirá en el mix final. Al ser el canal LFE un canal independiente, puede que tengamos problemas al tratar de mezclar esta señal con otras frecuencias diferentes. Para solucionarlo, debemos de mantener la señal completa junta en el canal o los canales principales. Hay que evitar crear un canal LFE en un material originalmente producido sin el . Recordemos que los 468 cinco canales del Dolby digital son completos y discretos, es decir cada uno tiene un altavoz de salida independiente, mientras que el canal LFE funciona internamente a través de filtros que redirigen las frecuencias mas graves y colorean en cierta manera la señal. COREY, J. An integrated system for dynamic control of auditory perspective in a multichannel sound field. 467 Ph.D. thesis. McGill University, Montreal, Canada 2004: el autor considera que el proceso down mix, afecta la forma y el modo en el que el publico percibe el sonido multicanal, ya que representa una disminución de canales de salida, y una ponderación del canal subgrave. El plugin de Waves LFE360 es una poderosa herramienta para el filtrado de todas las pistas de nuestra 468 sesión de Protools y conseguir de esta forma enviar exclusivamente las bajas frecuencias subgraves a una pista STEM principal master. �50 23.4 Cómo adecuarse a la reproducción en estéreo Podemos crear mezclas Estéreo de una producción multicanal en formato 5.1. Tres son las opciones de realizar este proceso: • podemos preparar una mezcla estéreo ad-hoc a partir del material original 469 de trabajo. En este caso partimos de cero y no utilizamos el diseño realizado en surround. • Podemos trabajar realizando un downmix a partir de la mezcla multicanal. 470 Este ultimo sistema es el mejor método para poder recrear una versión estéreo del material multicanal, manteniendo las proporciones y volumenes adecuados. • Utilizar la opción que el propio decodificador Dolby proporciona realizando de forma automática una versión downmix filtrada claro esta por los ajustes de fabrica del propio equipo. Hay que comprobar siempre la mezcla en un sistema surround económico doméstico, para evaluar cómo suena en sistemas de reproducción a nivel no profesional. KOEBEL, A. Six Myths of the High-Definition Age. Widescreen Review, issue 123, September, 2007 pp. 469 52–60. la alta definición en sonido depende en gran medida de la calidad de las escuchas y del rango en el que éstas se muevan. RICH TOZZOLI, Pro Tools Surround Sound Mixing, Hal Leonard Editor. (CA) 2005.: el autor explica el 470 uso del plugin WAVES 360 MANAGER, y de su excelente capacidad y calidad para realizar procesos de downmix realmente perfectos, incluso en proyectos complejos y con múltiples parámetros de automatización. �50 24. Análisis sonoro cinematográfico Análisis pistas: (Todos los videos de esta película se encuentran en la carpeta “In the Mood for love” y están nombrados por el numero de secuencia, tal y como aparece en esta sección) 24.1 “Deseando Amar” (“In the Mood for love” Año 2000 Director: Wong Kar-Way) “Deseando amar”, del director Wong Kar-wai puede considerarse como una pequeña joya del cine oriental. En si representa no solo, una auténtica obra maestra del cine contemporáneo, sino también una estudio, casi una investigación, sobre los diferentes estados y formas del sentimiento amoroso, “the mood of love” la forma en la que el ser humano vive, se reconoce y declara su amor a los demás. Es la expresión de ese fuego interior y el modo “mood” con el que esa misma persona dirige sus sentimientos hacia el otro, hacia el objeto de su deseo, de una forma pura y genuina. “Deseando amar” podríamos decir, que es el resumen, o la narración en primera persona, de la vidas de dos personas, que comparten un mismo estado emocional, un mismo vacío, y un mismo deseo de ser correspondidos en el amor. Es la vida de dos �50 almas que han sido olvidadas por sus respectivas parejas y que en un momento determinado, descubren la pasión que sienten el uno por el otro, una pasión turbulenta, dolorosa, pero brutalmente atractiva. El filme de Wong es un precioso ejercicio artístico, capaz de enseñarnos como dos sujetos que no se conocían antes, son capaces de caer en el amor y el deseo más profundo, y como ese sentimiento va naciendo y creciendo poco a poco, sin que ninguno de los dos lo pueda evitar. No hay ni un solo beso entre los amantes, ninguna escena escabrosa o demasiado transgresora. Descubrimos como ese fuego que ha surgido entre los dos protagonistas sólo se alimenta físicamente de miradas, gestos, roces de manos, instantes llenos de una pasión contenida. Es un amor mucho más virtual que físico, porque representa el ejemplo de cómo el verdadero sentimiento amoroso es capaz de sustituir al carnal, entre dos personas que han descubierto al fin su objeto de amor, de un amor puro, pero lleno de fuego y de pasión contenida. Sin duda esta película es una obra maestra, una pequeña joya llena de guiños y miradas de pasión y amor profundo. Si hablamos de las coordinadas temporales de esta cinta, podemos decir que se sitúa en el Hong Kong británico de 1962. Es una época difícil y complicada para todo aquél que decide o bien migrar a la capital o si ya, si se encuentra allí, decide buscar alojamiento. Bajo este contexto, aparecen las dos familias de Chan y Chow que finalmente consiguen habitación en un edificio del barrio de la ciudad, superpoblado, con problemas de hacinamiento y espacio. Es increíble cómo el propio director, nos va mostrando lenta pero rítmicamente, la sociedad de aquella época, una época considerada como el inicio del cambio económico de China, y no solo, pero también demográfico, cultural, etc. Es un momento histórico, donde, aunque el pueblo sigue viviendo humildemente, con una renta per capita por debajo de la de Peru, Grecia o Africa del Sur, ya empieza a atisbarse el inicio de una nueva era que llevará al país en poco tiempo a ser considerado el cuarto tigre oriental juntamente con Korea, Taiwan y Singapur. �50 Resulta una autentica maravilla narrativa observar, como el director plasma en imágenes y sonido la vida de esas familias que hacinados en pequeñas viviendas y con serios problemas de espacio, no les queda otra solución que compartir habitaciones como el salón, o la cocina. Precioso es el modo en el que se funden y se mezclan con una belleza única, la vida de los protagonistas, de sus familias y de los vecinos, en una mezcla armoniosa llena de momentos únicos y especiales. Es aquí donde la cámara aparece para ser testigo de estos momentos y de esa realidad social. Pero lo hace de una forma única y arrebatadamente bella. La lente de la cámara se convierte por arte de magia en un vecino más, en un habitante de unos de esos edificios lleno de inmigrantes que vienen a la ciudad en busca de un futuro mejor. El protagonista masculino de nuestra película se llama señor Chao, un redactor de un periódico profundamente enamorado de su trabajo, pero con la desgracia de no contar con el amor de su mujer, ejecutiva de una gran empresa, y ocupada en sus negocios. Chao es un hombre joven, que su trabajo le regala demasiado tiempo libre, y que no le queda otro recurso que sumergirse en la vida del edificio en donde vive, dedicar su tiempo a descubrir a sus vecinos, sus costumbres, relacionarse socialmente con ellos y buscar un lugar en el que ser reconocido, escuchado y valorado. La protagonista femenina de nuestra película se llama señora Chan, una mujer muy hermosa, de mirada profunda y con una actitud hasta cierto punto enigmática llena de misterio y atractivo. Se pasa la mayor parte del tiempo sola, porque su marido, piloto de líneas aéreas, por su trabajo, se ve abocado a vivir prácticamente lejos de su casa, lejos de su mujer, lejos de su entorno. Su única obsesión es adquirir en sus viajes a Japón, o Singapur, productos electrónicos o ropa para los vecinos. Esta película es una oda al amor. Pero yo diría aún más. Es una oda al amor “respetuoso”, al amor silencioso, y al amor contenido entre dos personas que acaban compartiendo largos paseos e interesantes conversaciones, durante las largas horas de �50 ausencia de sus respectivos cónyuges. El director sabe como retratar de una forma minimalista pero llena de fuerza y pasión, ese sentimiento que atenaza a los protagonistas, que los une irremediablemente pero que en ningún momento se convierte en físico, material. Es la belleza de un amor puro y desconsolado pues el sentimiento del “respeto” hacia si mismos y hacia sus parejas, es la llave por la que ese amor permanecerá encerrado en sus corazones, al cubierto de miradas, de comentarios y de criticas. Es un sentimiento que se vive desde la soledad, o mejor dicho, desde el reconocimiento del otro como el único y verdadero amor que no debe manchar a quien lo atesora. Pero la vida misma va mostrando a los protagonistas como la ausencia continuada de las respectivas parejas, no tiene nada que ver con motivos de trabajo, sino con el burdo engaño de la infidelidad. Es estremecedoramente bello comprobar como poco a poco, día a día, los protagonistas, conscientes de este engaño, van descubriendo como detrás de cada mirada, gesto o momento compartido, se encuentra un sentimiento que va creciendo lentamente pero con fuerza entre los dos. Nos encontramos ante la más bella expresión de amor, ese amor lleno de virginidad y pureza que une las almas de los dos protagonistas, ese amor que nunca se convertirá en físico, con un beso o con un simple acto sexual. Es un amor contenido, que se eleva en el ambiente, que rodea a los personajes pero que no los toca, no se degrada con la materia sino que pervive con la misma fuerza y energía en sus almas. Dos son los elementos técnicos a destacar en esta película sin duda. Por un lado, me gustaría destacar el trabajo de Christopher Doyle responsable de la fotografía, y de esas increíbles tomas a cámara lenta, donde los protagonistas cruzan las miradas subiendo o bajando las escaleras. No quiero pasar por alto la forma en la que ilumina los espacios, las plazas, las calles, los rellanos, los patios, jugando con los claroscuros, con las penumbras y los amaneceres. Tampoco me quiero olvidar de uno de los principales protagonistas de esta �51 cinta: la increíble música a cargo de Shigeru Umebayashi, con el famoso y super conocido “Yumeji’s theme”. La música es un ingrediente fundamental de esta historia, ya que incorpora en sus notas la mirada, los gestos y el sentimiento reprimido de los dos actores. Saben que se adoran pero voluntariamente quieren evitar cometer el mismo error que ha llevado a sus respectivos cónyuges a buscar el amor fuera de la pareja. Es un amor oculto, callado, a flor de piel, pero fuerte y palpitante como el fuego. Es el tema musical, que se convierte en un leit-motiv cada vez que los dos se encuentran, en la calle, en el edificio. Es el tema de amor que habla de lo que los protagonistas prefieren callar y reprimir. Canal LR: Sec. 1 (00:00:30:00 a 00:04:10:00) Se abre plano desde negro y nos encontramos en una pensión. Son las primeras pinceladas del director, para presentar a los protagonistas de la cinta. El sonido claro y real muestra la vida de una pensión en su devenir diario y cotidiano. �51 Los ambientes suaves y por momentos marcados, hacen referencia a sonidos familiares murmullos de personas, gente en animada charla, familias reunidas alrededor de una mesa. La tónica general de los ambientes no destaca por su presencia, sino por su callada compañía, ya que en ningún momento adquiere un protagonismo exagerado o desproporcionado. Los sonidos, los efectos, poseen la cualidad de adecuarse perfectamente a cada situación o ambiente. Revisten y embellecen con sus timbres variados y sus distintas tonalidades la historia en la casa de vecinos. Es hermoso pararse a descubrir como estos ambientes resuenan a través de las paredes, y de puerta en puerta dejando una sensación en nuestros sentidos de sonidos familiares, tranquilizadores, cotidianos de la vida misma. Fondos ambientes naturales, familiares y cotidianos. Gente, vecinos y ruidos que nos sitúan en un contexto social y personal. Los sonidos no son estridentes, más bien lo que intentan reflejar es una realidad, sin inventarse ningún efecto sobredimensionado, ni buscar atraer la atención del espectador. Análisis INSIGHT: Las frecuencias se mueven sobre el espectro de los medios 200Hz a 1.500 Hz con una bajada importante a partir de los 5000 Hz. Esto expresa la sensación de ambientes opacos, sin brillo y sin excesiva presencia ya que el volumen fluctúa alrededor de los -40Db. �51 CANAL C: (Sec.1 C) Los diálogos son claros, presentes, fácilmente inteligibles, dando paso a la historia y a las conversaciones entre los distintos personajes. �51 Análisis INSIGHT: Los sonidos se están moviendo en la zona de los 200 Hz a los 5000 Hz con un volumen medio de -24 Db. Tenemos más presencia y dinamismo. CANAL SUR y LFE: Sec.1 Pistas vacías. El montador de sonido no quiere distraernos durante estos minutos iniciales, dejando que la atención del espectador se centre sobre los protagonistas y la situación en general. Sec. 2( de 00:04:10:56 a 00:05:08:13) Sec. 4(de 00:13:33:55 a 00:15:29:32) Sec. 7(de 00:40:42:51 a 00.42:27:11) �51 Sec.8 (de 00:52:49:51 a 00:54:42:23) Sec.9 (de 00:59:49:16 a 01:02:03:36) Sec.6 (de 00:22:54:51 a 00:24:20:48) Sec.10 (de 01:08:54:51 a 01:10:05:47) CANAL LR: (Sec.10 LR) La secuencia 2, 4, 7, 8, 9 son secuencias ejemplo donde únicamente la música es la protagonista y esta presente en formato estéreo en los canales LR de pantalla únicamente. Ninguno de los restantes canales que forman el 5.1 en estas secuencias llevan ningún ambiente o efecto. El director Wong Kar-Way concede una gran importancia a la banda musical compuesta por Shigeri Umebayashi. El tema titulado Yumeji, aparece en varios �51 momentos de la cinta, casi siempre ligado a secuencias en cámara lenta, que van separando los distintos bloques de la narración fílmica. La belleza de este tema, y su perfecta armonía con el entorno de la historia, hace que no necesite ningún acompañamiento de bandas de ambiente, ni de efectos etcétera. La música por sí sola soporta la secuencia cinematográfica, regalando un sinfín de emociones que el espectador percibe en cada plano de cámara, en cada movimiento. Se trata de  una película de miradas que hablan, de detalles que van haciendo avanzar la trama, de música que te pone un nudo en la garganta, de imágenes ralentizadas que se mueven sincronizadamente al ritmo de cada compás musical, de cada nota interpretada y escrita de manera magistral y única. Shigeri Umebayashi ha sabido sintetizar la esencia de la historia, de los personajes, las pulsiones de los instintos y de las emociones, de cada sentimiento, creando una banda musical que encaja perfectamente con la narrativa de la historia. Es por ello que en esta secuencia y en otras donde aparece el tema “Yumeji”. No existe ninguna pista adicional de audio que acompañe al bloque musical, para evitar así distraer al espectador de la belleza de la composición y de la perfección con la que está encaja en cada fotograma de imagen. Sin duda es una pequeña obra de arte engarzada con precisión y maestría por el músico Shigeri Umebayashi. Uno de los detalles más originales de la película es el hecho de que a los dos cónyuges de los protagonistas nunca se les ve la cara, apareciendo siempre de espaldas a la cámara o manteniendo diálogos con los otros actores fuera de plano. Esto hace que nuestra afinidad con los protagonistas sea aún mayor. El no poder ver el rostro de estos dos personajes  tan importantes para la trama, hace que nos pongamos más en su situación, en su piel, y sintamos afinidad por ellos, por las personas que han sido engañadas por sus parejas respectivas. �51 Análisis INSIGHT: La música se mueve únicamente en dos pistas, bajo el formato estéreo LR de pantalla. Mantiene su carácter minimalista y sencillo, sin necesidad de recurrir al formato multicanal o al formato cuadrafónico. Los valores generales de amplitud sonora se mueven con un pico entorno a los -10Db y de Rms entorno a los -24Db. Las frecuencias se mueven en un rango que va desde los 100Hz a los 2500Hz aproximadamente, bajando drásticamente a partir de los 5000 Hz. Hay que subrayar como en dos momentos diferentes de la película, el tema musical principal “Yumeji”, esta igualmente presente pero mostrándose de diferente manera. En la secuencia 6, este bello tema musical esta acompañado por un ambiente estéreo 471 de pantalla LR de lluvia que no interfiere con la música, y que por el contrario, añade una nota de tristeza y desesperanza vital, ya que los protagonistas aunque se sienten GANDER, M. Ground-Plane Acoustic Measurement of Loudspeaker Systems,” J. Audio Eng. Soc. 1982, 471 30, pp. 723–731. Se trata de dos pistas (izquierda y derecha) mezcladas en dos canales, para así posicionar el espectro audible a lo largo del recinto, posicionando a su vez cada fuente sonora donde nos interese. �51 profundamente atraídos el uno hacia el otro, saben que no deben resolver sus respectivos problemas conyugales, comportándose de la misma forma en que lo hacen sus parejas. Esta lluvia fuerte, penetra en el alma de los personajes y del público tiñendo la historia con un velo de profunda melancolía y convirtiéndose casi por arte de magia en un elemento más de la banda sonora musical en este momento. En la secuencia marcada como 10, llegamos al clímax del dolor y de la desesperación. El tema musical sigue sonando de fondo como ya lo hiciera en varias ocasiones a lo largo del metraje en los canales LR de pantalla, pero en esta secuencia, aparece acompañando a la música, el canal del centro C con el sonido directo de la película. En este caso, es el llanto desgarrado de la protagonista, la señora Chan. Recordemos que esta cinta habla del deseo y del amor, cuando no es posible ni amar ni desear, sin cometer infidelidad, la misma infidelidad en la que han incurrido las respectivas parejas de Chow y Chan. Ellos no quieren caer en el mismo error. Es por eso que la desesperanza, el vació y la pena, inundan la pantalla en esta secuencia, donde ahora es la música la que arropa el llanto y el dolor de los dos protagonistas. El silencio final en el interior del coche, habla por si mismo, transmitiendo la intensidad del momento. Sec. 3 (de 00.15.57.05 a 00:11:25:22) En esta secuencia, nos encontramos por primera vez con ambientes multicanal situados en el campo trasero surround. Nos encontramos en la redacción de un periódico donde trabaja el protagonista Chow. �51 El sonido que se escucha pertenece a ruido de imprentas, de máquinas, en un ambiente de fábrica con tonos rítmicos, y sonoridad distante. En primer término 472 tenemos el diálogo de los protagonistas y al fondo el ambiente que rodea el lugar de trabajo. Si analizamos la secuencia detalladamente encontramos las siguientes características. CANAL LR: (Sec.3 LR) Es un ambiente minimalista de oficina, con los típicos sonidos de máquinas de escribir, faxes, teléfonos que se suceden y se entrelazan con una carencia armoniosa, sencilla, constituyendo casi un bloque musical tapizado de efectos y sonidos singulares. MEYER, J. Acoustics and the Performance of Music. Verlag das Musikinstrument, Frankfurt am Main. 472 1978: el autor comenta que el tono es la altura de la frecuencia de un sonido, siendo grave o agudo según su posición dentro del espectro sonoro. Donde mejor se perciben los cambios de tonalidad son en pistas de música. �51 Análisis INSIGHT: Los ambientes LR de pantalla presentan un predominio de tonos graves desde los 40 Hz hasta los 500Hz con una presencia de volumen que se mueve entre los -70 y -60Hz. A partir de los 500Hz. vamos perdiendo nivel progresivamente hasta la zona de los 10.000Hz. Esto supone que estamos ante un colchón ambiente de carácter grave, lejano y con poca presencia de efectos o sonidos estridentes que sobresalgan con claridad. CANAL C: (Sec. 3 C) En este canal, nos encontramos con frecuencias de bajo nivel de impacto sonoro, donde las texturas son ligeras, minimalistas y donde el protagonista es la voz. El director no quiere que perdamos atención sobre el diálogo, y para ello éste se encuentra presente y �52 rodeado de un colchón suave de ambiente de oficina que arropa el desarrollo de la acción sin robar en ningún momento protagonismo. Análisis INSIGHT: Predomina el dialogo, como no podía ser de otra manera, moviéndose entorno al rango de 200Hz a 3000Hz con un valor en Db de volumen alrededor de los -40. Por debajo, tenemos el mismo fondo ambiente que encontramos en los canales LR de pantalla, para dar continuidad al fondo sonoro de la secuencia. �52 CANAL SUR: (Sec. 3 SUR) Ambiente de fondo fabrica. Los sonidos cambian, ya que por posicionamiento de espacio sonoro , estamos escuchando en este canal el sonido proveniente de las 473 imprentas y maquinas que están funcionando en la fabrica. Es un sonido mas bien sordo, distante y rico en frecuencias medias. Su característica principal a destacar es su carácter rítmico y preciso. Las maquinas marcan con su incesante movimiento el ritmo del ambiente, que se torna mecánico y preciso. Análisis INSIGHT: Los planos de sonido son importantísimos a la hora de diseñar los ambientes y el tono sonoro general de 473 una película. Enriquecer la historia, creando profundidad de plano es un concepto fundamental, si queremos dar a nuestro metraje un valor añadido que permita emocionar claramente a nuestro publico. �52 Este canal SUR se mueve entre los 200Hz y los 1.500Hz a -60/-70Db a partir del este punto decae significativamente a un nivel medio de -1200Db sobre los 10.000Hz. CANAL C: (Sec. 5 C de 00:15:57:38 a 00:17:50:01) En esta ocasión nos encontramos en la misma oficina del redactor. Son los mismos personajes, pero los fondos ambientes han variado considerablemente con respecto a la sec.3 anterior. �52 Aquí en cambio desaparece el fondo de oficina que escuchábamos en la secuencia 3, ya que nos encontramos en el mismo lugar pero a diferente hora de la noche, donde ya los redactores han abandonado su puesto, pero donde las maquinas de imprenta continúan con su rítmica labor. Análisis INSIGHT: Misma característica del canal C en sec.3 donde tenemos frecuencias que van desde los 200Hz a los 3000Hz aproximadamente con un pico de volumen sobre los -40Db. CANAL LR: (Sec. 5 LR) Tenemos un fondo continuo pero esta vez, solo de sonido de teletipos más presentes, mezclado con el fondo de maquinas de la imprenta, pero éstas más distantes y alejadas. �52 En el canal L (izquierdo de pantalla) nos encontramos con un fondo de fabrica maquinas imprenta sordo y lejano, mientras que en el canal R (derecho de pantalla), suenan teletipos presentes mezclados con sonidos de fabrica. El director pretende, dentro del minimalismo sonoro de esta secuencia, producir un contraste de ambientes para aumentar en el público la sensación de espacialidad física. Análisis INSIGHT Conviene distinguir ante todo los dos canales independientemente LR de pantalla. Canal L: las frecuencias viajan desde los 50Hz a los 500Hz con una intensidad aproximada de -80Db y -90Db perdiendo fuerza cuanto más nos alejamos de estos valores. Los agudos se pierden casi totalmente. �52 Canal R: Recuperamos la presencia de agudos, ya que las frecuencias se extienden desde los 50Hz hasta los 5000HZ con una intensidad de -70Db a -90Db aproximadamente. Como resumen general, diremos que el canal R es mas brillante que el L manteniendo también la presencia de graves, que le confieren mas cuerpo y peso al ambiente de este altavoz. CANAL SUR: (Sec.5 SUR) �52 Escuchamos ya no el fondo de teletipos, sino un fondo más presente de maquinas de imprenta, con su consabido ritmo y pauta sonora. Esto imprime a la secuencia la sensación de que el trabajo se encuentra a pleno rendimiento en la fabrica. Análisis INSIGHT: Nos encontramos con un fondo cuyas frecuencias principales oscilan entre 100Hz y 3000Hz a un nivel de -70Db y -80Db bajando de intensidad a partir de este punto de forma general. Los sonidos son más presentes y pesados. No olvidemos que en esta secuencia, los fondos presentes corresponden a la maquinaria más pesada de una imprenta. De aquí el motivo de la presencia de sonidos mas graves y de frecuencias medias. �52 Sec.12 (de 00:26:01:54 a 00:24:20:48) CANAL C: (Sec. 12 C) Esta secuencia, maravillosa en su desarrollo y en su diálogo, nos presenta una nueva banda musical de carácter nostálgico y romántico. Esta vez se trata de Nat King Cole, con la canción “Aquellos ojos verdes”. Lo que más se recuerda de ‘Deseando amar’ (“In the modo of love”), es la arrolladora presencia de boleros. Esto, que podría resultarle chocante a un espectador profano, tiene su explicación: en el Hong Kong de los años 60, que es la época en que se desarrolla la acción, los boleros de Nat King Cole sonaban con fuerza. Wong Kar-wai nació en Shangai, pero a la edad de cinco años su familia se trasladó a la antigua colonia británica, la ciudad china más aperturista. �52 Su madre oía en la radio y tarareaba las melancólicas canciones de Cole. Aunque ellos dos no entendían el contenido y significado de la música, si las sentían, que es lo que consigue la buena música, es decir, Wong Kar-Wai fue creando a través de sus recueros musicales de la infancia, el colchón sonoro que mas tarde utilizaría en este film, y en general en toda su obra. En este canal encontramos los diálogos de los protagonistas, que se mueven sin apoyo o cobertura musical. Esto quiere decir, que la banda musical tan importante en esta película no se utiliza de fondo ambiente diegético para el canal central, sino que desaparece convirtiendo el sonido del dialogo, o el fondo de efectos sonoros cuando estos mismos diálogos no se producen, en los verdaderos protagonistas de la acción. Veremos mas adelante como la utilización del efecto minimalista en el montaje sonoro de esta cinta, se convierte en una herramienta habitual a lo largo de todo el metraje. El diálogo se presenta en estado puro, sin adornos, sin efectos ni ambientes. Solo la voz de los dos protagonistas, llenan este canal de sonido, haciendo que nuestra atención se concentre con intensidad en el contenido de las palabras, en las miradas, en los gestos. Es una secuencia importantísima en la película, porque utilizan un maravilloso juego de palabras para justamente hablar de lo que no se puede hablar. Es un giro continuo de insinuaciones, de palabras aparentemente inocentes, pero que contienen una gran carga de emotividad y dolor. Contrariamente a la técnica tradicional de sonorizacion cinematográfica, esta secuencia juega con el uso del diálogo, del silencio y de la música como únicos protagonistas de la acción. No hay ambientes, no hay efectos, no hay otras fuentes de sonido que puedan distraer como pueden ser sonido de platos vasos máquinas desde la cafetería etc. El canal central de sonido solo transmite la voz de los protagonistas de forma pura y directa, sin artificios ni cambios. �52 Análisis INSIGHT: Los diálogos se mueven entre los 200Hz y los 200oHz cuando estos se producen, con una dinámica aproximada de -55 Db. Cuando desaparecen las voces, nos encontramos con una banda de ambiente y efectos que se encuentran entre los 100Hz y los 2000Hz y que tienen -85Db de dinámica general. CANAL LR: (Sec. 12 LR) Suena el tema de “Aquellos ojos verdes” de Nat King Cole. Nos encontramos en un bar- restaurante. Es de noche. La música suena de forma no diegética, acompañando la presencia y diálogos de los dos protagonistas. �53 Análisis INSIGHT: En el arranque de la secuencia (00:26:05:10) el tema musical aparece como banda sonora cuyo origen no se encuentra en la pantalla. Nos movemos en una horquilla de frecuencia de entre 70Hz y 4000Hz alcanzando en las frecuencias medias de 200Hz a 1000Hz una dinámica superior, 45Db. �53 En el código 00:26:24:00 observamos una bajada de niveles generales de música, para dar paso a los diálogos. Esta técnica se emplea a menudo, cuando no queremos distraer la atención del espectador sobre otro foco de sonido, que generalmente suele ser el diálogo mismo. Nos movemos sobre -65Db. CANAL SUR: (Sec. 12 SUR) Hay un alejamiento de la fuente musical, lograda añadiendo un efecto al canal trasero de sonido (Surround) denominado “Reverb”. Este efecto se añade para crear la sensación no solo de espacio sonoro (en este caso un restaurante) sino también para convertir la música de elemento no diegético en elemento diegético en la película. Es decir, la música parece pertenecer al propio restaurante, y no a una banda sonora añadida en postproducción. Este juego de efectos, logra dar más realismo al plano de imagen a la vez �53 que permite con elegancia que se escuche a la perfección el diálogo, que como casi siempre es el protagonista de la acción. Análisis INSIGHT: Aparece la misma banda musical con una dinámica aproximada de -75Db, en frecuencias que van desde los 100Hz a los 1800Hz. Al final de esta secuencia código 00:28:51:12 exterior calle noche, nos encontramos con otra pieza musical de Nat King Cole. Ésta lleva por título “Te quiero dijiste”. Como al principio de esta misma secuencia, nos encontramos con un canal central C donde exclusivamente viajará el diálogo. Dicho diálogo aparece condensado en una única frase de la protagonista en el código 00:29:04:09 con una lenta y progresiva subida de volumen, para luego volverse a apagar lentamente a partir del código 00:29:09:07 para desaparecer definitivamente en el código 00:29:12: 29 �53 Llamativo es el tratamiento del fondo ambiente del canal C, para dar continuidad al dialogo. Fondo que no existe ya que el tratamiento sonoro general de la secuencia como también de la misma película adquiere un carácter prácticamente minimalista. Tampoco nos encontramos en exteriores con ambientes en los canales SUR (surround). Sec. 13 (00:31:12:53 a 00:33:42:54) Esta secuencia presenta las mismas características de la anterior sec.12. La utilización del canal C para el dialogo exclusivamente, y de los canales LR y SUR (surround) para la música, permite que el espectador no pierda ni una sola palabra del texto de los protagonistas. Maravilloso es el momento en el que arropados por la música de Nat King Cole, “Aquellos ojos verdes” el señor Chow a petición de ella, la hace probar la comida que le gusta a su mujer. La banda musical confiere a este instante un momento especial (00:31:53:00) sin que resulte pesado o demasiado largo. Los detalles de cada plano de imagen, mezclado con la música, se convierte en un cocktail explosivo. CANAL LR: (Sec. 13 LR) Contiene la música desde el principio de secuencia hasta su final con código 00:33:12:00 . Importante es apreciar como en el código 00:33:10:20 va apareciendo gradualmente un fondo ambiente de restaurante. Sonidos suaves de platos, vasos, �53 cubiertos, que nacen poco antes de que la música desaparezca, fundiendo con esta suave y lentamente. Este es otro claro ejemplo del minimalismo utilizado por el director a la hora de tratar las bandas de ambientes y efectos a lo largo de la película. El director de la cinta Wong Kar-wai no quiere distracciones ni sonidos que puedan interferir con el desarrollo de la acción y sobre todo con la comprensión de la trama entre los dos protagonistas. Análisis INSIGHT: �53 Nos movemos con un ambiente musical suave, cuyos sonidos están en frecuencias comprendidas entre 100Hz y 4000Hz con una dinámica de -45Db. CANAL C: (Sec. 13 C) Es el canal de los diálogos, pero a diferencia de la secuencia 12, aquí también encontramos ambientes suaves de restaurante y alguna voz distante y que solo aparecen a partir del código 00:33:10:20 como sucede también para las pistas LR de pantalla. De esta manera tenemos cubierto los tres altavoces principales, L,C y R. Son ambientes suaves, casi imperceptibles, pero que confieren cierto ritmo y relleno a toda la secuencia. �53 Análisis INSIGHT: Nos movemos con un ambiente restaurante suave, cuyos sonidos están en frecuencias comprendidas entre 100Hz y 8000Hz con una dinámica de -95Db. Canal SUR: (Sec. 13 SUR) �53 Vuelve otra vez la solución de añadir un efecto de reverberancia sonora a la banda musical, para introducir el efecto de música diegética, produciendo la sensación de que es el sistema de amplificación del propio restaurante el origen de tal música. Al finalizar ésta, el canal surround también enmudece, dejando de producir sonido. Análisis INSIGHT Las frecuencias en la que nos movemos van ligadas a la música, con una considerable carga de reverb, lo que produce también una clara disminución del volumen general. Estamos hablando de frecuencias que van desde los 100 Hz a los 2000 con un nivel medio de -65 db. Sec.14 (de 00:36:07:59 a 00:36:35:18) CANAL C: (Sec.14 C) �53 Llamativo es el uso del canal central en esta secuencia. En esta ocasión, la única fuente sonora que encontramos en el canal C es la de los pasos del actor que se van acercando a cámara. A pesar de la lluvia, y de la tormenta, el director tiene una visión minimalista del sonido, aislando cualquier ambiente o efecto perturbador, que pueda interferir con la acción del protagonista. En este canal solo escucharemos las pisadas del actor, pero en ningún caso los ambientes de agua, lluvia o viento que están presentes en la imagen de esta secuencia, o los gestos del protagonista, secándose la cara, o limpiándose el traje mojado. Análisis INSIGHT: Es un fondo sonoro muy bajo o prácticamente inaudible. �53 Estamos entre 300Hz y 1000Hz con las pisadas del protagonista y con un volumen general de -70Db. A partir del código 00:36:15:00, todo el sonido se desploma, por debajo de los -110Db. CANAL LR: (Sec.14 LR) �54 Encontramos la presencia de los ambientes de relleno, como son viento, lluvia, y gotas de agua en general. Estos ambientes cubren perfectamente la secuencia, transmitiendo un estado anímico y emocional muy determinado al espectador. Importante es el contraste entre este ambiente y el de la secuencia siguiente, donde existe un cambio sonoro evidente a nivel de percepción y de nivel acústico. Análisis INSIGHT: Los efectos, de carácter y presencia marcada, envuelven esta secuencia con naturalidad y potencia. Nos movemos entre 70Hz y 4000Hz con una dinámica general de aproximadamente -60 Db. CANAL SUR: (Sec.14 SUR) �54 Las mismas consideraciones presentes para los canales LR de pantalla son validas también para el canal SUR (surround) trasero con la diferencia de que en estos altavoces surround la lluvia es mas suave y con un menor impacto sonoro. Análisis INSIGHT: �54 Descubrimos que las frecuencias y dinámicas presentes en los canales traseros surround son idénticos a los principales estéreo LR de pantalla con un mayor componente de frecuencias graves en el rango de los 80 Hz. Sec. 15 (01:10:10:13 a 01:11:35:48) CANAL C: (Sec.15 C) Esta secuencia tiene una expresividad muy clara y manifiesta. Arranca con la imagen y el sonido diegético de una radio antigua, que sirve de inspiración y diseño sonoro al resto de la imagen. Escuchamos el ruido electrónico de la radio durante los primeros segundos de imagen que se mezcla con la voz de una presentadora que da paso a una canción. Mágica es la forma en la que el director utiliza el canal C central como único soporte sonoro de esta secuencia. De echo todos los demás altavoces, LR, SUR y LFE están mudos, y no contienen ninguna información sonora adicional. �54 El tema musical de esta secuencia empieza a sonar de forma monoaural, ya que la radio en aquella época se transmitía con esta calidad y cualidad, pero lentamente y poco a poco podemos percibir pasados aproximadamente unos 15 segundos, que ésta va perdiendo su carácter diegético, para incorporarse a la banda sonora de la película con un claro carácter presencial y no diegético añadiendo una gran fuerza y carácter expresivo. Análisis INSIGHT: Al principio de esta secuencia, nos encontramos con unas frecuencias que se mueven entre 300Hz y 890Hz, como resultado de un sonido filtrado por la bocina de una radio, donde tanto graves como agudos se pierden por la calidad de la emisión. El nivel de volumen sonoro se encuentra alrededor de los -60Db, concentrado en las frecuencias medias del espectro sonoro. Paulatinamente estos valores van modificándose ocupando un espectro mas amplio desde los 100Hz a los 2500Hz y con una dinámica general de aproximadamente -45Db. �54 Sec. 16 (01:25:55:46 a 01:28:30:25) y Sec. 17 (01:31:35:24) Estamos ante dos secuencias donde la música alcanza su valor más importante si lo contemplamos tanto desde el punto de vista narrativo como técnico. Esta secuencia es una de las dos principales del metraje, donde podemos encontrar sonidos en los 5 altavoces preferentes, el central, los estéreo de pantalla y los estéreos traseros (surround). Pocas veces vamos a encontrarnos con una expresividad sonora tan grande y tan manifiesta. La idea principal al utilizar estos canales de escucha, es sin duda, la de provocar en el espectador una reacción de sorpresa e interés. No olvidemos que los altavoces surround en la sala de cine, se encuentran rodeando al espectador, sumergiéndole en la experiencia sonora que la imagen transmite, y añadiendo un valor más a la historia del metraje. Acontece una sobrecarga de información acústica, que lo que hace es provocar la atención del espectador y enriquecer las sensaciones percibidas. Los sonidos que aparecen en el canal surround, transmiten proximidad y cercanía al espectador, por eso estos altavoces se encuentran cerca del público, mucho más cerca del resto de altavoces, como los que se encuentran directamente en la pantalla (L,C,R, LFE). En esta secuencia final, el protagonista se encuentra en Camboya por trabajo. Han pasado cuatro años desde que conoció a la mujer casada de la que se enamoró en Hong Kong. El protagonista todavía piensa en ella. Lleva el recuerdo de esa relación en secreto. En esta escena, lo vemos practicando una antigua costumbre tailandesa utilizada antiguamente para enterrar los secretos. En los viejos tiempos, si alguien tenía un secreto que no quería compartir subía a una montaña, buscaba un árbol, le hacía un agujero y susurraba el secreto. Luego lo tapaba con barro y dejaba el secreto allí para siempre. En �54 este caso, el actor utiliza el agujero natural en una columna de piedra, y en el interior deposita el secreto que ha mantenido durante todos estos años. Este plano final tiene una belleza singular. La cámara enfoca al protagonista y la música es la única acompañante en este momento. CANAL C: (Sec.16 C) El protagonista absoluto de esta secuencia es la banda musical. Aunque el actor se encuentra en una localización de exteriores, no escuchamos en ningún momento el sonido de la brisa o de pájaros. El director centra todo su esfuerzo en transmitir únicamente la música, el triste lamento de los instrumentos de cuerda, como recuerdo lejano del llanto y el dolor que van acompañando al protagonista durante toda la duración de ésta. No hay concesiones a la distracción. La música nos hace pegarnos a la pantalla descubriendo segundo a segundo este ultimo acto de la historia. Análisis INSIGHT: �54 El sonido se mueve en un amplio espectro de frecuencias, que van desde los 50Hz hasta los 3000 Kz. El volumen medio se encuentra alrededor de los -40 Db. Estos valores permanecen inalterados a lo largo de la secuencia. CANAL LR: (Sec.16 LR) �54 Al contrario de lo que ocurre en el canal C central, la secuencia arranca con el sonido ambiente de pájaros y fondo exterior campo día. A los pocos segundos, aparece la música que permanece por encima del resto de sonidos durante toda esta larga secuencia. Solo al final volvemos a recuperar el sonido ambiente que nos devuelve otra vez a la realidad. Toda la secuencia esta tratada por el director con un toque minimalista que transfiere el peso de la imagen a las cuerdas musicales, que van sosteniendo con su largo y continuo lamento la acción del protagonista. Análisis INSIGHT: Las frecuencias oscilan desde los 30Hz a los 3000Hz con un volumen aproximado de -40Hz. A destacar es el uso de un efecto o plugin digital que imita la sensación de espacio físico o lejanía. CANAL SUR: (Sec.16 SUR) �54 El canal surround permite rodear al espectador y crear así una sensación de proximidad emocional. La música que reconocemos en este canal es exactamente la misma a la del canal central y estéreo, es decir, no reconocemos ningún nuevo instrumento, pero sí el uso del efecto de reverberancia, que brinda al sonido de este canal una sensación de profundidad para mejorar la percepción espacial del espectador. El sonido que escuchamos en el canal surround es de una belleza extrema, ya que transmite la sensación de plano sonoro, de forma sutil y minimalista. Análisis INSIGHT: Nos encontramos con frecuencias que se mueven desde los 50Hz hasta los 5000 Hz con una fuerte presencia de medios, que ayuda a enfatizar la dinámica general de la música. A �54 pesar del uso del efecto de reverberancia que lo que hace es alejar la fuente de sonido del receptor. Nos encontramos con un nivel medio de volumen que gira entorno a los -40 Db.
 �55 24.2 “Olvidate de mi” (Eternal Sunshine of the Spotless Mind. Año 2004 Director: Michel Gondry) El material de video de esta película se encuentra en la carpeta nombrada como : “Olvídate de mi”. Los cortes de imagen aparecen nombrados por el titulo de secuencia de este documento. Esta película además de ser una cinta especial en contenido e historia tiene el honor de de haber sido premiada en 36 ocasiones, incluyendo el Oscar en 2005 al mejor guión y dos premios BAFTA por montaje y guión original. Estamos ante una película muy particular de índole no comercial donde hasta su título original, Eternal Sunshine of the Spotless Mind (Eterno resplandor de una mente inmaculada), tiene un origen poético a través de los versos del poeta inglés Alexander Pope que aparecen en el poema de “Eloisa to Abelard” .474 “How happy is the blameless vestal’s lot! The world forgetting, by the world forgot. Eternal sunshine of the spotless mind! Each pray’r accepted, and each wish resign’d. Que traducido significa lo siguiente: ¡Qué feliz es la suerte de la vestal sin tacha! Olvidarse del mundo, por el mundo olvidada. POPE, Alexander. Obras de Alexander Pope. Iberial Literatura. Madrid 2015.474 �55 ¡Eterno resplandor de la mente inmaculada! Cada rezo aceptado, cada antojo vencido.” “Olvidate de mi” tiene un montaje muy poco usual, con continuos flashbacks y fowards, donde secuencias iniciales del metraje coinciden con otras del final y el final con las del principio. Es un montaje de imagen arriesgado, provocador, con múltiples saltos de espacio y de tiempo, pero también hay que decir, que la película incluye también una serie de pistas para que el público pueda entender y seguir el desarrollo de la historia, de los acontecimientos, de un guión brillante y singular, donde la habilidad para jugar con el espacio y con el tiempo es un requisito fundamental para poder producir esta pequeña joya de la narrativa audiovisual. Esta película representa el segundo trabajo del director francés Michel Gondry y que se estrenó en España con el título de ‘¡Olvídate de mí!’. Dos son los actores principales de esta cinta: Jim Carrey y Kate Winslet. Dentro de la temática de comedia romántica, esta película narra el desarrollo vital de los dos personajes con sus afectos y desafectos, según los distintos momentos de la película, donde quizás esté mucho mejor tratado el lado mas triste y amargo del amor en realidad. Hemos hablado del tratamiento especial del concepto del tiempo, ya que la cinta empieza por el final realmente de la relación de ellos dos, para ir luego saltando y moviéndose por el continuo temporal, hacia adelante y hacia atrás, mostrando así los lugares donde se irá desarrollando la acción. Nos encontramos indefectiblemente ante una historia de dolor y separación, la historia del final de un amor, y de la cruda realidad que acaba envolviendo y cercenando una prometedora pero a la vez frágil relación entre dos personas. En la primera secuencia de la película, encontramos a Carrey cambiando misteriosamente de andén y tren, para acabar encontrándose con una persona que �55 marcará un antes y después en su vida. Más tarde le veremos en una playa desierta, rodeado por el mar, el viento y la soledad, mientras escuchamos su diálogo mental haciendo dibujos en una cuartilla de papel, mientras maldice su suerte de visitar la playa de Mountak en invierno. Todos estos elementos de partida, nos ayudan configurar la personalidad y el carácter del protagonista, envuelto en sus obsesiones y pensamientos y por supuesto en sus recuerdos. Porque ésta cinta trata de los recuerdos, de los momentos pasados y del futuro que aún tiene que llegar, pero que se vive desde el primer momento, desde la primera secuencia. El personaje de Joel (Jim Carrey) se nos hace incluso más humano y cercano cuando le escuchamos pensar que San Valentín es solo un invento, para un día festivo y como el dice: “creado por las compañías de tarjetas de felicitación para que la gente se sienta como la mierda“. Esto transforma a Joel, en prácticamente uno mas de nosotros, lo convierte en un amigo próximo y cercano y esto hace a su vez que nos confundamos con sus sentimientos, sus pasiones, sus dichas y desdichas en esta montaña rusa que son los sentimientos y el corazón. La co-protagonista de esta historia, es Clementine (Kate Winslet). Tres son los lugares donde coinciden los dos. El primer encuentro entre ellos acontece en la playa de Mountak, cerca de Nueva York. El deambula perdido y absorto en sus dibujos y pensamientos, mientras observa a una chica que extrañamente recorre ese lugar sin rumbo fijo ni definido. Más tarde, volverán coincidir en un restaurante donde seremos testigos de la primera interacción entre ellos, mientras la mirada huidiza y el lenguaje no verbal de Joel delata claramente su timidez y fragilidad. El tercer encuentro sucederá momentos después en la estación de tren aunque será solo un simple contacto visual. Solo más tarde ya con el tren en marcha y sentados en el mismo vagón, Clementine dará el primer �55 paso para acercarse a Joel no sin antes advertir el juego de miradas llenas de complicidad que intercambiarán ellos dos, y que dará paso al acercamiento entre los actores y a un diálogo fácil, de frases sencillas y temas intrascendentes. Del mismo modo que desde el principio de la película, el director va desgranando el carácter y la personalidad de Joel, así también lo hará tiempo después con el de Clementine. Así y a través de los primeros minutos de la cinta, el guión, nos descubre a una Clementine, impulsiva, autoritaria, dogmática, directa en su forma de comunicarse y en sus palabras, sin concesiones a la ambigüedad o a la diplomacia. Se la ve llena de curiosidad por conocer a Joel, y descubrir a la persona que tiene ante si. Joel y Clementine son dos personas totalmente diferentes, dos caracteres opuestos y hasta podríamos decir que incompatibles, pero conforme va avanzando el metraje descubrimos como esa incompatibilidad va adquiriendo un sentido, convirtiendo lo diferente en complementario y lo opuesto en reconciliable y valioso para los dos. Es un ejemplo vital que muestra la necesidad de necesitarse, de complementarse o simplemente de amarse. Es una historia de recuerdos y de obsesiones. La imposibilidad de cambiar las cosas y de convertir en posible lo auténticamente imposible, porque sencillamente la vida es así. “Olvidate de mi” encarna no solo una bella cinta y un ejemplo de habilidad narrativa y de edición de imagen, sino también un habilidoso juego de sensaciones sonoras y de planos de escucha, que enriquecen el dialogo de los personajes y multiplica exponencialmente la riqueza del mensaje que la propia película transmite al espectador. Estos elementos, son sin duda la causa de que haya escogido este trabajo en concreto como elemento de análisis y de estudio en mi investigación sobre el sonido cinematográfico. �55 Sec. 1 CANAL C: (Sec.1 C) En esta escena podemos escuchar los pensamientos del protagonista. Esto lo vamos a encontrar a lo largo de toda la película y en muchas ocasiones, lo oiremos mezclado con la banda musical. No olvidemos que esta película contiene música en formato 5.1, lo que permite abrir el panorámico de sonido a seis canales independientes en la sala de cine. Uno de estos canales es precisamente el que viaja por la escucha central de diálogos, rellenando la pantalla de música. Aunque esto acontece a lo largo de toda la película, nunca nos vamos a encontrar con una música que tape u oculte al propio diálogo. De hecho la música misma es muy minimalista en esta secuencia suave con notas de piano que se desgranan al ritmo del diálogo. �55 La voz adquiere una presencia monótona, como si el contexto del diálogo perteneciera casi a un sonido de ambiente. Es la voz interior de protagonista que nos cuenta sus pensamientos, sus sentimientos, sus creencias, su estado vital. El mismo diálogo, describe a la perfección la monótona tediosa, y rutinaria vida del protagonista. Esta es la fuerza del sonido, la capacidad de comunicar con el espectador, de transmitirle un estado emocional, y de sumergirle en la vida personal del personaje de nuestra película. Análisis INSIGHT: El sonido, mezcla de diálogo y música, se encuentra entre los 50 y 2800 Hz de frecuencia. La amplitud de volumen oscila alrededor de -50 Db. Es una secuencia de un minimalismo sonoro muy marcado. Predominan las frecuencias media de la voz y de la propia banda musical. �55 CANAL LR: (Sec.1 LR) En esta secuencia nos encontramos con dos tipos de sonido diferentes en el canal estéreo de pantalla (LR). Estamos hablando de la música y de ambientes de sonido. La música sigue siendo minimalista con un piano claro, bien marcado, pero sin llegar a pretender ser el protagonista de la escena. Por otro lado se incorporan ambientes de sonido nuevos como pueden ser sonidos de gente en el andén, viento suave, y ambiente exterior estación de tren. Éstos sonidos enmarcan perfectamente la acción, dándole una pertenencia temporal y una localización física al desarrollo de la escena. En este canal no escuchamos la acción del protagonista, las carreras por el andén, por los pasillos. Sólo la música y los ambientes suaves que rodean el escenario. �55 La música en este caso, como en muchos otros de la película, va a representar el nexo de unión entre una secuencia y otra. Éste es un estilo muy utilizado en el cine americano, donde las secuencias se entrelazan suave y armoniosamente con la ayuda de la banda musical. Análisis INSIGHT: La entera secuencia se mueve alrededor de los 80Hz hasta los 2000Hz con un volumen mas mercado en las frecuencias graves en los 80 y 100 Hz y en las frecuencias medios graves que van desde los 400Hz a los 1000 Hz aproximadamente con un volumen general de -35 Db. CANAL SUR: (Sec.1 SUR) Claramente distinguimos en este canal como la música se encuentra filtrada por un efecto muy utilizado en cine, la reverberación, sobre todo cuando usamos este canal de sonido que es el encargado de transmitir al público la sensación de inmersión sonora. �55 En este caso, el efecto de reverberación, provoca una sensación de alejamiento de profundidad, de plano sonoro que produce la percepción de especialidad, de profundidad. No nos olvidemos que los altavoces traseros en el cine sirven para aumentar la emotividad y la sensación de realismo en el espectador. En esta primera secuencia rodeando al público tenemos ambientes y música, esta última como hemos dicho recibe el efecto de lejanía a través de la reverberación de sala que se introducen durante el proceso de mezcla de sonido de la película. Esta secuencia se encuentra desprovista del canal LFE de subgraves, 475 comprensible por el simple hecho de que la sencillez y la simplicidad de la acción no justifica la aparición de un sexto canal de efectos. Análisis INSIGHT: El análisis arroja un volumen general de alrededor de -60 Db y -70 Db. No olvidemos que nos encontramos escuchando un canal de audio muy especial donde los sonidos se pierden suavemente o se desdibujan, creando una atmósfera que tiene como objetivo VANDERKOOY, J.The Acoustic Center: A New Concept for Loudspeakers at Low Frequencies,” 121st 475 Convention, Audio Eng. Soc. 2006.: El autor comenta que el altavoz subgrave emite frecuencias que se distribuyen de igual manera a lo largo de la sala. En la actualidad hay sistemas de sonido 7.2 que van más haya del habitual 5.1 añadiendo otro subwoofer al final de la sala, además re reforzar el sonido envolvente. �55 rodear y sumergir al público en la acción que se proyecta en la pantalla. Las frecuencias se mueven entorno a una horquilla que va desde los 60Hz hasta los 1800 Hz. Sec.2 CANAL C: (Sec.2 C) Esta secuencia nos presenta a uno de los protagonistas de la cinta en un comportamiento errático, disruptivo, separado de la realidad, con un lenguaje interior denso. Es un momento dramático, porque representa el autorretrato de Joel, su mundo, lleno de soledad y de ecos del pasado. �56 Nos encontramos con el dialogo en primer término, y de fondo un colchón minimalista de piano y el ambiente alejado y perdido de las olas del mar. Todo esto añade una sensación de vacío y de desconexión entre la vida interior de Joel (sus miedos y frustraciones) y la realidad que le rodea. Las notas del piano ayudan en gran medida a transmitir esta sensación de bloqueo y de falta de unidad del protagonista con el mundo. Parecen casi notas musicales sueltas, dispersas entre la arena de la playa o las olas que el mar mece en esa mañana desapacible de invierno. Análisis INSIGHT: �56 La banda sonora cuya presencia esta subrayada por el diálogo interior del protagonista, se mueve y articula sus frecuencias desde los 30Hz (zumbido del mar) hasta los 5000 Hz. El volumen general tiene picos de hasta -45Db sobre las frecuencias medias, donde se encuentra precisamente la voz. CANAL LR: (Sec.2 LR) Aquí nos encontramos con la única presencia de la banda musical, es decir, el piano minimalista que desgrana sus notas suavemente, y el fondo ambiental de las olas del mar. El diálogo no está presente en estos altavoces, siguiendo la técnica o estándar de trabajo de la comisión americana SMPT que dice o aconseja utilizar los canales estéreo de pantalla para transmitir colchones de ambiente, efectos de sonido y pistas musicales Aquí se cumple a la perfección esta norma de montaje sonoro. Existe una perfecta conjunción entre el sonido del mar y el sonido musical del piano. Esta combinación es muy difícil de lograr ya que el mar suele interferir muy negativamente en el desarrollo de otras pistas sonoras, como en muchas ocasiones sucede, con la música por ejemplo. �56 Pero aquí el director logra una conexión perfecta entre el ritmo de las solas y el ritmo de la música, como si se tratase de un baile, de una danza suave casi imperceptible que va rodeando ya arropando los pensamientos internos del protagonista. Todas estas sensaciones sonoras sirven perfectamente para enmarcar la imagen, el vacío de la playa, con los pensamientos pesimistas del protagonista, con su desconexión con el mundo real, con su comportamiento errático y perdido, con los pasos y movimientos que hace a lo largo de la secuencia, sentado escribiendo, paseando sin rumbo fijo etcétera. Análisis INSIGHT: La secuencia en los canales estéreo LR de pantalla esta cargados de graves y medias frecuencias que van desde los 20Hz hasta los 2000 con picos de volumen altos en los subgraves y en las medias frecuencias (-40Db). �56 Esto acontece por dos motivos: por un lado, el colchón ambiental del mar aumenta la presencia de frecuencias graves por su tono y carácter sonoro y por otro, el piano musicalmente enfatiza frecuencias medias con un pequeño repunte también presente en las frecuencias agudas .476 CANAL SUR: (Sec.2 SUR) Interesante es el análisis de la secuencia a través de los altavoces surround. Aquí notamos como la presencia musical del piano se halla en segundo término, es decir alejado del espectador, con una intencionalidad clara, la de transmitir sensación de espacio, vacío profundidad a la imagen. NISHIGUCHI, T., Hamasaki, K., Iwaki, M., and Ando, A. Perceptual Discrimination between Musical 476 Sounds with and without Very High Frequency Components. 115th Convention, Audio Eng. Soc., 2003.: se concluye que las personas sujetas a examen no podían discriminar entre estímulos sonoros con y sin componentes de muy alta frecuencia. (por encima de 21Kh). �56 Dicho efecto se logra añadiendo un plugin digital a la pista del piano, es decir un modulo de reverberación que lo que va a producir es alejar el instrumento del piano y dispersarlo sonoramente por la sala. El ambiente del mar adquiere mayor protagonismo para transmitir realidad, y presencia. Es una especie de mezcla entre la ensoñación de la música que adquiere casi valor onírico y la realidad con el sonido de las olas del mar y su incansable movimiento. Repito una vez más como la imagen de esta playa desapacible y vacía se magnifica a través del uso de los sonidos. En este caso la presencia en primer termino del sonido del mar permite transmitir de forma directa esa sensación que el protagonista siente y vive interiormente. Su soledad, su desconexión su imposibilidad de comunicarse con las personas. Análisis INSIGHT: La intensidad de las frecuencias baja drásticamente cuando nos encontramos con los canales que transmiten la información surround. De hecho, vemos como dicha �56 frecuencias se encuentran en un rango de entre los 50Hz y los 2000Hz pero con una fuerza dinámica menor, sobre los -65Db. Estamos ante la presencia de sonidos marcados por el efecto de reverberancia en el piano que suaviza extremadamente sus frecuencias sonoras y el colchón ambiental del mar que prácticamente en vez de perder protagonismo, lo adquiere lentamente. Se.3 CANAL C: (Sec.3 C) Interesante es comprobar como funcionan y se desenvuelven los efectos, los ambientes en esta secuencia. En el arranque tenemos presente el ruido de cafetería, la fritura de la cocina y el sonido del movimiento de ropa y objetos de los protagonistas. Cuando la voz interior del protagonista aparece comprobamos como los ambientes bajan drásticamente y se colocan por debajo de la voz del actor. Es ese preciso momento cuando la voz adquiere su papel fundamental de protagonista de la secuencia. A destacar �56 el momento de cambios de niveles del volumen, ya que los sonidos “foleys" (efectos sala) y los ambientes van desapareciendo de una forma gradual pero totalmente premeditada. Análisis INSIGHT: Nos encontramos con niveles medio de volumen alrededor de los -60Db Y con frecuencias que se están moviendo entre los 50Hz a los 5000Hz con una bajada drástica alrededor de los 1500 Hz a un volumen de -90Db. Esto tiene sentido, ya que los sonidos son puramente ambientes suaves de cafetería sin gente. Después entrará la voz engordando las frecuencias medias entre 300 y 1500 Hz. Es una secuencia que por el sonido podemos tildar de minimalista ya que no aparece nada que nos distraiga del diálogo interior del actor. Esto enfatiza y engrandece la importancia de lo que el actor narra de sí mismo y del mundo. �56 CANAL LR: (Sec.3 LR) Llama poderosamente la atención comprobar como en el canal estéreo de pantalla (LR) los diálogos desaparecen totalmente y sólo escuchamos los ambientes de cafetería, es decir el sonido de los pasos de la camarera, los ruidos que vienen desde la cocina, y el propio ruido ambiente del local. Estamos ante otra secuencia que cumple las condiciones en qué se debe utilizar el canal estéreo ambiente y de efectos. El objetivo fundamental es el de rellenar la pantalla a ambos lados de esta, con colchones de ambiente que añaden realismo a los planos rodados por el director y que por otro lado deben de encajar perfectamente con aquellos colocados en el canal central de la misma secuencia, mezclados en ese caso con la voz interior del protagonista. Es decir, creamos un continuo sonoro de efectos y ambientes que unirán las tres zonas de pantalla (L,C,R) a través de los tres altavoces colocados en esas tres mismas zonas. Estamos añadiendo realismo, continuidad y calidad a la línea narrativa de la película. En este instante de la película comprobamos como los canales SUR surround y subgrave no están presentes ya que narrativamente hablando la secuencia no exige la �56 presencia de sonidos en estos altavoces. Nos quedamos así solamente con el altavoz central y los dos altavoces estéreo de pantalla izquierda y derecha Análisis INSIGHT: Técnicamente estamos funcionando con frecuencias que se desplazan desde los 50Hz hasta los 5000Hz con un volumen aproximado de -65Db para picos en bajas frecuencias y -75Db para picos en frecuencias medias. A partir de los 5000Hz hay una bajada drástica de las frecuencias agudas. Sec.4 CANAL C: (Sec.4 C) Los primeros planos del film nos dan la idea de una película romántica algo diferente. �56 La conversación que tienen en el tren me parece deliciosa. Se toma su tiempo, y retrata con profundidad a los dos personajes. En él se dibuja a un introvertido, triste y aburrido Joel, que siempre trata de resultar “nice”. En cambio, ella se considera a si misma mágica, divertida e intuitiva, cuando no es más que una superficial que basa toda su “profundidad” en el color de su pelo. Pronto descubrimos que, en realidad, se trata de una narración invertida. Es fácil identificarse con el proceso de borrado de él. ¿Quién, en un arrebato, no hubiera borrado todo lo que recuerda de alguien que le ha hecho mucho daño? ¿Y quién no se arrepentiría cuando, iniciado el proceso, empezara a borrar los buenos momentos? El canal central de esta adorable y profunda secuencia, repite el comportamiento que estandariza el uso de este altavoz de pantalla donde discurren diálogos, música (si esta presente) y ambientes con efectos. En todo momento los diálogos son los que toman el control de la situación, convirtiéndose en los protagonistas sonoros, pero a modo de coro comprobamos como la música, con notas sueltas casi discordantes, van �57 apareciendo al mismo ritmo de la conversación entre los dos protagonistas, añadiendo una segunda sutil linea de información que se acompasa en complejidad y duración perfectamente con el ritmo de los diálogos de los dos actores. La música recuerda casi algo grotesco o infantil. Es uno “scherzo” sonoro que encuadra a la perfección el encuentro de la pareja. Los ambientes de interior tren también están presentes, pero a modo suave de colchón ambiental, rellenando los vacíos y otorgando realismo a la acción. Comprobamos así, como este ambiente en ningún caso toma protagonismo, sino que al contrario, se convierte en acompañante casi silencioso de toda la secuencia. Análisis INSIGHT: Las frecuencias que encontramos se mueven de los 50Hz a los 5.500Hz, con picos de volumen que se generan entorno a -55Db en las frecuencias medias y con una bajada brusca de volumen entorno a los 5.500Hz. �57 Esta distribución de frecuencias responde a todos los sonidos que están soportados en este momento por el canal central. Los diálogos y la música, permiten que las frecuencias medias, ganen valor y presencia, ya que son las frecuencias a las que el oído humano esta preparado y mejor predispuesto para separar e identificar claramente. CANAL LR: (Sec.4 LR) El canal estéreo de pantalla suele funcionar como herramienta sonora que permite rellenar la pantalla a ambos lados del canal central C, para dar continuidad al sonido y conseguir la sonorización completa de toda la superficie de la pantalla en la que se proyecta la película. Aquí se repiten los mismos sonidos que hemos escuchado en el anterior canal central con la diferencia de que aquí los diálogos han desaparecido, ya que como hemos comprobado anteriormente los diálogos suelen viajar preferiblemente por el canal central de sonido para dejar así libre los canales laterales estéreo de pantalla para ambientes, música y efectos. No se hace imprescindible ninguna consideración ulterior. �57 Análisis INSIGHT: Por la propia naturaleza tanto de las frecuencias musicales como de los ambientes generales, podemos comprobar como las frecuencias básicas se encuentran repartidas entre los 20Hz y los 2000Hz. El volumen general alcanza un máximo de -45Db. CANAL SUR: (Sec.4 SUR) �57 Los mismos sonidos que encontramos en el canal estéreo, están presentes también en este canal surround. Recordemos que es el canal que rodea al público y que produce un efecto de cercanos y de impacto emocional. En este caso los ambientes se encuentran muy por debajo de la música que se convierte en el protagonista sonoro de esta secuencia en este canal especial de sonido. Análisis INSIGHT: En este canal de sonido, las frecuencias graves tienen mas presencia entre los 20Hz y los 80Hz. El volumen en el que se proyectan los sonidos en estas frecuencias alcanza los -55Db. Las frecuencias medias entre los 300Hz y los 1.500 se mueven con una amplitud menor de -65Db. �57 CANAL LFE: (Sec.4 LFE) Aquí únicamente escucharemos aquellos sonidos que pertenecen a la gama de subgraves. No añaden información sonora en si, ya que provocan más efectos físicos que auditivos, pero ayudan a provocar el realismo en el espectador de estar subido en un tren de pasajeros. Análisis INSIGHT: �57 En este canal esta presente las frecuencias mas graves entre 20Hz y 200Hz, producidas generalmente o bien por la música, o bien por colchones ambientales. El volumen alcanza un nivel de -50Db. Cuanto mayor es el volumen, mayor es la sensación física que provoca. Sec.5 CANAL C: (Sec.5 C) En esta secuencia, comprobamos como de la misma forma que sucede en la anteriores, el diálogo sigue siendo el protagonista de la acción. Son voces intimistas,, en muchas ocasiones sutilmente susurradas. Se trata del primer encuentro entre Joel y Clementine en casa de esta ultima. No hay prácticamente ambientes que interfieran en el sonido del diálogo, a excepción de una música diegética que se escucha durante la entera secuencia y que da la sensación que pertenezca a una radio o alguna televisor de un vecino y de un ambiente exterior calle con pasadas sueltas de vehículos. Este es un colchón suave que permite añadir realismo y sensación de espacio sonoro. �57 Esta música esta tratada digitalmente con un efecto de reverberación para conseguir la sensación de profundidad y lejanía. En ningún momento el espectador se siente distraído por este ambiente o colchón musical, ya que el diálogo asume total protagonismo desde el primer fotograma de esta secuencia hasta el último. Análisis INSIGHT: La distribución de frecuencias se mueve desde los 100Hz hasta los 8000Hz teniendo en cuenta que a partir de aquí las frecuencias agudas caen rápidamente por debajo de los -95Db. En el rango de las frecuencias medias comprendidas entre los 500Hz y los 1.800Hz aparece un aumento de volumen con una media de -60Db. El room-tone o el sonido de habitación interior mas la música genera unos graves que se mueven desde los 50Hz a los 200Hz con picos de intensidad de -40Db. �57 CANAL LR: (Sec.5 LR) En estos canales solamente escuchamos la música diegética y ambiente suave de trafico calle exterior. Las pasadas de los coches son puntuales y suaves, permitiendo añadir cierto toque de profundidad y espacio a la secuencia además de conseguir introducir un segundo plano sonoro que permite localizar la acción en el contexto real de su localización. Siguiendo con el estándar americano de montaje de sonido, las voces no aparecen en los altavoces estéreo de pantalla ya que la norma es que viajen por el canal central. Esto libera al estéreo LR de esta tarea y permite añadir por estos canales mas información sonora que enriquezca la acción narrativa de la película. Análisis INSIGHT: Comprobamos como las frecuencias cambian de distribución y de amplitud de volumen. �57 Aparecen frecuencias desde los 20Hz hasta los 2000Hz debido al fondo ambiente interior casa y los fondos de trafico y música diegética con picos que no superan los -75Db. Recordemos que estos fondos nunca pueden competir con los diálogos ya que si así lo hicieran, tendríamos no solamente un problema de comprensión del texto hablado sino también una fuente importante para el público de distracción sobre la acción principal. Sec.6 CANAL C: (Sec.6 C) �57 Joel deja a Clementine en su portal y se marcha a su casa. Escuchamos los sonidos del directo de rodaje, más los efectos foleys que refuerzan a la acción del protagonista mezclados con la banda musical. Interesante es comprobar como la música modula su nivel de intensidad, disminuyendo suavemente y casi de forma imperceptible cuando Joel coge el teléfono para llamar a su chica. El efecto sonoro de hilo telefónico se incorpora en postproducción para la voz de la chica y simular la conversación a través de un teléfono, con la ayuda de un plugin digital que permite equilibrar el sonido, eliminando las frecuencias graves y agudos. De esta forma la sensación de efecto telefónico se logra al cien por cien, añadiendo realismo a la secuencia. El volumen de la música decae para dejar espacio en este altavoz al diálogo entre ellos dos ya que el texto de los protagonistas es realmente lo que importa al director. La música se convierte aquí en un mero acompañante que en ningún caso debe distraer al espectador. Análisis INSIGHT: �58 La presencia de la música hace que nos encontremos con frecuencias que van desde los 100Hz hasta los 4800Hz, con picos de volumen que llegan a -45Db. Importante es notar como las frecuencias medias musicales son las que llevan en un primer momento la presión sonora -45Db. Cuando aparece el diálogo la frecuencias musicales decaen suavemente. CANAL LR: (Sec.6 LR) La música es la protagonista de la secuencia en los canales LR de pantalla ya que aquí no encontramos ningún sonido que tenga relación con el protagonista. Ni pasos, ni abrir puerta ni ambientes. Solo la música acompaña la acción de Joel manteniendo eso si la suave e imperceptible bajada de volumen (alrededor de 4Db) cuando el actor se dispone a llamar por teléfono a Clemetine. �58 Esto sucede técnicamente para permitir que la escucha del canal central, cuando aparecen los diálogos, sea nítida y clara y de esta forma no interfiera en la inteligibilidad de los textos a pesar de que los altavoces LR aunque no son los encargados de llevar el dialogo, intentan apoyan y reforzar la comprensión del diálogo presente en el altavoz central pantalla. Análisis INSIGHT: Aquí tenemos las mismas frecuencias que en el canal central, pero con una drástica caída de frecuencias agudas a partir de los 5000Hz, debido a la ausencia de la voz filtrada por teléfono y a los diálogos que añaden esa riqueza sonora al plano general. Por lo demás nada que destacar en especial en estos canales estéreo de pantalla. �58 CANAL SUR: (Sec.6 SUR) Me gustaría analizar la música que viaja en los canales surround de la sala, y cuyo objetivo es el de rodear al espectador y sumergirle en la experiencia sonora de la película. Desde el arranque del clip de imagen hasta que el protagonista llega a casa, estos canales están vacíos, desprovistos de sonido, ya sea música, ambiente o efectos. A destacar el momento en el que Joel enciende la luz del salón, como lentamente por los monitores surround va apareciendo muy suavemente un instrumento musical, las cuerdas, que arropan la música presente en el canal central y estéreo. Es justamente este instrumento de cuerda el que normalmente se utiliza con mayor frecuencia en los canales surround, porque el sonido de este instrumento permite transmitir la sensación de encontrarnos arropados y rodeados por la música.477 Las cuerdas, los violines, los chelos, etc permiten en general transmitir esta emoción y esta sensación especial al publico, provocando que en el momento de su HODGSON, M. Motion-Picture Theater Sound System Performance: New Studies of the B-Chain. 477 SMPTE Journal, 103, 1993 pp. 136–149. La conformación del surround cinematográfico, permite arropar al espectador y reducir la distancia entre el publico y los propios canales traseros de sonido. �58 aparición en el canal surround , nos encontremos especialmente inmersos en la trama 478 de la acción y en lo que ocurre en pantalla. Análisis INSIGHT: En esta ocasión nos encontramos con unas frecuencias mas reducidas tanto en amplitud como en espectro sonoro . Nos movemos entre los 20Hz y los 1500Hz con una 479 caída drástica de volumen en este punto. La amplitud es mínima, sobre los -95Db. Recordemos que este canal sirve para apoyar a la pantalla pero con la finalidad de rodear al espectador y hacer que este se sumerja en la acción, sin quitar jamas protagonismo a los altavoces principales L, C y R de pantalla. Esta en una regla de oro, que todo montador debe respetar, ya que la acción se desarrolla delante de nosotros en la pantalla, y lo que no debemos en ningún momento es WELTI, T. How Many Subwoofers Are Enough. 112th Convention, Audio Eng. Soc. 2002: En los canales 478 traseros se reproduce instrumentos de cuerda, o viento, pero aplicando el efecto de reverb para producir una mayor sensación envolvente. SNOW, W.B. Basic Principles of Estéreophonic Sound,” J.S.M.P.T.E., vol. 61, pp. 567–587.: el espectro 479 sonoro tanto de los diálogos como de las notas musicales se ven alteradas por las frecuencias medias, más que por aquellas agudas o mas graves. �58 provocar la distracción del espectador que interfiera en la comprensión de los diálogos y de la historia en general. El altavoz surround es un acompañante y un apoyo para la narrativa de la película pero nunca el protagonista principal. Sec.7 CANAL C: (Sec.7 C) Esta secuencia guarda mucha similitud con la anterior. La música y el dialogo son los responsables de la banda sonora en este momento del metraje. Como siempre, cuando tenemos diálogos como en este caso, la música aparece como mero acompañamiento, para no interferir en el texto hablado. Su volumen siempre es inferior al marcado por los diálogos. Las cuerdas, los instrumentos en general consiguen crear una atmósfera misteriosa, mágica como si fuera casi un cuento de hadas. �58 No tenemos colchones de ambientes ni efectos de sonido. Solo es necesario atender al diálogo y descubrirlo mientras de fondo suena una música suave y super cinematográfica. Es una secuencia donde aparece el uso del sonido como elemento minimal, para que el dialogo sea lo único que sostiene el desarrollo de esta secuencia. El director no quiere distracciones ni pretender que el espectador pierda la atención sobre la historia que se desarrolla en la pantalla. Análisis INSIGHT: Las frecuencias se encuentran distribuidas entre los 100Hz y 5500Hz. Gran parte de las frecuencias medias (400Hz / 1500Hz) se originan en la voz de los protagonistas, mientras las músicas tienen su punto de presencia en las zonas bajas y altas de la tabla. El volumen general puede llegar a marcar los -45Db. Las frecuencias mas graves marcan un volumen de -60Db, mientras las zonas mas agudas presentan una caída de señal sobre los 5500Hz. �58 Sin duda por la gráfica podemos comprobar como en general es el diálogo el que tiene mayor protagonismo y el que llena el espectro de frecuencias. CANAL LR: (Sec.7 LR) La secuencia nos muestra como la música por si sola es capaz de enriquecer la imagen, ya que es el único elemento presente en los altavoces de pantalla LR. El diálogo solo lo encontramos en el canal central, y aquí la misma música rellena perfectamente la imagen sin competir en ningún momento con el canal central. Esta es una secuencia intimista, onírica, casi infantil, donde se respira la ternura de los personajes y donde la misma música ayuda a crear una atmósfera de ensueño, casi irreal, otorgando a los personajes un halo de complicidad. El sonido del arpa ayuda a crear esta sensación. �58 Análisis INSIGHT: La música presenta una disposición de frecuencias que van desde los 50hz a los 5200Hz pero con un volumen general menor. La intención no es de competir con los diálogos del altavoz central, sino la de acompañarlos y rellenar de izquierda a derecha la pantalla a través de las cuerdas e instrumentos que suenan en este momento. El volumen se halla alrededor de los -55Hz como vemos por debajo de lo que aparece en el canal central en este mismo momento. Pensemos que estamos ante una secuencia llena de sensibilidad y minimalismo. La música permite resaltar las frecuencias mas graves (cuerdas) y más agudas pero de una forma muy sutil y sin ninguna afán de protagonismo. Este es el cometido de la banda musical que escuchamos en estos altavoces. �58 CANAL SUR: (Sec.7 SUR) Aquí nos encontramos con un colchón de violines y cuerdas diferentes de los que escuchamos en los canales LR y C. Complementan el tema musical, y sirven fundamentalmente no de instrumento solista sino mas bien de acompañamiento a la secuencia para conseguir el efecto de rodear al espectador de sonido y sumergirle en un momento casi mágico y especial. No tenemos diálogos, no tenemos ambientes y efectos. Tan solo las cuerdas que cuando aparecen en este canal de sonido tienen como objetivo prioritario el de conseguir meter al público totalmente en la secuencia. �58 Análisis INSIGHT: Aquí las cuerdas se mueven desde los 180Hz hasta los 5.500Hz. El volumen es medio ya que en ningún momento el canal surround puede limitar o interferir en ninguno de los otros canales de sonido. Nos encontramos con un volumen aproximado de -65Db con un recorte de agudos a partir de los 5.500Hz. Como ya hemos visto en otras secuencias, el desarrollo dinámico del volumen permanece retenido, ya que no olvidemos que los canales traseros de pantalla tienen como objetivo arropar la secuencia, y añadir una dosis de realismo espacial. Sec.8 CANAL C: (Sec.8 C) En esta secuencia, podemos escuchar el sonido ambiente de habitación interior, los propios sonidos del directo, abrir grifo, sacar paquete de la bolsa, trafico lejano, y una música suave que deja paso a unas notas musicales que funcionan como efectos de �59 sonido, notas discordantes que crean una atmósfera que transmiten una cierta sensación de confusión y desorientación. Este es uno de los ejemplos en los que vemos como la propia música puede funcionar perfectamente bien, cuando la utilizamos para crear efectos de sonido, colchones sonoros especiales lo que añade un valor mas a la imagen, y al significado que ésta intenta transmitir al espectador. Análisis INSIGHT: Las frecuencias que encontramos van de los 50Hz a los 8000Hz, con un volumen medio de -55 Db. La música y el colchón de efectos que se despliega a lo largo de esta secuencia permite que el espectro de frecuencias sea muy amplio, desde grave a agudos con una caída de volumen sobre los 8000Hz aproximadamente. �59 CANAL LR: (Sec.8 LR) La música prácticamente es la responsable de llenar de sonido la secuencia. Los ambientes desaparecen y prácticamente todos los efectos. Escuchamos las mismas notas discordantes. �59 Análisis INSIGHT: Las frecuencias que aparecen van de los 50Hz a los 5000 Hz. con un volumen medio de -65Db. La sonoridad es muy parecida a la del canal C ya que el cometido de las pistas LR es la de rellenar ambientes y músicas de pantalla pero en esta ocasión la presencia está más atenuada y menos marcada dando más protagonismo a lo que acontece en el canal C de imagen. CANAL SUR: (Sec.8 SUR) Los mismos sonidos que están presentes en los canales estéreo de pantalla son los que nos encontramos en el surround pero con la peculiaridad de que éstos están filtrados por un efecto de reverberación para crear la sensación de profundidad, de espacio. �59 Como ya lo he comentado anteriormente, ésta es una técnica muy empleada en postproducción para crear realismo de profundidad de espacio como también para impactar en la atención del espectador buscando a través de un efecto de sonido musical o de diseño, tocar la emoción del público en general. Análisis INSIGHT: Es una secuencia donde prácticamente son los efectos musicales los encargados de llenar el espacio sonoro. Las frecuencias se mueven desde los 200 Hz a los 5000Hz con un volumen medio de -70Db �59 CANAL C: (Sec.8B C) Nos encontramos en la habitación de Joel. Interesante es el tratamiento del sonido al que se le ha aplicado el efecto de reverberación para transmitir la sensación de estar recordando algo ocurrido entre él y un vecino. La especialidad y profundidad de las voces que él vuelve a revivir en su mente esta brillantemente conseguido con este efecto sonoro. El efecto de reverberación se va introduciendo lentamente a lo largo de esta imagen donde se va mezclando con efectos sonoros musicales permitiéndonos casi navegar por los recuerdos y pensamientos internos de Joel. Aquí aparece la música y los ambientes específicos. De forma elegante y sutil, van apareciendo sonidos, músicas, efectos ambientales e incluso efectos sonoros musicales que permiten al director transmitir la sensación de vacío y perdida del protagonista, sumido en un mar de recuerdos que se van lentamente apagando en la memoria. �59 Análisis INSIGHT: Las frecuencias recorren el espectro sonoro desde los 40Hz hasta los 12000Hz con picos de volumen de hasta -50Db. Los diálogos contribuyen a obtener un buen nivel de volumen en las frecuencias medias con una bajada a partir de los 12.000 Hz. CANAL LR:(Sec. 8B LR) �59 Aparecen efectos musicales de sonido. La idea es no solo la de rellenar el fondo estéreo de pantalla con un continuo sonoro que encaje perfectamente con el material del mismo canal central, sino también la de añadir una clara intención narrativa concreta. La música con el tratamiento sonoro de reverberación y el sonido de interferencias electrónicas transmiten la misma sensación de caos, vacío y perdida que siente el protagonista. Ningún dialogo esta presente en estos canales. Análisis INSIGHT: Los efectos musicales y el colchón de notas disonantes o distorsionadas permite jugar con frecuencias que van de los 50Hz a los 10.000Hz. El volumen se mueve sobre los -45Db destacando una presencia marcada de las frecuencias subgraves y graves. �59 CANAL SUR: (Sec. 8B SUR) Solamente la música es la encargada de transmitir al espectador sensaciones y sentimientos. En esta ocasión el sonido se proyecta de forma muy sutil y con un volumen inferior al que llevamos en pantalla (L,C,R), justo con la intención de no distraer al publico pero si de transmitir la profundidad y el eco de los sonidos y notas musicales. Análisis INSIGHT: �59 Todos los sonidos graves de los canales LR aquí desaparecen. Las frecuencias solo se mueven a partir de los 300Hz hasta los 9000Hz produciendo a partir de aquí una caída significativa de volumen. El volumen máximo se encuentra sobre los -75Db muy por debajo de los registrados en los altavoces de pantalla LR. Sec.9 CANAL C: (Sec. 9 C) A simple vista es una secuencia sencilla sin acción, pero sonoramente es un ejemplo de sincronización de efectos tanto visuales como se sonido. El análisis resulta muy interesante. En ella percibimos los sonidos ambientes de la librería, mas las voces de Clementine y su amigo. La memoria de Clementine ya no contiene el recuerdo de Joel. Éste se siente angustiado cuando se da cuenta que ella no le reconoce y que ademas aparece un tercero en la relación. �59 Increíble es detenerse en el cambio de sonidos ambientales cuando el protagonista se aleja del lugar, y las luces se van apagando tras de él, hasta llegar al salón de la casa, donde ya no se percibe ninguna sensación sonora del espacio anterior. El fondo ambiental de librería, se va perdiendo rápidamente casi al final del plano, con el apagado de los alógenos cuyo efecto lo marca el director con un sonido seco y abrupto, cada vez que una zona de la librería se queda a oscuras. Estos efectos de apagado de la iluminación permiten técnicamente crear un corte sonoro radical y de este modo poder introducir lentamente el ambiente y diálogos de la siguiente localización, en el salón de casa interior. Análisis INSIGHT: El parámetro de frecuencias va desde los 50Hz hasta los 9000Hz con una caída significativa a partir de este punto. El volumen medio se mueve alrededor de los -50Db. El room-tone de la librería crea un colchón sonoro de frecuencias medias situadas entre los 350Hz y los 1.200 Hz. que sirve de relleno y de apoyo a los diálogos de los personajes �60 CANAL LR: (sec. 9 LR) Solo percibimos sonidos ambientes suave de librería y un efecto sonoro más potente de apagón luz cuando Joel se va alejando del lugar y entra en la casa. No hay diálogos solo los ambientes de cada localización: ambiente librería e interior apartamento. De esta forma el director crea un corte de montaje sin cambio de plano. Es una especie de plano secuencia única donde pasamos de una localización a otra muy diferente de forma sorpresiva y especial. Estos cambios de escena en continuidad, son de una gran belleza, y en cierta manera podríamos poner como comparativa y solo como ejemplo puntual, los que encontramos en la película de F. F. Coppola “Corazonada” (One from the heart), aunque estos últimos sean técnicamente más complejos y elaborados. Sin duda este tipo de técnica cinematográfica añade una belleza extra a la imagen y a la narrativa de la historia. �60 Análisis INSIGHT: Tenemos frecuencias a partir de 40Hz hasta aproximadamente los 5000Hz. El volumen muy inferior al del canal central se mueve sobre los -70Db. Solo el ambiente suave de interior librería es el que marca la acción, seguido por los golpes sonoros del apagón de luz de la librería. CANAL SUR: (Sec. 9 SUR) Solo tenemos en este canal el sonido del ultimo apagón de luz de la librería. No hay ninguna otro sonido que acompañe la acción del protagonista. Es muy interesante comprobar como el canal surround se puede emplear para completar la banda musical o bien para transmitir únicamente efectos de sonido que apoyan la historia de la película como ocurre en este ejemplo. �60 En cualquiera de las dos situaciones, el efecto es el mismo, ya que se trabaja desde este canal, situado a lo largo del perímetro de la sala de exhibición, para añadir emoción y sorprender al espectador desde muy cerca y siempre con el objetivo de representar un valor añadido al diálogo y la acción de los protagonistas en la película. Análisis INSIGHT: �60 El único sonido que aparece aquí, en este canal, es solo la frecuencia grave del efecto apagón luz. El sonido se mueve entre los 50Hz y los 2000Hz con un pico mas marcado y presente de volumen en los 100Hz de aproximadamente -45Db. CANAL C: (Sec. 9B C) Interesante es escuchar la mezcla de sonidos de esta secuencia. Tenemos los ambientes de la sala donde los técnicos borrarán los recuerdos de Clementine del cerebro de Joel, sonidos tecnológicos, ordenadores, etc y los sonidos provenientes del recuerdo de Joel, las voces de ella, la notas de música distorsionada. Una mezcla que transmite al espectador la tensión y la trascendencia de este momento. Análisis INSIGHT: Aquí aparecen frecuencias que van desde los 100Hz hasta los 8000Hz con un nivel de volumen aproximadamente de -50Db. �60 CANAL LR: (Sec. 9B LR) Aquí aparecen todos los sonidos que están presentes en el canal C menos las voces de los personajes. La idea es la de crear continuidad sonora entre los 3 altavoces de pantalla L, R y C. Así tenemos un fondo ambiente continuo, un ligero zumbido agudo, y acompañando a este fondo, una serie de recursos sonoros musicales, como también efectos de sonido de equipos electrónicos y ordenadores, que transmiten la sensación de estar rodeados de una tecnología muy avanzada. �60 Análisis INSIGHT: Aquí las frecuencias que escuchamos en estos canales se mueven desde los 50Hz hasta los 2000Hz con una bajada significativa a partir de este punto. El nivel medio se encuentra sobre los -65Db. CANAL SUR: (Sec. 9B SUR) En los altavoces de surround solo podemos detectar la presencia de la banda musical. Aparece aquí con menos volumen, pero siempre manteniendo su presencia para añadir profundidad y espacio sonoro. �60 Análisis INSIGHT: Los sonidos de este canal recorren las frecuencias desde los 50Hz hasta los 4000Hz con una fuerte caída de su volumen a partir de este punto. Por otra parte el volumen medio se coloca sobre -50Db. Sec.10 CANAL C: (Sec. 10 C) �60 Aquí aparecen los diálogos de los técnicos de la empresa “Lacuna”, los efectos de sonido tecnológicos, ordenadores y diversos aparatos, la música, y a destacar los sonidos internos del pensamiento de Joel, donde se mezclan una gran variedad de fuentes diferentes, voces, sonidos extraños, recuerdos sonoros etc. Recordemos que el personaje de Joel, aparece catapultado a una vorágine de sensaciones y recuerdos después de haber descubierto que la mujer de la que se enamora ya la había conocido con anterioridad. Aparece una mezcla trepidante de sonidos pertenecientes al proceso de borrado de la memoria de Joel y los que se originan en su hogar donde el proceso de borrado continua. Los diálogos de los actores, la música y efectos sonoros transmiten sensaciones cada vez mas intensas y presentes. Análisis INSIGHT: Tenemos en este canal una gran riqueza de sonidos. Por eso las frecuencias se mueven desde los 30Hz hasta los 5000Hz a partir del cual decae el volumen general de agudos. �60 En general el volumen se hace bastante presente encontrándose por lo general sobre los -40Db o -35Db. CANAL LR: (Sec. 10 LR) Aparecen los mismos sonidos que encontramos en el canal C exceptuando los diálogos de los protagonistas y las voces interiores del pensamiento y recuerdo de Joel. La sensación que el director quiere transmitir al espectador es la de total confusión y perdida de control de la realidad. El director juega constantemente con flashbacks que se entremezclan con el presente real. Análisis INSIGHT: Aquí vemos como la música y los efectos de sonido, juegan su principal papel. Encontramos frecuencias que se desarrollan entre los 30Hz hasta los 5000Hz, pertenecientes a la banda musical y a la presencia en paralelo de “efectos musicales” que �60 añaden confusión a la acción con esas notas discordantes y atonales que acompañan la acción del protagonista y que aparecen a modo de efecto de sonido localizadamente a lo largo de la secuencia. CANAL SUR (Sec.10 SUR) La música es la única banda sonora presente en este canal. Prácticamente no tenemos voces, únicamente un pequeño colchón de frases o palabras hacia el final de la secuencia. �61 Este es un ejemplo de como la música resuelve perfectamente el cometido de llenar el espacio sonoro de forma natural y perfecta. Análisis INSIGHT: La música y los efectos sonoros musicales hacen que trabajemos con frecuencias que van desde los 30Hz hasta los 5000Hz también. El volumen medio se sitúa alrededor de los -40Db. CANAL LFE: (Sec. 10 LFE) Solo se percibe en este canal una frecuencia subgrave que se parece casi a un latido de corazón, y que sirve para acentuar dos momentos importantes: los planos de �61 Joel sentado en esa silla tecnológica con el casco conectado a la maquina y los últimos planos de la secuencia que aparecen de forma vertiginosa y trepidante. Análisis INSIGHT: En esta secuencia el efecto de sonido subgrave se encuentra entre los 30Hz y los 400Hz. Esta franja de frecuencias tan graves ayudan a crear una sensación física más que auditiva. Recordemos que este canal permite por así decirlo “casi tocar” al público físicamente, porque los sonidos subgraves que aparecen a partir de los 20Hz tienen esa �61 especial naturaleza por sus propiedades físicas gracias a la longitud de onda de su frecuencia. El volumen que encontramos es bastante considerable: -40Db. Sec.11 CANAL C: (Sec. 11 C) Vemos como el montaje sonoro explica perfectamente lo que esta ocurriendo. Se escucha el dialogo entre Joel y Clementine y el sonido de la habitación de Joel donde los técnicos de la empresa están borrando de su memoria el recuerdo de ella. Estos mismos aparecen dando la sensación que se estén percibiendo por toda la calle mientras en verdad están en la mente del protagonista. La sensación de que todo se va desmoronando lentamente en la vida de Joel la tenemos con los ecos sonoros del dialogo que acontece en el apartamento de Joel y con el efecto del coche que cae desde el cielo. �61 A destacar la presencia de un fondo musical distorsionado y grave y el sonido del coche en marcha que permanece presente al final de la secuencia con el mismo volumen sea donde sea que se coloque el protagonista. Análisis INSIGHT: Tenemos aquí la presencia de toda la banda completa de sonido: diálogos de los actores, voces de la casa, música como fondo continuo, y efectos de sonido. Todo esto hace que nos movamos en frecuencias que van desde los 50Hz hasta los 12000Hz. El volumen que presenta globalmente la secuencia en este canal se encuentra alrededor de los -40Db. �61 CANAL LR: (Sec. 11 LR) Se escuchan los mismos sonidos que en el canal C exceptuando los diálogos entre Joel y Clementine. Curiosamente aparecen acompañando a esta secuencia en este canal, las voces que en tiempo real se están produciendo en la habitación de Joel con los técnicos encargados de borrar a Clementine de su recuerdo. Este efecto permite abrir en estéreo los diálogos de estos últimos personajes para incrementar la sensación de desorden mental y aturdimiento de Joel. Análisis INSIGHT: �61 Las frecuencias en este canal aparecen desde los 50Hz aproximadamente hasta los 10.000Hz donde su volumen decae sensiblemente. Por otro lado el volumen general se sitúa sobre los -45Db. CANAL SUR: (Sec.11 SUR) Aquí podemos percibir con mayor claridad la banda musical que con sus tonos distorsionados y efectos musicales crean una atmósfera perturbadora. Ademas se unen las voces del los técnicos que están trabajando en la habitación de Joel pero añadiéndoles ahora el efecto de reverberación, para aumentar la sensación de espacialidad. No aparece ni el efecto de la caída de coche, ni el sonido del coche en marcha. �61 Análisis INSIGHT: Tenemos frecuencias que van de los 50Hz hasta los 1000Hz . A partir de aquí éstas caen de volumen lentamente. Hay una mayor presencia de frecuencias graves y medias que de agudos. CANAL LFE: (Sec.11 LFE) Unicamente en este canal encontramos un efecto sonoro que acompaña la caída del coche del cielo. Este canal es capaz de transmitir no tanto sensaciones sonoras como sensaciones físicas ya que la presión sonora del efecto es muy alta y a bajas frecuencias la sensación que se transmite es la de desplazamiento físico. �61 Análisis INSIGHT: La frecuencia subgrave se mueve entre los 20Hz y los 200Hz con una caída en volumen paulatina hasta los 1000Hz. Este sonido corresponde al golpe en imagen cuando el coche cae del cielo. El volumen en decibelios de este efecto de sonido es considerable, y se sitúa alrededor de los -30 Db. Sec.12 CANAL C: (Sec.12 C) �61 Muy interesante es comprobar como está tratado el sonido en esta secuencia. El diálogo da paso lentamente a las notas musicales, mientras el volumen de la voz va increscendo con la discusión. En un momento determinado la voz se va alejando del primer plano y curiosamente aparece el sonido de un avión aterrizando unido a la voz de una azafata de tierra por megafonia. Es en este punto cuando la música y los efectos van adquiriendo protagonismo poco a poco incluso por encima del propio diálogo. Análisis INSIGHT Tenemos frecuencias que recorren el espectro desde los 50Hz hasta los 8000Hz con una bajada de volumen en este mismo punto. La sonoridad en general esta muy presente alcanzando los -35Db. �61 CANAL LR: (Sec.12 LR) Encontramos todos los sonidos implicados en esta secuencia. Tenemos los ambientes de calle exterior día muy minimalistas, la banda musical con sus notas “pizzicato” y los efectos de sonido que van apareciendo a lo largo del plano. Al final se distingue perfectamente el sonido de avión y megafonia fundidos con un poco de efecto de reverberación. Análisis INSIGHT: �62 Los volúmenes en general esta presentes con especial intensidad en el conjunto de frecuencias que van de los 30Hz a los 1000Hz. Estamos tocando graves y medios sobre todo. A partir de los 5000Hz se empieza a atisbar una caída en las altas frecuencias. El volumen general se sitúa sobre los -15Db. CANAL SUR: (Sec.12 SUR) Aquí aparece la música como principal protagonista de la escena. Esta tratada con el efecto digital de reverberación, para alejarla del primer plano y crear profundidad de campo sonoro. Al final aparece el sonido de avión aterrizando muy claro y nítido. Las frecuencias aquí se mueven entre los 50Hz y los 1500Hz. A partir de aquí las altas frecuencias van disminuyendo lentamente. El volumen general apunta en los -55Db. Análisis INSIGHT: Aquí otra vez mas, vemos un repunte de las frecuencias mas graves con una caída de agudos a partir de los 1800 Hz. �62 Sec.13 CANAL C: (Sec.13 C) Quizás esta sea una de las secuencias más trepidantes e intensas en la película. Ahora somos testigos del borrado de Clementine de la memoria de Joel. Por este motivo Joel intenta por todos los medios esconder del recuerdo su amada, y evitar el borrado total de su recuerdo. �62 A tal fin el director crea una banda sonora especial donde se mezclan las voces tratadas con efecto de reverberación, la del médico que esta tratando de borrar todos los recuerdos de Clementine, la de las voces de los actores, y de la música que permite armonizar en un “todo” la amalgama de sonidos y efectos que van surgiendo a lo largo de esta secuencia. Las imágenes se suceden unas a cámara lenta, otras a cámara rápida, mientras los pensamientos de Joel, los sonidos reales del exterior y las voces de sus recuerdos se van presentando plano a plano con ritmo e intensidad. Análisis INSIGHT: Aquí tenemos presentes prácticamente toda la franja de frecuencias que se mueven desde los 50Hz hasta los 10000Hz. El volumen sonoro es quizás uno de los más intensos de toda la película situándose en ocasiones por encima de los -30Db. �62 CANAL LR: (Sec.13 LR) Las cuerdas y la percusión musical es el principal protagonista de este canal. Su cometido es el de acompañar al canal central y crear continuidad sonora de pantalla. Se atisban voces lejanas, y efectos variados de sonido. Sin duda el ritmo es el elemento diferenciador en esta secuencia. La música es la encargada también de generar este efecto dinámico y de transmitir una carga de emoción y de malestar a la vez, con la huida de los actores que escapan del borrado de los recuerdos. Análisis INSIGHT: �62 Las frecuencias oscilan desde los 50Hz hasta los 10000Hz con fuerte intensidad y volumen. Muy parecido al obtenido en el análisis del canal central de pantalla. CANAL SUR: (Sec.13 SUR) La misma música que encontramos en el canal LR es la que está presente en este canal, pero con una característica especial: su intensidad o volumen es mucho mas baja. Únicamente resaltar como el efecto de sonido que acompaña a la desaparición de los viajeros del plano de la estación, se hace sentir con mayor presencia, incluso por encima en ese momento de la propia banda de música. Análisis INSIGHT: Se presentan frecuencias que se mueven desde los 50Hz hasta los 5000Hz aproximadamente. El volumen general esta en -55Db. �62 Sec.15 CANAL C: (Sec.15 C) Continua la vertiginosa huida de Joel con Clementine. Las voces de los protagonistas, la del técnico que esta rastreando los recuerdos de Joel, y las músicas con sus efectos sonoros se suceden de forma trepidante. Todo es como si aconteciera en tiempo real. �62 Los recuerdos se van borrando poco a poco de la memoria de nuestro protagonista, y de la misma forma, van desapareciendo personas, objetos, lugares físicos en la imagen. Interesante es el tratamiento del sonido cuando los recuerdos y objetos desaparecen de pantalla. El ruido de presionar las teclas del teclado informático por parte del tecnico, se trasforma en la mente de Joel en un sonido muy parecido a la de una ametralladora. Al menos nos recuerda ese sonido, que ademas tiene un significado muy claro: están matando los recuerdos de lo que él más quiere. Análisis INSIGHT: Aquí aparecen todas las frecuencias del espectro. Tenemos música, efectos de sonido, diálogos, etc. Las frecuencias se distribuyen desde los 50Hz hasta los 10000Hz con una caída en picado en este punto de los sonidos más agudos. El volumen general se mueve alrededor de los -45Db. Tenemos aquí una gran sonoridad y una amplia presencia de frecuencias del espectro sonoro. �62 CANAL LR: (Sec.15 LR) Los canales laterales de pantalla, como ya hemos visto en anteriores secuencias, se comportan siempre de la misma manera. Funcionan como relleno de sonido y así permiten reforzar el canal central sonde viajan los diálogos de los personajes en gran parte del metraje. Aparece la misma sonoridad que la del canal central de pantalla, con la ausencia de las voces de los actores principales en varios planos, y la distorsión al final de la secuencia de la voz del doctor en la sala de consultas. También hacia el final de imagen se escuchan voces interiores de Joel, sus recuerdos etc, en una mezcla trepidante donde las imágenes se van sucediendo al ritmo de los sonidos y colchones de efectos. Análisis INSIGHT: Los efectos sonoros y la música hacen que aparezcan frecuencias alrededor de los 20Hz hasta prácticamente los 18000Hz. La amplitud sonora en la zona de graves es alta �62 colocándose sobre los -15Db mientras que el resto del material sonoro se encuentra cómodamente alojado en los -40Db. CANAL SUR: (Sec.15 SUR) La música aparece como protagonista de la acción. Algunas voces de la mente de Joel, se dejan oír pero en un plano más lejano y matizadas con el efecto de reverberación. Los efectos de sonido marcan perfectamente el momento en que van desapareciendo los objetos de la memoria de Joel, mientras las cuerdas, los metales y la percusión marcan su ritmo. El director intenta transmitir con estas imágenes que se �62 suceden a gran ritmo, intensidad, angustia, desesperación etc. Las cuerdas y los efectos sonoros ayudan para crear esta impresión mientras vemos como lentamente se van apagando y borrando los recuerdos de la mente de Joel, aquellos recuerdos que están ligados a la persona se su amada Clementine. Análisis INSIGHT: Las frecuencias presentes se mueven desde los 50Hz hasta los 5000Hz. A partir de aquí el volumen decae significativamente. Tenemos una marcada presencia de frecuencias medias sobre los 500Hz, 1000Hz y las cuerdas e instrumentos de viento añaden presencia entorno a las frecuencias mas graves. CANAL LFE (Sec.15 LFE) En este canal encontramos únicamente un efecto sonoro que aparece al final de la secuencia, durante la huida de los protagonistas. Son sonidos musicales que se mueven �63 entorno a los 20Hz, los que producen un efecto de vibración y que se deja sentir fisicamente. Análisis INSIGHT: Como era de esperar para todos los sonidos que viajan en este canal, la frecuencia fundamental se encuentra entre los 20Hz y los 500Hz. Esto añade no solamente sensación física de vibración sino también la sensación sonora musical pues alcanzamos también las frecuencias de los 500Hz con una amplitud máxima en subgraves de -20Db.
 �63 24.3 “Lee mis labios” (Sur mes lévres. Año 2001 Director Jacques Audiard) El guión de esta película pertenece al propio director y a Tonino Benacquista. Rodada en 2001, recibió diversos premios siendo aclamada por la critica en general. Entre los premios mas importantes, tenemos el Premio Cesar 2002 entre otros otorgado a la actriz Emmanuelle Devos y al mejor sonido, Cyril Hollas. El Premio European Film Award 2002 como mejor actor a Vincent Cassel y mejor director a Jacques Audiard. Y por último tenemos el premio Newport International Film Festival 2002 concedido a los actores Vincent Cassel y Emmanuelle Devos y al director Jacques Audiard. Jaques Audiard, nace en París, en 1952. De una familia acomodada, decide muy pronto que quiere ser director y guionista. Hijo del director M. Audiard, dirigió su primer largometraje en 1994: “Regarde les hommes tomber", ganadora del Premio César a la mejor película. Después llegaría una nueva cinta “A Self Made Hero” que le consagró como guionista (1996, Mejor Guión en Cannes). A partir de este momento, se van sucediendo una serie de trabajos, que no solo van consolidando su carrera, sino que se convierten en películas icónicas, de un director que ha demostrado ya su valor y su gran profesionalidad artística. Dirige “Sur mes lèvres” (2001), “De battre mon coeur s’est arrêté" (2005, De latir mi corazón se ha parado) y “Un profeta (2009)”. Este último trabajo, ha hecho que este director sea conocido internacionalmente a la vez que le ha servido para cosechar nueve premios César, el Premio Especial del Jurado en Cannes y la nominación al Oscar a la mejor película extranjera. �63 Jaques Audiard lo podemos considerar como una persona afable, comprometida y llena de energía, reflejo sin duda de su trabajo y de la pasión que rebosan todas sus producciones. Es una persona práctica e inteligente ya que sabe rodearse de colaboradores de confianza como por ejemplo su editor Juliette Welfling, su músico Alexandre Desplat y actores recurrentes en sus trabajos. Audiard es un gran director pero también un gran director de actores. Así esta película “Lee mis labios” no podría ser lo que es sin la participación de una pareja extraordinaria de actores: Vincent Cassel y Emmanuelle Devos y sin la fuerza y la visión del propio director. Emmanuelle es una de esas actrices cuyas facciones, fisionomía, le permiten jugar a la perfección interpretando en un mismo personaje diferentes actitudes totalmente opuestas. Así por ejemplo al principio de la película, nos encontramos con una Emmanuelle, Carla en la película, perdida, tímida, y hasta cierto punto asustadiza, mientras que al final del metraje, nos sorprendemos al comprobar como esa chica es capaz de apoyar a la perfección a su compañero en un atraco. Sin duda, Vincent Cassel es un actor de bandera, que ha sabido colocarse entre los principales actores del momento. Tiene una fuerza expresiva brutal, reforzada por su imagen y presencia que le otorga un realismo especial que encaja perfectamente con el personaje de Paul en la película. Esto hace que su papel en esta cinta sea especialmente impactante y que transmita toda la fuerza y tensión que el personaje representa. En mi opinión el francés Jaques Audiard es uno de los mejores directores de la última década. La película “Lee mis labios” es una pequeña joya del séptimo arte, que ha permitido al director, obtener un reconocimiento unánime tanto del público como de la critica especializada. Esta película es un ejemplo del potencial creativo de este director, capaz de convertir una historia del mundo del hampa, en un brutal y formidable ejemplo de cine “noir”. �63 Carla es un personaje peculiar en esta historia llena de sorpresas y de realismo absoluto. Representa una chica, sencilla, con una minusvalía auditiva severa, menospreciada e infravalorada en su trabajo, y con una vida solitaria y hasta cierto punto vacía de contenido y de pasiones. Su vida discurre por la senda del aburrimiento y de la tristeza vital, hasta que la propia empresa la asigna un ayudante para que pueda sobrellevar la sobrecarga de trabajo. Es aquí donde aparece en escena Vicent Cassel en el papel de Paul. Su fuerza, su energía y la atracción animal que él desprende, abrirá a Carla las puertas de las sensaciones, de las emociones, de los sentimientos hasta ahora velados, adormecidos o simplemente ocultos en ella. Desde el primer momento empieza a surgir una union especial entre los dos. No solamente una complicidad que les hace llegar a un pacto de mutua ayuda, de apoyo y de socorro sino también una atracción mutua, producida o alimentada por el mismo origen marginal que comparten los dos. Paul se da cuenta de que Carla le puede ser de gran ayuda, ya que ella posee la facultad de leer los labios, por su problema auditivo. De esta forma se da cuenta de que ella puede descifrar las conversaciones del propietario del local que quiere atracar. Por otro lado, él trabaja en ése mismo local, lo que le permite hasta cierto punto obtener más información del lugar, sistemas de seguridad, horarios, etc. El local es una discoteca nocturna de copas regentado por un individuo del mundo de las drogas y del dinero fácil. Desgraciadamente tras el golpe, las cosas se volverán muy complicadas para los dos protagonistas. Esta gran película posee un valor añadido. El director quiere hacernos vivir las historias casi en primera persona. Por eso nos acercamos tanto a los personajes que casi se pueden tocar, sentir. Es una historia hecha de primeros planos, de roces, de susurros, de voces cercanas y lejanas, de sensaciones a flor de piel. Los actores dejan de ser actores en sí mismos, para convertirse realmente en los personajes de la película. �63 Realmente no estamos ante la típica película romántica, del amor en su expresión mas pura y sublime. Es todo lo contrario. Es una película anti-romántica, donde los personajes se quieren pero se utilizan, y ese uso del uno para el otro es aceptado y reconocido por ambas partes, como un signo, señal evidente de que la vida misma también está construida en la utilización de las personas, pero no de una forma abusiva y provocadora. Es una atracción de amor e interés, donde los sentimientos se van entrelazando con las acciones y las entregas del uno hacia el otro. Es un amor o atracción de un interés casi desinteresado. El sonido, es un protagonista más sin duda de esta gran cinta. Los labios representan para Carla, sorda de nacimiento, un puente hacia el mundo que siempre la ha mantenido marginada y solitaria. Los labios significan la comunicación, pero por otro lado también se perpetúan como un obstáculo que acentúa su minusvalía tanto física como emocional. El guión de esta película, se narra con un tono delicado y sublime, mientras van apareciendo todas las facetas de cada personaje, los miedos, las inseguridades, los deseos etc. Es una historia que tiene dos claves de lectura. Por un lado existe la soledad, el desarraigo, y el vació que comparten los dos protagonistas, Carla y Paul, rechazados por la sociedad, por el mundo de la “normalidad” institucionalizada, y que se mezcla con la atracción que hay entre ellos, el deseo y necesidad de protección que sienten mutuamente. Por otro lado, tenemos una trama basada en un atraco, en una historia entre ladrones y personas del mundo del hampa y de los bajos fondos, que representa parte de la trama de esta película. Esta cinta mezcla muchos y variados tipos de sentimiento, que se apoderan de los personajes y que representan lo que son, lo que viven, el pasado de ellos y el futuro. Tenemos crímenes, muertes, atracos, desilusión, tristeza, soledad, pasión, ilusión. Es una historia cargada de realismo, sin concesiones a la alegría fácil, a las imágenes de acción grandilocuentes y rocambolescas. El tono es meticulosamente perfecto en sus formas y �63 fondos, donde la experiencia en primera persona es la clave de que esta cinta tenga la facilidad de poder llegar tan dentro al espectador. Audiard logra este acercamiento, no solo jugando con los planos, con la cercanía de los protagonistas, sino también con el sonido. Por eso, considero que “Lee mis labios” es una producción increíblemente bella y sonoramente sensual. Así el director, pretende que nos convirtamos en Carla, que vivamos la manera en la que ella percibe, siente el mundo. Maravillosa es la forma en que el director nos sumerge utilizando el recurso de la prótesis auditiva de Carla, que es su puerta al mundo, al infierno y a la esperanza en una vida más humana y normal. Las secuencias donde podemos comparar lo que ella escucha con y sin ayuda de la prótesis auditiva, son dignos de mención, por el cuidado y el preciosismo con el que el director mima y trabaja este elemento. Esta es una película donde el sonido tiene un papel fundamental y donde se presenta como valor añadido en el contexto global del largometraje. Sec.1 CANAL C: (Sec. 1C) Aquí aparecen únicamente los sonidos ambiente de una cafetería. Platos, murmullos, voces, pasos, etc. Es meramente una escena donde contemplamos a la protagonista sentarse en una de las mesas del bar y donde no tenemos ningún diálogo. �63 Análisis INSIGHT: Las frecuencias se mueven entre los 30Hz y los 18000Hz recorriendo todas las franjas del espectro, ya que el colchón ambiental que se ha utilizado es rico en diversidad de sonidos y por consiguiente de frecuencias. El volumen se sitúa entorno a los -45Db. �63 CANAL LR: (Sec.1 LR) Aquí aparecen los mismos efectos ambientes que tenemos en el canal central, pero lo hacen con un volumen mas atenuado. Recordemos que el altavoz central de pantalla es el que lleva siempre el peso del desarrollo sonoro de la película, y sobre el que recae casi en un 100% los diálogos de los actores. Análisis INSIGHT: �63 Aparecen las mismas frecuencias pero con un nivel de volumen menor, entorno a los -55Db. CANAL SUR: (Sec. 1 SUR) Tenemos el mismo tipo de sonidos con los que contamos en el canal C y LR. El volumen se encuentra a un nivel inferior que en los restantes canales. La idea fundamental en el uso del canal surround es la de situar al espectador en el centro de la acción, pero sin robar protagonismo a lo que sucede en pantalla. De lo único que en este caso se trata, es de añadir realismo físico a la secuencia, apoyando con sonidos de cafetería y murmullos clientes la acción, más aún cuando nos encontramos en un momento de la acción donde no existen diálogos directos de los actores principales. �63 Análisis INSIGHT: Hay que notar que, aunque tengamos los mismos colchones ambientales y efectos, aquí el volumen es muy inferior al de los canales C y LR. Esto se hace para respetar la acción de pantalla, y no distraer al publico, pero sí sumergirle en la atmósfera sonora de una cafetería. Estamos entorno a los -65Db. Los sonidos se escuchan perfectamente, pero no roban protagonismo a los generados en pantalla, ya que el volumen se sitúa en un punto donde convive perfectamente con los sonidos de los altavoces C y LR. De esta manera, creamos en la sala el efecto “SURROUND” es decir, la sensación de sentirnos metidos dentro de la secuencia, dentro de la pantalla y de la acción. �64 Sec.2 CANAL C: (Sec. 2 C) Muy interesante es analizar esta secuencia, donde el sonido de los ambientes que acompañan la acción en la cafetería, tienen como punto de vista, el subjetivo de la protagonista. Es decir escuchamos realmente lo que una persona con sordera (el problema que tiene Carla Bhem) escucha realmente del mundo exterior. Aquí estamos escuchando la banda sonora de la película ya no desde nuestro punto de vista, como en la secuencia anterior, sino tal y como lo esta percibiendo Carla. De echo desde el inicio de la secuencia percibimos un fondo sonoro grave de baja frecuencia muy molesto que acompaña los sonidos lejanos de la cafetería. Ella esta ojeando una revista, y la cámara va haciendo un “paneo” de abajo a arriba hacia ella. A lo largo del recorrido de la cámara, percibimos como esa fuente distante sonora de la cafetería va perdiendo intensidad y presencia, y va aumentando ese fondo monótono grave, que es la percepción del mundo a través de la sordera de la protagonista. �64 El director quiere transmitirnos a través de estos planos sonoros, la forma en la que un sordo percibe la realidad, aunque en este caso la protagonista no sea completamente sorda, ya que podemos comprobar como aunque mínimamente, es capaz de sentir los estímulos del mundo exterior pero a un un nivel de volumen y claridad muy bajo. Análisis INSIGHT: Como era de preveer, la presencia de frecuencias subgraves y graves es muy alta, en detrimento de aquellas medias y agudas. Nos movemos desde los 20Hz hasta los 5000Hz. Hay que notar como los volúmenes que van desde los 300Hz hasta los 5000Hz se encuentran a un nivel muy bajo, prácticamente imperceptible de -85Db. Por el contrario, el volumen de las frecuencias mas graves puede llegar hasta los -25Db. �64 CANAL LR: (Sec. 2 LR) Aparecen los mismos sonidos que tenemos en el canal central pero con un volumen ligeramente más bajo. Lo que ha hecho el montador, es simplemente dar continuidad sonora a los dos altavoces LR que acompañan al central en pantalla. Análisis INSIGHT: Aunque tenemos los mismos colchones ambientales y frecuencias del canal C. El volumen es sensiblemente inferior, -50Db para los graves y -85Db para medios y agudos, �64 permitiendo así que el altavoz central, donde residen los diálogos sea siempre el protagonista de la acción. CANAL SUR: (Sec. 2 SUR) En estos canales que son los que rodean al espectador en la sala de cine, comprobamos como los sonidos de la cafetería y el fondo o zumbido sonoro grave esta presentes pero lo hacen casi de forma imperceptible. El director no pretende distraer nuestra atención de la acción de pantalla, pero sí quiere hacernos partícipes de las sensaciones auditivas del mundo a través de los oídos de una persona sorda. Por eso, aunque atenuados, se escucha muy suavemente el colchón ambiental de la cafetería tal y como lo percibe Carla. Análisis INSIGHT: Todas las frecuencias se encuentran atenuadas, con un valor medio de -85Db. Esto permite que el espectador perciba esta fuente de sonido, y lo haga casi sin prestar atención, ya que en este caso el altavoz surround no pretende quitar protagonismo a la �64 acción, pero si, el poder transmitir la percepción sonora de Carla y de como ésta sensación rodea a la protagonista. En cierto modo, el objetivo es que nos sintamos también nosotros dentro de la acción, dentro de la cafetería, que seamos parte de la película. Las frecuencias se mueven desde los 20Hz a los 5000Hz, decayendo a partir de aquí drásticamente el volumen de los 480 agudos. Sec.3 CANAL C: (Sec. 3 C) Estamos ante un precioso ejemplo, de como el director ha concebido el sonido para los personajes. Carla esta intentando calmar el llanto del bebe de su amiga, pero 477 El secreto para poder transmitir la sensación de “sordera” de la protagonista, radica en utilizar un filtro de ecualización con un corte pasabajos que deje en sordina todo el universo sonoro de la cafetería, y permita de éste modo reproducir la misma forma de percibir el sonido del mundo exterior tal y como le sucedería a nuestra protagonista. �64 parece que no logra conseguirlo. Percibimos el sonido desde nuestro punto de vista, el del espectador, y podemos escuchar perfectamente los llantos del niño. A continuación, ella para poder descansar, se quita el aparato que le permite escuchar, y en el momento que lo hace, podemos oír incluso los golpes de los dedos sobre el aparato sonotone y de como éste es retirado del oído. El sonido ambiente cae entonces a mínimos, solo se intuye ligeramente el llanto del bebé. La sensación que percibimos es la misma que podríamos sentir al desconectar cualquier equipo electrónico de la corriente. Es algo súbito, instantáneo. Percibimos entonces una música, que nace suavemente. Es la banda sonora de ella, su leit-motiv que aparecerá en distintos momentos de la película, y que representa el mundo interior de ella, sus miedos, sus insegridades, su soledad en definitiva. Percibimos como de golpe todo el sonido desaparece casi por completo para quedarnos únicamente con un eco sordo y distante del llanto del bebé. La música acompaña esta secuencia desde su inicio y permite adornar de una forma elegante y minimalista la acción de la pantalla. �64 Análisis INSIGHT: Las frecuencias se mueven desde los 30Hz hasta los10000Hz. El volumen mas alto lo tenemos con las frecuencias medias pudiendo llegar éstas a -45Db. CANAL LR: (Sec. 3 LR) �64 Aparecen los mismos sonidos que teníamos en el canal C, pero la diferencia es que el volumen general se encuentra más apagado, menos presente. En el momento en que ella se quita el aparato comprobamos como el sonido del llanto del bebé se atenúa en gran medida, y lo hace añadiendo además el tecnico responsable del montaje de sonido, un efecto de reverberancia, que aleja espacialmente aún más la fuente original de sonido. Análisis INSIGHT: El volumen general de los sonidos se sitúa entorno a los -65Db, tanto para graves como para medias y agudas frecuencias. CANAL SUR: (Sec 3 SUR) Los canales traseros acompañan a los delanteros de pantalla dejando entrever el colchón de cuerdas musical, sin que escuchemos ningún otro sonido o el llanto del niño. El director marca por sonido el momento en el que la actriz desconecta sus audífonos. �64 Análisis INSIGHT: A partir de los 800 HZ tenemos una caída muy significativa de volumen, manteniéndose las frecuencia graves y medio graves prácticamente en los mismos niveles. Se acentúa con esto una sensación de perdida de contacto con la realidad. Perdemos el mundo sonoro real que nos rodea, y éste se trasforma en un eco sordo, distante que recuerda por ejemplo a la misma sensación que se produce cuando intentamos escuchar a través de las paredes los sonidos que se producen en otra zona de la casa. �64 Sec.6 CANAL C: (Sec. 6 C) En esta secuencia nos encontramos en una fiesta en la que Carla invita a Paul a acompañarla y conocer unos amigos. La música que suena lo hace de forma diegética, es decir, transmite la sensación de que su fuente de origen pertenece al equipo de música que suena en el salón. Tenemos ruidos de gente, murmullos, etc. Para aumentar la sensación de realismo, podemos comprobar como el volumen de la música va aumentando en la medida en que los protagonistas se van acercando a los altavoces del salón. Disminuye solo momentáneamente, cuando Carla le presenta a sus amigas. Recordemos como siempre que aparezcan diálogos, quien mandará no será la música, por lo que ésta tendrá siempre que permanecer por debajo del volumen de los diálogos, y permitir así que éstos se entiendan sin dificultad. El oído no se percata de esta bajada de volumen musical, sino que acontece como algo natural en el proceso de percepción sonora. �65 Análisis INSIGHT: Las frecuencias graves, medias y agudas, tienen protagonismo en esta secuencia. Sobre todo aquellas mas graves y lo hacen con un volumen muy marcado y presente. Aquí nos encontramos con un nivel medio de -20Db para las zonas graves y para medios y agudos de un -35Db. CANAL LR: (Sec. 6 LR) Aquí tenemos los mismos sonidos presentes que en el canal C de pantalla. El volumen es inferior y los diálogos de los actores no aparecen. Este canal funciona como canal de relleno ambiente tanto de música como de fondos sonido, gente y murmullos. De esta manera, como ya hemos comprobado en otras ocasiones, el montador llena la acción de la pantalla con la ayuda de los canales LR que rodean al central. Así creamos sensación de continuidad sonora a través de los 3 altavoces principales: L, C y R. �65 Análisis INSIGHT: En este caso, como hemos indicado anteriormente nos movemos en niveles de sonoridad inferiores a los del canal C. Por eso comprobamos que las frecuencias graves hasta los 300Hz están sobre los -35Db y los medios y agudos aproximadamente entorno a los -40Db. A partir de los 10.000Hz aparece una fuerte caída de intensidad, mientras que las frecuencias con mas riqueza sonora se sitúan en la zona media del espectro. �65 CANAL SUR: (Sec. 6 SUR) Para transmitirnos la sensación de estar rodeados por ambiente de fiesta, aquí el director utiliza el recurso de los altavoces surround, donde la música aunque con menor volumen sigue sonando con fuerza y presencia. De la misma forma acontece para los ambientes de gente y voces. Todo esto ayuda a crear una sensación de realidad y sobre todo a meter al espectador directamente en el centro de la acción. Muy interesante por otro lado es el cambio de sonoridad, en los últimos segundos de la secuencia, donde tocan música lenta y el ambiente se hace mas relajado e intimo. Este contraste es muy bonito, porque transmite riqueza sonora, y sobre todo hace que nuestro oído descanse y se prepare para recibir mas estímulos y a través de éstos, más emociones. �65 Análisis INSIGHT: Aquí trabajamos con las mismas consideraciones que teníamos para el canal LR, pero con una clara y notoria bajada de intensidad o volumen. El valor medio se sitúa entorno a los -50Db. Sec.10 CANAL C: (Sec. 10 C) Esta secuencia es especialmente interesante por la forma en que el director nos hace vivir la experiencia sonora de Carla. Escuchamos los ambientes de oficina, los diálogos entre Carla y el personaje que ha entrado preguntando por Paul, y lo hacemos siempre desde el punto de vista de ella. Carla tiene colocado su dispositivo para ayudarla a oír, así que la escucha del sonido que percibe el espectador es totalmente normal. �65 Cuando ella se encuentra en el baño, refrescándose, se ha quitado el audífono y de repente escucha un eco lejano mezcla de sonidos muy graves que la llama la atención. En este preciso instante, percibimos los sonidos como ella misma los escucha, es decir, desde su sordera. Precioso es el efecto que el director añade a los sonidos de la pelea, como si fuesen ecos lejanos en el tiempo. Pero nada mas lejos, ya que la dramática acción esta aconteciendo delante de sus ojos, al otro lado de la puerta, aunque ella no se ha dado cuenta. Por eso, Carla en un momento determinado se vuelve a colocar el audífono y ahora sí percibimos claramente los ruidos, golpes, frases, de la pelea. Todo el realismo sonoro de lo que está ocurriendo en ése mismo instante, irrumpe al unísono y con dramática presencia, en el cerebro de Carla, que permanece en silencio, estremecida escuchando con auténtico terror y dolor. Análisis INSIGHT: Las frecuencias se mueven desde los 30Hz hasta los 8000Hz con una fuerte caída de volumen a partir de este punto. �65 Al principio de la secuencia las notas graves y subgraves tienen mas presencia sonora. Esto corresponde a la frecuencia que ella puede percibir sin la ayuda de ningún aparato, aunque muy limitadamente. A partir de aquí, las frecuencias medias y agudas aparecen, y se disparan con un volumen medio de -50Hz. CANAL LR: (Sec. 10 LR) Los sonidos de oficina, llamadas de teléfonos, fax, etc llenan este canal. No tenemos diálogos, lo que cumple con una norma de montaje, ya que el canal LR es el encargado de transmitir los ambientes y músicas, por regla general. Cuando estamos en el cuarto de �65 baño con Carla, los sonidos se enmudecen prácticamente. Recordemos que ella se ha quitado el audífono. Posteriormente cuando se lo vuelve a colocar, entonces percibimos claramente los sonidos de la pelea que se esta desarrollando al otro lado de la puerta entre el extraño visitante y Paul. Análisis INSIGHT: Los sonidos recorren las frecuencias desde los 30z hasta los 5000Hz pero con un volumen, -70Db muy inferior al del canal C. Este corresponde al momento en que Carla no tiene el audífono activo. Cuando se lo coloca y lo enciende, el volumen aumentabais en -15Db. Recordemos que nos encontramos analizando el sonido de los altavoces LR de pantalla, cuyo volumen siempre se coloca ligeramente mas bajo que el central, para no quitar protagonismo a la acción de pantalla. El canal LR en este caso también, funciona de relleno de pantalla. �65 CANAL SUR: (Sec. 10 SUR) La regla se repite de nuevo para el canal Surround. Los sonidos de oficina rodean al espectador en la sala, pero lo hacen a un volumen muy bajo y prácticamente de forma casi minimalista. En el cuarto de baño, el sonido de este canal se hace prácticamente inaudible, recobrando ligeramente su presencia cuando ella se coloca el aparato y volvemos a escuchar los sonidos de la pelea. El uso de este canal, se hace de forma discreta y suave, sin interrumpir la acción, y sin distraer la atención del público. Análisis INSIGHT: Las frecuencias tanto graves, medias y agudas, se instalan en un volumen bastante bajo con el fin de dejarse escuchar pero sin demandar la atención del espectador. El volumen general se sitúa entorno a los -80Db. �65 CANAL LFE: (Sec. 10 LFE) Este canal es el encargado de transmitir la sensación mas física del sonido. Por eso los efectos de sonido utilizados en esta ocasión son aquellos más graves (20Hz) que producen desplazamiento físico y que son los responsables de añadir realismo a los golpes que se intercambian los actores en la secuencia. Análisis INSIGHT: �65 Solo aparecen en este canal frecuencias subgraves desde los 20Hz hasta los 80Hz y frecuencias graves desde los 100Hz a los 300Hz. El volumen de las primeras se sitúa entorno a los -50Db y de estas ultimas sobre los -100Db. Sec.11 CANAL C: (Sec. 11 C) �66 Es muy curioso como el director interpreta sonoramente esta secuencia. Nos deja escuchar el sonido del ambiente interior casa y del timbre de la puerta, como si fuésemos espectadores invisibles. Es decir, es el punto de vista del espectador. Ella permanece imperturbable, ya que no lleva puesto el audífono y por consiguiente no percibe el ruido del timbre. Es una situación muy ambigua, ya que el director permite al espectador que sea el portador de una información de la que carece el personaje. Es un guiño al publico, al que a través del sonido, regala mas información de la que posee en ese mismo instante Carla como personaje de la película, y ajena en todo momento a lo que está ocurriendo a su alrededor. A continuación, ella reaccionará al percibir muy limitadamente alguna vibración en el ambiente, y esto la pone en alerta. De golpe al colocarse el audífono, todo el mundo sonoro, aparece llamando su atención. Es la amiga que viene para dejar a su niña, mientras ella se marchará a ver a su amante en un discreto hotel. Análisis INSIGHT: �66 Las frecuencias mas graves tienen un menor impacto auditivo en esta secuencia que las medias-agudas cuando escuchamos el sonido del timbre de la puerta, agudo y estridente. Estas ultimas se disparan en intensidad llegando hasta picos de -35Db en zonas próximas a los 16000Hz. CANAL LR: (Sec. 11 LR) Este en un ejemplo muy interesante para comprobar como los diálogos en ocasiones viajan también por el altavoz estéreo de pantalla. El motivo es el de aplicar como se ha hecho en esta secuencia, un efecto de reverberación al diálogo entre Carla y su amiga, para simular la sensación de espacio que el mismo rellano del piso provoca normalmente. No es lo mismo un dialogo en un interior casa, que en el rellano de la escalera, y el efecto que provoca sobre cualquier sonido. De esta forma, tenemos diálogo original en C, y algo �66 de ese mismo diálogo con efecto repartido en los canales LR de pantalla. La sensación final es de un realismo perfecto. El efecto reverberador, ajustado a la medida correcta del lugar, permite alejar la voz y colocarla en un segundo plano para añadir perspectiva física a los sonidos que se originan en el rellano de la puerta. Análisis INSIGHT: En la foto a continuación he recogido los valores de las frecuencias en el interior cocina cuando el timbre empieza a sonar. Las frecuencias agudas son las que marcan un nivel mas alto de volumen, -65Db. Por el contrario, en el rellano del piso, las frecuencias graves, medias y agudas caen visiblemente colocándose en valores cercanos a los -85Db. �66 CANAL SUR (Sec. 11 SUR) Los mismos sonidos que aparecen en el canal LR de pantalla los volvemos a encontrar en el canal Surround. El efecto deseado es el de meter al espectador en la escena. Los volúmenes se mueven en los mismos valores de los canales de pantalla y aunque esto es así, en ningún momento el sonido surround llega a distraer al espectador de la acción principal. Análisis INSIGHT: Los volúmenes corresponden a la primera parte de la secuencia, cuando Carla escucha el timbre de la puerta. Encontramos frecuencias desde los 30Hz hasta los 16000Hz. �66 Sec12 CANAL C: (Sec. 12 C) Muy interesante resulta comprobar como el director juega con los distintos niveles de sonido y los diferentes espacios con sus sonoridades. En la zona de las taquillas del bar escuchamos un sonido directo limpio de los actores y de fondo un ruido opaco y muy en sordina, mezcla de música y ruido que suena en el salón del disco-bar y que rellena toda la pantalla de forma suave y minimal. De aquí, en el cambio de plano, pasamos a la �66 discoteca con su música a todo volumen, sonido de botellas, voces, etc, con un tono estridente, agudo, que transmite más incomodidad que una sensación placentera. El contraste se completa y vuelve a acentuarse, con el plano siguiente, donde aparece Paul volviendo a casa del trabajo. Los tres niveles sonoros diferentes que encontramos en esta secuencia, añaden sin duda dinamismo y ritmo a la misma, y además contribuyen perfectamente a enmarcar las localizaciones y el desarrollo de la acción. Es de notar el tratamiento de la música cuando la escuchamos desde las taquillas de la discoteca: se le ha añadido un efecto de reverberación y aumentado el volumen de éste efecto. Análisis INSIGHT: Las frecuencias dentro de la disco aparecen recorriendo el espectro sonoro desde los subgraves 30Hz hasta los agudos 16.000Hz. El volumen general se sitúa entorno a los -45Db, mientras las notas subgraves están colocadas entorno los -20Db. No olvidemos que se trata de una discoteca, donde los �66 sonidos mas graves siempre tienen un espacio predominante a lo largo de la escala sonora. CANAL LR: (Sec. 12 LR) En esta secuencia podemos comprobar como el canal LR estéreo de pantalla sirve de apoyo al principal, el central. Lo hace rellenando con los mismos sonidos que tenemos en el altavoz C, los dos restantes altavoces que cubren la imagen. Es decir, tenemos la música, el directo de rodaje y todo con un volumen sensiblemente por debajo del que tiene el altavoz central. Análisis INSIGHT: Hay una significativa presencia de frecuencias subgraves entre 20Hz y 80Hz con un volumen de -35Db. Todas las restantes frecuencias hasta 16.000Hz se mueven entorno a los -45Db. �66 CANAL SUR: (Sec. 12 SUR) Este canal contiene la información sonora presente también en los restantes altavoces de pantalla, con la diferencia que aquí el volumen es ligeramente inferior, con el propósito de rodear al espectador y sumergirle en el ambiente de discoteca, pero sin distraerle de la historia que acontece en pantalla. �66 Análisis INSIGHT: Podemos comprobar como las frecuencias subgraves y graves tienen menos presencia que en el altavoz LR y como también sucede, lo mismo con las restantes frecuencias del espectro sonoro. CANAL LFE: (Sec. 12 LFE) Muy interesante comprobar como en este altavoz se proyectan las frecuencias subgraves, es decir las producidas por el retumbe de la música. Lo que trata el director, es de imitar la realidad misma, sirviéndose de los efectos de reverberación y compresión sonora añadidos en postproducción. �66 Análisis INSIGHT: Claramente podemos comprobar como las frecuencias comprendidas entre 20Hz y 250Hz son las encargadas de transmitir la sensación sonora de la música desde el punto de vista físico. Es decir, el altavoz LFE permite transmitir las vibraciones del sonido (en este caso de la música) a la sala, lo que produce un efecto físico sobre el espectador, que puede sentir en su cuerpo la fuerza de las zonas mas graves de frecuencia. El volumen general es muy alto, situándose alrededor de los -30Db. �67 Sec.13 CANAL C: (Sec. 13 C) Hay que notar como a pesar de la música que suena en el local (música diegética) los diálogos se entienden perfectamente. Siempre donde haya diálogos, el resto de sonidos tienen que quedar por debajo, para permitir la comprensión de las voces. Aparece el efecto de sonido de los cubitos de hielo, cayendo en el recipiente en primer termino. Interesante es notar como al pasar de la zona del bar al pasillo, hay una ruptura de la continuidad de la música que se acompaña con un pequeño efecto de reverb al inicio del siguiente plano. 481 Esto ayuda a que la transición entre plano y plano sea suave y armoniosa. En la primera zona del pasillo, el sótano, el sonido ambiente interior túnel, compite con la música, aunque ahora solo se escuchan las frecuencias más graves de la discoteca, que USHER, J., & Woszczyk, W. Design and testing of a graphical mapping tool for analyzing spatial audio 481 scenes. Proceedings of the Audio Engineering Society 24th International Conference, Banff, Canada. 2003.: Es el tipo de reverb más utilizado hoy en día, son plugins a través de los cuales reconstruimos el sonido de una supuesta sala. Todo ello se hace a través de algoritmos diferentes que nos permiten imitar la reverberación de diferentes recintos acústicos. �67 retumban a lo largo del recorrido que hace el personaje por el sótano del local. De aquí pasamos al plano siguiente, la zona del trastero donde ya el fondo anterior de sonido desaparece lentamente mientras el personaje se va acercando a la zona de apartamentos. Finamente hay una tercer cambio de plano cuando entramos en la zona de los pisos. Aquí se recupera una sonoridad de interior zona apartamento, con voces lejanas y casi imperceptibles. Aquí el fondo ambiente pasillo desaparece totalmente para dar paso a sonido voces lejanas interior escaleras y rellano. Cuando Paul se encuentra delante de la puerta esperando a que le abran, podemos escuchar el dialogo del interior desde nuestro punto de vista, lo que se consigue a través también de tratar el audio interior piso con un efecto de reverberancia (simulando el sonido tras una puerta cerrada). Estos tres cambios de ambientes y efectos, funcionan perfectamente añadiendo ritmo a la secuencia y permitiendo que el espectador disfrute de los distintos ambientes sonoros que van apareciendo a lo largo del desarrollo de la acción. Aquí el sonido esta muy cuidado, así como los diferentes niveles de volumen que permiten adaptar el sonido a la imagen con total perfección. Análisis INSIGHT: �67 Aquí las frecuencias varían a lo largo de toda la secuencia. En este caso se analiza aquellas pertenecientes a la zona de la discoteca. Vemos como las frecuencias graves tienen mayor presencia con un volumen de -20Db mientras que las medias se mueven alrededor de los -50Db. Las frecuencias mas agudas decaen a partir de los 16000Hz. CANAL LR: (Sec. 13 LR) Los sonidos que encontramos son los mismos que los que suenan por el altavoz central C, pero aquí faltan los diálogos y todo lo que son efectos de sonido (hielo en recipiente) y pasos y gestos del actor. De lo que se trata en este canal es de rellenar exclusivamente ambientes y fondos para completar la sonorizacion de toda la pantalla. Podemos notar como también aparecen al final de la secuencia apenas intuido las voces de interior apartamento en LR. �67 Análisis INSIGHT: Las mismas frecuencias de interior discoteca aparecen en LR, pero esta vez con menor volumen. Esto sirve tanto para las frecuencias graves como medias y agudas. Hay una bajada generalizada del volumen. Los graves se sitúan entorno a los -40Db y los medios y agudos entorno a los -65Db. Canal SUR: (Sec. 13 SUR) Aparecen los mismos sonidos que en el canal LR, pero con un volumen más bajo y menos llamativo. Recordemos que el canal surround sirve para meternos en la acción, y no distraernos de ella. Por eso aquí los sonidos son muy suaves y se utilizan de forma minimalista para crear profundidad y sensación de realismo. Los graves se encuentran a un volumen igual a -35Db mientras que las restantes frecuencias lo hacen sobre los -55Db. �67 Análisis INSIGHT: Notamos como la idea es la de sumergir al espectador una vez mas en el centro de la acción. La utilización de la reverb y los cambios de volumen ayudan a crear un realismo perfecto que apoya sin duda con su fuerza y energía la acción en la pantalla. Podemos aplicar la misma consideración que hemos hecho para el canal LR, con la diferencia que en este caso, el volumen general se encuentra ligeramente por encima de los canales estéreo de pantalla. Aproximadamente son unos 5Db mas altos. �67 Canal LFE: (Sec. 13 LFE) Comprobamos como las frecuencias subgraves responsables de este canal, aparecen en el plano de la discoteca de forma más marcada y en los dos planos siguientes: pasillo 1 sótano, y pasillo 2 zona trastero, perdiendo intensidad y presencia a lo largo del recorrido que hace el protagonista por los diferentes espacios. Análisis INSIGHT: �67 Las frecuencias subgraves durante el primer plano de la discoteca se mueven de los 20Hz a los 80Hz. Mas allá tenemos frecuencias graves que se hacen presentes hasta los 500Hz. El volumen de aquellas frecuencias subgraves es muy marcado: -35Db. Sec.14 CANAL C: (Sec. 14 C) Esta secuencia esta construida con mucha elegancia entorno al sonido en si mismo. Cuando la protagonista llega a la discoteca se escucha una música incidental que aparece muy suave y que se mezcla rápidamente con el retumbar de a discoteca, vemos como el sonido ambiente música y gente va aumentando con los pasos de ella hacia el interior del local. La música se hace entonces más pesada, fuerte, intensa. Carla en un momento determinado decide quitarse los audífonos para poder sentirse más cómoda y menos agobiada por los ruidos que la rodean. El efecto de desconexión del aparato es precioso ya que nos hace protagonistas de la acción, permitiendo que nos concentremos en las sensaciones que se pueden percibir cuando una persona con esa deficiencia auditiva se “desconecta” por así decirlo del mundo que la rodea. En ése preciso momento comprobamos como empieza a sonar una banda musical suave, y que en definitiva se ha convertido en su leit-motiv, una música, no diegética, de carácter opaco, donde no sobresale ninguna melodía, y que viene a representar el alma, el estado de ánimo de la protagonista. Esta música la encontramos ya anteriormente en los momentos donde ella por así decirlo, se desconecta del mundo real, apagando su audífono, para encerrarse en su mundo, personal, solitario e incomunicado. �67 Clara deambula por el local buscando la barra, donde sabe que encontrará a Paul. Suena entonces su música con notas muy prolongadas la misma que teníamos en el arranque de la secuencia, casi desafinadas, mientras ella camina por el local. Percibimos un retumbar suave de sonidos, los que provienen de la discoteca de forma que suenan lejanos y perdidos en el espacio. Al llegar a la barra del bar, recuperamos el punto de vista del espectador, y vuelve a nuestros oídos todos los sonidos y músicas presentes en la discoteca. En cierta manera, hemos desconectado de la realidad y vuelto a conectar a través de los sonidos del propio local. Análisis INSIGHT: �67 La música es la autentica protagonista en el arranque de la secuencia. Las frecuencias se mueven desde los 30Hz a los 16000Hz. Las frecuencias graves tienen una amplitud de -25Db mientras que las medias y agudas están en -40Db. La presión de la música es muy alta, acorde con el lugar donde se desarrolla la acción. CANAL LR: (Sec. 14 LR) Vemos como antes de entrar en la discoteca aquí se puede escuchar con mayor claridad una música incidental que aparece con claridad y que lentamente se va fundiendo con el ritmo de la discoteca. Cuando Clara se quita el audífono, y en ese momento aparece de nuevo la música que la acompañaba en el plano exterior discoteca. Esta música suena con fuerza y dramáticamente se establece una lucha entre ésta, y el tema musical de la discoteca que en este momento se puede escuchar por el canal central. Es muy interesante captar el contraste que se establece entre la música de los canales LR que representa el mundo interior de Carla, sus recelos, angustias, miedos, etc y la que aparece en el canal C central, que representa el mundo real, todo lo que esta fuera de ella, y que por su brusquedad, energía, ella no puede controlar. �67 De repente cuando Clara llega a la zona de la barra, la música diegética aparece súbitamente con fuerza y ya nos encontramos inmersos en la vorágine de gente y ruido del local. Se establece entonces el dialogo entre ella y Paul en el altavoz central C, y en ese mismo instante percibimos como claramente la música ambiente baja intensidad para permitir la comprensión de las voces de los protagonistas. Análisis INSIGHT: Las frecuencias de la discoteca se destacan con fuerza. Así vemos como la energía de las ondas subgraves de 20H a 80Hz se encuentran a un nivel muy alto, -15Db, mientras que las medias y altas frecuencias se acomodan sobre los -35Db. Es sin duda un momento durante el arranque de la secuencia interior discoteca, de gran carga y presión sonora. �68 CANAL SUR: (Sec. 14 SUR) Muy interesante es comprobar como el canal Surround, funciona a la inversa de lo que acontece en el canal LR de pantalla. Aquí los sonidos son aquellos que teníamos en el canal central de pantalla. Arrancamos con la música no diegética a la puerta de la discoteca, para pasar lentamente a escuchar el ritmo frenético de la discoteca. A partir de aquí se repite el proceso sonoro cuando al quitarse el audífono la música pasa a un segundo plano muy lejano y volvemos a escuchar el tema de Clara. Lo que marca la diferencia entre el canal surround y el canal LR, es el volumen del primero que se deja escuchar con menos dinámica si lo comparamos con el de los canales C y LR. Análisis INSIGHT: Aquí rige la misma consideración que la realizada para el canal C. Lo único que podemos destacar es la diferencia en volumen si comparamos este canal con los canales estéreo y central de pantalla. Las frecuencias graves siguen estando a un nivel considerable pero �68 por debajo de la escuchada del canal central -35Db y las restantes frecuencias se mueven sobre los -60Db aproximadamente. CANAL LFE: (Sec. 14 LFE) Este canal permanece activo en esta secuencia, donde adquiere un especial protagonismo ya que la intención del director es de convertirnos en primeros protagonistas. �68 Podemos escuchar en este canal, la presencia constante desde el plano exterior discoteca del ritmo grave de la música. Nos acompaña afuera y dentro de la discoteca, incluso cuando Clara se quita el audífono. Esto permite que nosotros seamos capaces de percibir la música con las bajas frecuencias que esta emite, como sucede por otro lado en la vida real para las personas sordas o con deficiencias auditivas, que sí son capaces de captar las vibraciones de los sonidos con carga más grave en frecuencia. Análisis INSIGHT: Aparece claramente la presencia de las frecuencias subgraves desde los 20Hz hasta los 90Hz con una intensidad muy pronunciada -30Db. A continuación aparecen las frecuencias mas graves que se mueven desde los 100Hz hasta los 500Hz a un volumen menor, -75Db. �68 Sec.17 CANAL C: (sec. 17 C) Me gusta especialmente esta secuencia, porque ilustra una técnica muy empleada por los montadores de sonido, y es la de arrancar un cambio de secuencia con un efecto de sonido impactante y llamativo. En este caso no encontramos en el local donde trabaja Paul. Ya tiene la copia de la llave y súbitamente al cambio de plano aparece el efecto de sonido en primer termino del tren. Si nos fijamos bien, el plano de imagen, corresponde a interior tren día en marcha, pero el sonido pertenece a tren en marcha exterior. Esto aumenta el impacto y fuerza sonora para acentuar el cambio de plano, añadiendo ritmo a todo lo que venga después. Comprobamos que tras unos segundos rápidamente el efecto de sonido baja de intensidad sensiblemente para ceder espacio a los diálogos de los protagonistas. �68 Análisis INSIGHT: La secuencia arranca con el sonido del tren en marcha. Los volúmenes se disparan alcanzando prácticamente todas las frecuencias desde los 50Hz hasta los 16.000Hz un valor de -40Db aproximadamente. CANAL LR: (Sec. 17 LR) La misma música da paso al cambio de plano con el sonido efectista del tren en marcha. En este caso el volumen es muy inferior comparado con el del canal central. Lentamente el colchón sonoro del tren baja de intensidad y se convierte en apoyo y relleno para los altavoces LR de pantalla. �68 Análisis INSIGHT: Las frecuencias son las mismas que hemos analizado en el canal central, pero aquí todos los volúmenes se encuentran a un nivel mas suave. Nos movemos sobre los -45Db aproximadamente. CANAL SUR (Sec. 17 SUR) Aquí a diferencia del canal C y del LR, también tenemos el efecto sonido tren en marcha pero lo que percibimos con mas claridad es sin embargo el paso de las conexiones de la catenaria eléctrica. Son como zumbidos intensos que aparecen rítmicamente y que añaden por supuesto también ritmo al arranque de la secuencia dentro del tren. �68 Durante la conversación entre Paul y Carla, el fondo tren se sigue escuchando, pero a un nivel muy bajo, permitiendo así que nos concentremos en la acción que se desarrolla en pantalla. Análisis INSIGHT: Los sonidos del tren interior en marcha aparecen claramente identificados en la gráfica. Hay un menor volumen general para todas las frecuencias. �68 CANAL LFE: (Sec. 17 LFE) Podemos comprobar aquí, como esos zumbidos que escuchábamos en el canal surround se completan con golpes subgraves, rítmicos cada vez que el tren pasa una catenaria. Este efecto en conjunción con el sonido silbante del tren, producen una suma general que refuerza la imagen cuando el plano interior del tren nos muestra como van rápidamente pasando los postes de la catenaria superior en imagen. Análisis INSIGHT: Las frecuencias subgraves como vemos en la imagen, se encuentran proyectadas con un volumen importante, -45Db. Este variará con la presencia del diálogo, situándose por debajo de los -65Db. �68 Sec.19 CANAL C: (Sec. 19 C) Aquí el director, juega a la misma técnica sonora para impactar en un cambio de secuencia. Es decir, venimos del ambiente interior discoteca, con su música, gente y ruido ensordecedor al plano de ella gritando mientras intentan violarla. Muy interesante es �68 comprobar como estamos escuchando la secuencia del coche desde el punto de vista de Clara. Ella no lleva el audífono, y por eso la sensación que percibimos es que todos los sonidos provienen de un eco lejano y casi en sordina. Es el modo en que Clara escucha el mundo. Segundos mas tarde, cuando aparece Paul para ayudarla, ella recupera su audífono y se lo coloca rápidamente. En ese mismo momento todos los sonidos vuelven a aparecer con fuerza y nitidez. Los golpes, las voces, los gemidos etc. Análisis INSIGHT: Las frecuencias pertenecen al interior coche. Nos movemos desde los 20Hz hasta los 16.000Hz pero aquí solo los volúmenes subgraves y graves tienen mas presencia -45Db. Los demás sonidos se posiciona aproximadamente sobre los -70Db. �69 CANAL LR: (Sec. 19 LR) Prácticamente este canal permanece mudo al principio de la escena de la violación dentro del coche. De esta forma se acentúa aún más la sensación de como Carla percibe el mundo sonoro que la rodea cuando no lleva el audífono puesto. Mas tarde cuando se lo vuelve a colocar, percibimos los sonidos de la pelea, voces etc pero distantes y en un segundo termino. Análisis INSIGHT: Tenemos frecuencias graves que aparecen con un nivel de -55Db. Todas las demás aparecen por debajo de los -85Db, lo que da a entender que intencionadamente el director ha querido reforzar el estéreo de pantalla únicamente con frecuencias graves, dejando a todas las demás un protagonismo muy secundario. �69 CANAL SUR: (Sec. 19 SUR) Prácticamente el canal surround se encuentra vacío de todo elemento sonoro, aunque durante la pelea de Paul, se perciben sonidos ahogados, sordos, y en segundo plano. Es solo en el momento en el que la actriz se coloca el audífono cuando recuperamos la realidad sonora del ambiente. Este vacío aparente de sonido, enriquece aun más a la imagen, ya que la hace total protagonista de la acción dramática. En este caso, como dice el dicho, el silencio vale más que mil palabras. �69 Análisis INSIGHT: Efectivamente podemos comprobar como en la escena interior coche violación, el sonido del canal surround se encuentra muy en segundo termino. Prácticamente es inaudible, pero no desaparece nunca de escena. El volumen es imperceptible: -110Db. CANAL LFE: (Sec. 19 LFE) El efecto de sonido subgrave se deja escuchar con fuerza en el plano de interior discoteca. Una vez que vamos a exteriores con el coche, percibimos como los sonidos mas graves del forcejeo tienen su refuerzo en este canal, así como el de los golpes de la pelea. �69 Análisis INSIGHT: En el interior discoteca, percibimos las frecuencias subgraves con fuerza y nítidamente. Es así que en la gráfica podemos comprobar como estas frecuencias de la música se mueven entre los 20Hz y los 90Hz con un nivel de volumen apreciable de -35Db.El resto de frecuencias hasta los 350Hz pertenecen a graves pero aquí viajan a un nivel muy inferior, de -100Db. �69 25. Conclusiones A lo largo de este documento y del trabajo de análisis realizado de las tres películas, podemos inferir una serie de conclusiones o ideas que se desprenden a partir de la hipótesis planteada por mi al principio de esta tesis. Mi hipótesis de trabajo se centra en el sonido. Normalmente, uno de los aspectos más olvidados y menos analizados dentro del lenguaje cinematográfico, es precisamente éste, el sonido. A la hora de adentrarnos a hablar de un largometraje, es cosa habitual, que los comentarios se centren en una gran variedad de elementos que están relacionados más con la imagen misma, que con la ambientación sonora. Hablamos del guión, de la historia, de la interpretación de los actores, de los escenarios o ambientes naturales, del vestuario, de los efectos especiales de imagen, incluso buscamos entender como el mismo director intenta transmitir la idea de su película y de como la narrativa de ésta consigue su objetivo o no. Por otra parte, nos sentimos atraídos por el glamour de los propios actores, personas más o menos conocidas, y en la forma en la que ellos dan vida a los distintos personajes. El ojo del espectador se deja enamorar por el fotograma de imagen, por los colores, las luces, la fotografía, la interpretación, la fuerza y la intención de los planos. Somos capaces de hablar y hablar sobre la temática de la película, sobre la evolución de los personajes, e incluso sobre la evolución del propio director, comparando cada trabajo realizado con los anteriores, buscando similitudes, divergencias, cambios etc. Sin embargo, del sonido muy poca gente habla. �69 Como mucho nos podremos encontrar con comentarios relativos a la música, al compositor, o a como el director quiere comunicarnos a través de los distintos bloques musicales diferentes sensaciones o emociones, pero en pocos casos, vamos a poder leer una extensa y profunda disección y análisis del sonido en su concepto particular y global. El sonido sigue siendo ése gran desconocido, ese acompañante que viste elegantemente cada secuencia y cada plano, pero que permanece en un segundo lugar, sin llamar la atención, sin provocar comentarios, ideas. Es un elemento más de nuestra película, al que por lo general no prestamos demasiada atención. La imagen fagocita la atención del espectador, dejando poco espacio para la intención sonora. Solo la música se salva de esta emboscada, gracias casi siempre a la acción del director, que busca transmitir la emoción y el sentimiento a través de las notas y del pentagrama. La música pasa a ser tan importante para el director, que se llegan a establecer autenticas relaciones fetiche entre estos dos profesionales. El propio director en ocasiones se siente desnudo e incapaz de completar su obra si no es con la presencia de su musico, de su compositor con el que comparte afinidad de ideas. Él sabe que su musico entiende e interpreta a la perfección la intención y la historia de su película, y que sabrá adaptarla perfectamente al lenguaje musical. De esta forma podemos citar los siguientes ejemplos: Tim Burton y Danny Elfman: “La gran aventura de Pee Wee” (1985); “Eduardo Manostijeras” (1990); “Pesadilla antes de Navidad” (1993). Federico Fellini y Nino Rota: “Bocaccio 70”; “La Dolce Vita”, “8 1/2”; “Amarcord”; “La Strada”. �69 Alfred Hithcock y Bernard Herrmann: inolvidable por haber dado tres de las mejores bandas sonoras de la historia del cine “Vértigo” (1985); “Con la muerte en los talones” (1959); “Psicosis” (1960). Steven Spielberg y John Williams: este compositor ha colaborado con Spielberg en 24 trabajos: “Tiburón”; “En busca del arca perdida”; “Encuentros en la tercera fase”; “E.T.”; “La lista de Schindler”; “El color purpura” etc. M. Night Shyamalan y James Newton Howard: “El protegido”; “El Bosque”; “El sexto sentido”; “La joven del agua”. Estos ejemplos nos confirman la importancia que adquiere la música para el director. La música representa todo un mundo de sensaciones, de armonías, y de sonidos a través de los cuales, el hombre ha ido creando y desarrollando otras diferentes, multiplicando así casi hasta el infinito la paleta de combinaciones sonoras posibles. A través de la música el hombre históricamente, ha podido expresar una multitud diferente de sentimientos y sensaciones, como amor, odio, venganza, pasión, etc. Además la música no solo puede acentuar cada uno de estos sentimientos, sino también permitir los cambios de estado de animo, y así pasar de la tristeza o la malinconía a la serenidad y alegría. Es cierto que la banda musical tiene su propio protagonismo en una película, pero no hay que olvidar que existen otros elementos sonoros que a través de efectos, ambientes, etc, consiguen completar y llenar perfectamente el fotograma con la magia del sonido. Es ahora cuando intencionalmente vamos a repasar lo que ha sucedido no solo con la música, sino también con todos aquellos elementos que forman parte del colchón sonoro de una película, y en especial de las tres que hemos analizado a lo largo de este trabajo. �69 Mi intención es sencillamente probar mi hipótesis inicial, y descubrir si realmente nos encontramos ante tres formas diferentes culturales de tratar el sonido, o bien existe una relación por remota o elemental que sea entre ellas. Antes de pasar a las conclusiones me gustaría dejar claro una serie de conceptos y de premisas que considero fundamentales a la hora de analizar los resultados: 1.- El análisis se ha basado en el estudio de 3 cintas cinematográficas. 2.- Solo podemos extrapolar conclusiones con cierta prudencia, ya que sería oportuno poder realizar posteriormente un estudio más detallado sobre una muestra más amplia de películas. La imposibilidad de realizar dicho trabajo por tiempo y por medios materiales, nos llevara a aceptar las conclusiones siempre con cierta prudencia y limitación. 3.- Las películas escogidas, pertenecen a tres continentes diferentes, es decir, a tres culturas e idiosincracias distintas. Ésta es una de las hipótesis que planteo y que creo que influye decisivamente en la expresión sonora del trabajo acabado. 4.- Para poder comparar adecuadamente estas tres películas, he buscado seleccionarlas partiendo de una misma horquilla temporal, buscando que pertenezcan a un mismo período histórico, (2000 - 2005) para conseguir un equilibrio entre las tres expresiones artísticas. De esta manera, el desfase temporal no será en ningún caso motivo de error en el análisis final. 5.- El tipo de cine que he seleccionado para estos tres ejemplos, no pertenece al genero conocido como comercial, sino más bien a un cine más de autor, de genero, lo que �69 normalmente llamamos cine de arte y ensayo o cine de autor. El cine de autor es un punto intermedio entre el narrativo y el no-narrativo. Es decir, en las películas de autor nos encontramos con unos personajes y una trama, pero en este tipo de cine no es tan importante lo que se cuenta, sino cómo se cuenta. Los directores-autores, que muchas veces escriben sus guiones, utilizan una serie de recursos (como saltos abruptos, tomas muy largas, planos extraños) que nunca veríamos en películas como “Los Vengadores”, “Los juegos del hambre” o “Ira de titanes”, por citar algunas de las películas que se han estrenado en los últimos meses. 6.- Para finalizar quiero aclarar, que las conclusiones que aquí se exponen, tendrán en cuenta la limitación del numero de películas analizadas y por consiguiente el consejo de incorporar a este estudio más ejemplos cinematográficos para conseguir una resultado fiable y consistente. Como consideración inicial, y a modo de reivindicación profesional, me gustaría añadir y subrayar en mis siguientes comentarios cómo y de que manera el sonido ha influido grandemente en el devenir y desarrollo del arte cinematográfico. Quiero así, reconocer el gran valor que el sonido en sí mismo encierra dentro del arte audiovisual, en general. No podemos hablar de imagen en movimiento sin asociar a esta, un mundo sonoro que lo complete. •  Con el fin del cine mudo, gracias al sonido, las cartelas, como recurso gráfico que permitía seguir al publico los acontecimientos y pensamientos de los actores, también terminaron por desaparecer, de todas las producciones cinematográficas del momento. �69 •  El sonido permitió al director jugar con dos elementos narrativos diferentes pero complementarios, capaces de apoyarse mutuamente y de jugar constantemente con el espectador, creando entre el publico y el medio audiovisual una estrecha y cómplice relación: la imagen y el sonido. •  El sonido, como recurso utilizado de forma independiente de la propia imagen, nos permite crear diferentes efectos y provocar en el espectador estados anímicos y psicológicos especiales. Podemos utilizar recursos como el contrapunto, el refuerzo, el cabalgamiento sonoro etc, todos elementos que ya han sido desarrollados anteriormente. •  El sonido, dota al cine, a la propia imagen de una vida real y narrativamente hablando completa, reverenciada a un marco concreto espacio-temporal. •  El sonido juega un papel dimensional, a través de diferentes planos con los que trabajamos los diálogos, los efectos, los ambientes o la música. El diálogo puede tener un referente real, busca la persona, el personaje, la historia en su expresión mas material y mundana. La música puede servirnos para fines más elevados, espirituales y adimensionales. Permite apoyar sentimientos, actitudes, momentos o estados de ánimo con el fin de hacer volar al espectador a otras y más altas instancias del espíritu y el alma. Los efectos de sonido y los ambientes sirven por contrario, para enmarcar los diálogos, y para otorgar corporeidad a las historias y realismo a los acontecimientos narrados. Es decir, podrían funcionar en sentido opuesto a la música, que busca el espíritu del espectador, ya que el objetivo en un 90% de éstos colchones ambientales y efectos, es el de cimentar la realidad de cada plano. �70 •  El sonido puede funcionar de forma sincrónica a la imagen. Es decir puede potenciar el mensaje visual, como es el caso por ejemplo de la cámara alejándose del personaje mientras que la música o los sonidos ambientes también se van perdiendo lentamente en el espacio, ejemplo que ya hemos visto en las películas objeto de ésta tesis. •  En el sentido contrario, puede funcionar perfectamente el sonido como elemento opositor o asíncrono con la imagen, ejemplo perfecto de lo que se llama cinematográficamente el efecto del contrapunto sonoro. Dicho esto, y partiendo de las premisas expuestas anteriormente, paso a continuación a proponer los resultados de esta tesis, en relación con los tres ejemplos cinematográficos que se exponen en el presente trabajo y bajo los dos niveles de análisis: el técnico o físico y el emocional o cognitivo. 25.1 Aspecto Físico (técnico) Desde el punto de vista de la técnica empleada en post-producción de sonido, descubrimos una gran diferencia entre el cine Oriental y el resto de las películas. Hablamos de la forma en la que se utilizan los canales de salida dentro del formato �70 estándar 5.1 de Dolby, extendido ya en todo el mundo. Destacaría sin duda, como 482 existen mas puntos en común entre el cine europeo y americano, a la hora de componer el formato multicanal de sonido, que la forma y el fondo de cómo se articula este mismo formato sonoro en el cine oriental. Éste cine sigue por así decirlo, un camino propio o personal que le confiere claro está un sello inconfundible y universal. Por otro lado quiero destacar que en este caso, la técnica de sonorización asiática responde más a una inquietud artística que a una necesidad física de utilizar los canales de sonido. Con esto quiero decir que la expresión sonora asiática es mas minimalista, más sencilla y delicada que en el resto de los ejemplos. El cine oriental esta marcado por un sonido más escueto, más limpio y puro, sin prácticamente artificios, y donde el peso específico del sonido lo lleva la voz y la música. Prácticamente los ambientes y efectos de sonido son tan mínimos y suaves que pasarían desapercibidos sino no fuera porque al ser tan reducidos en presencia, cuando se utilizan el público los advierte con mayor facilidad y atención. Esta es una técnica que no se utiliza ni en Europa ni en America, ya que aún con diferencias, el cine en estos dos continentes conlleva un concepto más global y total. Sabemos como los canales de sonido 5.1 se utilizan o se deben utilizar en toda producción cinematográfica, para conseguir el efecto adecuado y para integrarse perfectamente en el estándar universal de montaje sonoro. Dicho de esta forma, habría que argumentar, repitiendo lo ya expresado con anterioridad en esta tesis, que los canales pueden contener la siguiente información: HOLLYN, Norman. The Film Editing Room Handbook, Lone Eagle Press, Los Angeles 1999. Un sistema 482 de sonido 5.1 consta de seis canales. Un central, donde ubicaremos el diálogo de la película, L y R (izquierdo y derecho), otros dos traseros también a izquierda y derecha. Y por último un canal de graves. �70 Canal C (Central): Diálogos Música Efectos Canal LR (ST): Diálogos Música Efectos Canal SUR: Dialogos Música Efectos Canal LFE: Música Efectos De esta forma vamos a analizar si los formatos de las diferentes películas cumplen esta condición: Diálogos (4.0), Músicas (5.1), Efectos (5.1) En la cinta “In the Mood for Love” vemos como el canal del altavoz central se utiliza prácticamente solo para diálogos, cuando el formato establecido por la sociedad SMPTE americana de las artes y ciencias cinematográficas establece que el canal C de pantalla permite llevar no solo diálogos, sino también efectos y música. En el ejemplo del cine oriental, el canal central en ocasiones permanece incluso vacío cuando tenemos una banda musical que se utiliza en formato LR con los altavoces estéreo de pantalla. Esta �70 forma de montar el sonido se sale a todas luces de la regla general pero políticamente es correcto tratarlo de esta forma si la narrativa del director, y por ende su procedencia cultural así lo exige. Sabemos que el cine oriental tiende a ser más proclive a la utilización mínima de ambientes y efectos y a mimar más los diálogos y la música que cualquier otro elemento sonoro. Es un cine más de historias que de acciones. Incluso hay muchas secuencias donde al tener música, ésta se presenta únicamente en los canales estéreo LR de pantalla dejando los demás altavoces vacíos, sin ni siquiera efectos o colchones ambientales. Es una propuesta significativamente arriesgada de asumir en el mundo occidental, donde el cine se concibe más como espectáculo y entretenimiento total. Incluso cuando el director introduce efectos o sonidos ambientales, éstos en ningún momento roban protagonismo a la voz, ni tan siquiera lo intentan. Todo lo contrario. Diríamos que casi es una excepción el hecho de escuchar la lluvia, el sonido ambiente de exterior ciudad, etc cuando dejamos oír un bloque musical. Es la música la que intenta llenar este espacio sonoro, casi como un “más difícil todavía” buscando la intención de la historia más que la acción de la misma. Curioso es comprobar como en ocasiones incluso el sonido ambiente desaparece del canal C central, en una escena de lluvia, y donde solo percibimos el foley o efectos sala de los pasos y movimientos del protagonista mientras vemos como a su alrededor el agua cae con fuerza y estrépito. Es una forma especial de expresar el sonido, la de eliminar del canal C toda distracción que nos aleje del protagonista. Sería casi como querer anular todo lo que rodea al actor para darle aún mas presencia y fuerza en la pantalla al personaje despojando a la secuencia de todo aquello que pueda interferir con la historia sonora del protagonista. Este tipo de técnica de montaje no se suele utilizar y menos en el mercado europeo o americano. No obstante pensemos en una cultura diferente la asiática donde el orden de los valores sonoros se invierten dejando exclusivo protagonismo a la voz y en ocasiones a la música. �70 Vemos que esto, aparece como practica normal, el dejar el canal central exclusivamente para diálogos. Ni tan siquiera convivirá en este canal los ambientes y efectos sonoros de imagen. Éstos viajarán tanto en canal LR como en canal SUR. Por otro lado, comprobamos como el canal SUR se utiliza en muy contadas ocasiones, como en el caso de la secuencia del restaurante (“In the Mood of love”) donde la música suena con efecto de reverberancia para transmitir la sensación de profundidad sonora y de espacio, con un volumen sensiblemente inferior al de los canales C y LR de pantalla. En secuencias de exterior, incluso solo aparecen tres canales con información: L, C y R con diálogos en centro y efecto ambiente mínimo en LR. Se descartan normalmente los canales SUR (surround) traseros para completar en alguna secuencia el estándar 5.1. Podríamos incluso decir que el canal LFE (subgraves) prácticamente se encuentra desaparecido, ya que no se utiliza a lo largo del metraje, ni tan siquiera en secuencias exclusivamente musicales. Digo musicales, porque por lo general, o al menos a lo que estamos acostumbrados en Europa es a marcar las frecuencias graves de aquellos instrumentos que se mueven en un rango de frecuencias por de bajo de 180 Hz y reforzarlos en el canal LFE. Quizás esto también responda a la no necesidad de utilizar este tipo de recurso sonoro de frecuencia sub-grave ya que la imagen no lo requiere. Recordemos que estamos ante un tipo de cine distinto al conocido aquí en Europa o al Americano donde la acción no es tan importante como la historia que se pretende contar. Por ello la utilización del sonido a escala global se hace de forma muy sutil y discreta, sin buscar ni pretender romper la atención del espectador en la pantalla y en el discurso narrativo de la historia. El cine que ponemos de ejemplo, es un cine menos barroco sonoramente hablando y más dependiente de la voz de los protagonistas. Este es un concepto diferente de entender la narrativa cinematográfica, en tanto y cuanto no necesita tanto material adicional de sonido y una compleja edición. �70 Los canales traseros surround (SUR) se utilizan exclusivamente o bien para 483 completar un bloque musical conjuntamente con los canales LR de pantalla y así formar un perfecto sistema cuadrafónico, o bien para añadir sonidos ambientales, pero casi siempre de forma mínima y rigurosamente elemental en complejidad sonora. La música jamas se utiliza en formato 5.1 ni tan siquiera en aquellas secuencias que resultan más llamativas narrativamente hablando y que perfectamente serían capaces de funcionar en este formato. Recordemos por otro lado que este cine oriental busca más el apoyo sonoro para contar y explicar una historia que para servir de apoyo a la acción cinematográfica. Es un cine más apocado en cuanto a grandes temáticas donde lo que se busca son aquellas historias de personajes, de seres pequeños y únicos, que trascienden la pantalla y que buscan hacerse un hueco en nuestras vidas, en nuestro corazón, y que de esta forma se convierten en grandes e irrepetibles. Historias pequeñas pero que hablan de grandes sentimientos, sentimientos universales eso si que no necesitan traducción o explicación. El sentimiento y la palabra son algo que llega directamente al alma del espectador, y que necesita un adorno sonoro justo y limitado al ámbito de actuación. Podríamos decir que es la voz la que lo llena todo dejando a la parte musical el trabajo de arroparla y de crear el cauce expresivo correcto para su fluir lento y apasionado por la pantalla. También el ritmo sonoro es un elemento a tener en cuenta. Aquí prácticamente el tiempo se detiene y el reloj adquiere su propia dimensión estética. La música apoya mucho este concepto temporal, dando ritmo a secuencias largas, interminables y repetitivas pero de una forma tan maravillosa y única, que en ningún caso se percibe MORIMOTO, M. The Role of Rear Loudspeakers in Spatial Impression. 103rd Convention, Audio Eng. 483 Soc., 1997.: los altavoces traseros no siempre son necesarias para crear la percepción de profundidad auditiva, pero son necesarias para la percepción del efecto sonido envolvente en el oyente y sugiere una condición necesaria para la percepción de este efecto en el publico. �70 cansancio o aburrimiento, ya que los bloque musicales refuerzan el montaje impregnando a los fotogramas de ritmo y tensión. Si analizamos el espectro sonoro de la película, veremos como la forma de utilizar el volumen entre los distintos estilos cinematográficos, americano y europeo no presenta técnicamente una gran diferencia. La película oriental tiende a mantener un estándar de trabajo, donde el canal con mayor sonoridad siempre es el canal C de pantalla que se mueve alrededor de los -45 o -50 Db en general, quitando secuencias especiales donde el volumen de sonoridad no es tan exigente o necesario. No podemos comentar nada acerca de la información del canal LFE, ya que permanece prácticamente vació de toda información a lo largo de todo el metraje. Los canales estéreo de pantalla LR son los segundos en mover gran cantidad de volumen, después del canal central. Recordamos que son los responsables de transmitir la música a lo largo de las diferentes secuencias del film. Los volúmenes se encuentran repartidos a lo largo del metraje de forma lineal marcando una media entre los -55Db y -65Db. Para el canal surround (SUR) utilizado para rellenar ambientes y música, podemos decir que también se cumplen los estándares previstos en cuanto a presencia sonora. Es decir se encuentran por debajo de los canales LR de pantalla con una dinámica aproximada de -65Db a -70Db o bien entre las dinámicas de -85Db y -95Db dependiendo claro esta del tipo de secuencia y de los elementos que aparecen en imagen. Por consiguiente podemos concluir como el análisis espectral del sonido se encuentra muy cercano a la forma universal de utilizar los volúmenes para los distintos canales tanto en el cine americano como en el europeo, siendo el orden utilizado por dinámica sonora de mayor a menor, los siguientes: �70 Canal : C LR SUR LFE Consideración a parte tenemos que tener para el sonido por así decirlo americano y europeo. Estos dos conceptos sonoros se encuentran más cercanos entre si que el sonido oriental. La brecha que separa este ultimo de los dos primeros es muy grande ya que no comparten la misma cultura, o bien parecida cultura. La cultura oriental, más orientada al detalle, a la palabra, a la exaltación del sentimiento, a la singularidad del personaje, subraya estos valores también a través de la utilización de un sonido minimalista, no de grandes exaltaciones sonoras, sino de un uso limitado, conscientemente ajustado a cada plano, a cada gesto o estado de animo de los protagonistas, siendo ésta técnica el sello inconfundible de su cultura milenaria y singular. Aunque Europa y America son dos continentes diferentes y con sus propias estructuras culturales y sociales podemos concluir como la utilización de los diferentes canales sonoros son muy parecidos, por no decir idénticos. Así podemos comprobar que el sonido americano y el europeo, respeta la utilización del 5.1 y sobre todo utiliza de forma completa la información que debe viajar en cada canal. No encontramos en ningún momento secuencia alguna donde el canal central esté desprovisto de sonido. Podemos tener solo ambientes, solo músicas pero jamas encontrarnos un canal C de pantalla desprovisto de todo colchón sonoro. Esto no acontece el en sonido oriental, donde por el contrario, nos podemos encontrar con secuencias donde el único apoyo sonoro se halla en los canales LR, como único refuerzo a la imagen. �70 El canal C tanto en el sonido europeo como americano, se utiliza para mover siempre bandas de ambiente y de efectos puntuales sonoros, además de la música, o los diálogos, siempre y cuando ésta se encuentre presente en la secuencia. Si esto se establece así, podemos comprobar como por lo general, sin querer fijar un estándar, podríamos decir que el formato americano y europeo respeta las reglas de la Sociedad Americana Cinematográfica SMPTE que establece que los canales 5.1 sirven para mandar información tanto de voz, ambientes, efectos y músicas repartidos como hemos explicado en el diagrama anterior, es decir: Canal C (Reservado para Voz, Ambiente, Música) Canal LR (Reservado para Voz, Ambiente, Música) Canal SUR (Reservado para Voz, Ambiente, Música) Canal LFE (Reservado para Ambiente, Música) Por consiguiente, nos encontramos ante una uniformidad en el tratamiento del sonido tanto en el cine americano como en el europeo que sigue el siguiente ajuste: El diálogo se mueve en formato 5.0 (Canales: C, LR, SUR) Los ambientes y efectos se mueven en formato 5.1 (Canales C. LR, SUR, LFE) Las músicas se mueven en formato 5.1 (Canales C, LR, SUR, LFE) Esto hace que podamos trabajar y entender el montaje de sonido realizado en estos dos ejemplos sonoros, y así comprender lo cerca que se encuentran el uno del otro. Son dos mundos que a pesar de estar alejados en el espacio y en la cultura, respetan la técnica del montaje, aprovechando el sonido hasta los últimos detalles. �70 Aquí comprobamos como en efecto el tratamiento del sonido adquiere una proporción totalmente diferente a la vista anteriormente con el sonido oriental. Podemos así concluir ademas que es la cultura y la forma de entender la expresión artística, la que determina estas diferencias, ya que el mundo oriental responde mas a los cánones estéticos de una cultura minimalista milenaria, donde la sensibilidad y la belleza de lo pequeño tiene protagonismo absoluto, y esto se comprueba a lo largo de la cinta a través de como se trabaja y se introduce el sonido. La belleza del cuidado estético de la imagen, casi hasta en sus mas pequeños detalles hace que el sonido adquiera un valor aún más grande, a pesar del tratamiento mínimo que recibe a lo largo de la cinta. Es una estética al servicio de la estética. El sonido americano y europeo se alejan de este concepto, ya que culturalmente se apoyan en una estructura mas realista y menos minimalista, aunque veremos que entre las dos también podremos hallar diferencias significativas. Hemos hablado que el sonido europeo y americano respeta el concepto de montaje en formato 5.1. Es decir, encontramos músicas, ambientes, repartidas en los 6 altavoces principales , C, LR, 484 SUR, LFE. De esta forma, la imagen adquiere una profundidad y fuerza diferente, añadiendo valor a lo mostrado en pantalla y vistiendo perfectamente cada fotograma de metraje. Es una manera de generar riqueza sonora al servicio de la película. Recordemos como el canal SUR, nos permite alejar los sonidos, y crear un campo perceptual sonoro que es capaz de rodear al espectador y sumergirle en la narrativa audiovisual. El uso correcto de este canal añade belleza y significado para el propio espectador. Estamos ante la idea del sonido como concepto TOTAL, que es capaz de rodear al espectador y hacerle participe de lo que en la pantalla esta sucediendo. De esta forma tanto el sonido BALLAGH, K.O. Optimum Loudspeaker Placement Near Reflecting Planes,. J. Audio Eng. Soc., 31, 484 1983 pp. 931–935. El autor define como muy importante la colocación de los altavoces de forma y manera que no se produzcan nunca planos de reflexión capaces de producir ondas estacionarias. �71 americano como el europeo funcionan haciendo trabajar los colchones ambientales a través de todos los canales posibles, cuando la imagen lo requiere. Recordemos que el canal SUR se utiliza o bien por mandato del director, o bien cuando la secuencia lo pide. En este caso serían casi siempre secuencia de exteriores, donde tenemos que crear la sensación de espacio y de dimensionalidad sonora. El canal LFE se utiliza tanto en el formato americano como europeo de una forma similar. El sonido sub-grave aparece en dicho canal cuando la música por instrumentación y fuerza lo pide, o bien, como ambiente o colchón sonoro, para añadir fuerza y tensión a la imagen. Mientras en el sonido oriental realmente este canal esta totalmente desaprovechado, en el europeo y americano la utilización es siempre puntual pero necesaria. Aparece casi siempre como acompañante de alguna bloque musical o bien como efecto independiente para completar la imagen sonora de la pantalla. Hay que tener en cuenta ahora bien, ciertas diferencias que he podido comprobar entre estos dos estilos de sonido. Las diferencias se basan más en la información que en la forma de utilizarla. Es decir, en el cine americano podemos encontrar sonidos mas impactantes, o menos reales, y que pertenecen más a lo que se denomina SOUND DESIGNING. El origen de este concepto ya tratado anteriormente, pertenece exclusivamente al ámbito cinematográfico americano, aunque posteriormente se haya extendido a toda el sector global audiovisual. Ben Burtt (Apéndice 4) tecnico de sonido del estudio SKYWALKER RANCH del director George Lucas, fue el que recibió el primer Oscar por este nuevo concepto sonoro. Estamos ante una técnica americana que lo que intenta aportar es añadir a través de la manipulación sofisticada del sonido, elementos nuevos que sirvan de apoyo para la estructura final del sonido de la película. Dicho esto, tenemos que subrayar, que la cinta americana, juega en multitud de ocasiones con estos tipos de sonidos, irreales, �71 fantásticos, lúdicos, que aportan una profundidad nueva a la imagen y una riqueza estética muy marcada. Es el reflejo de un cine perteneciente a una cultura más orientada al espectáculo que a la historia intimista de caracteres y situaciones. No obstante, no podemos calificar este cine americano, como cine comercial al 100 por 100, aunque en ocasiones utilice los conceptos sonoros que pertenecen por así decirlo al tipo de cine de masas que todos conocemos. Repito una vez más, que esto lo digo con mucha prudencia ya que éste sonido americano por así decirlo se articula bajo conceptos comerciales que se encuentran más próximos al cine espectáculo sin pretender ser o representar un cine para las masas, pero que sí hace guiños a una técnica y a una forma más comercial, de presentar los sonidos. Por ultimo reseñar la elegancia y personalidad del sonido americano en esta película, donde lo que escuchamos llena la pantalla a la perfección, pero lo hace desde un punto de vista mas intimo, personal, aprovechando todos los recursos sonoros que la técnica y la cultura pone a su disposición, siempre con la tendencia de producir un sonido que impacte en el espectador, con el uso de los canales envolventes, del canal subgrave, y a través de una considerable proyección dinámica de las fuentes y de un sonido, diseñado ex-proceso aunque de manera más comedida o menos barroca por así decirlo. Podemos concluir también como la historia, el origen y bagaje cultural de un país, aporta por consiguiente toda una serie de clichés, improntas, que bien en parte o en su totalidad, influyen de una forma u otra en la expresión sonora de una película como acontece con “Olvidate de mi” , y esto se tiene que vivir más como un elemento enriquecedor y diferenciador, que como elemento negativo o excluyente. La cultura americana, tiende a fagocitar al vecino, al otro, y si hablamos de cine el caso adquiere un realismo indiscutible, si pensamos que la lucha entre cine europeo y la salvaguardia de su industria, y la de Estados Unidos, ha sido eje de muchas polémicas a lo largo de estos �71 años. La cultura yanqui en el sentido más comercial de la palabra también se refleja en su cine aunque sea éste ejemplo que traemos a colación una muestra de un genero menos comercial y más cercano a lo que en Europa se entiende por cine de autor, aún sin serlo completamente. A pesar de ello, el director americano utiliza todos los recursos tecnológicos a su alcance para llamar la atención del espectador, relegando en el efecto de sonido y en el diseño sonoro parte del mensaje contenido en la película. Y lo hace con un estilo marcado, con sonidos creados con programas de manipulación y edición de audio, buscando de ésta forma el “más difícil todavía” para llegar al corazón del público. Es un sonido más fantástico y lleno de recursos imaginativos, que busca sorprender y enamorar al espectador. Si analizamos la forma de hacer sonido en el ejemplo europeo, veremos como este cine se apoya más en la vertiente realista. Es un cine vertebrado en la vida misma, donde el director se preocupa muy mucho de obtener el resultado opuesto del que en partida pretende el sonido americano. Aquí no necesitamos diseñar los ambientes, diseñar efectos de sonido, buscar la fantasía, la irrealidad, lo mágico. El sonido esta al servicio totalmente de la imagen y dependiente al 100% de él. En el ejemplo americano, esto es totalmente diferente. El sonido se aprovecha de la libertad que le da el director, para crear texturas nuevas y fantasear con ambientes o efectos musicales, cuya fuerza y presencia se deja notar en diferentes secuencias a lo largo del metraje. En cambio el sonido europeo se articula más en la producción de un sonido que denomino “realista”, apegado al mundo que conocemos, con pocas concesiones lúdicas, barrocas o a una realidad sobredimensionada. También es cierto que el cine europeo bebe de otras fuentes y que se apoya en personajes e historias mas que en la acción pura y dura. Un ejemplo de esto, lo tenemos en el tratamiento sonoro que el director dispensa a la discapacidad auditiva del personaje �71 de Carla y de como juega con el público haciendo participe de la forma en la que el personaje percibe la realidad sonora del mundo que le rodea. Este es un ejemplo perfecto de como el sonido europeo se encuentra más cercano al personaje, a la historia y busca desesperadamente de convertir en cómplice al propio espectador, haciendo que éste viva las sensaciones en primera persona. Podemos decir que el sonido permite que el publico se convierta en protagonista de la cinta. Es una forma increíble y maravillosa en la que el director utiliza el recurso sonoro no para asombrar o impactar, sino para sumergir al espectador en la acción, en la historia, y hacer que participe activamente de la misma. Esto por el contrario no se encuentra presente en el sonido americano, donde lo que se persigue es impactar al público mas que convertirle en protagonista de la historia. Son dos conceptos opuestos a la hora de transmitir emociones y sentimientos pero que funciona perfectamente para cada estilo sonoro de hacer cine. En el cine europeo, el sonido de los ambientes, de los efectos, tiene un peso especifico muy grande ya que permiten añadir realismo a cada secuencia del largometraje. Es una manera mas de buscar la REALIDAD TOTAL, para de este modo convertir la cinta en algo absolutamente asimilable para el propio publico. Si pensamos en la realidad cinematográfica, ésta se enmarca en la necesidad de analizar y registrar la realidad y los acontecimientos de la manera más fiel y cercana al mundo que nos rodea. Es decir, el cometido del cine es registrar la realidad de una forma clara y objetiva. Este concepto entendido y asumido por los cineastas, se encuentra mucho más cercano a lo que hemos denominado cine de sonido europeo. Se respetan como hemos dicho también para el sonido oriental, los volúmenes utilizados en los canales de sonido. Es decir, nos encontramos tanto en el ejemplo americano, oriental y europeo, con un canal C central que se convierte en el protagonista de la historia, con un volumen muy superior al de los siguientes canales LR, SUR y LFE. �71 Hay una escala de valores que se respeta, y que permite mantener el estándar propuesto por la academia americana SMPTE, donde se proponen unos valores dinámicos por canal, como hemos visto anteriormente. Es decir, mayor presencia para el canal C, seguido del LR, del SUR y por ultimo por el LFE. Podemos comentar como tanto el sonido americano como el europeo se mueven prácticamente en los mismos márgenes dinámicos. Es decir, en el canal C de pantalla monitorizamos unos niveles que se colocan entre los -45Db y los -55Db. Hay que tener en cuenta que estos sonidos incluyen diálogos, músicas y ambientes mezclados proporcionalmente, mientras que el sonido oriental no contempla esta posibilidad. Además los canales LR de pantalla en aquellas secuencias donde solo transportan ambientes o efectos funcionan sobre los -70Db y -75Db. En cambio cuando soportan músicas podemos llegar a los -50Db aproximadamente siempre y cuando en el canal C no haya ningún dialogo presente. Por lo que respecta a los canales SUR en el sonido americano nos encontramos con bandas musicales y ambientales que se mueven alrededor de los -65Db llegando en algunas ocasiones a los -45Db en los momentos donde los efectos y el diseño de sonido hace acto de presencia. En el sonido europeo, los márgenes de estos canales se mueven entre los -70Db y -65Db en presencia de músicas en las partes mas suaves, y sobre los -65Db en zonas de mayor proyección sonora. En zonas de ambiente los niveles se encuentran sobre los -95Db y -90Db. El canal LFE tiene singular presencia en los dos tipos de sonido. En el 485 europeo responde mas al material musical, con una dinámica de aproximadamente -50Db en frecuencias de subgraves , mientras que en el sonido americano lo hace con valores 486 próximos a -35Db ya que aquí el diseño sonoro realizado por el musico tiene una COX, T., D’Antonio, P., and Avis, M.R. Room Sizing and Optimization at Low Frequencies,” J. Audio Eng. 485 Soc., 52, 2004 pp. 640–651. Las medidas de un espacio fisico cerrado y la disposición de paredes y techo, condiciona en mayor medida las frecuencias medias y agudas que las graves. LINKWITZ, S. Investigation of Sound Quality Differences between Monopolar and Dipolar Woofers in 486 Small Rooms. 105th Convention, Audio Eng. Soc., 1998.: analizo la diferencia que entre diferentes tipos de altavoces graves. �71 componente mas agresiva menos realista y mas orientada a impactar fisicamente en el publico. 25.2 Aspecto Emocional Pasaré a analizar y presentar a continuación los resultados por mi obtenidos comparando los tres sonidos, oriental, americano y europeo, objeto de estudio y la forma en la que cada uno intenta o provoca en el espectador sentimientos y emociones. Sin duda una de las principales herramientas con las que cuenta todo director es la música. La fuerza, la intensidad y la profundidad con la que la música toca nuestro corazón, nuestra sensibilidad no es nada novedoso. Desde antaño la música ha acompañado al ser humano a lo largo de toda su historia. Nosotros almacenamos gran cantidad de recuerdos, sensaciones que en muchas ocasiones están vinculadas a pasajes musicales a ritmos, a vibraciones sonoras que nos permiten rememorar recuerdos y momentos pasados. Es sobradamente conocido practicante por todos nosotros, el placer que la música puede provocar, y como ésta libera endorfinas en nuestro organismo. Si pensamos o escuchamos una determinada canción, incluso podríamos entrar en un estado fisiológico y emocional determinado, de relajación o de euforia, provocado por el ritmo, las sensaciones sonoras, la melodía etc. ¿Por qué tiene tal poder la música sobre nosotros? Podemos preguntarnos porque la música influye tan decisivamente en nuestro estado anímico, y la solución la encontraríamos en varios estudios que se han realizado al respecto y que resumo aquí en una Investigación realizada por científicos de Montreal �71 (Canadá) liderados por la doctora Valorie Salimpoor, que han desvelado las claves cerebrales que intervienen cuando escuchamos música. Los científicos sometieron a un determinado numero de sujetos a examen, la prueba de someterles a una resonancia magnética mientras escuchaban determinadas canciones o piezas musicales. Este fue el sistema adoptado por los investigadores, para descubrir claramente qué ocurría en el cerebro de los sujetos cuando estos percibían un tema musical, y el resultado fue muy interesante. La responsabilidad de que sintamos una sensación placentera al escuchar música reside fisicamente en una zona de nuestro cerebro, y concretamente, en un grupo de neuronas conocido como “núcleo accumbens” y que se localiza cerca de la amígdala. Este núcleo es conocido también como el “mecanismo de búsqueda y recompensa”. Y porque recibe este nombre? Muy sencillo: la mera escucha de música o incluso el mero pensamiento de escuchar música, provoca una sobreproducción de dopamina, o también llamado el neurotransmisor del placer, siendo ésta sustancia la responsable de activar dicho núcleo accumbens. La resonancia magnética detectó incremento de actividad en esta zona, asociada a sensación placentera o de relax, pero también informó de que existen otras zonas más del mismo cerebro que en cierta manera se ven afectadas cuando procesamos información musical. Por otro lado las investigaciones de Valorie, permiten afirmar que la sensación de Núcleo Accumbens �71 placer provocado por la escucha musical, es un factor de “recompensa intelectual” y que tiene claras bases y fundamentos neurobiológicos. También estos estudios desvelaron como la actividad provocada por la música en otras zonas del cerebro, tiene que ver con áreas que rigen más el procesamiento tanto de información sensorial, como emocional y motora. No obstante, estos estudios revelaron también un dato muy interesante. Las personas reaccionan diferentemente las unas de las otras ante estímulos musicales, pero el hecho de que esto suceda no invalida los resultados de la experiencia realizada por los investigadores. Al contrario la refuerzan ya que como indica Valorie, el hecho de que sintamos más o menos placer al oír música, tiene que ver fundamentalmente con un factor de “recompensa predictiva”, es decir, sentimos en relación al efecto que aquel estimulo evoca en base a nuestra recuerdo pasado. Este concepto es muy importante, ya que nuestro cerebro es una autentica maquina que busca la autorecompensa. Sería básicamente como si el cerebro buscase (en la fase de búsqueda es donde se produce dopamina a raudales) “doparse” desesperadamente con aquellas actividades ligadas a aquellos recuerdos que produjeron placer en el pasado. El hecho de que nos guste tanto la música, es porque ésta nos ayuda a recordar hechos placenteros pasados. Así podemos revivir momentos concretos, es como viajar con una maquina del tiempo y poder volver a vivir aquellos momentos que nos produjeron más felicidad o recuerdos más hermosos y agradables. Esta investigación, por consiguiente descubrió que existe un puente de comunicación entre el núcleo accumbens y el córtex auditivo. Dicha comunicación es directa, ya que la escucha musical produce instantáneamente la actividad de dicha zona cerebral y éste córtex a su vez la directa implicación del núcleo accumbens. A partir de dichas sensaciones, sentiremos un tipo de emociones u otras, en función por así decirlo del recuerdo que dichas músicas han dejado en nuestro cerebro. �71 Por último, permítanme mencionar al gran Aristóteles, famoso filósofo griego que acuñó la idea de lo que hoy llamamos “experiencia de aprendizaje asociativo”. Dicha teoría afirmaba que cuando dos acontecimientos suelen ocurrir en el mismo tiempo, la aparición de una traerá la otra a la mente. En el cine, la música es el segundo protagonista absoluto por detrás claro está de los diálogos. Es tan importante para el director que en ningún momento dejará que ésta se oculte tras un colchón sonoro ambiental (lluvia, viento, trafico). Por el contrario, la música siempre va a mantener su presencia y su poder evocador porque el propio director sabe que es el camino mas rápido y directo al corazón del público. La música a pesar de su fuerza y de su importante papel para la narrativa cinematográfica, se nos presenta de diferente manera cuando analizamos los tres estilos de hacer sonido, el oriental, americano y europeo. Podemos concluir como en el ejemplo de sonido oriental, que la música adquiere un papel muy protagonista. Yo diría que hasta incluso esencial en la forma en la que se va presentando a lo largo del metraje. No es una banda musical incidental sin más. Si se considera que una película es una serie de imágenes artificialmente unidas en el montaje, entonces la función de la música tratada como banda incidental, consiste en soldar esos fragmentos para que el espectador lo perciba como una secuencia única y compacta, pero sin pretender posicionarse como protagonista absoluto. Sin embargo, podemos comprobar como en el cine oriental, la música asume un rol de autentico lujo, adquiriendo personalidad propia, y dotando a la cinta de un ritmo perfectamente marcado incluso en las secuencias mas lentas y repetitivas. La música se percibe aquí no como un mero acompañante de la historia sino como otro actor más de la narración. En el sonido oriental, el cine es realmente tridimensional, desde una percepción puramente sensorial. �71 No solamente porque aceptamos la bidimensionalidad de la imagen en una pantalla, en gran medida, gracias a la fotografía y a la óptica, sino sobre todo porque hay un elemento importante igual o más que la propia imagen, y ese es el sonido, que dota a la cinta de una auténtica tridimensionalidad. La música permite “tocar” al espectador, se mueve a su alrededor, es mucho más próximo y cercano, y por consiguiente más provocador que la propia imagen. Recordemos por ejemplo la secuencia de la película “Tesis” de Amenábar y su genial uso del sonido durante el examen que hace la protagonista de la cinta de video en el salón de su casa. Todo fenómeno acústico tiene como causa un elemento físico que lo produce. Es la 487 elevación de nuestra atención y por consiguiente el procesamiento de dicha fuente sonora, lo que permitirá al espectador vincular estas nuevas sensaciones a la proyección de la propia cinta cinematográfica. Podemos incluso comprobar la gran importancia que tiene la música en el sonido oriental al ver como está tratada técnicamente a través del montaje multicanal. Hay momentos donde la música se presenta en formato estéreo de pantalla sin mayor apoyo sonoro de ningún otro material en ningún otro canal. Podemos concluir diciendo que la música de este estilo de hacer sonido, es responsable de evocar y provocar sentimientos y emociones en el publico con la misma fuerza con la que lo puede provocar la imagen. La música adquiere protagonismo total, sin que en ningún momento oculte o interfiera con los diálogos de los personajes. Por el contrario, la música del cine americano y europeo, adquiere otro tipo de protagonismo. Es un protagonismo más secundario, funcionando más como acompañante que como estrella principal. SCHOOLMASTER, M., Kopco, N., and Shinn-Cunningham, B.G.. Auditory Distance Perception in Fixed 487 and Varying Simulated Acoustic Environments. J. Acoust. Soc. Am., 115, p. 2459, 2004. : los autores confirman que la onda sonora se comporta diferencialmente dependiendo del espacio fisico (altura techos, distancia paredes) produciendo diferentes tipos de percepción en el público. Esta es un efecto que el sistema DOLBY minimiza a través de su software de descodificación. �72 Además no olvidemos que la música aquí por el contrario, tiene la función de seguir al personaje, de acompañar a los actores, y presentarse casi como un segundo diálogo para el espectador. Es una función que responde más a los cánones con los que se trabaja en el mundo occidental, ya que la música se concibe como la traducción sonora de la personalidad de cada personaje de la pantalla pero en ningún caso roba protagonismo a los actores. Es un mero acompañante casi silencioso, pero que aporta fuerza y profundidad a cada protagonista. Digamos que aquí el estilo de hacer música tanto europeo como americano, es capaz de provocar sentimientos, pero de una forma menos directa y potente que en el sonido oriental. Funciona por el contrario como una música meramente incidental pero con relación a cada personaje de la película. Además su tratamiento es mucho más complejo ya que la banda musical tanto en el sonido americano como en el europeo viaja a través de los 6 canales principales, C,L,R,LS,RS,LFE. En el oriental, nos encontramos únicamente con canales LR o como mucho cuadrafónicos LR, LS y RS. Un elemento importante es descubrir como la música en el sonido americano se apoya más en el diseño musical de efectos, que en el sonido europeo. Este ultimo es mas realista, menos subordinado a la creación sintética de tonos y efectos de sonido. En cambio podemos comprobar como el estilo americano basa una parte de la creación musical en el uso de modificadores electrónicos de sonido, frecuencias, osciladores y filtros para obtener texturas sonoras surrealistas y totalmente novedosas. Es la creación efectista sonora la que tiene protagonismo para el músico de un cine americano, mientras la técnica europea, trabaja mas la interpretación y composición real de las bandas musicales de modo y forma que se convierten en parte real de la imagen. No olvidemos como el cine europeo es mas realista, mas anclado en la realidad vital del ser humano, y lo que intenta transmitir son sentimientos y emociones a través de la �72 textura instrumental sin artificios ni modificadores sonoros. Si hablamos de efectos sonoros o de colchones ambientales, tenemos que concluir que el sonido oriental busca más el minimalismo sonoro que la estridencia del efecto. Es más, incluso podemos decir que el silencio tiene su propia presencia y dinámica, y que comparte protagonismo con la banda musical. Éste estilo de sonido trata de cubrir los ambientes básicamente en tres canales fundamentales L, C y R de pantalla, pero deja prácticamente sin contenido a los restantes surround y sub-grave. Es una manera de influir en el espectador y de hacer que éste centre toda su atención en los que sucede delante de sus ojos y no detrás. No hay distracción posible con los canales SUR lo que aumenta el foco de atención sobre la propia pantalla. En el sonido americano y europeo, el concepto es diferente. El director quiere sumergir al espectador en la acción, en lo que acontece a los personajes, necesita convertir al publico no en un mero oyente, sino en un participante más de la película. Esto lo consiguen utilizando los canales completos 5.1 y basándose en la técnica de inmersión sonora total. En el caso del sonido americano gran parte de los ambientes se crean artificialmente a través de la manipulación que el musico realiza de tonos y frecuencias, es decir, el propio músico es responsable de la creación de la propia banda ambiental, mientras que en el sonido europeo, los ambientes provienen del mundo real, de colchones sonoros físicos totalmente identificables. Todos estos conceptos sonoros funcionan a la perfección a la hora de provocar respuestas emocionales en el publico, pero lo hacen partiendo no solo de técnicas diferentes sino también de sonoridades diferentes. El cerebro humano capta el mundo sonoro que el director añade a su película, siempre con el objetivo de influir en el alma del espectador, pero lo hace atravesando caminos diferentes, en algunos casos mas directos al objetivo buscado, y en otros el �72 director busca caminos mas sutiles, mas ingeniosos, ingrávidos, etéreos antes de llegar a la meta buscada. Por eso, y resumiendo las conclusiones a las que he llegado a lo largo de este trabajo diré que: 1) Dos son las tendencias básicas del cine oriental. Por un lado comprobamos como el estilo oriental de hacer sonido, responde a un concepto cultural, milenario y minimalista, de sonidos básicos, puros, estéticamente conceptuales, espirituales. Por otro, la necesidad de evolucionar y occidentalizarse (globalizarse), pero eso si, sin perder sus propias raíces y condicionantes culturales. El sonido oriental, aunque tiende a buscar nuevos horizontes que lo acerquen al mundo actual moderno y desarrollado, lo hace utilizando un canal propio, un método de trabajo donde la base de éste sea la pureza de la expresión sonora, respetando su virginal esencia. La intención del minimalismo, no es otra cosa que expresar emociones, sentimientos y sensaciones a través de la sencillez estética, a través del retorno a lo artísticamente primigenio, simple y puro, es decir, es una tendencia artística que sólo utiliza materiales básicos y estéticamente sencillos en las formas y en el fondo. Se deshecha todo lo que resulta accesorio, todo lo que sobra y todo lo que es fruto del artificio artístico. Se focaliza de éste modo, la intención en la sencillez sonora del mensaje y su básica expresión, lo que incrementa su valor añadido. De ésta manera se consigue llegar al espectador co mucha más fuerza y con más emoción, ya que el público y el sonido serán capaces de sintonizar rápida e intensamente. 2) Por otro lado, el sonido americano centra su objetivo en un estilo mas occidentalizado, menos amante de lo minimal y del detalle. Es el sonido multicanal de carácter inmersivo total 5.1 que tiene como objetivo el barroquismo sonoro, la explosión de la expresión sonora, como camino fundamental para llegar a impactar en el espectador. �72 El director busca llegar al publico a través de toda una serie de claves y técnicas para convertir al espectador en participante activo de la película, para sumergirle en la acción. Podemos añadir si cabe que, a la hora de distinguir estéticamente el cine norteamericano del europeo que hay que hacer referencia a las diferentes intenciones que éstos persiguen. El cine americano, o mejor dicho, la intención sonora del cine americano busca simplemente entretener, es la “industria cinematográfica” en su pura esencia, mientras que el europeo está más interesado en reflejar la realidad, sin artificios sin concesiones, sin venderse a un sonido exageradamente grande, ampuloso, que robe protagonismo a la imagen, sino que conviva perfectamente con ella y sepa reforzar con realismo las situaciones, los caracteres de los personajes, etc. 3) El cine americano es “comercial” y el europeo “artístico” aunque en este caso, no olvidemos que se tratan de películas orientadas más para pequeños públicos si así lo podemos decir. Son cintas pensadas no para la comerciabilidad de masas, sino para la estética artística. Lo que sucede es que el sonido americano sigue influido por una técnica cuyo carácter es mas sofisticado y más basado en la necesidad de impactar y abrumar al espectador, mientras que el sonido europeo, busca más una estética sonora basada en el realismo funcional y en reflejar fielmente la esencia del mundo que nos rodea. 4) Por ultimo quisiera volver a recordar como dije ya al principio de mis conclusiones, que seria necesario analizar un numero mayor de películas, incluyendo otros directores para poder corroborar con mayor precisión mis afirmaciones. Este trabajo, deja abierta la puerta para continuar con la vía de investigación, y profundizar aún más si cabe en el mundo sonoro cinematográfico. 
 �72 26 Apéndice 26.1 Apéndice 1 Lev Kuleshov cineasta ruso, nació en la ciudad de Tambov en 1899. No se puede entender el cine, sin las claves y la teoría narrativa del montaje que él investigó durante tantos años. Amante del cine americano, le toca vivir una época en Rusia con un cine marcadamente dramático. Sus primeros trabajos como realizador se enfocan más a la temática policiaca como en "Proiekt inshenera Praita" (El proyecto del ingeniero Pright - 1918). Al estallar la guerra civil en Rusia el siente la necesidad y el deber de alistarse, y así lo hace desde 1918 al 1920, periodo que también aprovecha realizando pequeños documentales como Na krasnom fronte (Sobre el ojo - 1920). Al regresar de la guerra, colabora activamente en la creación de la primera escuela de cine del mundo, la “Escuela de cine de Moscú” donde más tarde trabajaría como profesor. En 1922 crea en la escuela de cine, el grupo de investigación “El Laboratorio” un grupo de experimentadores de cine con personas tan importantes como Serguéi Komarov, Vladímir Fogel, o Leonid Obolenski. El revolucionó la forma de enseñar, y la técnica de la interpretación ayudando incluso también a la formación de directores, como el propio Eisenstein, que asistió a sus clases en calidad de oyente. Lev Kuleshov, representa un valor importante para poder entender el significado del cine y el método de montaje que incluso hoy en día se sigue utilizando. Más que por sus películas o documentales, Lev se dio a conocer por ser un experimentador e investigador de las técnicas de cine, del lenguaje narrativo, y de los métodos de montaje. Interesante es recordar, que por motivos económicos, problemas de presupuesto para acceder a �72 material celuloide virgen para rodar, Lev concentra mayoritariamente su trabajo en situaciones teóricas de rodaje, y de esta forma imitar situaciones reales e investigar sobre mejoras y técnicas empleadas. Entre sus trabajos más conocidos cabe señalar por ejemplo, "Las extraordinarias aventuras de Mr. West en el país de los bolcheviques (1924)" donde lleva a la práctica la gran mayoría de sus teorías como investigador- docente, y ”Luch Smertj" (El rayo de la muerte - 1925) con guión de Pudovkin. En 1935 fue condecorado con la distinción de “Excelente Artista". Su importancia y fama, radica en sus experimentos cinematográficos como el que realiza jugando con un mismo plano, un primer plano inexpresivo de un actor. No olvidemos que él fue un gran investigador y teórico de las técnicas y métodos de montaje y narrativos cinematográficos. Posteriormente, él intercala en montaje este plano con tres totalmente diferentes y que no tienen ninguna relación entre ellos. (V1) El público creyó ver la variación expresiva del personaje y un contenido diferente, según a qué imagen se lo asociara y este experimente recibió el nombre de "Efecto Kuleshov”. V1 �72 26.2 Apéndice 2 El director Stanley Kubrick, nace en New York un 26 de Julio de 1928. Es realmente una persona polifacética con múltiples gustos en diferentes actividades como son el ajedrez, la lectura, el cine, la fotografía. Sus primeros trabajos ya como director fueron varios documentales rodados a comienzos de los años 50, entre los títulos 488 encontramos, “The seafarers” (1953)“, Flying Padre” (1951), y “Day of the fight” (1951). Kubrick fue sin duda uno de los profesionales más influyentes del siglo XX y XXI, que ha sabido trabajar más y mejor el simbolismo, presente en casi todos sus trabajos. La pasión que el ponía en cada rodaje, la búsqueda casi podríamos decir que hasta “enfermiza” de la perfección y su técnica depurada de trabajo, le han convertido en todo un referente dentro del cine universal. Era un gran admirador de Fritz Lang, John Houston y Sam Fuller. Profesionalmente destacó no solo por su arte y el sabio manejo del ritmo narrativo y de la dirección de actores, sino también por su tendencia a controlar sus películas desde la preproducción ESCUDERO VILARIÑO, N., Las claves del documental, IORTV, Madrid, 2000.: dependiendo de la 488 terminología empleada en los documentales, estos pueden ser libres, predefinidos, postdefinidos o controlados. �72 hasta la venta de las mismas. Le gustaba rodearse no solo de buenos profesionales, sino controlar el mismo y supervisar todos los procesos creativos de sus largometrajes. En 1968 estrena la película “2001 una odisea del espacio” una adaptación soberbia del libro de Arthur C. Clark. Por este trabajo, fue nominado al premio Oscar al mejor director, pero se llevaría en cambio, dos estatuillas, una por mejores efectos visuales y otra por mejor guión . Stanley Kubrick se convirtió con esta cinta en un director no solamente aclamado por la critica en general, sino también en un referente del séptimo arte. Conforme su fama crecía, desgraciadamente también se fueron desarrollando en el carácter de Kubrick una serie de enfermedades, fobias psicológicas, maníaco obsesivas, que agravaron sin duda su miedo a viajar y su tendencia a evitar los espacios abiertos (agorafobia). Kubrick se fue encerrando lentamente en un universo muy pequeño, preso entre las paredes de su mansión en Inglaterra, cuando se trasladó definitivamente a vivir allí, de sus miedo y fantasmas, de su pánico a viajar en cualquier medio de transporte incluido el coche. Poco a poco Kubrick precipitó en un mundo terriblemente cerrado y paranoico, en un mundo lleno de manías y de inseguridades. Desde Inglaterra él rodara el resto de su obra cinematográfica. �72 La película “2001”, destaca por su belleza narrativa, su espectacularidad visual y sobre todo por un guión soberbio donde cada personaje esta escrito y estudiado con preciosismo y detalle, como a Kubrick le gustaba trabajar. Sin duda esta película es una joya del cine de todos los tiempos. Es la eterna lucha o confrontación entre el hombre y la maquina, los ordenadores. Es un clásico que no pasará nunca de moda, porque es totalmente atemporal, y su esencia sigue presente hoy en día. Estamos ante dos realidades contrapuestas, el ordenador y la inteligencia humana que se ponen a prueba en la película, con una 489 famosa partida de ajedrez entre Frank, el astronauta protagonista y HAL (el ordenador de abordo). “2001 Una odisea del espacio" es una película clásica, épica que contiene unas imágenes tan espectaculares como el diálogo de los personajes. Si hablamos de simbolismos en el cine de Kubrik, sin duda esta cinta es el mejor ejemplo que podemos encontrar. Este simbolismo, es el que da valor añadido a la película, aumentando si cabe así, el impacto que el espectador recibe de cada fotograma, de cada imagen. Esto sucede porque la historia se nutre de ese inconsciente colectivo que representa el hombre, el universo, la creación, Dios el Ser Supremo etc. BLAUERT, J. Spatial Hearing: The Psychophysics of Human Sound Localization, MIT Press, Cambridge, 489 1996.: la estructura neuronal del cerebro humano, se esta reproduciendo en patrones automáticos de comportamiento a nivel informático, basados en conducta predictiva sistematizadas y que se reajustan con los input de entrada. �72 26.3 Apéndice 3 ProTools (V9) es una plataforma digital orientada a la postproducción de sonido para cine, video o televisión. Las características del sistema ProTools y de su flujo de trabajo, son inigualables en la industria. Es simplemente más rápido, más fácil y más productivo para cualquier tipo de realización audiovisual . Protools es la plataforma de audio profesional líder en todo el mercado mundial, desde la TV y el Broadcast, hasta el cine o la música. AVID ha invertido millones de dólares en el desarrollo de esta herramienta capaz de realizar tres funciones profesionales básicas e importantes: grabación, edición y mezcla/masterización. Como he afirmado anteriormente ProTools es la herramienta utilizada por excelencia en el sector cinematográfico. Llevo utilizando ProTools desde hace 25 años, por su potencia, flexibilidad, y por las grandes cualidades a la hora de V9 �73 trabajar con pistas multicanal en cualquiera de los formatos de sonido envolvente . ProTools es compatible con todos los formatos de sonido imaginables, tanto en software y hardware, DOLBY, SDDS, DTS etc. Los primeros ordenadores que salieron al mercado orientados al mundo del sonido lo hicieron con programas como CREATOR y PRO24. Eran programas basados en secuenciadores MIDI básicos que verían más tarde su evolución con programas como 490 LOGICPRO y CUBASE de STEINBERG. Al principio de la informática musical es decir 491 de la informática aplicada al sonido, ningún otro programa incluía mejoras profesionales que no fuesen la pura y dura secuenciación midi . Por esto los principales clientes de 492 estos programas eran fundamentalmente músicos y compositores en general. Años mas tarde aparecería finalmente la empresa americana DIGIDESIGN, que dio lugar al nacimiento de este increíble software ProTools. La primera versión de este programa recibió el nombre de Sound Tools capaz de mover archivos midi y archivos de audio en una misma sesión o proyecto de trabajo. Ninguna otra aplicación hasta aquel entonces había podido mostrar en una pantalla de ordenador la forma de onda de la voz de un cantante o instrumento musical con la 493 posibilidad de poder editar y manipular el audio de una forma totalmente revolucionaria.
 RUMSEY, F. MIDI Systems and Control, Focal Press, Oxford. 1994.
490 : Forma de conexión de diferentes sintetizadores con equipos informáticos. A través de este protocolo de conexión se pueden crear composiciones musicales, interconectar equipos y modelos de síntesis sonora y manipularlas como archivos informáticos. DODGE, C. and Jerse, T. A. Computer Music synthesis, composition and performance, Schirmer Books. 491 New York, 1985.: el desarrollo de la informática dentro del campo musical ha sido exponencial con el paso de los años. Se han ido desarrollando dos vais de investigación: la primera trata del desarrollo de librería de sonido de síntesis musical, y la segunda sobre la creación de herramientas informáticas que nos permitan una mejor y más perfecta manipulación de los archivos algorítmicos de sonido. MANNING, P. Electronic and Computer Music, Oxford University Press.Oxford 1987. El autor comenta 492 que este protocolo de comunicación entre un instrumento y un ordenador, permite la creación de eventos midi que incluyen datos informáticos en cuanto a la nota tocada, su duración y la presión con la que se ha tocado esa nota.. Es decir, datos informáticos. OTONDO, F., Rindel, J.H., Caussé, R., Misdariis, N., and Caudra, P. Directivity of Musical Instruments in 493 a Real Performance Situation. Proc. Int. Symp. on Musical Acoustics, Mexico City, 2002. pp. 312–318.: realizan un completo estudio sobre las características de direccionalidad de los instrumentos musicales y de su respuesta según su colocación en sala y de la estructura física de esta. �73 Con el paso de los años, estos dos mundos audio-midi, han ido estrechando sus lazos y sumado sus fuerzas. Hoy en día, los programas de secuenciación MIDI han incorporado también capacidad para trabajar con sonido multicanal y por consiguiente programas como DIGITAL PERFORMER o NUENDO son ahora también susceptibles de gestionar sonido para cine y TV. Ya sea como resultado de las evoluciones técnicas o por la intención de sus desarrolladores, ProTools sigue siendo líder en todos los estudios del mundo, como también en los HOME STUDIOS, del más puro y potente SONIDO DIGITAL. Uno de los elementos diferenciadores entre Protools y otras aplicaciones audio/ midi, es sin duda el host de instalación del sistema. Digidesign/Avid utiliza la tecnología de multiplexado TDM de la señal de audio, capaz de mover hasta 256 pistas de sonido. Además Protools desarrolla una tecnología digital de proceso de señal que recibe el nombre de Audiosuite capaz de apoyarse en los procesadores DSP de las propias tarjetas PCIe de Digidesign. Esto convierte a Protools en una herramienta potente, funcional y única para la 494 postproducción de sonido en proyectos cinematográficos, o corporativos. Logic, Cubase y otros como Nuendo, utilizan los procesadores DSP de la propia placa del ordenador, de forma nativa; esto provoca una cierta latencia de flujo de datos y consiguientemente el posible efecto de latencia entre las distintas pistas de audio de la sesión. Hoy en día AVID empresa de sonido e imagen americana ha comprado DIGIDESIGN.
 Protools debe su fama, a la gran estabilidad del programa tanto en plataformas Mac como Pc y al increíble equipo I+D de AVID que ha sabido desarrollar con sabiduría y profesionalidad esta herramienta tan potente y útil.
 Una de las razones de éxito de Protools, es la presentación de su interfaz, que El sistema Protools como plataforma de sonido digital, permite la manipulación del sonido y su 494 adecuación a los formatos cinematográficos o televisivos que representan el standard en el mercado internacional. �73 recuerda a un reproductor/grabador tradicional lo que ha permitido a muchos profesionales del sonido acostumbrados a trabajar en el mundo analógico pasarse sin muchos traumas a la tecnología digital.
 Actualmente Avid propietaria de la plataforma Protools, esta desarrollando equipos digitales controladores de audio, capaces de trabajar en conexión con el software de edición y de brindar nuevas potencialidades tanto a pequeños como grandes estudios de postproducción y grabación de sonido. Las herramientas desarrolladas para Protools se orientan a la manipulación de archivos de audio a través de plugins de terceras partes . Estos plugins permiten editar de forma profesional cualquier fichero desde la dinámica, la frecuencia, la modulación etc. Existen muchas empresas dedicadas a la fabricación de efectos como MCDSP, WAVES o OXFORD y cada día son más los que deciden trabajar bajo la plataforma Protools por su potencia, eficacia y facilidad de uso. Protools se convierte también en una herramienta necesaria, cuando decidimos trabajar en grandes proyectos que contienen un gran numero de pistas. Un ejemplo lo tendríamos con la postproducción de sonido de la película “El Señor de los Anillos” que ha necesitado un total de 600 pistas de sonido para completar el montaje sonoro de la cinta. Es decir, se convierte en un grabador multipista tradicional pero con la potencia y versatilidad del mundo digital ya que posee determinadas herramientas capaces de acelerar y potenciar el flujo de trabajo. Por ejemplo podemos utilizar la herramienta de pistas auxiliares que permiten agrupar zonas enteras de edición (pistas de sonido) o por ejemplo los playlist, para añadir cuantas tomas de sonido queramos en una sola pista de audio, y de esta forma poder editarlas con mayor rapidez y eficacia (ideal para doblajes y efectos sala). Existen diferentes sistemas y formatos del programa ProTools, según el hardware o equipo físico con el que queramos trabajar. Versiones y formatos: �73 Entre todos los sistemas Protools, el más alto de gama y sin duda más extendido por su potencia y versatilidad en el mundo es la versión HDX con nuevos procesadores DSP y potencia de ejecución. Le sigue de cerca la versión HD-ACCEL con procesadores mas limitados y con una menor capacidad de carga, y finalmente la versión HD-NATIVE capaz de trabajar con una tarjeta de audio interna PCIe más económica y con una 495 nueva interfaz digital, el OMNI capaz de aceptar input de linea o micrófono.
 Es una tarjeta de sonido externa. Muchos sofware de edición de audio necesitan este tipo de hardware 495 para funcionar correctamente.
 �73 26.4 Apéndice 4 Ben Burtt, nació en Jamesville Nueva York, Estados Unidos el 12 de julio de 1948, actualmente es, director, productor y por si fuera poco editor de montaje. El señor Burtt, es reconocido, por su participación en varias películas, que han sido grandes éxitos de taquilla, en los Estados Unidos, y en otros países. Entre estas películas, podemos nombrar “Wall E, Viaje a las Estrellas”, o “Star Wars ” episodio primero (“La Amenaza 496 Fantasma”) y también en otras películas de la conocida saga Star Wars. Burtt, es conocido, por haber sido el encargado de la edición y montaje de sonido, de películas de ciencia ficción, que tratan sobre aventuras espaciales, y batallas galácticas. El señor Burtt, consiguió graduarse en la Universidad de California del Sur, en 1975, y estudió en la Escuela De Artes Cinematográficas, donde consiguió la categoría de Maestro de Bellas Artes, en la rama de producción cinematográfica, gracias al enorme talento y desempeño que mostró en esta disciplina. La carrera del señor Burtt, no pudo tener mejor comienzo, pues como cineasta, fue uno de los miembros del departamento de sonido, de la productora LucasFilm, encargada de realizar las películas de la saga Star Wars. Aquí, fue el encargado del diseño y creación del idioma de los Ewoks, que son las pequeñas criaturas peludas, que aparecen en el episodio VI de la saga, (El Retorno del Jedi). Para conseguir credibilidad y realismo en el efecto sonoro de este inexistente idioma, Burtt, se inspiró en otro muy diferente, el KNOLL, John; Rinzler, J. Creating the Worlds of Star Wars: 365 Days, Harry N. Abrams Edition. LA, 496 2005: el autor comenta lo importante que fué por ejemplo en la saga galáctica de STARWARS, las innovaciones que se introdujeron a nivel de sonido probando por primera vez un sistema de 4 altavoces multicanal que recibió el nombre de sistema cuadrafónico de sonido, bajo el formato Dolby digital. �73 Calmuco. El idioma Calmuco, es una lengua que se habla en el sur de Rusia, y las gentes que viven en el oeste de China, y en la parte oeste de Mongolia, por lo que éste idioma pertenece a las lenguas mongólicas. Tras el rotundo éxito cosechado por “Wall E”, el señor Burtt, también participó en la mítica saga de Star Trek, dirigiendo el departamento de sonido de la productora, encargada de realizar esta película. Gracias a su excelente trabajo, Ben Burtt, ha obtenido la nada desdeñable cantidad de 13 Oscars, y de igual manera, ha sido nominado para el Oscar, en numerosas otras ocasiones. No podemos pasar por alto que en el mundo del cine, es tan importante lo que se ve en la pantalla, como lo que se oye. Para lograr los geniales efectos de sonido de las películas de la saga Star Wars, Burtt, se ha valido de toda una serie de trucos, y genialidades, que han contribuido a crear una leyenda entorno a su persona y trabajo. Para crear por ejemplo el efecto sonoro de la respiración del malvado Darth Vader, Burtt, usó un micrófono instalado en el interior del respirador de un equipo de buceo, lo que le daba al malvado Vader, una presencia, imponente en la pantalla, haciendo incluso que cambiase hasta el ambiente de la escena. Si hablamos en cambio del famoso sonido de las espadas láser, éste genial técnico, utilizó el motor de un viejo proyector, que tenía en su estudio, para obtener el sonido del encendido y apagado de las espadas. En cambio, para crear el efecto del movimiento de las espadas láser, lo que hacía Burtt, era acelerar y desacelerar a velocidad variable, el motor del viejo proyector, lo que originaba, ese sonido tan peculiar de las espadas de luz de los caballeros Jedi al moverse y chocar entre si. Otro efecto, que demuestra la genial mente creativa de este gran artista, fue sin duda, el rugido de las turbinas de las naves espaciales de la saga. Para conseguir este efecto, Burtt, se basó en el sonido de los motores de coches deportivos de alto rendimiento, como el Ford Mustang, o el Porsche. En el caso de las vainas de carreras, �73 que aparecen en el primer episodio de la saga, “La Amenaza Fantasma”, Burtt, hizo que cada vaina sonara de forma diferente, para que el espectador tuviese la sensación de que cada vaina, funcionaba independientemente de forma distinta. La cosa no quedó ahí, ya que Burtt, también fue el encargado de dar vida a Chuwaka, que es el el personaje peludo que acompañaba al intrépido Han Solo. Para conseguir la voz de Chuwaka, Burtt, realizó grabaciones, de sonidos de osos, tejones, y morsas, y luego cogió partes de estas grabaciones, y las editó, mezclando cuidadosamente cada efecto de sonido, dando más volumen a uno u otro efecto, en función del grado de emoción que mostraba el personaje en cada momento de la escena. En el caso del personaje de R2 D2, Burtt, intentó valerse de un sintetizador, para darle humanidad a tan singular androide, pero no lo consiguió. Así que tuvo que pensar en otra cosa, y se le ocurrió usar silbidos, y ruidos, que le daban a R2 D2, una apariencia cómica pero a la vez humana. En resumen, Ben Burtt es el perfecto icono de aquellos técnicos y artistas sonoros que han logrado, con su esfuerzo y trabajo, crear una nueva e importante profesión: la de diseñador de sonido. En la actualidad Ben, trabaja para varias productoras y compagina este trabajo con la labor docente en universidades y centros educativos. �73 26.5 Apéndice 5 Datos profesionales de Marco De Gregori Formación: Curso de Doctorado en Comunicación Audiovisual y Publicidad por la Universidad Complutense de Madrid, desde 2009. Realización de investigación sobre la influencia de la acústica en los procesos comunicativos para el departamento del director Manuel Siguero Guerra colaborador del CESID. Curso de Producción y Postproducción de sonido para Video y TV, Diseño de sonido y diseño de postproducción.Técnicas de captación de sonido, montaje, edición y mezcla, para programas, spots, y series de TV, en el centro NIC de Madrid 2004 - 2003 Curso de Postproducción Digital de sonido para Cine, Montaje y diseño de sonido, ambientes, mezcla y premezcla digital de sonido. Utilización de plugins y automatización en el centro Nic Instituto del Cine de Madrid 2003 - 2002 Curso de Sistema de Sonido Digital Pro-Tools. Especialización en técnica y operativa en el centro NIC de Madrid 2002-2000 Curso de Sonido y técnicas audiovisuales. Teoría del sonido e imagen. Técnicas avanzadas en producción y postproducción. Captación de sonido para cine, Tv y �73 documentales. Especialidad en técnicas de sonorizacion y grabación de espectáculos teatro, musicales, conciertos en el centro ACG de Madrid 2002 - 2000 Curso de Operador de ProTools para producción y postproducción de audio digital para Cine y Video Técnicas de grabación, limpieza de archivos de sonido, postproducción y mezcla digital en el centro MacBeat de Santa FE New Mexico USA 1995. Curso superior de Recursos Humanos por el Instituto Universitario de Administración y Dirección de Empresas (ICADE) en Madrid 1987. Industrial & Organization Psychology Course Texas A&M University – College Station (Texas, USA) 1981 Licenciado en Psicología por la Universidad Complutense de Madrid 1980. Experiencia: Postproducción de sonido para los audiovisuales de la agencia publicitaria Ingenia QED de Madrid para la Expo de Shangai 2010. Sonido Directo y postproducción de sonido para el documental “Chava Jimenez” del realizador Gonzalo Martín para TVE, 2009. Productora FictionLine de Madrid 2009 - 2008: �73 Captación de sonido para programas en directo en platós, exteriores, cuñas de radio, programas radiofónicos, montaje de sonido y mezclas para cine y publicidad en Tv, Web, videos corporativos y material multimedia. Largometraje: Sinfonía de Ilegales de Luis de Arquer : mezclas y masterización DVD Trabajos realizados para empresas y organismos públicos. Institucionales: ExpoZaragoza 2008 (realización del montaje sonoro para los pabellones OIKOS, Ingenia, Roma), Comunidad Castilla la Mancha, Comunidad, Valenciana, Comunidad de Madrid. Exposición Luz de las Imágenes de Valencia, Comunidad de Aragon, Comunidad de Baleares. Spots: Aseguradora Mapfre, Endesa, Arena Group de Estados Unidos, Grafia, Contraluz, Linea Directa, Zitro, SecuritasDirect, CocaCola, Video para La Fundación Real Escuela Andaluza del Arte Ecuestre, Acciona. Productora ImagenLine de Madrid 2007 - 2006: Producción, post-producción de sonido y mezclas para videos comerciales, spots de Tv. diseño de efectos y ambientes, sonorización programas, video Instalaciones, grabaciones musicales, y presentaciones multimedia, sonido directo para entrevistas en plató y exteriores, programas de radio y cuñas de publicidad en la productora ImagenLine de Madrid 2007 - 2006 Institucionales: �74 Fundación CocaCola, Ingenia 2010, Adif, Acciona, Aetic, Cumbre Iberoamericana, Corporativo RTVE Spots: Powerade, Zitro, El Corte Inglés, Club Internacional del libro, Ivory Press, Museo Reina Sofia de Madrid, Corporativo: RENFE, OpenCor, Casino Balck&REd, Powerade, CPhoto Magazine. Series de TV: El Hombre y la Tierra: limpieza de sonido y remasterización de todos los 497 capítulos para DVD. Elaboración de la banda Internacional para doblaje a otros idiomas. Profesor de Sonido en el Instituto Europeo di Design IED de Madrid 2008 -2006. Técnico de sonido: Estudio Taller de Sonido (Madrid) 2006 - 2000: Sonido para videojuegos y producciones multimedia. Técnico de sonido para el estudio ‘Ton y Son’, bajo las ordenes del locutor Rafael Taibo en Madrid 1995: Grabación de doblajes, locuciones, entrevistas y programas radiofónicos, cuñas, montaje de sonido para spots de publicidad. Técnico de sonido para el estudio ‘Arte Música’ de Madrid 1994 - 1993: Técnico en grabación y post-producción de sonido para documentales, publicidad, cuñas radiofónicas, y masterización de música, sonido directo para programas de Tv .498 MOOREFIELD, V. The producer as composer: Shaping the sounds of popular music., MA: MIT 497 Press.Cambridge 2005.: El productor musical supervisa el master final para después depurarlo. A este proceso se le denomina Remasterización. GUIJARRO, Toni Clara, M. La música, la voz, los efectos y el silencio en publicidad. Cie Dossat. 2003 498 Madrid. El autor comenta que si el master de sonido es para televisión, debe cumplir el estándar de emisión de -10 db. En el caso de la publicidad siempre intentaremos masterizar lo más alto posible, dado que el anunciante compra un espacio publicitario bastante corto en duración y quiere que suene lo más alto posible. �74 Largometrajes cinematográficos (postproduccion, de sonido, sound designing) (http://www.imdb.com/name/nm0208684/) La mina “The night watchman” (M. Angel Jimenez 2016) El Signo de Caronte (Nestor Dennis 2015) Okupados (Eduardo Sainz de Vicuña & Fernando Herrero 2013) Horizontes sin dueño (Nayra y Javier Sanz 2010) Se acabó (Luis Rodríguez 2009) Sinfonia de Ilegales (Luis Arquer 2008) The last sultan of Granada ( J. Balaguer 2008) Cuidate de mi (Javier de la Torre 2005) Plauto (David Gordon 2004) Pasos de Baile (John Malkovich 2002) Chica de Rio (Christopher Monger 2001) Me da Igual (David Gordon 2000) Lágrimas negras (Ricardo Franco 1998) 99.9 (Agustí de Villaronga 1997) La Buena Estrella (Ricardo Franco 1997) - Premio Goya a la mejor película Secretos del Corazón (Montxo Armendáriz 1997) – Premio Goya al mejor sonido Niño Nadie (Jose Luis Borau 1996) La novia de Medianoche (Antonio Simón 1996) Solo se muere dos veces (Esteban Ibarretxe 1996) El Angel de la Guarda (Santiago Matallana 1996) Libertarias (Vicente Aranda 1996) http://www.imdb.com/name/nm0208684/ �74 Grabación y/o postproducción de sonido, sound designing en cortometrajes cinematográficos y proyectos en DVD 2014 - 1994 Casandra (Nacho García) Jet Lag (por tu culpa baby …) Nacho Rodriguez Chicles (David Gordon) Psi (Alfonso Segura) Sombras de la Verdad (Iñaki Crespo) The Encounter (Nayra y Javier Sanz Fuentes) La solución Bolívar (Manuel del Campo) The Anniversary (Nayra y Javier Sanz Fuentes) El Cupón (Manuel Gonzalo) El Album Blanco (F. Viscarret) Notamotof (Ruben Coca) La Corona y la Peineta (Manuel Gonzalo) El ultimo verano (Valle Hidalgo) Elisa Guzmán (Sonia Sebastian) A través de su mirada (J. Silvestre) Seremos como somos (C. Martinez) Heroes (M. Rabadán) La Isla de la Tortuga (J. del Cerro) Señores de Gardenia (Tony Aloy) La Avería (C. Moro) Si (Fernando Alonso) Arena (J. Aronak) Nicotina (Martin Costa) �74 Viejos Perdedores (R. Ordieres) Hambre Hachis (Enrique Bocanegra) Adiós muñeca (Hugo B). �74 26.6 Apéndice 6 HERRAMIENTA DE ANALISIS SONORO: INSIGHT Con el fin de poder analizar adecuadamente el aspecto físico del sonido a nivel psicoacústico, utilizaremos un plugin o herramienta de software denominada INSIGHT de la casa IZOTOPE. Este plugin lo activaremos dentro del programa HOST PROTOOLS que será la encargado de reproducir la banda sonora de las diferentes películas a examen en esta tesis, con el objeto de poder estudiar a nivel de datos físicos cómo ese mismo sonido, en las diferentes secuencias seleccionadas y dependiendo del canal origen de salida, se presenta. A través de INSIGHT vamos a poder analizar 2 elementos fundamentales: 1) SPECTROGRAMA 2) ANÁLISIS DE FRECUENCIAS INSIGHT ofrece una eficaz manera de analizar el audio y unas prácticas herramientas de medición, ideal para poder estudiar las características sonoras de nuestra mezcla a tiempo real, y supervisar así el proceso de edición, o masterización, garantizando que nuestro trabajo final cumpla los requisitos y los estandares de calidad. Este nuevo y potente software de IZOTOPE permite controlar de forma visual y práctica la calidad y características físicas de la mezcla sonora en tiempo real, por medio de un completo menú de diferentes e importantes medidores como son los de nivel, sonoridad, �74 espectrograma, analizador de espectro, vectorscopio, alcance surround, y hasta un gráfico histórico de sonoridad. La interfaz de INSIGHT es practica, funcional y brinda en una única pantalla todos los controles importantes para poder tratar la información de entrada en todo momento, como por ejemplo las indicaciones de volumen por picos o por RMS. 1) Modos del indicador de nivel Pico + RMS Combina dos tipos de mediciones, el RMS y el de Niveles de Pico (True Peak). Este modo medición muestra una barra inferior brillante que representa el nivel medio (RMS) y una barra mayor que representa el nivel máximo. También hay una línea en movimiento pequeña que se encuentra por encima de la barra que representa el nivel de pico más reciente o retención de picos. Los medidores de picos son rápidas capturas de audio que miden los valores de forma de onda analógicas por su pico máximo. Si 499 queremos recortar el volumen de audio en la mezcla de un proyecto, usaremos este medidor para ver los cambio producidos en el material, tanto bajo el punto de vista de media sonora (RMS) como de pico máximo TRUE PAEK METERING. ROSSING, T. The Science of Sound, Reading. Addison-Wesley. MA 1990.: la forma de onda analógica 499 generan lo que se denomina como presión sonora, que será la responsable de aportar la sensación de volumen de sonido. �74 Los medidores RMS muestran el nivel medio calculado en un corto espacio de tiempo. Este método de medición de la sonoridad fue propuesto por el ingeniero de masterización Bob Katz para incorporar un conocimiento psicoacústico del sonido. Insight cuenta con medición de sonoridad según lo recomendado por la Unión Internacional de Telecomunicaciones (UIT-R BS.1770-1, 2 y 3) y la Unión Europea de Radiodifusión (EBU R128). 2) El medidor de sonoridad (volumen) Este plugin, completo en herramientas y opciones de visualización de las frecuencias y dinámicas, ofrece también un completo panel de control de volumen y sonoridad, donde podemos revisar en todo momento, las fluctuaciones en dinámica del sonido, y de esta forma poder corregir a tiempo anomalías o imperfecciones. Se utiliza actualmente para asegurarse que el audio cumple con las regulaciones dadas por el Comité de Normas de Televisión Avanzada y de la Unión Europea de Radiodifusión . Aunque actualmente sólo se utiliza para audio broadcast, se ha descubierto que este método de cálculo de la sonoridad es más representativo para calcular la forma en que percibimos el volumen y es por lo tanto relevante para todos los tipos de audio. Medidor sonoridad multisalida �74 El plugin permite las siguientes mediciones de volumen: Momentáneo: Esta medición es un cálculo de la sonoridad en el transcurso de 400 ms . Este valor sólo se muestra en los medidores de sonoridad con la etiqueta " M". Max momentáneo: Este valor es la medida máxima de la intensidad momentánea en un período determinado de cálculo . Este valor sólo se muestra en la lectura máxima momentánea . A corto plazo: Esta medición es un cálculo de la sonoridad en el transcurso de 3 segundos Esta medida es útil en el seguimiento de las tendencias inmediatas de la sonoridad del audio. Este valor se muestra en el medidor de sonoridad con la etiqueta " S “. integrado: Esta medida es un cálculo de la intensidad a lo largo de un período de tiempo indefinido, incluyendo cualquier umbral de la puerta . Este es un promedio infinito y genera un cálculo de volumen individual para el período total calculado o programa. Sonoridad integrada: se visualiza en el medidor de sonoridad con la etiqueta " I" . Representa la mayor lectura de sonoridad integrada . Rango de Sonoridad : El rango de intensidad dinámica global de todo un período medido en unidades de sonoridad (LU ) . 1 LU es igual a 1 dB. La gama general de sonoridad se calcula con el tiempo y se indica entre paréntesis al lado del medidor de sonoridad integrada y representada en una lectura en tiempo real. �74 Insight cuenta con una herramienta de medición de sonido envolvente que muestra información sobre los canales surround, herramienta que puede ser muy útil durante el proceso de mezcla. 3) Surroundscope El alcance Surround es una muestra estilizada de la amplitud de los canales de sonido envolventes L,C,R,LS,LR. Esta pantalla muestra la relación espacial que existe entre las diferentes pistas, así como el volumen relativo de cada una de ellas. Mientras los medidores de nivel dan lecturas precisas de nivel de señal de cada canal, el alcance Surround es más adecuado para mostrar la presencia de cada canal surround individual en relación con el resto de ellos. Además, el alcance Surround controla la relación de fase entre los canales próximos de audio y muestra una alerta cuando hay una correlación negativa o cancelación de fase. El alcance Surround permite visualizar fácilmente cómo los niveles del canal surround serán percibidos por el público durante la reproducción. Esto puede ser útil cuando necesitamos medir la difusión general del audio en el espacio de sonido envolvente o para la visualización de la ubicación de una pista de sonido envolvente critica. Mientras que las envolventes de amplitud muestran los niveles individuales de canales de audio, el Indicador de balance muestra la ubicación del promedio surround de audio. El Sistema de Alerta de Correlación nos avisa inmediatamente de cualquier problema potencial de fases que podrían indicar un problema técnico con la alineación de su audio. �74 4) Indicador de balance de sonido envolvente El Indicador de balance envolvente se muestra como un punto de color blanco de seguimiento dentro de las diferentes ubicaciones posibles dentro una lectura de 360 grados. La ubicación del punto blanco representa la ubicación envolvente sumando todas las señales de los canales surround . El Indicador de balance nos dará una sensación general de cómo se percibirá la mezcla de sonido por el publico en una sala de 500 exhibición cinematográfica. CRAVEN, P.G., and Gerzon. Practical Adaptive Room and Loudspeaker Equalizer for Hi-Fi Use. 92nd 500 Convention, Audio Eng. Soc., Preprint 3346. Also: UK DSP Conference, M.A. 1992. Paper DSP-12.: las frecuencias emitidas por los monitores o altavoces, se ven modificadas en su sonoridad y timbre por las características físicas de la sala de exhibición. Surroundscope y correlación de fase �75 5) Correlación de fase Además de la representación espacial de la amplitud y el equilibrio, el alcance Surround ofrece alertas de correlación que ponen su atención sobre los posibles 501 problemas de fase entre canales adyacentes. Sólo las señales importantes que son significativamente desfasadas activarán las alertas. 6) Escala de mediación surround Los anillos dentro del medidor, representan precisos niveles de señal RMS de cada uno de sus canales . Señales por debajo de -60 dB RMS no se registrarán como vectores en el medidor de sonido envolvente . 7) El espectrograma ANGUS, J.A.S. Controlling Early Reflections Using Diffusion. 102nd Convention, Audio Eng. Soc., 1997. 501 El autor nos informa de que al utilizar determinados plugin o efectos se pueden desarrollar o aparecer posibles errores digitales, como el de correlación de fase, entre ficheros o pistas y ocasionar serios inconvenientes en las mezclas de la producción audiovisual. �75 El espectrograma proporciona una forma intuitiva de identificar los elementos individuales dentro de la mezcla. El espectrograma también puede mostrar diversos flujos de audio al mismo tiempo mostrándolo en formato 2D y 3D. Un espectrograma es una representación espectral de audio en un determinado momento en el tiempo. El eje vertical representa la frecuencia, mientras que el eje horizontal representa el tiempo. La amplitud se muestra como intensidad de color en el espectrograma 2D y como altura de gráfica en el espectrograma 3D. Un espectrograma permite visualizar las frecuencias que se producen con el tiempo. Esta representación gráfica del audio permite inspeccionar y analizar su mezcla. A diferencia de un analizador de espectro que se controla a menudo en tiempo real, un espectrograma es más útil para el análisis de las frecuencias que componen el audio después de que se han producido.
 �75 27. Bibliografía ALEXANDER, R.C. The Inventor of Estéreo—The Life and Works of Alan Dower Blumlein, Focal Press, Oxford. 1999. ALTEN, Stanley R., El manual del audio en los medios de comunicación, Escuela de Cine y Video, Guipuzkoa, 1994. AMYES, T., Técnicas de postproducción de audio en video y film, IORTV, Madrid, 1992. AVID INC. Pro Tools 101 Official Courseware. Ed. Course Technology. Boston 2005. BERGER, A. Psicologia del desarrollo. Editorial medica panamericana, Buenos Aires, 2006. 
 BACKUS, J. The Acoustical Foundations of Music, Norton, New York. 1969. BARTLETT, B., Técnicas de micrófonos en estéreo, IORTV, Madrid, 1995. BRESSON Robert, Notas Sobre El Cinematografo, Ardora Ediciones. Mexico D.F1997. CHION, Michel. La audiovisión, Ed. Paidós Comunicación, Barcelona, 1998. CHION, Michel. El Sonido. Ed. Paidos Comunicación, Barcelona, 1999. COLLINS Mike. A professional Guide to Audio plugins and Virtual instruments, Linacre House P. London. 2003. COOK, Frank. Pro Tools 101 An Introduction to Pro Tools 10. Paperback Nov. 2011. COX, T., and D’Antonio, P. Acoustic Absorbers and Diffusers, Spon Press, London & N.Y. 2004. COREY, J. Audio production & critical listening. Focal Press. Oxford. 2005. �75 CREMER, L., and Müller, H.A. Principles and Applications of Room Acoustics, Vols. 1 & 2, Applied Science Publishers, London. 1982. CROSS, Mike. Audio Post Production for Film and Television. Berkley Press. 2013. CUENCA, IGNASI Y GÓMEZ EDUARD, Tecnología básica del sonido I y II, Thomson- Paraninfo, Madrid, 2005. D’ANTONIO, P. Acoustic Absorbers and Diffusers, Taylor and Francis, London. 2008. DEUTCH, D. The Psychology of Music, Academic Press Orlando, FL 1982 
 DODGE, C. and Jerse, T. A. Computer Music – synthesis, composition and performance, Schirmer Books. New York, 1985. 
 DICKREITER, M. Tonmeister technology: Recording environments, sound sources, and microphone techniques. New Tech. New York, 1989. DOUGHARTY, E.H. Estéreophony and the Musician, BBC Engineering, May 1973. ESCUDERO VILARIÑO, N., Las claves del documental, IORTV, Madrid, 2000. FLOYD, E. Sound Reproduction. Loudspeakers and rooms. Focal Press. London, 2008. DAVIS, Flora. La comunicación no verbal. Alianza Editorial. Madrid, 2004 FOREMAN, C. Sound System Design.” Chapter 34 in Handbook for Sound Engineers, ed. Ballou, G.M, editor, Focal Press. 2002. FORSYTH, M. Buildings for Music: The Architect, the Musician and the Listener from the Seventeenth Century to the Present Day, MIT Press, Cambridge, Mass. 1985 GABOR, D. Acoustical quanta and the theory of hearing, Nature, 1947. 159, 591–594. 
 GIBSON, E. J. Principles of perceptual learning and development. Appleton-Century- Crofts. New York 1969. GIDDINGS, P. Audio systems design and installation. Boston: Focal Press. 1990. GJERLOW, K / OBLER K, El cerebro y el lenguaje. Ed. Akal, NY 2003 �75 GUIJARRO, Toni Clara, M. La música, la voz, los efectos y el silencio en publicidad. Cie Dossat. 2003 Madrid. HAGERMAN, Andrew Lee. Protools II Ignite, the visual guide for new users. Paperbook. London 2013 HELMHOLTZ, H. L. F. On the sensations of tone as a physiological basis for the theory of music, http://archive.org. London, 1985. HOWARD, D. M. and Angus, J. Acoustics and Psychoacoustics, Focal Press. Oxford 1996. HARRIS, C.M., Handbook of Acoustical Measurements and Noise Control. McGraw-Hill, Inc. 1991. HARVITH, J., and Harvith, S. Edison, Musicians and the Phonograph, Greenwood Press, N.Y. 1987 HOLLYN, Norman. The Film Editing Room Handbook, Lone Eagle Press, Los Angeles 1999. HUIDOBRO, José Manuel. Fundamentos de telecomunicaciones, Ed. Paraninfo, Madrid, 2001. ITU-R Recommendation BS.775–2 Multichannel Estéreophonic Sound System With and Without Accompanying Picture. 2006. KATZ, B. Mastering Audio: The Art and the Science, Focal Press, Oxford. 2002 
 KATZ, M. Capturing Sound: How Technology Has Changed Music. University of California Press, Berkeley and Los Angeles, California. 2004. KNOLL, John; Rinzler, J. Creating the Worlds of Star Wars: 365 Days, Harry N. Abrams Edition. LA, 2005 KRAUSS, G.J. On the Audibility of Group Distortion at Low Frequencies,” 88th Convention, Audio Eng. Soc. 1990, Preprint 2894. KRUG, Jeremy. Mastering Pro Tools Effects: Getting the Most Out of Pro Tools Effects Processors. Paperbook, 2012. KUTTRUFF, H. Room Acoustics, 3rd ed. E & FN Spon, London. 1991 http://archive.org �75 LABRADA, Jerónimo. El sentido del sonido. Alba Editorial, Madrid 2009 LARRIBA, M.A., Sonorización, Ñaque Editora, Ciudad Real, 2000. LONDON, Kurt, Film Music, Faber & Faber Limited, NY, 1936 LONG, M. Architectural Acoustics, Elsevier Academic Press, New York. 2006. VIDALES, L, Peñafiel Saiz. La tecnología en radio: Principios básicos, desarrollo y revolución digital, Sº Editorial Universidad del País Vasco, Bilbao, 2000. LYVER, D., Principios básicos del sonido para video, Ed. Gedisa, Barcelona, 2000. MARTIN, Marcel, El lenguaje del cine, Gedisa, Barcelona, 2002. MONER, Beltrán, La ambientación musical, IORTV. Madrid, 1991. MOORE, B.C.J. An Introduction to the Psychology of Hearing. Academic Press, London. 2003. 
 MOOREFIELD, V. The producer as composer: Shaping the sounds of popular music., MA: MIT Press.Cambridge 2005. 
 MANNING, P. Electronic and Computer Music, Oxford University Press.Oxford 1987. 
 MATHEWS, M.. The Technology of Computer Music, Cambridge, MA: MIT Press. 1969 MORTON, D.. The Life Story of a Technology, Greenwood Press, Westport, Connecticut. 2000. 
 NEWELL, P.R., and Holland, K.R. Loudspeakers for music recording and reproduction,” Focal Press, Oxford, U.K. 2003 NORMA B.D., La lengua oral. Ossanna, 2005 ORTONY A., Clore G. L. and Collins A. The Cognitive Structure of Emotions. Cambridge University Press, 1988. OWSINSKI, B. The Mixing Engineer’s Handbook, MixBooks, Boston 1999. PUDOVKIN, V. El actor de cine y el sistema Stanislavsky. Pueblos Unidos, Montevideo 1957. �75 PALOMO, Miguel. Autor-editor. El estudio de grabación personal. Madrid 2002. POPE, Alexander. Obras de Alexander Pope. Iberial Literatura. Madrid 2015. PURCELL, J. Dialogue Editing for Motion Pictures. A guide to the invisible Art. Focal Press, Oxfor 2007. ROBINSON Lloyd, D. Crecimiento y Educación. Editorial Paidos. Buenos AIres, 2008. ROMERO, JOSEP MARÍA, Todo lo que hay que saber del negocio musical, Alba Editorial, Barcelona, 2006. RISSET, J.-C.Timbre et synthe`se des sons. Paris: Ircam and Christian Bourgois Editeur. 1992 ROMAGUERA, J. El lenguaje Cinematográfico. Ediciones de la Torre, Madrid 1999. ROSSING, T. The Science of Sound, Reading. Addison-Wesley. MA 1990. 
 RUMSEY, F. The Audio Workstation Handbook, Oxford: Focal Press. 1996. 
 RUMSEY, F, MIDI Systems and Control, Focal Press, Oxford. 1994. 
 RUMSEY, F, Watkinson, J. The Digital Interface Handbook, Oxford: Focal Press. 1995. RUMSEY F. and T. Mc Cornick. Sound and Recording. Focal Press. Oxford 1995 RUSS, M. Sound Sinthesys and Sampling. Focal Press. Oxford 1996. SLAWSON, W. Sound Color, Berkeley, CA: University of California Press. 1985 
 SONNENSCHEIN, David. Sound Design. The Expressive Power of Music, Voice, and Sound Effects in Cinema. Michael Wiese Productions Seattle 2001 TALBOT-SMITH, M. Audio Engineer’s Reference Book, Focal Press, Oxford. 1999. STORR, ANTHONY, La música y la mente, Paidos, Barcelona, 2002. THOMPSON, E. The Soundscape of Modernity,” MIT Press, Cambridge, Mass. 2002 TOOLE, F.E. Principles of Sound and Hearing,” McGraw-Hill, New York.1988. RICH TOZZOLI, Pro Tools Surround Sound Mixing, Hal Leonard Editor. (CA) 2005. �75 WHEELER, Paul. High Definition and 24p Cinematography. Oxford: Focal Press, 2003. WHITAKER, J., and Benson. Standard Handbook of Audio and Radio Engineering. McGraw-Hill, NY, 2001. WOLFGANG Kóhler, “The Mentality of Apes” Liveright, NewYork 1976. 
 28. Publicaciones AARTS, R.M. A Comparison of Some Loudness Measures for Loudspeaker Listening Tests. J. Audio Eng. Soc. NY, 1992. AES Staff Writer. New Horizons in Listening Test Design. J. Audio Eng. Soc., 52, 2004. ALLISON, R.F. The Influence of Room Boundaries on Loudspeaker Power Output.” J. Audio Eng. Soc., 22, 1974 pp. ALLISON, R.F., and Berkovitz, R. The Sound Field in Home Listening Rooms. J. Audio Eng. Soc., 20, pp. 1972. ANDO, Y. Subjective Preference in Relation to Objective Parameters of Music Sound Fields with a Single Echo. J. Acoust. Soc. Am., 62, 1977. ANDO, Y., Sakai, H., and Sato, S. Formulae describing subjective attributes for sound fields based on a model of the auditory-brain system,” J. Sound & Vib., 232. 2000. �75 ANGUS, J.A.S. Controlling Early Reflections Using Diffusion. 102nd Convention, Audio Eng. Soc., 1997. ARAU-PUCHADES, H. An Improved Reverberation Formula. Acustica, 65, 2007 pp. 163– 180. ASHIHARA, K. (2007). Hearing Thresholds for Pure Tones Above 16 kHz. J. Acoust. Soc. Am. 1988, 122. JASA Express Letters. AUGSPURGER, G.L. Loudspeakers in Control Rooms and Living Rooms. 8th International Conference, Audio Eng. Soc. 1990 ARGY, Stephanie. Roll, Cut, Print: A Conversation Between Sound Professionals from the Set, the Edit Room and the Mixing Stage. February 2004. BARRON, M. The subjective effects of first reflections in concert halls: The need for lateral reflections. Journal of Sound and Vibration, 1971. BALLAGH, K.O. Optimum Loudspeaker Placement Near Reflecting Planes,. J. Audio Eng. Soc., 31, 1983. BENJAMIN, E., and Gannon, B. Effect of Room Acoustics on Subwoofer Performance and Level Setting. 109th Convention, Audio Eng. Soc., 2002 . BLAUERT, J., and Divenyi, P.L. Spectral Selectivity in Binaural Contralateral Inhibition,” Acustica, 66, 1988 pp. 267–274. 
 BLECH, D., and Yang, Min-Chi DVD-Audio versus SACD. 116th Convention, Audio Eng. Soc. 2004, Preprint 6086. BORWICK, J., Micrófonos: Tecnología y aplicaciones, Escuela de Cine y Video, Gupuzkoa, 1996. BRAASCH, J., Blauert, J., and Djelani, T. The Precedence Effect for Noise Bursts of Different Bandwidths. I. Psychoacoustical Data. J. Acoust. Soc. Japan, 24, 2003. BRADLEY, J.S., Sato, H., and Picard, M. “On the Importance of Early Reflections for Speech in Rooms,” J. Acoust. Soc. Am., 113. 2003. BENADE A., Fundamentals of Musical Acoustics. New York: Oxford University Press 1976. America, New York (1996). �75 
 BEVAN W. et al., “Design of a Studio Quality Condenser Microphone Using Electret Technology,” Journal of the Audio Engineering Society 26, no. 12, 1998. (1978). (Included in AES Microphone Anthology.) 
 BORÉ G., Microphones. Neumann USA, Sennheiser Electronics, 6 Vista Drive, Old Lyme, CT, 06371 (1989). BRONKHORST, A.W., and Houtgast, T. Auditory Distance Perception in Rooms,” Nature, 397, 1998 pp. 517–520. CELESTINOS, A., and Nielsen, S.B. Optimizing Placement and Equalization of Multiple Low Frequency Loudspeakers in Rooms.119th Convention, Audio Eng. Soc., 2005. CASE, A. U. Sound FX: Unlocking the creative potential of recording studio effects. Focal Press/Elsevier. Boston 2007. COREY, J. Beyond splicing: Technical ear training methods derived from digital audio editing techniques. Proceedings of the 123rd Convention of the Audio Engineering Society, Preprint 7212, New York. 2007 CORUGEDO, Marichu y Acha, José Luis. Libro Blanco del Sonido. Ed. AITE. Madrid, 2003. CHOISEL, S., and Wickelmaier, F. Evaluation of Multichannel Reproduced Sound: Scaling Auditory Attributes Underlying Listener Preferences. J. Acoust. Soc. Am., 121, 2007 COOPER, D.H., and Shiga, T. Discrete-Matrix Multichannel Estéreo. J. Audio Eng. Soc. 1972, 20. COREY, J., and Woszczyk, W. Localization of Lateral Phantom Images in a 5- Channel System With and Without Simulated Early Reflections.” 113th Convention, Audio Eng. Soc., 2002 Preprint 5673. COX, T., D’Antonio, P., and Avis, M.R. Room Sizing and Optimization at Low Frequencies,” J. Audio Eng. Soc., 52, 2004. CRAVEN, P.G., and Gerzon. Practical Adaptive Room and Loudspeaker Equalizer for Hi- Fi Use. 92nd Convention, Audio Eng. Soc., Preprint 3346. Also: UK DSP Conference, M.A. 1992. Paper DSP-12. �76 CROMPTON, T.W.J.The Subjective Performance of Various Quadraphonic Matrix Systems,” BBC Research Department Report No. BBC RD 1974/29, www.bbc.co. uk/rd/ pubs. 1974 DARLINGTON, P., and Avis, M.R.Time/Frequency Response of a Room with Active Acoustic Absorption, 100th Convention, Audio Eng. Soc. 1996, Preprint 4192 . DAVIES, W.J., Cox, T.J., Acta Acustica united with Acustica, Volume 82, Number 5, Editor S. Hirzel Verlag,1996. DEVANTIER, A. Characterizing the Amplitude Response of Loudspeaker Systems. 113th Convention, Audio Eng. Soc., 2002. EARGLE, J. Estéreophonic Localization: An Analysis of Listener Reactions to Current Techniques,” IRE Transactions on Audio, Sept.–Oct., 1960 EARGLE, J. Equalizing the Monitoring Environment. J. Audio Eng. Soc., 21, 1973 EARGLE, J., and Foreman, C. Audio Engineering for Sound Reinforcement, JBL Pro Audio Publications. 2002. EARGLE, J., Bonner, J., and Ross, D. The Academy’s New State-of-the-Art Loudspeaker System,” SMPTE Journal, 1985 EARGLE, J., Mayfield, M., and Gray, D. Improvements in Motion Picture Sound: The Academy’s New Three-Way Loudspeaker System. SMPTE Journal, 1997,106 ENGEBRETSON, M., and Eargle, J. Cinema Sound Reproduction Systems: Technology Advances and System Design Considerations. SMPTE Journal, 91, 1982 . FAZENDA, B.M, Avis, M, and Davies, W.J. Perception of Modal Distribution Metrics in Critical Listening Spaces. Dependence on Rooms Aspect Ratios. J. Audio Eng. Soc., 53, 2005, pp. 1128–1141. FITZROY, D. Reverberation Formula Which Seems to Be More Accurate with Nonuniform Distribution of Absorption,” J. Acoust. Soc. Am., 31, 1959. pp. 893– 897. FLANAGAN, S., Moore, B.C.J., and Stone, M. Discrimination of Group Delay in Clicklike Signals Presented via Headphones and Loudspeakers,” J. Audio Eng. Soc., 53, 2005 FLETCHER, H., and Munson, W.A. Loudness, Its Definition, Measurement and Calculation, J. Acoust. Soc. Am. 1933. http://www.ingentaconnect.com/content/dav;jsessionid=1khez1v3c4enm.alice �76 FLETCHER, J.A.The Design of a Modular Sound Absorber for Very Low FrequenciesFletcher. BBC Research Department. Report No. BBC RD 1992. FRYER, P.A. Intermodulation Distortion Listening Tests,” J. Audio Eng. Soc. (abstracts), 23, 1975. GABRIELSSON, A., Frykholm, S.A., and Lindstrom, B. Assessment of Perceived Sound Quality in High Fidelity Sound Reproducing Systems,” Karolinska Institute, Stockholm. Rep. TA 93. 1979. GABRIELSSON, A., Hagerman, B., and Bech-Kristensen, T. Perceived Sound Quality of Reproductions with Different Sound Levels,” Karolinska Institute, Stockholm. Rep. 1991. GANDER, M. Ground-Plane Acoustic Measurement of Loudspeaker Systems,” J. Audio Eng. Soc. 1982. GEDDES, E., & Lee, L. Auditory perception of nonlinear distortion: Theory. Proceedings of the 115th Convention of the Audio Engineering Society, Preprint 5890, New York. 2003. GERZON, M. Ambisonics in Multichannel Broadcasting and Video,” 74th Convention, Audio Eng. Soc. 1983, Preprint 2034. GOULD, G. The Prospects of Recording,” High Fidelity Magazine, April, 1966 GOVER, B.N., Ryan, J.G., and Stinson, M.R. Measurements of Directional Properties of Reverberant Sound Fields in Rooms Using a Spherical Microphone Array. J. Acoust. Soc. Am., 116, 2004. GRIESINGER, D. Theory and Design of a Digital Audio Signal Processor for Home Use,” J. Audio Eng. Soc. 1989, 37. GRIESINGER, D.“The Psychoacoustics of Apparent Source Width, Spaciousness and Envelopment in Performance Spaces.” Acta Acustica, 83 1997, pp. 721–731. GRIESINGER, D. General Overview of Spatial Impression, Envelopment, Localization, and Externalization. 15th International Conference, Audio Eng. Soc. 1998. GRIESINGER, D. Objective Measures of Spaciousness and Envelopment.” 16th Interna- tional Conference, Audio Eng. Soc. 1999 GRIESINGER, D. The Psychoacoustics of Listening Area, Depth and Envelopment in Surround Recordings, and Their Relationship to Microphone Technique.” 19th International Conference, Audio Eng. Soc. 2001, Paper 1913. �76 HOLTZMAN, S. R. Description of an automated digital sound synthesiser instrument, DAI Research Paper No. 59, University of Edinburgh. 1978. 
 HUTCHINS, B. Application of real-time Hadamard transform network to sound synthesis, Journal of the Audio Engineering Society, 23, 1975. HAMASAKI, E., Hiyama, K., Nishiguchi, T., and Ono, K. Advanced Multichannel Audio Systems with Superior Impression of Presence and Reality. 116th Convention,2004 Audio Eng. Soc., Preprint 6053. HANSEN, V., and Madsen, E.R. On Aural Phase Detection. J. Audio Eng. Soc., 22, 1974 HARRIS, C.M Acoustical Properties of Carpet, J. Acoust. Soc. Am., 27, 1995 pp. 1077– 1082. HIYAMA, K., Komiyama, S., and Hamasaki, K. The Minimum Number of Loudspeakers and Its Arrangement for Reproducing the Spatial Impression of Diffuse Sound Field. 113th Convention, Audio Eng. Soc., 2002. Hodgson, M. (1998). “Experimental Evaluation of Simplified Models for Predicting Noise Levels in Industrial Workrooms,” J. Acoust. Soc. Am., 103, pp. 1933– 1939. HOLMAN, T. (1991). “New Factors in Sound for Cinema and Television,” Jour. Audio Eng. Soc., 39, pp. 529–539. HODGSON, M. Motion-Picture Theater Sound System Performance: New Studies of the B-Chain. SMPTE Journal, 103, 1993 . HODGSON, M. The Number of Audio Channels,” 100th Convention, Audio Eng. Soc. 1996. 
 HARRIS, Brooks. Advance Authoring Format and Media Exchange Format.” The Motion Picture Editors Guild Magazine 2003. ISO 2969 “International Standard. Cinematography B-Chain Electroacoustic Response of Motion-Picture Control Rooms and Indoor Theaters Specifications and Measurements.” iso.org 1987. JONES, D. A Review of the Pertinent Measurements and Equations for Small Room Acoustics,” J. Acoust. Soc. Am., 113,2004 p. 2004. KANTOR, K.L., and de Koster, A.P. A Psychoacoustically Optimized Loudspeaker. J. Audio Eng. Soc., 34, 1986. �76 KLIPPEL, W. Multidimensional Relationship between Subjective Listening Impression and Objective Loudspeaker Parameters. Acustica, 70, 1990 pp. 45–54. KLIPPEL, W.. Assessing the Subjectively Perceived Loudspeaker Quality on the Basis of Objective Parameters,. 88th Convention, Audio Eng. Soc., 1990. KOEBEL, A. Six Myths of the High-Definition Age. Widescreen Review, issue 123, September, 2007 pp. 52–60. KOIDAN, W., Hruska, G.A., and Pickett, M.A. “Wedge Design for National Bureau of Standards Anechoic Chamber,” J. Acoust. Soc. Am., 52, 1972. KUROZUMI, K., and Ohgushi,K. The Relationship between the Cross-Correlation Coefficient of Two-Channel Acoustic Signals and Sound Image Quality,” J. Acoust. Soc. Am., 74, 1983 KUTTRUFF, H. Sound Fields in Small Rooms. 15th Conference, Audio Eng. Soc. 1998, Paper 15-002. KWON, Y., and Siebein, G.W. Chronological Analysis of Architectural and Acoustical Indices in Music Performance Halls. J. Acoust. Soc. Am., Vol. 121, 2007. LEE, L.W., and Geddes, E.R. Audibility of Linear Distortion with Variations in Sound Pressure Level and Group Delay. 115th Convention, Audio Eng. Soc.,2006 Preprint 6888. LINKWITZ, S. Investigation of Sound Quality Differences between Monopolar and Dipolar Woofers in Small Rooms. 105th Convention, Audio Eng. Soc., 1998. LIPSHITZ, S., and Vanderkooy, J. The Great Debate: Subjective Evaluation,” J. Audio Eng. Soc., 29, 1981. LIPSHITZ, S., Pocock, M., and Vanderkooy, J. On the Audibility of Midrange Phase Distortion in Audio Systems. J. Audio Eng. Soc., 30, 1982. LITOVSKY, R.Y., Colburn, H.S., Yost, W.A., and Guzman, S.J. The Precedence Effect, J. Acoust. Soc. Am., 106, 1999 LOCHNER, J.P.A., and Burger, J.F. The Subjective Masking of Short Time-Delayed Echoes by Their Primary Sounds and Their Contribution to the Intelligibility of Speech. Acustica, 8, 1958, pp. 1–10. LONDON, S.J.The Origins of Psychoacoustics. High Fidelity Magazine, April 1963 �76 MARTIN, B.L., and Martin, G.K. Modern Music-Playing Devices as Hearing Health Risks,” Acoustics Today, 3, 1997 pp. 16–19. 
 MÄKIVIRTA, A.V., and Anet, C. The Quality of Professional Surround Audio Reproduction. A Survey Study, 19th International Conference, Audio Eng. Soc., 2001. MÄKIVIRTA, A.V., and Anet, C.A Survey Study of In-Situ Estéreo and Multi-Channel Monitoring Conditions,” 111th Convention, Audio Eng. Soc. 2001 MANUEL SANCHEZ CID, Una posible solución a la crisis publicitaria radiofónica en España.Editorial Dickinson, Madrid 2008. 
 MASSENBURG, G. Parametric equalization. Proceedings of the 42nd Convention of the Audio Engineering Society, Los Angeles. Massenburg, G. 1972. MARTENS, W.L., Braasch, J., and Woszczyk, W. Identification and Discrimination of Listener Percepts Associated with Multiple Low-Frequency Signals in Multichannel Sound Reproduction,” 117th Convention, Audio Eng. Soc., 2004 MARTINEZ, C., and Gilman, S. Results of the 1986 AES Audiometric Survey,” J. Audio Eng. Soc., 36,1998 pp. 686–690. MEYER, E. Definition and Diffusion in Rooms. J. Acoust. Soc. Am, 26,1954 pp.630–636. MEYER, J. Directivity of the Bowed Stringed Instruments and Its Effect on Orchestral Sound in Concert Halls,” J. Acoust. Soc. Am., 51,1972. MEYER, J. Acoustics and the Performance of Music. Verlag das Musikinstrument, Frankfurt am Main. 1978 MEYER, E., and Schodder, G.R. On the Influence of Reflected Sound on Direc- tional Localization and Loudness of Speech,” Nachr. Akad. Wiss. Gottingen, Math. Phys. Klasse IIa, 6, 1952. pp. 31–42. MIRANDA, E. R. (1995b). An artificial intelligence approach to sound design, Computer Music Journal, 19, 2, pp. 59–75. 
 MIRANDA, E. R. Machine learning of sound attributes: a case study, Leonardo Music Journal, 7,1997 
 MOORE, F. R. Elements of Computer Music, Prentice Hall. NJ 1990. �76 MIYASAKA, E. Consideration on Perceptual Effects of Sounds with Ultra-high Frequencies,” J. Acoust. Soc. Japan, 8, 1999. MOORE, B.C.J., Tan, C-T., Zacharov, N., and Mattila, V-V. (2004). “Measuring and Predict- ing the Perceived Quality of Music and Speech Subjected to Combined Linear and Nonlinear Distortion,” J. Audio Eng. Soc., 52. MORIMOTO, M. The Role of Rear Loudspeakers in Spatial Impression. 103rd Convention, Audio Eng. Soc., 1997. MOULTON, D. The Significance of Early High-Frequency Reflections from Loud- speakers in Listening Rooms. 99th Convention, Audio Eng. Soc. 1995. MOULTON, D.The Loudspeaker as Musical Instrument: An Examination of the Issues Surrounding Loudspeaker Performance of Music in Typical Rooms,” J. Acoust. Soc. Am., 113, 2004 MURAOKA, T., and Nakazato, T. Examination of Multichannel Sound Field Recomposition Utilizing Frequency Dependent Interaural Cross Correlation (FIACC). J. Audio Eng. Soc., 55, 2007, NAKAHARA, M., and Omoto, A. Room Acoustic Design for Small Multichannel Studios. 24th Conference, Audio Eng. Soc., Paper 40. 2004. NAKAYAMA, T., Miura, T., Kosaka, O., Okamoto, M., and Shiga, T. Subjective Assessment of Multichannel Reproduction.” J. Audio Eng. Soc., 19. NEILSEN, S.H. Auditory Distance Perception in Different Rooms. J. Audio Eng. Soc., 41,1993 NEWELL, P.R., and Holland, K.R. A Proposal for a More Perceptually Uniform Control Room for Estéreophonic Music Recording Studios.” 103rd Convention, Audio Eng. Soc., Preprint 4580. 1997. NEHER, T., Rumsey, F., & Brookes, T. Training of listeners for the evaluation of spatial sound reproduction. Proceedings of the 112th Convention of the Audio Engineering Society, Preprint 5584, Munich, Germany. AES. 2002. NISHIGUCHI, T., Hamasaki, K., Iwaki, M., and Ando, A. Perceptual Discrimination between Musical Sounds with and without Very High Frequency Components. 115th Convention, Audio Eng. Soc., 2003. �76 NOXON, A.M. Listening Room Corner Loaded Bass Traps,” 79th Convention, Audio Eng. Soc., Paper no. B-12, 1985 OLIVE, S. A New Listener Training Software Application,” 110th Convention, Audio Eng. Soc., Preprint No. 5384. 2001 OLIVE, S. A method for training listeners and selecting program material for listening tests. Proceedings of the 97th Convention of the Audio Engineering Society, Preprint 3893, San Francisco. 1994 OLIVE, S.E., and Martens, W.L. Interaction Between Loudspeakers and Room Acoustics Influences Loudspeaker Preferences in Multichannel Audio Reproduction. 123rd Convention, Audio Eng. Soc. 2007. OLIVE, S.E., and Toole, F.E. The Detection of Reflections in Typical Rooms,” J. Audio Eng. Soc., 37, 1989 OLIVE, S. The Evaluation of Microphones. Part 1: Measurements. 87th Convention, Audio Eng. Soc.. 1989. OLIVE, S.E., Castro, B., and Toole, F.E. A New Laboratory for Evaluating Multichannel Audio Components and Systems,” 105th Convention, Audio Eng. Soc. 1988, Preprint 4842. OLIVE, S.E., Schuck, P.L., Sally, S.L., and Bonneville, M. The Variability of Loudspeaker Sound Quality Among Four Domestic Sized Rooms. 99th Convention, Audio Eng. Soc., 1995. OTONDO, F., Rindel, J.H., Caussé, R., Misdariis, N., and Caudra, P. Directivity of Musical Instruments in a Real Performance Situation. Proc. Int. Symp. on Musical Acoustics, Mexico City, 2002. pp. 312–318. 
 PELLEGRINI, R.S. Perception-Based Design of Virtual Rooms for Sound Reproduc- tion,” 22nd International Conference, Audio Eng. Soc., Paper 000245. 2002 PHILBECK, J.W., and Mershon, D.H. Knowledge about Typical Source Output Influences Perceived Auditory Distance. J. Acoust. Soc. Am., 111, 2002. POPE, Alexander. Obras de Alexander Pope. Iberial Literatura. Madrid 2015. QUESNEL, R. Timbral ear trainer.100th Convention of the Audio Engineering Society, Preprint 4241, Copenhagen, Denmark. 1996. �76 QUESNEL, R., & Woszczyk, W. R. A computer-aided system for timbral ear training. Proceedings of the 96th Convention of the Audio Engineering Society, Amsterdam, Netherlands. 1994. RAKERD, B., and Hartmann, W.M. Localization of Sound in Rooms, II: The Effects of a Single Reflecting Surface,” J. Acoust. Soc. Am., 78,1985 pp. 524–533. RAKERD, B., Hartmann, W.M., and Hsu, J. Echo Suppression in the Horizontal and Median Sagittal Planes,” J. Acoust. 2000. RANADA, D. Maxing Out Resolution,” Sound and Vision Magazine, 2006 Feb./Mar., p. 20. RATLIFF, P.A. Properties of Hearing Related to Quadraphonic Reproduction,” BBC Research Department Report No. BBC RD 1974 ROBINSON, A. The Importance of Choosing the Right Cinema Screen, Part 2. Cinema Systems, June, pp. 38–42. 2005 ROBINSON, D.W., and Dadson, R.S. A Re-Determination of the Equal-Loudness Relations for Pure Tones,” British J. of App. Physics, 1956. ROBINSON, D.W., and Whittle, L.S. The Loudness of Directional Sound Fields,” Acustica 10, 1960. RUBAK, P., and Johansen, L.G. Design and Evaluation of Digital Filters Applied to Loudspeaker/Room Equalization. 108th Convention, Audio Eng. Soc., 2000. RUMSEY, F. Controlled Subjective Assessments of Two-to-Five-Channel Surround Sound Processing Algorithms,” J. Audio Eng. Soc. 1999, 47. RUMSEY, F., Zielinski, S., and Kassier, R. On the relative importance of spatial and timbral fidelities in judgments of degraded multichannel audio quality. J. Acoust. Soc. Am., 118, 2005 pp. 968–976. ROADS, C. Introduction to granular synthesis, Computer Music Journal, 1998. RODET, X. Time-domain formant-wave-function synthesis, Computer Music Journal, 1984. SALDANHA, E.L., and Corso, J.F. Timbral Cues and the Identification of Musical Instruments, J. Acoust. Soc. Am., 36, 1964. 
 SERRA, X. and Smith, J. Spectral modelling synthesis: a sound analysis/synthesis system based on a deterministic plus stochastic decomposition, Computer Music Journal, 14, 4, 12–24. 1990. �76 
 SMITH, J. Physical modeling using digital waveguides, Computer Music Journal, 16, 4, 1992. SCHELLENBERG, E, Iverson, P., & McKinnon, M. C. Name that tune: Identifying popular recordings from brief excerpts. Psychonomic Bulletin & Review, 6(4), 641–646. 1999. SCHROEDER, M. R. Natural sounding reverberation. Journal of the Audio Engineering Society, 10(3), 1962. 219–223. SATO, H., and Bradley, J. Evaluation of Acoustical Conditions for Speech Communication in Working Elementary School Classrooms. J. Acoust. Soc. Am., 123, 2008. SAYERS, B. McA., and Toole, F.E. Acoustic-Image Lateralization Judgments with Binaural Transients,” J. Acoust. Soc. Am., vol. 36, 1964. SCHOOLMASTER, M., Kopco, N., and Shinn-Cunningham, B.G. Effects of Reverberation and Experience on Distance Perception in Simulated Environments. J. Acoust. Soc. Am., 113, p. 2285, 2003. SCHOOLMASTER, M., Kopco, N., and Shinn-Cunningham, B.G.. Auditory Distance Perception in Fixed and Varying Simulated Acoustic Environments. J. Acoust. Soc. Am., 115, p. 2459, 2004. SCHRAG, R. Exposing Acoustical Myths. A Collection of Time-Honored Misconceptions,” Broadcast Engineering, March. rbdg.com/1998. SCHROEDER, M.R. Statistical Parameters of the Frequency Response Curves of Large Rooms, Acustica, 4, 1954 SCHULTZ, T.J. “Problems in the Measurement of Reverberation Time,” J. Audio Eng. Soc., 11. 1993, pp. 307–317. SCHULTZ, T.J., and Watters, B.G. “Propagation of Sound Across Audience Seating,” J. Acoust. Soc. Am., 36,1964 pp. 885–896. SHINN-CUNNINGHAM, B.G. Localizing Sound in Rooms. Proc. ACM SIGRAPH and EUROGRAPHICS, Boston University. 2001. SHIRLEY, B.G., Kendrick, P., and Churchill, C. The Effect of Estéreo Crosstalk on Intelligibility: Comparison of a Phantom Estéreo Image and a Central Loudspeaker SourceJ. Audio Eng. Soc., 55, 2007. http://rbdg.com/1998 �76 SIVONEN, V.P., and Ellermeier, W. Directional Loudness in an Anechoic Sound Field, Head Related Transfer Functions, and Binaural Summation,” J. Acoust. Soc. Am., vol. 119, 2006. SMITH, D.L. Discrete-Element Line Arrays. Their Modeling and Optimization,” J. Audio Eng. aes.org.1997 SMPTE 202M (1998). “Standard for Motion Pictures—Dubbing Theaters, Review Rooms, and Indoor Theaters—B-Chain Electroacoustic Response.” SNOW, W.B. Basic Principles of Estéreophonic Sound,” J.S.M.P.T.E., vol. 61, pp. 567– 587. Soulodre, G.A. (2004). “Evaluation of Objective Loudness Meters,” 116th Convention, Audio Eng. Soc., Preprint 6161. SOULODRE, G.A., and Norcross, S.G. Objective Measures of Loudness. 115th Convention, Audio Eng. Soc. 2003, Preprint 5896. SOULODRE, G.A., Popplewell, N., and Bradley, J.S. Combined Effects of Early Reflections and Background Noise on Speech Intelligibility,” J. Sound Vib., 135, 1989. pp. 123–133. Theile, G. (1986). “On the Standardization of the Frequency Response of High-Quality Studio Headphones,” J. Audio Eng. Soc., 34, pp. 956–969. STRATMAN, Eric. “Automated Conforming Using Change Note Assistant.” The Motion Picture Editors Guild Magazine 24(6), November/December 2003. STRATMANN, Erich, and Benson, Phil. Metadata & Metaflow. The Motion Picture Editors Guild Magazine 24(3), May/June 2003. THEME, Ament, The Foley Grail: The Art of Performing Sound for Film, Games, and Animation. Paperback, 2009. TOOLE, F.E. Damping, Damping Factor, and Damn Nonsense,” AudioScene Canada, February, 1975 pp. 16–17. TOOLE, F.E. (1985). “Subjective Measurements of Loudspeaker Sound Quality and Listener Preferences,” J. Audio Eng. Soc., 33, pp. 2–31. TOOLE, F.E. Loudspeaker Measurements and Their Relationship to Listener Preferences,” J. Audio Eng. Soc., 34, pt. 1,1986. pp. 227–235; pt. 2, pp. 323–348. http://aes.org �77 TOOLE, F.E., and Olive, S.E. The Modification of Timbre by Resonances: Perception and Measurement,” J. Audio Eng. Soc., 36,1988. TOOLE, F.E., and Olive, S.E. Hearing Is Believing vs. Believing Is Hearing. 97th Convention, Audio Eng. Soc., Preprint 3894. 1994. TOOLE, F.E., and Sayers, B. McA .Highlights in the History of Multichannel Sound. J. Audio Eng. Soc., 46,1998. USHER, J. Visualizing auditory spatial imagery of multi-channel audio. Proceedings of the 116th Convention of the Audio Engineering Society, Berlin, Germany. 2004 USHER, J., & Woszczyk, W. Design and testing of a graphical mapping tool for analyzing spatial audio scenes. Proceedings of the Audio Engineering Society 24th International Conference, Banff, Canada. 2003. VANDERKOOY, J.The Acoustic Center: A New Concept for Loudspeakers at Low Frequencies,” 121st Convention, Audio Eng. Soc. 2006. VAN KEULEN, W. Possible Mechanism for Explaining Monaural Phase Effects of Complex Tones,” 90th Convention, Audio Eng. Soc., 1991 VERMEULEN, R. “Estéreo Reverberation,” IRE Transactions on Audio, July–August. 1956 Viemeister, N.F., and Wakefield, G.H. (1991). “Temporal Integration and Multiple Looks,” J. Acoust. Soc. Am., 90, pp. 858–865. VOETMANN, J., and Klinkby, J. “Review of the Low-Frequency Absorber and Its Application to Small Room Acoustics,” 94th Convention, Audio Eng. Soc., 1993 Preprint 3578. WARNOCK, A.C.C. Introduction to Building Acoustics,” Canadian Building Digest— CBD-236, published by National Research Council Canada, Institute for Research in Construction. 1985 http://irc.cnrc.gc.ca/cbd236e.html. WATERHOUSE, R.V. Output of a Sound Source in a Reflecting Chamber and Other Reflecting Environments,” J. Acoust. Soc. Am., 30, 1958. WATKINS, A.J.. Perceptual Compensation for Effects of Echo and of Reverberation on Speech Identification,” Acta Acustica united with Acustica, 91, 2005- pp. 892–901. WELTI, T. How Many Subwoofers Are Enough. 112th Convention, Audio Eng. Soc. 2002. �77 WATKINS, A.J. Subjective Comparison of Single Channel Versus Two Channel Sub- woofer Reproduction,” 117th Convention, Audio Eng. Soc. 2004. WEIS, Elisabeth, and Belton, John, eds. Film Sound: Theory and Practice. New York: Columbia University Press, 1985. WELTI, T., and Devantier, A. Low-Frequency Optimization Using Multiple Subwoofers. J. Audio Eng. Soc., 54, 2006 pp. 347–364. WILLCOCKS, M.E.G. Surround Sound in the Eighties. Advances in Decoder Technologies. 74th Convention, Audio Eng. Soc. 1983. ZAHORIK, P. Assessing Auditory Distance Perception Using Virtual Acoustics,” J. Acoust. Soc. Am., 111, 2002. ZUREK, P.M. Measurements of Binaural Echo Suppression,” J. Acoust. Soc. Am., 66, 1979. 29. Páginas Web https://visionzenital.wordpress.com/category/personal/ http://filmsound.org http://designingsound.org/tag/film-sound/ http://www.avid.com/pro-tools?cid=homepage,secondaryhptile2,PT,06232016 http://www.hollywoodedge.com https://www.sound-ideas.com http://tonsturm.com https://visionzenital.wordpress.com/category/personal/ http://filmsound.org http://designingsound.org/tag/film-sound/ http://www.avid.com/pro-tools?cid=homepage,secondaryhptile2,PT,06232016 http://www.hollywoodedge.com https://www.sound-ideas.com http://tonsturm.com �77 http://www.dolby.com/us/en/index.html http://www.aes.org (Audio engineering Society) http://mkloudspeakers.com/home-cinema-design/home-cinema-thx www.soundandvisionmag.com. 30. Tesis Universitarias DOMINGUEL LOPEZ, Juan Jose. Técnica y tecnología del sonido cinematográfico. Universidad de Sevilla 2002. COREY, J. An integrated system for dynamic control of auditory perspective in a multichannel sound field. Ph.D. thesis. McGill University, Montreal, Canada 2004. QUESNEL, R. A computer-assisted method for training and researching timbre memory and evaluation skills. Ph.D. thesis. McGill University Montreal, Canada:. 2001. 31. Recursos Videográficos Antoine Bonfanti. Traces sonores d'une écoute engagée. Centre national du cinéma et de l'image animée. Paris, 2013. http://www.dolby.com/us/en/index.html http://www.aes.org http://mkloudspeakers.com/home-cinema-design/home-cinema-thx http://www.soundandvisionmag.com Tesis Marco de Gregori Astrici PORTADA ÍNDICE 1. RESUMEN ABSTRACT 2. PRÓLOGO 3. FUNDAMENTOS DE LA COMUNICACIÓN 4. MATERIAL ADJUNTO AL PRESENTE DOCUMENTO 5. FUNDAMENTOS TEÓRICOS 6. OBJETO DE LA TESIS 7. HIPÓTESIS DE TRABAJO 8. LA CULTURA CINEMATOGRÁFICA EUROPEA, ORIENTAL Y NORTEAMERICANA 9. ELEMENTOS DE LA BANDA SONORA CINEMATOGRÁFICA 10. LA GESTALT Y EL SONIDO CINEMATOGRÁFICO 11. EFECTOS COGNITIVOS PRODUCIDOS POR EL SONIDO EN EL PÚBLICO 12. LA MÚSICA 13. BREVE HISTORIA DEL SONIDO 14. EL DESARROLLO DE LAS TECNOLOGÍAS 15. AUDIO DIGITAL 16. FÍSICA DEL SONIDO 17. PRINCIPALES EFECTOS DIGITALES APLICABLES AL AUDIO 18. ANATOMÍA DEL OÍDO Y PERCEPCIÓN SONORA 19. CARACTERÍSTICAS DE LA AUDICIÓN 20. SISTEMA DE SONIDO SURROUND 21. POST-PRODUCCIÓN DE SONIDO 22. LA MEZCLA DE SONIDO 23. UTILIZACIÓN DE LOS CANALES 5.1 24. ANÁLISIS SONORO CINEMATOGRÁFICO 25. CONCLUSIONES 26. APÉNDICE 27. BIBLIOGRAFÍA 28. PUBLICACIONES 29. PÁGINAS WEB 30. TESIS UNIVERSITARIAS 31. RECURSO VIDEOGRÁFICOS