lunes, 29 de octubre de 2012

Apuntes: Postproducción de Sonido FBA


Introducción:

El siguiente apunte intenta definir y clarificar conceptos de uno de los procesos fundamentales y hasta a veces desconocido por quienes se involucran en el mundo de la producción audiovisual.

Generalmente existe gran confusión sobre los flujos de producción en una postproducción tipo y suele relacionárselos con áreas de la producción musical. Si bien hay ítems que son comunes, las distancias entre las formas de producción y el uso de las herramientas son enormes. Además, cada realización audiovisual presenta necesidades específicas que hacen que cada producción se diseñe específicamente de acuerdo con sus planteos narrativos, económicos y otros que terminan por configurar la organización de la producción.

Desgraciadamente existe muy poca información especializada lo cual contribuye a este desorden. En este escrito no se pretende profundizar sobre todos los aspectos que deberíamos conocer para dominar esta especialidad sino hacer foco en las necesidades primordiales para encontrar un método que nos permita integrar las distintas áreas del hacer audiovisual.

Previa de Producción:

Al comenzar un proyecto (película, cortometraje, programa de televisión, etc.) hay decisiones que se toman que condicionarán las formas de trabajo posteriores. Es por eso que una postproducción saludable comienza desde la previa de producción. Es aquí donde se deben tomar decisiones como:

-          Elección de la frecuencia de muestreo y resolución de grabación.
-          Uso de time code
-          Selección de cadencias de cuadro coherentes con los procesos de imagen
-          Scouting Técnico: Diagnosticar posibles problemas de registro en las locaciones.
-          Verificación de la boutique o casa de postproducción. Disponibilidades técnicas
-          Posibles ventanas de exhibición (esto condiciona los formatos de entrega y las posibles versiones diferentes de mezcla final)
-          Diseño del workflow (flujo de trabajo)

Cada proyecto en si mismo requiere un diseño diferente. La elección del formato de registro de imagen y su consecuente tratamiento (almacenamiento, procesos de laboratorio, digital cut, telecinados, tape to film, etc.) requieren especial cuidado y atención. Un mal paso en esta etapa del proceso repercute directamente en los bolsillos de la producción y en el tiempo de culminación del proyecto. Generalmente las decisiones de este tipo recaen en un rol, el coordinador de postproducción, que es contratado para este fin.

El director de sonido es quien (en conjunto con otras cabezas de equipo) resolverá que es lo más adecuado para el trabajo a realizar. En esta etapa será necesario establecer un cronograma de trabajo, llamado plan de postproducción, que regulará las jornadas y la organización del tiempo.

Es probable que hasta que no se haya concluido el rodaje y el trabajo de montaje de imagen no haya finalizado, no se puedan precisar fehacientemente los tiempos de trabajo. De todas maneras es conveniente estar preparado. Con el correr del tiempo y el pasar de los años cada vez se recortan más los presupuestos destinados al sonido como así también la cantidad de semanas de trabajo. Solo un plan bien diseñado partiendo de la base de un guión (técnico o literario) nos permitirá llevar a buen puerto la tarea de la finalización del proyecto de manera ideal.


Para el diseño de este plan los ítems a considerar son los siguientes:

-          Entrega de la copia cerrada (evaluación de la misma)
-          Verificación y depuración del OMF
-          Edición de diálogos
-          ADR o Doblaje  
-          Foleys y efectos de sonido (incluídos los ambientes)
-          Grabaciones extras
-          Grabación y mezcla del Score o música original
-          Mezcla Final

Probablemente en esta lista no hayamos incluido algunos puntos que pueden ser posibles para determinadas realizaciones, como citamos más arriba, cada producción requiere su propio plan.


Generalidades:

En un mundo totalmente informatizado, los entornos de postproducción no son ajenos. La tradición del montaje de imagen y sonido data de una historia de decenas de años en donde las herramientas han sido mejoradas para favorecer el desarrollo de nuevas ideas narrativas y facilidades técnicas para operadores y montajistas.

La industria audiovisual ofrece soluciones o sistemas de edición digital varios que pueden hoy condensar en un ordenador, lo que hace unos años atrás se necesitaban grandes conjuntos de herramientas y personal.

Estas inversiones que van desde unos pocos dólares hasta unos cuantos miles cambian su valor debido a la posibilidad de control, administración de entradas y salidas, y un conjunto grande de etcéteras.

El mercado se ha inclinado al mundo Pro Tools, en sus diferentes configuraciones. Hasta hace unos años hablar de Pro Tools implicaba que al software LE, M-Powered o TDM había que asociarle su correspondiente hardware[1]. Hoy la empresa AVID y su división de audio digital Digidesign, abrió el juego a que su software sea abierto a interfaces de sonido ASIO compatibles, todo esto quizá para ganarle terreno a su principal competidor, el producto de Steinberg, Nuendo[2]


[1] Para un recorrido por las diferentes configuraciones ofrecidas por Digidesign visitar

[2] Para más información sobre los productos de Steinberg visitar http://www.steinberg.net/en/home.html
 La proliferación de los sistemas de edición digital, el avance de la piratería y otros factores han contribuido con un falso entendimiento del rol que ocupa el editor, sus asistentes, el editor (editores) de sonido, etc. La competencia por quién tiene “el último software”, “el último plugin”, “la última versión” ha promovido toda una nueva generación de editores que se preocupan más por el mundo tecnológico que por el narrativo: Un chico genio de las computadoras no es un editor.

Un buen montajista debe saber de ritmos, estructuras de montaje, formas narrativas, formas musicales y un complejo aglutinamiento de saberes que hacen del editor una persona capaz de ayudar al director a encontrar la mejor forma de contar su historia.

Por ello, no es la herramienta en sí, sino el uso que se hace de la misma.

Pero, sin querer caer en contradicciones, estas herramientas son también las que permiten que podamos o no resolver los problemas que se nos van presentando. La mejor manera de entenderlas es conocer que debemos encontrar la herramienta para cada caso.

Esta es la eterna dicotomía, el antiguo debate entre técnica y realización, entre artista y técnico. Discusión tramposa si las hay: Una se sirve de la otra, son complementarias. Es así que podríamos pensarlas ya no como simples objetos técnicos sino como herramientas técnico-expresivas, un concepto que le quepa mejor a este conjunto de sistemas e instrumentos.

En el caso del audio, y específicamente en la postproducción, toda la cadena de equipos es crucial. Comúnmente se piensa solo en la computadora, el software y se olvida que el sistema de monitoreo, la sala, los instrumentos de medición son tan importantes como el programa que se está utilizando.

De nada sirve hacer una inversión en un sistema de edición digital si vamos a irrespetarlo con el uso de hardware de pobre tratamiento y de dudosa manipulación del sonido, de un sistema de monitoreo inadecuado, y de una sala que no esté preparada para la edición y mezcla de audio.

Un sistema de monitoreo inexacto, una sala no tratada acústicamente fácilmente nos engañará para la toma de decisiones de mezcla. Lo que escuchamos allí en nada (o en poco) se parecerá o lo que escuchemos al momento de la proyección o exhibición del material.

Otras preguntas que también debemos responder es si está nuestro equipo preparado para reproducir imagen, ser capaz de trabajar con códigos de tiempo, posibilidad de intercambio de información con otras estaciones o equipos de trabajo, capacidad de almacenamiento y proceso, interconectividad, etc.

Como se ve, los sistemas pueden partir de configuraciones muy básicas (un home Studio) a otras más avanzadas. Lo que debemos saber es como podemos aprovechar y diseñar las diferentes etapas de trabajo y así diseñar un esquema de postproducción que

contemple el salto tecnológico (el cambio de estación) cuando sea necesario. Ej. Resolver la edición y premezclas en una estación de trabajo pequeña y realizar la mezcla final en un estudio preparado para este fin.
En lo anteriormente expuesto hemos citado algunas de las características que deben poseer los sistemas de edición digital en su conjunto.

Una de las particularidades del área de postproducción de sonido, es que el encargado de la misma debe conocer (con mayor o menor nivel de profundidad) características que hacen al trabajo con imagen, ya que nuestra labor comienza una vez finalizada la edición de la misma. Cuando desconocemos estos detalles, dejamos lugar a que muchos procedimientos no funciones y que, como se dijo más arriba, causen perdidas de tiempo y dinero innecesarias.

Repasemos una serie de procedimientos que comúnmente se realizan en el mundo de las imágenes.

Existe una gran variedad de métodos para la captura de imagen. El universo de formatos existentes es tan grande que en este breve apunte no podríamos desarrollarlo con claridad. Lo que si podemos decir, es que es posible optar en registrar nuestras imágenes en fílmico (35 mm, 16 mm y otros) o que nuestra captura la resolvemos en video (es aquí en donde el árbol de formatos es inmenso).

Lo que debe importarnos en este punto es la cantidad de cuadros por segundo que el formato utilizó. Las cadencias de cuadro conocidas son:

24 cps: Comúnmente fílmico o HD
25 cps: PAL / SECAM
29.97 cps: NTSC

Una salvedad: Cuando el material original se filmó en soporte fílmico, la imagen que se utiliza para la edición es una imagen de video que resulta del telecinado en el laboratorio. En este procedimiento es importante establecer una relación entre los cuadros (frames) del fílmico y los del video que nos entregó el transfer.


 En los bordes de los fotogramas del material fílmico existe una nomenclatura que la empresa Kodak denominó Key Code que determina la posición exacta de un fotograma en la tira de película. Con esta forma de “leer la imagen” podemos relacionar el Key Code de la película con el time code del video que utilizamos como referencia para el montaje. Damos por sentado que el lector comprende las diferencias entre las formas de trabajo Off Line y On Line, como así también los procedimientos que se realizan en ambos métodos.

En la imagen cinematográfica, la unidad mínima de medida y corte es el fotograma. Un fotograma corresponde a una imagen. Cada fotograma, tiene 4 perforaciones, o agujeros de arrastre, que el proyector (o los transportes del laboratorio) usará para mover la película. En sonido, tradicionalmente se considera una perforación como unidad mínima de medida, corte, y ajuste de sincronía. Los montadores de cine experimentados, logran detectar errores de sincronía a nivel de perforaciones.

Al editar sonido en “soporte magnético 35 m/m” se usa una “empalmadora”, y el corte de edición debe realizarse entre las perforaciones. Actualmente, no existe esta limitación al realizar el proceso de postproducción de sonido en editores digitales, pero sigue existiendo cuando se transfiere el sonido a película óptica.

La velocidad de proyección (frame rate) en cine es de 24 fotogramas por segundo. Por tanto, la postproducción en cine debe hacerse a esta velocidad, para evitar diferencias en variación de tono, diferente duración, cambios en el ritmo de montaje, distorsiones en los reductores de ruido SR, etc.

Si el rodaje se ha realizado a diferente velocidad, ANTES DEL MONTAJE (edición de imagen) y de sonido debe cambiarse la imagen a la velocidad correcta. AVID film composer puede realizar esta tarea automáticamente (existen utilidades dentro de Final Cut como el Cinema Tools que establece la relación de los fotogramas del fílmico conlos frames del video). Se telecina a 25 fotogramas. Y al capturar la imagen se indica que está a 25. La imagen será convertida a 24 para su montaje (Edición)


Hay que recordar, que a diferencia del video y la televisión, que usan diferentes velocidades, dependiendo de la región, o formato (PAL, SECAM, NTSC), en cine hay
COMPATIBILIDAD TOTAL en todo el mundo.

El caso aquí es tratar a la imagen del video, que comúnmente en Argentina corre a 25 cps,  como si se tratara de la imagen del fílmico, es decir que el video marche a una velocidad acorde a la cadencia de cuadro del original.

Para esto existe una serie de métodos que escapan del propósito de este apunte[1]

Para medir con precisión el metraje de una película o fragmento, plano, etc., se usa como unidad de medida pies (feets) y fotogramas (frames). Un pie equivale a 16 fotogramas. Por tanto, si tenemos un valor en fotogramas, para convertirlo a pies debemos dividirlo por 16, y el resto corresponderá a las fracciones de pies, que se expresan también en fotogramas.

Igualmente, para pasar de pies a fotogramas, multiplicaremos los pies por 16, y le sumaremos los fotogramas de fracción de pies.

El uso de pies como unidad de medida se debe a la definición original de fotograma: la altura de un fotograma es "la 16ª parte de un pie". Por tanto, si usamos otra medida, como por ejemplo el sistema métrico decimal, nos aparecen "fracciones de fotograma" al convertir, lo que GENERA ERRORES. (Por ejemplo, 1 metro equivale a 48,76 fotogramas), y no sirve para mediciones exactas.

Igualmente, el uso de código de tiempo o medida en minutos y segundos, TAMPOCO es fiable: pueden compararse medidas en diferente frame rate, o número de fotogramas por segundo, lo que también genera errores.

Para escribir un valor en "pies" y "fotogramas" se usa la comilla simple (') y comillas dobles (") respectivamente. Por ejemplo, 167 pies y 14 fotogramas se escribe como 167' 14".

El Proceso de Postproducción:

Al comienzo de toda edición de imágenes, estas se ingestan o capturan utilizando software (en el caso en que la imagen se encuentre en soporte cinta), o directamente logueando[2] y copiando el material que se entrega en otros soportes como por ejemplo tarjetas de memoria o discos rígidos.

Una vez que el material se encuentra dentro de la estación de trabajo destinada a editar la imagen (o dentro de un servidor de red donde varios equipos pueden acceder al


[1] Para más información al respecto de este tema se sugiere la lectura de Dialogue Editing for Motion Pictures – John Purcel – Editorial Focal Press
[2] Loguear un material es identificar claramente cual es el origen del mismo (tape o tarjeta al que pertenece) y asignarle un nombre claro que permita identificarlo durante todo el proceso de postproducción. 

material) el asistente de edición procede a capturar o ingestar los audios que entrego el departamento de sonido para luego pasar a sincronizarlos utilizando la claqueta[1].

Es importante mencionar que así como el universo de formatos de video es inmensamente grande lo mismo sucede en el caso del audio. De todos modos mencionaremos cuales son los formatos más comunes en que el audio pueda entregarse para la posterior utilización en el montaje.

Hace muy poco tiempo atrás, la industria había adoptado al DAT (digital audio tape) como el estándar para las grabaciones de campo en el trabajo audiovisual. La principal desventaja de este formato es que al ser uno de cinta, corre con todos aquellos problemas propios de los soportes que son degradables y suelen sufrir roturas, estiramientos, drops (perdidas de información), etc. Para agregar una característica extra este formato trabaja con una frecuencia de muestreo de 44.1 Khz. o 48 Khz. y una resolución de 16 bits. Agregamos que a parte de todo esto es lineal. Al editor no le quedaba más remedio que (utilizando las conexiones digitales apropiadas) capturar todo el material logueando adecuadamente cada una de las tomas, lo que se traduce en un largo y tedioso proceso.

Una vez capturados todos los audios  el asistente de edición utilizará las imágenes seleccionadas por el director para unirlas con las correspondientes tomas de sonido.

Aquí hay que desterrar una mala práctica que realizan algunos editores. Cuando se trabaja con cámaras de video, es posible tener encendido el micrófono que viene incorporado en el cuerpo de la cámara o fuera de la misma. Al estar trabajando en sistema doble, algunos editores comienzan montando el material trabajando con el audio de la cámara y dejan para quien realiza la post de sonido el sincro con el audio final correspondiente. Esto puede provocar inexactitudes en la manera de sincronizar:

-          El sonidista ya no puede ver la claqueta porque le entregaron un material montado
-          La sincronización se logra comparando formas de onda y generalmente las mismas no coinciden por el tiempo de llegada del sonido a los distintos micrófonos de la planta de sonido

Es el editor quien tiene el deber de sincronizar los audios y de que se presente algún problema con la sincronización, es responsable de informar al departamento de sonido para que el mismo proporcione la solución o al menos evaluar lo que aconteció.

En el gráfico siguiente, podemos ver una línea de tiempo que incluye audios que están siendo sincronizados con la correcta utilización de la claqueta.



[1] Este método es aplicado a los registros en sistema doble. En el sistema simple no hay nada que sincronizar ya que en el mismo formato conviven imagen y sonido

En los entornos de trabajo actuales, han comenzado a proliferar los grabadores de campo sobre disco o memorias de estado sólido[1]. Estos permiten incrementar los valores de la frecuencia de muestreo en el orden de los 32 Khz., 44.1 Khz., 48 Khz., 96 Khz. hasta valores de 192 Khz. en algunos modelos[2]. Las resoluciones tipo se establecen entre los valores de 16 bits o 24 bits.

Una de las grandes ventajas de estos equipos basados en la generación de archivos digitales es que el almacenamiento de los mismos y su transporte hacia las estaciones de trabajo es muy sencillo. Estos archivos pueden ser de varios tipos. Mencionaremos solo algunos:

WAV: Es un formato que no soporta time code (código de tiempo), pero que es aceptado por la gran mayoría de las DAW (Digital Audio Workstation). Una de sus ventajas es que podemos transferir fragmentos de audio en donde podemos prescindir del uso del código de tiempo.

AIFF: Otro de los formatos que no soporta time code. Es el tipo de archivos que manejan las estaciones Mac y generalmente los equipos Avid (corriendo sobre sistemas operativos Macintosh) exportan en este tipo la media.

SDII: Este tipo de archivo soporta time code. Usado por equipos como Media Composer, Film Composer, Pro Tools y otros equipos de la familia Avid.
BWAV: Es el llamado WAV Broadcast. Soporta código de tiempo y es adoptado como estándar por la AES[3] y la EBU[4]. Además ha sido el formato que la mayoría de los


[1] Ver apuntes de Cátedra – Sonido II – Cadena de Audio
[2] Existen seteos de frecuencias de muestreo como 48.048 Hz y otras de uso especial que exceden el tema de este apunte. Quienes deseen información ampliada sobre el tema pueden visitar http://www.sounddevices.com/products/744t.htm
[3] Audio Engineering Society
[4] European Broadcasting Union 
grabadores de campo utiliza por defecto. No solo es capaz de transportar la media (el audio en si mismo) sino todos los datos que hacen referencia al mismo (metadata).
Con la introducción de los equipos basados en archivos, se ha conseguido dividir en dos grupos la forma de utilizar estos BWAV.

Por un lado tenemos los llamados BWAV Monofónicos. Estos se constituyen como archivos independientes para cada una de las entradas de micrófono (o de línea) de la grabadora. Dicho de otra manera: Obtendremos como resultado cuatro archivos que comparten la misma metadata con un mismo nombre de escena, plano, toma en el caso en que alimentemos las cuatro entradas del equipo. Un archivo por cada entrada activa.
Por otra parte existen los archivos llamados BWAV Polifónicos: Aquí todas las entradas activas de grabación se “empaquetan” en un solo archivo contenedor. El resultado es entonces un único archivo por toma que contiene dentro de si mismo todas los audios que se corresponden con cada una de las entradas. Obviamente es posible accesar a cada una de manera independiente.

Para un editor de video, es mucho más sencillo trabajar el sincro utilizando un único archivo polifónico que cuatro archivos de audio (en el caso en que se hayan utilizado cuatro entradas de audio). Desgraciadamente no todos los sistemas de edición de video soportan a los BWAV polifónicos.


Es importante conocer que frecuencia de muestreo y que resolución es capaz de soportar nuestro sistema de video. Estas diferencias en el soporte o no de estas “palabras digitales” se traducen en conversiones automáticas que el software realiza por nosotros con resultados que desconocemos o no podemos controlar. Un sistema que no sea capaz de manipular estas informaciones debe proporcionar algún método para exportar el proyecto de trabajo (proyecto de edición) en algún formato como el EDL.

El EDL (Edit Decision List) es una manera de representar una edición de video o fílmico. En un EDL, están identificados cada clip de video, cada clip de audio y su ordenamiento en la línea de tiempo de cualquier editor, como así también su lugar de origen y su ubicación original. De esta manera exportando un EDL podemos reconstruir la edición en otra estación. Este proceso en algunas estaciones de trabajo recibe el nombre de autoconform.

En este mundo de los EDL´s existen de distintos tipos: CMX, GVG, Sony, Final Cut Pro y Avid por solo mencionar algunos.

En la siguiente imagen describimos como se ve un EDL y cuales son las informaciones que podemos obtener del mismo. Observese que si es leido de izquierda a derecha encontramos claramente cuatro posiciones de código de tiempo[1]. Las dos primeras corresponden a la posición en el material original mientras que las restantes explican en que posición está ese material en la linea de tiempo que estamos utilizando.



[1] Una extensa explicación sobre los códigos de tiempo puede encontrarse en Audio Post Production for Television and Film. An introduction to technolgy and techniques – Hilary Wyatt – Tim Amyes / Tercera edición – Focal Press 
Una vez concluído el período de sincronización utilizando los métodos antes mencionados, comienza el trabajo del editor de imagen o montajista. La película comienza a tomar forma. Se decide sobre la mejor manera de encontrar la ruta narrativa que llevará al espectador en el mejor viaje posible.

El sonido en este punto tiene un rol fundamental. Muchas veces el director del filme, decide agregar efectos (un teléfono sonando, un disparo) para construir sus ideas y comprobar como estas funcionan. Asi también se produce el agregado de la música que comunmente no será la final. El score o música original incidental (o de foso) de la pelicula aún se está componiendo y los últimos ajustes de la música se realizarán sobre el corte final de edición.

Rara vez el editor toma desiciones sobre los diálogos de la pelicula. En algunos casos solo se realizan unos pocos ajustes de nivel y de transiciones entre planos tipo cross fades (fundidos cruzados entre los audios para nivelar las diferencias).

Los equipos de video no están preparados para poder cortar audio en porciones más chicas que un frame como los equipos de audio. Por esta razón para producir ediciones de precisión se necesita de herramientas que tengas estas propiedades, como lo son los softwares de edición y postproducción de sonido.

Antes de comenzar el proceso de edición en si, el editor debe colocar las marcas de inicio que reciben el nombre de Leader o guía de operador. Estas marcas son las que se utilizarán durante todo el proceso de postproducción para juzgar el sincro.

La guía o Leader es un contador regresivo que comienza con un fotograma al que se le llama START[1]. A este fotograma se le conoce como fotograma cero y a partir de alli comienza la cuenta regresiva de 8 a 0, siendo el último numero visible el 2 donde podemos escuchar claramente un BIP.

De acuerdo a la norma que se esté utilizando la distancia que existe entre el BIP (2) y el primer fotograma de accion (de ahora en más FFOA por su nombre en inglés First frame of action) sera de exactamente dos segundos, 50 cuadros para PAL, aproximadamente 60 para NTSC y 48 cuadros en el caso del fílmico. Para las mediciones en Pies y Frames el BIP debe caer exactamente a los 9 pies mientras que el FFOA estará posicionado en los 12 pies exactamente.

Luego del LFOA (Last Frame of Action, último fotograma de acción) transcurren dos segundos de negro (48 frames para cadencias de 24 cps, 50 frames para PAL y 60 para NTSC) hasta encontrar nuevamente un “2” en la imagen con su correspondiente BIP sonoro.

Cuando se realiza una película en donde se prevé su exhibición en salas comerciales, se trabaja con un límite de tiempo en la duración de la imagen. Esto tiene que ver con lo que efectivamente dura un rollo de película, algo asi como 20 minutos.
Al tener que acarrear esta particularidad, se decide al momento del montaje fragmentar la película en porciones de veinte minutos a las cuales llamaremos ACTOS.

Cada uno de estos actos deberá incluir su correspondiente LEADER con las características que indicamos más arriba.

Al finalizar el montaje de imágenes es hora de entregarle el material al equipo de postproducción de sonido.

Necesidades de Sonido:

En todo proceso de postproducción de sonido, el equipo que se encarga de este trabajo solicitará un conjunto de informaciones y formatos, que el departamento de imagen debe poder proporcionar sin problemas.

En principio lo primero que se precisará para resolver el montaje sonoro es una imagen que se pueda utilizar de referencia, que sea una copia fiel del montaje realizado de acuerdo a las ideas del director y que por supuesto, marche a la misma velocidad de cuadro que la imagen original. Esta imagen que se usa de referencia se denomina COPIA CERRADA. Aclaremos que si se trata de un producto que está concebido para ser exhibido en una sala de cine comercial, donde en la mayoría de los casos los sistemas de proyección son proyectores de 35 mm, el equipo de sonido no recibirá una única copia cerrada sino una por cada ACTO de película.

REPETIMOS: Cada una de estas imagens o actos, tiene por delante y detrás su correspondiente guía de operador o LEADER.


[1] Se puede ver un video para reconocer la apariencia del leader en http://inerxia.net/2010/09/07/contador-regresivo-film-leader/


La imagen puede ser proporcionada de maneras diversas. Puede ser entregada en un archivo de video digital (comunmente un quicktime) o directamente ser copiada en un tape para que sea reproducida sincronicamente con el sonido. Si este es el caso, la VTR o reproductor de video debe sincronizarse al transporte de la DAW de audio. Utilizando otras palabras: Al poner play en la DAW se enciende automaticamente el play de la VTR y todo corre en sincronía siempre y cuando los seteos estén bien realizados.

Existen equipos que permiten reproducir videos de tipo quicktime o avi (como asi otros tipos) utilizando un segundo computador como VTR virtual[1]. La idea de realizar esto es evitar que la DAW de audio también se encargue de proporcionar el motor de video, con la consiguiente perdida de recursos.


[1] http://www.virtualvtr.com/ - Este es uno de los equipos que se dedican a este fin. Otros pertenecen a firmas como Gallery Software
Una vez importada la imagen de la copia cerrada a la DAW (Pro Tools – Nuendo, etc), necesitaremos un “algo” que nos permita reconstruir las decisiones de audio que se tomaron al momento del montaje. La idea aquí es poder visualizar la misma linea de tiempo que utilizó el editor, con los audios dispuestos exactamente de la misma manera y situados perfectamente en el mismo lugar de origen.

Para lograr este propósito, el editor nos proporcinará un tipo de archivo especial que se conoce como OMF (Open Media Framework Interchange, OMFI) en un caso o AAF (Advanced Authoring Format) en otro[1]



[1] Estas formas de exportación de los proyectos dependen de la aplicación que se utilice. Existen otras como AES31, XML, MXF.


El OMF fue diseñado por AVID como un formato abierto para que otras estaciones de trabajo puedan “leer” los proyectos de este equipo. Este tipo de archivo permite exportar el audio de un proyecto (solo el audio y su correspondiente metadata), de manera tal que este continúe siendo editable.

Existen dos formas de crear un archivo OMF:

-          Embebido
-          No Embebido

En el caso embebido, todos los archivos que forman parte de la edición de audio se incorporarán al archivo en cuestion. Es decir, logramos que dentro de un solo paquete de información esten contenidos todos los audios que utilizamos en la linea de tiempo en el montaje. Recordamos que, como lo expresamos más arriba, si el equipo de video realizó algun tipo de manipulación de la información de audio original (Frecuencia de muestreo, resolución, etc) al exportar el OMF obtendremos una exportación de lo transformado, por lo tanto, deberemos reconectar a los clips de audio con los hermanos originales utilizando un EDL. Se recomienda el uso de este método cuando con seguridad nos trasladaremos a otro estudio o DAW y queremos tener la certeza de que llevamos todo lo que está incluído en el proyecto.

Un OMF no embebido implicaría exportar solo las decisiones de edición (practicamente es un EDL, metadata pura) para que luego estas puedan trasladarse a un equipo que ya contenga la media, los audios en si. Este tipo puede utilizarse cuando estamos trabajando en un solo ordenador tanto el video como el sonido, en donde la media de audio y video esta alojada en la misma estación o cuando la media es compartida en una red en donde varios ordenadores pueden acceder a ella. En el siguiente gráfico vemos como una serie de estaciones tiene acceso a una mismo servidor para que todas puedan utilizar la media
La importancia de los OMF (como así también la de sus hermanos mayores los AAF) es que el usuario puede definir los márgenes de edición o HANDLES, un margen de estiramiento de cada uno de los clips de audio para que podamos corregir ediciones y realizar transiciones con comodidad. La posibilidad de tener toda la metadata de la edición nos permite corregir cualquier defecto en la edición de audio por parte de quien resolvió la imagen de nuestra película.

Un AAF es en esencia muy similar al OMF, solo que además de transportar la metadata y la media de audio, es posible solicitarle que transporte video, gráficos, etc. Se espera que en los próximos años se convierta en el estandar de intercambio entre todas las aplicaciones de video y las DAW.

Los estudios de postproducción casi siempre entregan “cartas de exportación” que permiten a los editores de video seguir una serie de instrucciones para que al momento de la exportación de los OMF o los AAF no encuentren inconvenientes y sean totalemnte compatibles con quienes reciben estos archivos.
Un detalle para recalcar es que no todas las estaciones son capaces de exportar estos formatos. Para poder precisar estos detalles siempre es conveniente mirar los manuales de las aplicaciones. Es común el hecho de que cada aplicación exporta uno u otro tipo, nunca los dos. Conocer estas cuestiones de antemano puede ahorrarnos muchisimo tiempo en la postproducción.

Una vez importada la imagen, luego el OMF o el AAF tiene lugar la edición en si misma. Uno de los procesos fundamentales que consume muchas horas de trabajo es la edición de diálogos de la película. Obviamente no todos los proyectos audiovisuales requieren edición de diálogos, pero de ser necesaria se transforma casi en la columna vertebral que sostiene a todo el sonido de la película.

Todas las postproducciones de sonido buscan como objetivo principal el resolver la continuidad de la película. Gracias a la uniformidad que puede sostener el dialogo entre los planos que integran una misma escena, es posible que concibamos a la película como continua, ligada por la costura que proporciona el sonido.  

Para poder lograr este objetivo es altamente necesario contar con un back up completo de todo aquello registrado durante el rodaje. Dialogos de directo, wildtracks, room tone y otros tipos de audio estan en este paquete. De no tener estas informaciones deberíamos proceder solo con lo que está contenido en el OMF y seguramente con ello no será suficiente

Expresar en este punto del apunte la complejidad y los pormenores de esta tarea implicaría desarrollar unos cuantos capitulos de un libro. Recomendamos la lectura de distintas bibliografías especializadas en estos temas[1]

En concreto: además de solicitar la copia cerrada, el OMF o en su defecto el AAF necesitaremos tener a nuestra disposición todos los sonidos originales de la producción.



[1] Dialogue Editing for Motion Pictures – John Purcel – Editorial Focal Press



Si la elección del equipo de producción es el registro en sistema simple, esto implicará que para obtener el audio producido al momento del registro, deberemos separar de cada uno de los videos el audio correspondiente utilizando los clips de video en el caso en que la grabación sea en sistema basado en archivos o tapes donde está contenido el video. Esto consume muchísmo tiempo, además de la incomodidad en el trabajo que genera.

Escapan a este breve escrito, la grabación de ADR o doblaje que es utilizado para suplantar lineas de diálogo defectuosas, la sonorización del filme gracias al foley y el registro y mezcla de la música original.

De estos pocos renglones, la conclusión irrefutable es que la postproducción de sonido es un proceso complejo que requiere mucho tiempo de estudio y dedicación. Es la manera de organizar espacio-temporalemente los sonidos que integran una película o un audiovisual cualquiera. Una tarea nada fácil que circula en la experiencia técnica como la narrativa.


Bibliografía

-          Audio Postproduction for Television and Film / Hilary Wyatt – Tim Amyes / Third Edition / 2009 – Elsevier – Focal Press
-          Dialogue Editing for Motion Pictures / John Purcel / 2010 – Elsevier – Focal Press
-          Manual de Postproducción de Sonido Cinematográfico / Jaime A. Puig
-          Apuntes de Cátedra – Sonido II – AA / FBA / UNLP – Germán Suracce

.





No hay comentarios:

Publicar un comentario