Introducción:
El siguiente
apunte intenta definir y clarificar conceptos de uno de los procesos
fundamentales y hasta a veces desconocido por quienes se involucran en el mundo
de la producción audiovisual.
Generalmente
existe gran confusión sobre los flujos de producción en una postproducción tipo
y suele relacionárselos con áreas de la producción musical. Si bien hay ítems
que son comunes, las distancias entre las formas de producción y el uso de las
herramientas son enormes. Además, cada realización audiovisual presenta
necesidades específicas que hacen que cada producción se diseñe específicamente
de acuerdo con sus planteos narrativos, económicos y otros que terminan por
configurar la organización de la producción.
Desgraciadamente
existe muy poca información especializada lo cual contribuye a este desorden.
En este escrito no se pretende profundizar sobre todos los aspectos que
deberíamos conocer para dominar esta especialidad sino hacer foco en las
necesidades primordiales para encontrar un método que nos permita integrar las
distintas áreas del hacer audiovisual.
Previa de Producción:
Al comenzar un
proyecto (película, cortometraje, programa de televisión, etc.) hay decisiones
que se toman que condicionarán las formas de trabajo posteriores. Es por eso
que una postproducción saludable comienza desde la previa de producción. Es
aquí donde se deben tomar decisiones como:
-
Elección de la frecuencia de
muestreo y resolución de grabación.
-
Uso de time code
-
Selección de cadencias de
cuadro coherentes con los procesos de imagen
-
Scouting Técnico:
Diagnosticar posibles problemas de registro en las locaciones.
-
Verificación de la boutique o
casa de postproducción. Disponibilidades técnicas
-
Posibles ventanas de exhibición
(esto condiciona los formatos de entrega y las posibles versiones diferentes de
mezcla final)
-
Diseño del workflow (flujo de
trabajo)
Cada proyecto
en si mismo requiere un diseño diferente. La elección del formato de registro
de imagen y su consecuente tratamiento (almacenamiento, procesos de
laboratorio, digital cut, telecinados, tape to film, etc.) requieren especial
cuidado y atención. Un mal paso en esta etapa del proceso repercute
directamente en los bolsillos de la producción y en el tiempo de culminación
del proyecto. Generalmente las decisiones de este tipo recaen en un rol, el
coordinador de postproducción, que es contratado para este fin.
El director de
sonido es quien (en conjunto con otras cabezas de equipo) resolverá que es lo
más adecuado para el trabajo a realizar. En esta etapa será necesario
establecer un cronograma de trabajo, llamado plan de postproducción, que
regulará las jornadas y la organización del tiempo.
Es probable
que hasta que no se haya concluido el rodaje y el trabajo de montaje de imagen
no haya finalizado, no se puedan precisar fehacientemente los tiempos de
trabajo. De todas maneras es conveniente estar preparado. Con el correr del
tiempo y el pasar de los años cada vez se recortan más los presupuestos
destinados al sonido como así también la cantidad de semanas de trabajo. Solo
un plan bien diseñado partiendo de la base de un guión (técnico o literario)
nos permitirá llevar a buen puerto la tarea de la finalización del proyecto de
manera ideal.
Para el diseño
de este plan los ítems a considerar son los siguientes:
-
Entrega de la copia cerrada
(evaluación de la misma)
-
Verificación y depuración del
OMF
-
Edición de diálogos
-
ADR o Doblaje
-
Foleys y efectos de sonido
(incluídos los ambientes)
-
Grabaciones extras
-
Grabación y mezcla del Score
o música original
-
Mezcla Final
Probablemente
en esta lista no hayamos incluido algunos puntos que pueden ser posibles para
determinadas realizaciones, como citamos más arriba, cada producción requiere
su propio plan.
Generalidades:
En un mundo
totalmente informatizado, los entornos de postproducción no son ajenos. La
tradición del montaje de imagen y sonido data de una historia de decenas de
años en donde las herramientas han sido mejoradas para favorecer el desarrollo
de nuevas ideas narrativas y facilidades técnicas para operadores y
montajistas.
La industria
audiovisual ofrece soluciones o sistemas de edición digital varios que pueden
hoy condensar en un ordenador, lo que hace unos años atrás se necesitaban
grandes conjuntos de herramientas y personal.
Estas
inversiones que van desde unos pocos dólares hasta unos cuantos miles cambian
su valor debido a la posibilidad de control, administración de entradas y
salidas, y un conjunto grande de etcéteras.
El mercado se
ha inclinado al mundo Pro Tools, en sus diferentes configuraciones. Hasta hace
unos años hablar de Pro Tools implicaba que al software LE, M-Powered o TDM
había que asociarle su correspondiente hardware[1].
Hoy la empresa AVID y su división de audio digital Digidesign, abrió el juego a
que su software sea abierto a interfaces de sonido ASIO compatibles, todo esto
quizá para ganarle terreno a su principal competidor, el producto de Steinberg,
Nuendo[2]
[1] Para un
recorrido por las diferentes configuraciones ofrecidas por Digidesign visitar
[2] Para más información sobre los productos de Steinberg visitar http://www.steinberg.net/en/home.html
La
proliferación de los sistemas de edición digital, el avance de la piratería y
otros factores han contribuido con un falso entendimiento del rol que ocupa el
editor, sus asistentes, el editor (editores) de sonido, etc. La competencia por
quién tiene “el último software”, “el último plugin”, “la última versión” ha
promovido toda una nueva generación de editores que se preocupan más por el
mundo tecnológico que por el narrativo: Un chico genio de las computadoras no
es un editor.
Un buen
montajista debe saber de ritmos, estructuras de montaje, formas narrativas,
formas musicales y un complejo aglutinamiento de saberes que hacen del editor
una persona capaz de ayudar al director a encontrar la mejor forma de contar su
historia.
Por ello, no
es la herramienta en sí, sino el uso que se hace de la misma.
Pero, sin
querer caer en contradicciones, estas herramientas son también las que permiten
que podamos o no resolver los problemas que se nos van presentando. La mejor
manera de entenderlas es conocer que debemos encontrar la herramienta para cada
caso.
Esta es la
eterna dicotomía, el antiguo debate entre técnica y realización, entre artista
y técnico. Discusión tramposa si las hay: Una se sirve de la otra, son
complementarias. Es así que podríamos pensarlas ya no como simples objetos
técnicos sino como herramientas técnico-expresivas, un concepto que le quepa
mejor a este conjunto de sistemas e instrumentos.
En el caso del
audio, y específicamente en la postproducción, toda la cadena de equipos es
crucial. Comúnmente se piensa solo en la computadora, el software y se olvida que
el sistema de monitoreo, la sala, los instrumentos de medición son tan
importantes como el programa que se está utilizando.
De nada sirve
hacer una inversión en un sistema de edición digital si vamos a irrespetarlo
con el uso de hardware de pobre tratamiento y de dudosa manipulación del
sonido, de un sistema de monitoreo inadecuado, y de una sala que no esté
preparada para la edición y mezcla de audio.
Un sistema de
monitoreo inexacto, una sala no tratada acústicamente fácilmente nos engañará
para la toma de decisiones de mezcla. Lo que escuchamos allí en nada (o en
poco) se parecerá o lo que escuchemos al momento de la proyección o exhibición
del material.
Otras
preguntas que también debemos responder es si está nuestro equipo preparado
para reproducir imagen, ser capaz de trabajar con códigos de tiempo,
posibilidad de intercambio de información con otras estaciones o equipos de
trabajo, capacidad de almacenamiento y proceso, interconectividad, etc.
Como se ve, los sistemas pueden partir de
configuraciones muy básicas (un home Studio) a otras más avanzadas. Lo que
debemos saber es como podemos aprovechar y diseñar las diferentes etapas de
trabajo y así diseñar un esquema de postproducción que
contemple el
salto tecnológico (el cambio de estación) cuando sea necesario. Ej. Resolver la
edición y premezclas en una estación de trabajo pequeña y realizar la mezcla
final en un estudio preparado para este fin.
En lo
anteriormente expuesto hemos citado algunas de las características que deben
poseer los sistemas de edición digital en su conjunto.
Una de las
particularidades del área de postproducción de sonido, es que el encargado de
la misma debe conocer (con mayor o menor nivel de profundidad) características
que hacen al trabajo con imagen, ya que nuestra labor comienza una vez
finalizada la edición de la misma. Cuando desconocemos estos detalles, dejamos
lugar a que muchos procedimientos no funciones y que, como se dijo más arriba,
causen perdidas de tiempo y dinero innecesarias.
Repasemos una
serie de procedimientos que comúnmente se realizan en el mundo de las imágenes.
Existe una
gran variedad de métodos para la captura de imagen. El universo de formatos
existentes es tan grande que en este breve apunte no podríamos desarrollarlo
con claridad. Lo que si podemos decir, es que es posible optar en registrar
nuestras imágenes en fílmico (35
mm , 16
mm y otros) o que nuestra captura la resolvemos en video
(es aquí en donde el árbol de formatos es inmenso).
Lo que debe
importarnos en este punto es la cantidad de cuadros por segundo que el formato
utilizó. Las cadencias de cuadro conocidas son:
24 cps: Comúnmente fílmico o HD
25 cps: PAL / SECAM
29.97 cps: NTSC
Una salvedad: Cuando
el material original se filmó en soporte fílmico, la imagen que se utiliza para
la edición es una imagen de video que resulta del telecinado en el laboratorio.
En este procedimiento es importante establecer una relación entre los cuadros
(frames) del fílmico y los del video que nos entregó el transfer.
En los bordes de
los fotogramas del material fílmico existe una nomenclatura que la empresa
Kodak denominó Key Code que determina la posición exacta de un fotograma en la
tira de película. Con esta forma de “leer la imagen” podemos relacionar el Key
Code de la película con el time code del video que utilizamos como referencia
para el montaje. Damos por sentado que el lector comprende las diferencias
entre las formas de trabajo Off Line y On Line, como así también los
procedimientos que se realizan en ambos métodos.
En la imagen
cinematográfica, la unidad mínima de medida y corte es el fotograma. Un
fotograma corresponde a una imagen. Cada fotograma, tiene 4 perforaciones, o
agujeros de arrastre, que el proyector (o los transportes del laboratorio) usará
para mover la película. En sonido, tradicionalmente se considera una
perforación como unidad mínima de medida, corte, y ajuste de sincronía. Los
montadores de cine experimentados, logran detectar errores de sincronía a nivel
de perforaciones.
Al editar
sonido en “soporte magnético 35 m/m” se usa una “empalmadora”, y el corte de
edición debe realizarse entre las perforaciones. Actualmente, no existe esta
limitación al realizar el proceso de postproducción de sonido en editores
digitales, pero sigue existiendo cuando se transfiere el sonido a película
óptica.
La velocidad
de proyección (frame rate) en cine es de 24 fotogramas por segundo. Por tanto,
la postproducción en cine debe hacerse a esta velocidad, para evitar
diferencias en variación de tono, diferente duración, cambios en el ritmo de
montaje, distorsiones en los reductores de ruido SR, etc.
Si el rodaje se ha realizado a diferente
velocidad, ANTES DEL MONTAJE (edición de imagen) y de sonido debe cambiarse la
imagen a la velocidad correcta. AVID film composer puede realizar esta tarea
automáticamente (existen utilidades dentro de Final Cut como el Cinema Tools
que establece la relación de los fotogramas del fílmico conlos frames del
video). Se telecina a 25 fotogramas. Y al capturar la imagen se indica que está
a 25. La imagen será convertida a 24 para su montaje (Edición)
Hay que recordar,
que a diferencia del video y la televisión, que usan diferentes velocidades, dependiendo
de la región, o formato (PAL, SECAM, NTSC), en cine hay
COMPATIBILIDAD
TOTAL en todo el mundo.
El caso aquí
es tratar a la imagen del video, que comúnmente en Argentina corre a 25
cps, como si se tratara de la imagen del
fílmico, es decir que el video marche a una velocidad acorde a la cadencia de
cuadro del original.
Para esto
existe una serie de métodos que escapan del propósito de este apunte[1]
Para medir con
precisión el metraje de una película o fragmento, plano, etc., se usa como
unidad de medida pies (feets) y fotogramas (frames). Un pie equivale a 16
fotogramas. Por tanto, si tenemos un valor en fotogramas, para convertirlo a
pies debemos dividirlo por 16, y el resto corresponderá a las fracciones de
pies, que se expresan también en fotogramas.
Igualmente,
para pasar de pies a fotogramas, multiplicaremos los pies por 16, y le sumaremos
los fotogramas de fracción de pies.
El uso de pies como unidad de medida se debe a la definición original de fotograma: la altura de un fotograma es "la 16ª parte de un pie". Por tanto, si usamos otra medida, como por ejemplo el sistema métrico decimal, nos aparecen "fracciones de fotograma" al convertir, lo que GENERA ERRORES. (Por ejemplo,
Igualmente, el
uso de código de tiempo o medida en minutos y segundos, TAMPOCO es fiable:
pueden compararse medidas en diferente frame rate, o número de fotogramas por
segundo, lo que también genera errores.
Para escribir un valor en "pies" y "fotogramas" se usa la comilla simple (') y comillas dobles (") respectivamente. Por ejemplo,
El Proceso de Postproducción:
Al comienzo de
toda edición de imágenes, estas se ingestan o capturan utilizando software (en
el caso en que la imagen se encuentre en soporte cinta), o directamente
logueando[2]
y copiando el material que se entrega en otros soportes como por ejemplo
tarjetas de memoria o discos rígidos.
Una vez que el material se encuentra dentro de
la estación de trabajo destinada a editar la imagen (o dentro de un servidor de
red donde varios equipos pueden acceder al
[1] Para más información al respecto de este tema se sugiere la
lectura de Dialogue Editing for Motion Pictures – John Purcel – Editorial Focal
Press
[2] Loguear un material es identificar claramente cual es el origen
del mismo (tape o tarjeta al que pertenece) y asignarle un nombre claro que
permita identificarlo durante todo el proceso de postproducción.
material) el
asistente de edición procede a capturar o ingestar los audios que entrego el
departamento de sonido para luego pasar a sincronizarlos utilizando la claqueta[1].
Es importante
mencionar que así como el universo de formatos de video es inmensamente grande
lo mismo sucede en el caso del audio. De todos modos mencionaremos cuales son
los formatos más comunes en que el audio pueda entregarse para la posterior
utilización en el montaje.
Hace muy poco
tiempo atrás, la industria había adoptado al DAT (digital audio tape) como el
estándar para las grabaciones de campo en el trabajo audiovisual. La principal
desventaja de este formato es que al ser uno de cinta, corre con todos aquellos
problemas propios de los soportes que son degradables y suelen sufrir roturas,
estiramientos, drops (perdidas de información), etc. Para agregar una
característica extra este formato trabaja con una frecuencia de muestreo de
44.1 Khz. o 48 Khz. y una resolución de 16 bits. Agregamos que a parte de todo
esto es lineal. Al editor no le quedaba más remedio que (utilizando las
conexiones digitales apropiadas) capturar todo el material logueando
adecuadamente cada una de las tomas, lo que se traduce en un largo y tedioso
proceso.
Una vez
capturados todos los audios el asistente
de edición utilizará las imágenes seleccionadas por el director para unirlas
con las correspondientes tomas de sonido.
Aquí hay que
desterrar una mala práctica que realizan algunos editores. Cuando se trabaja
con cámaras de video, es posible tener encendido el micrófono que viene
incorporado en el cuerpo de la cámara o fuera de la misma. Al estar trabajando
en sistema doble, algunos editores comienzan montando el material trabajando
con el audio de la cámara y dejan para quien realiza la post de sonido el
sincro con el audio final correspondiente. Esto puede provocar inexactitudes en
la manera de sincronizar:
-
El sonidista ya no puede ver
la claqueta porque le entregaron un material montado
-
La sincronización se logra
comparando formas de onda y generalmente las mismas no coinciden por el tiempo
de llegada del sonido a los distintos micrófonos de la planta de sonido
Es el editor
quien tiene el deber de sincronizar los audios y de que se presente algún
problema con la sincronización, es responsable de informar al departamento de
sonido para que el mismo proporcione la solución o al menos evaluar lo que
aconteció.
En el gráfico
siguiente, podemos ver una línea de tiempo que incluye audios que están siendo
sincronizados con la correcta utilización de la claqueta.
[1] Este método es aplicado a los registros en sistema doble. En el
sistema simple no hay nada que sincronizar ya que en el mismo formato conviven
imagen y sonido
En los entornos de trabajo actuales, han
comenzado a proliferar los grabadores de campo sobre disco o memorias de estado
sólido[1]. Estos
permiten incrementar los valores de la frecuencia de muestreo en el orden de los
32 Khz., 44.1 Khz., 48 Khz., 96 Khz. hasta valores de 192 Khz. en algunos
modelos[2]. Las
resoluciones tipo se establecen entre los valores de 16 bits o 24 bits.
Una de las grandes ventajas de estos equipos
basados en la generación de archivos digitales es que el almacenamiento de los
mismos y su transporte hacia las estaciones de trabajo es muy sencillo. Estos
archivos pueden ser de varios tipos. Mencionaremos solo algunos:
WAV: Es un formato que no soporta time code (código
de tiempo), pero que es aceptado por la gran mayoría de las DAW (Digital Audio
Workstation). Una de sus ventajas es que podemos transferir fragmentos de audio
en donde podemos prescindir del uso del código de tiempo.
AIFF: Otro de los formatos que no soporta
time code. Es el tipo de archivos que manejan las estaciones Mac y generalmente
los equipos Avid (corriendo sobre sistemas operativos Macintosh) exportan en
este tipo la media.
SDII: Este tipo de archivo soporta time code.
Usado por equipos como Media Composer, Film Composer, Pro Tools y otros equipos
de la familia Avid.
[1] Ver apuntes de Cátedra – Sonido II – Cadena de Audio
[2] Existen seteos de frecuencias de muestreo como 48.048 Hz y otras
de uso especial que exceden el tema de este apunte. Quienes deseen información
ampliada sobre el tema pueden visitar http://www.sounddevices.com/products/744t.htm
[3] Audio Engineering Society
[4] European Broadcasting Union
grabadores de campo utiliza por defecto. No
solo es capaz de transportar la media (el audio en si mismo) sino todos los
datos que hacen referencia al mismo (metadata).
Con la introducción de los equipos basados en
archivos, se ha conseguido dividir en dos grupos la forma de utilizar estos
BWAV.
Por un lado tenemos los llamados BWAV
Monofónicos. Estos se constituyen como archivos independientes para cada una de
las entradas de micrófono (o de línea) de la grabadora. Dicho de otra manera:
Obtendremos como resultado cuatro archivos que comparten la misma metadata con
un mismo nombre de escena, plano, toma en el caso en que alimentemos las cuatro
entradas del equipo. Un archivo por cada entrada activa.
Por otra parte existen los archivos llamados
BWAV Polifónicos: Aquí todas las entradas activas de grabación se “empaquetan”
en un solo archivo contenedor. El resultado es entonces un único archivo por
toma que contiene dentro de si mismo todas los audios que se corresponden con
cada una de las entradas. Obviamente es posible accesar a cada una de manera
independiente.
Para un editor de video, es mucho más
sencillo trabajar el sincro utilizando un único archivo polifónico que cuatro
archivos de audio (en el caso en que se hayan utilizado cuatro entradas de
audio). Desgraciadamente no todos los sistemas de edición de video soportan a
los BWAV polifónicos.
Es importante conocer que frecuencia de
muestreo y que resolución es capaz de soportar nuestro sistema de video. Estas
diferencias en el soporte o no de estas “palabras digitales” se traducen en
conversiones automáticas que el software realiza por nosotros con resultados
que desconocemos o no podemos controlar. Un sistema que no sea capaz de
manipular estas informaciones debe proporcionar algún método para exportar el
proyecto de trabajo (proyecto de edición) en algún formato como el EDL.
El EDL (Edit Decision List) es una manera de
representar una edición de video o fílmico. En un EDL, están identificados cada
clip de video, cada clip de audio y su ordenamiento en la línea de tiempo de
cualquier editor, como así también su lugar de origen y su ubicación original.
De esta manera exportando un EDL podemos reconstruir la edición en otra
estación. Este proceso en algunas estaciones de trabajo recibe el nombre de autoconform.
En este mundo de los EDL´s existen de distintos
tipos: CMX, GVG, Sony, Final
Cut Pro y Avid por solo mencionar algunos.
En la siguiente imagen describimos como se ve un EDL y cuales son las
informaciones que podemos obtener del mismo. Observese que si es leido de
izquierda a derecha encontramos claramente cuatro posiciones de código de
tiempo[1].
Las dos primeras corresponden a la posición en el material original mientras
que las restantes explican en que posición está ese material en la linea de
tiempo que estamos utilizando.
[1] Una extensa explicación sobre los códigos de tiempo puede
encontrarse en Audio Post Production for Television and Film. An introduction
to technolgy and techniques – Hilary Wyatt – Tim Amyes / Tercera edición –
Focal Press
Una vez concluído el período de sincronización utilizando los métodos antes
mencionados, comienza el trabajo del editor de imagen o montajista. La película
comienza a tomar forma. Se decide sobre la mejor manera de encontrar la ruta
narrativa que llevará al espectador en el mejor viaje posible.
El sonido en este punto tiene un rol fundamental. Muchas veces el director
del filme, decide agregar efectos (un teléfono sonando, un disparo) para
construir sus ideas y comprobar como estas funcionan. Asi también se produce el
agregado de la música que comunmente no será la final. El score o música
original incidental (o de foso) de la pelicula aún se está componiendo y los
últimos ajustes de la música se realizarán sobre el corte final de edición.
Rara vez el editor toma desiciones sobre los diálogos de la pelicula. En
algunos casos solo se realizan unos pocos ajustes de nivel y de transiciones
entre planos tipo cross fades (fundidos cruzados entre los audios para nivelar
las diferencias).
Los equipos de video no están preparados para poder cortar audio en
porciones más chicas que un frame como los equipos de audio. Por esta razón
para producir ediciones de precisión se necesita de herramientas que tengas
estas propiedades, como lo son los softwares de edición y postproducción de
sonido.
Antes de comenzar el proceso de edición en si, el editor debe colocar las
marcas de inicio que reciben el nombre de Leader o guía de operador. Estas
marcas son las que se utilizarán durante todo el proceso de postproducción para
juzgar el sincro.
La guía o Leader es un contador regresivo que comienza con un fotograma al
que se le llama START[1].
A este fotograma se le conoce como fotograma cero y a partir de alli comienza
la cuenta regresiva de 8 a
0, siendo el último numero visible el 2 donde podemos escuchar claramente un
BIP.
De acuerdo a la norma que se esté utilizando la distancia que existe entre
el BIP (2) y el primer fotograma de accion (de ahora en más FFOA por su nombre
en inglés First frame of action) sera de exactamente dos segundos, 50 cuadros
para PAL, aproximadamente 60 para NTSC y 48 cuadros en el caso del fílmico. Para
las mediciones en Pies y Frames el BIP debe caer exactamente a los 9 pies mientras que el FFOA
estará posicionado en los 12
pies exactamente.
Luego del LFOA (Last Frame of Action, último fotograma de acción)
transcurren dos segundos de negro (48 frames para cadencias de 24 cps, 50
frames para PAL y 60 para NTSC) hasta encontrar nuevamente un “2” en la imagen con su
correspondiente BIP sonoro.
Cuando se realiza una película en donde se prevé
su exhibición en salas comerciales, se trabaja con un límite de tiempo en la
duración de la imagen. Esto tiene que ver con lo que efectivamente dura un
rollo de película, algo asi como 20 minutos.
Al tener que acarrear esta particularidad, se
decide al momento del montaje fragmentar la película en porciones de veinte
minutos a las cuales llamaremos ACTOS.
Cada uno de estos actos deberá incluir su
correspondiente LEADER con las características que indicamos más arriba.
Al finalizar el montaje de imágenes es hora de
entregarle el material al equipo de postproducción de sonido.
Necesidades de Sonido:
En todo proceso de postproducción de sonido, el
equipo que se encarga de este trabajo solicitará un conjunto de informaciones y
formatos, que el departamento de imagen debe poder proporcionar sin problemas.
En principio lo primero que se precisará para
resolver el montaje sonoro es una imagen que se pueda utilizar de referencia,
que sea una copia fiel del montaje realizado de acuerdo a las ideas del
director y que por supuesto, marche a la misma velocidad de cuadro que la
imagen original. Esta imagen que se usa de referencia se denomina COPIA
CERRADA. Aclaremos que si se trata de un producto que está concebido para ser
exhibido en una sala de cine comercial, donde en la mayoría de los casos los
sistemas de proyección son proyectores de 35 mm , el equipo de sonido no recibirá una
única copia cerrada sino una por cada ACTO de película.
REPETIMOS: Cada una de estas imagens o actos,
tiene por delante y detrás su correspondiente guía de operador o LEADER.
[1] Se puede ver un video para reconocer la apariencia del leader en http://inerxia.net/2010/09/07/contador-regresivo-film-leader/
La imagen puede ser proporcionada de maneras
diversas. Puede ser entregada en un archivo de video digital (comunmente un
quicktime) o directamente ser copiada en un tape para que sea reproducida
sincronicamente con el sonido. Si este es el caso, la VTR o reproductor de video
debe sincronizarse al transporte de la
DAW de audio. Utilizando otras palabras: Al poner play en la DAW se enciende
automaticamente el play de la VTR
y todo corre en sincronía siempre y cuando los seteos estén bien realizados.
Existen equipos que permiten reproducir videos de
tipo quicktime o avi (como asi otros tipos) utilizando un segundo computador
como VTR virtual[1].
La idea de realizar esto es evitar que la DAW de audio también se encargue de proporcionar
el motor de video, con la consiguiente perdida de recursos.
[1] http://www.virtualvtr.com/
- Este es uno de los equipos que se dedican a este fin. Otros pertenecen a
firmas como Gallery Software
Una vez importada la imagen de la copia cerrada a
la DAW (Pro Tools
– Nuendo, etc), necesitaremos un “algo” que nos permita reconstruir las
decisiones de audio que se tomaron al momento del montaje. La idea aquí es
poder visualizar la misma linea de tiempo que utilizó el editor, con los audios
dispuestos exactamente de la misma manera y situados perfectamente en el mismo
lugar de origen.
Para lograr este propósito, el editor nos proporcinará un tipo de archivo
especial que se conoce como OMF (Open Media Framework
Interchange, OMFI) en un caso o AAF (Advanced
Authoring Format) en otro[1]
[1] Estas formas de exportación de los proyectos dependen de la
aplicación que se utilice. Existen otras como AES31, XML, MXF.
El OMF fue diseñado por AVID como un formato
abierto para que otras estaciones de trabajo puedan “leer” los proyectos de
este equipo. Este tipo de archivo permite exportar el audio de un proyecto
(solo el audio y su correspondiente metadata), de manera tal que este continúe siendo
editable.
Existen dos formas de crear un archivo OMF:
-
Embebido
-
No Embebido
En el caso embebido, todos los archivos que
forman parte de la edición de audio se incorporarán al archivo en cuestion. Es
decir, logramos que dentro de un solo paquete de información esten contenidos
todos los audios que utilizamos en la linea de tiempo en el montaje. Recordamos
que, como lo expresamos más arriba, si el equipo de video realizó algun tipo de
manipulación de la información de audio original (Frecuencia de muestreo,
resolución, etc) al exportar el OMF obtendremos una exportación de lo
transformado, por lo tanto, deberemos reconectar a los clips de audio con los
hermanos originales utilizando un EDL. Se recomienda el uso de este método
cuando con seguridad nos trasladaremos a otro estudio o DAW y queremos tener la
certeza de que llevamos todo lo que está incluído en el proyecto.
Un OMF no embebido implicaría exportar solo las
decisiones de edición (practicamente es un EDL, metadata pura) para que luego
estas puedan trasladarse a un equipo que ya contenga la media, los audios en
si. Este tipo puede utilizarse cuando estamos trabajando en un solo ordenador
tanto el video como el sonido, en donde la media de audio y video esta alojada
en la misma estación o cuando la media es compartida en una red en donde varios
ordenadores pueden acceder a ella. En el siguiente gráfico vemos como una serie
de estaciones tiene acceso a una mismo servidor para que todas puedan utilizar
la media
La importancia de los OMF (como así también la de
sus hermanos mayores los AAF) es que el usuario puede definir los márgenes de
edición o HANDLES, un margen de estiramiento de cada uno de los clips de audio
para que podamos corregir ediciones y realizar transiciones con comodidad. La posibilidad
de tener toda la metadata de la edición nos permite corregir cualquier defecto
en la edición de audio por parte de quien resolvió la imagen de nuestra
película.
Un AAF es en esencia muy similar al OMF, solo que
además de transportar la metadata y la media de audio, es posible solicitarle
que transporte video, gráficos, etc. Se espera que en los próximos años se
convierta en el estandar de intercambio entre todas las aplicaciones de video y
las DAW.
Los estudios de postproducción casi siempre entregan
“cartas de exportación” que permiten a los editores de video seguir una serie
de instrucciones para que al momento de la exportación de los OMF o los AAF no
encuentren inconvenientes y sean totalemnte compatibles con quienes reciben
estos archivos.
Un detalle para recalcar es que no todas las
estaciones son capaces de exportar estos formatos. Para poder precisar estos
detalles siempre es conveniente mirar los manuales de las aplicaciones. Es
común el hecho de que cada aplicación exporta uno u otro tipo, nunca los dos. Conocer
estas cuestiones de antemano puede ahorrarnos muchisimo tiempo en la
postproducción.
Una vez importada la imagen, luego el OMF o el
AAF tiene lugar la edición en si misma. Uno de los procesos fundamentales que
consume muchas horas de trabajo es la edición de diálogos de la película.
Obviamente no todos los proyectos audiovisuales requieren edición de diálogos,
pero de ser necesaria se transforma casi en la columna vertebral que sostiene a
todo el sonido de la película.
Todas las postproducciones de sonido buscan como
objetivo principal el resolver la continuidad de la película. Gracias a la
uniformidad que puede sostener el dialogo entre los planos que integran una
misma escena, es posible que concibamos a la película como continua, ligada por
la costura que proporciona el sonido.
Para poder lograr este objetivo es altamente
necesario contar con un back up completo de todo aquello registrado durante el
rodaje. Dialogos de directo, wildtracks, room tone y otros tipos de audio estan
en este paquete. De no tener estas informaciones deberíamos proceder solo con
lo que está contenido en el OMF y seguramente con ello no será suficiente
Expresar en este punto del apunte la complejidad
y los pormenores de esta tarea implicaría desarrollar unos cuantos capitulos de
un libro. Recomendamos la lectura de distintas bibliografías especializadas en
estos temas[1]
En concreto: además de solicitar la copia
cerrada, el OMF o en su defecto el AAF necesitaremos tener a nuestra
disposición todos los sonidos originales de la producción.
Si la elección del equipo de producción es el
registro en sistema simple, esto implicará que para obtener el audio producido
al momento del registro, deberemos separar de cada uno de los videos el audio
correspondiente utilizando los clips de video en el caso en que la grabación
sea en sistema basado en archivos o tapes donde está contenido el video. Esto
consume muchísmo tiempo, además de la incomodidad en el trabajo que genera.
Escapan a este breve escrito, la grabación de ADR
o doblaje que es utilizado para suplantar lineas de diálogo defectuosas, la
sonorización del filme gracias al foley y el registro y mezcla de la música
original.
De estos pocos renglones, la conclusión
irrefutable es que la postproducción de sonido es un proceso complejo que
requiere mucho tiempo de estudio y dedicación. Es la manera de organizar
espacio-temporalemente los sonidos que integran una película o un audiovisual
cualquiera. Una tarea nada fácil que circula en la experiencia técnica como la
narrativa.
Bibliografía
-
Audio Postproduction for Television and Film /
Hilary Wyatt – Tim Amyes / Third Edition / 2009 – Elsevier – Focal Press
-
Dialogue Editing for Motion Pictures / John Purcel /
2010 – Elsevier – Focal Press
-
Manual de Postproducción de Sonido Cinematográfico /
Jaime A. Puig
-
Apuntes de Cátedra – Sonido II – AA / FBA / UNLP –
Germán Suracce
.
No hay comentarios:
Publicar un comentario