Clip & Bit
Del paso del celuloide a la leve huella digital
Con la película en las manos
El 28 de diciembre de 1895, en el parisino Salón Indien del Grand Café, los hermanos Lumière estrenaban “el cinematógrafo”. El modesto cuerpo de esta curiosidad científica era una caja de madera con una lente que absorbía y reproducía la vida en un haz de luz, como un puente hacia otra dimensión. Una serie de imágenes cotidianas, como La salida de los obreros de la fábrica o La llegada del tren, fueron las encargadas de encandilar a los primeros espectadores. La magia estaba servida para un George Méliès, dueño por ese entonces del Teatro Robert Houdini, que asistía a esta primera proyección y al año siguiente ya proyectaba sus primeras películas en su teatro.
El cinematógrafo, a diferencia de sus competidores del momento, el kinetoscopio y el kinetógrafo de Edison y Dickson, era más ligero y transportable, ya que funcionaba girando manualmente una manivela y no empleaba un motor eléctrico[1]. Su mecanismo arrastraba la película, cual máquina de coser, a dieciséis cuadros por segundo, permitiendo filmar, proyectar y copiar largas tiras traslúcidas de nitrato de celulosa, segmentadas en miles de fotogramas. Logrando, así, tangibles “clips de películas”, como los definiría cualquier programa informático de edición multimedia hoy, imágenes en movimiento que van desde que se acciona la cámara hasta que se detiene, tomas únicas de una cotidianidad anterior.
Con el naciente siglo veinte, el cinematógrafo se desmembró: en 1902 la Société Pathé Frères adquiere las patentes de los hermanos Lumière, lo que la llevará a fabricar sus propias cámaras, proyectores y material virgen, llegando a controlar todo el proceso de producción cinematográfica; mientras que en 1906, en París se abren dos salas fijas de proyección en los Grands Boulevars[2]; sin embargo, otros, como Segundo de Chomón en Barcelona, fabrican su propia cámara. El nitrato de celulosa, aunque tuviera una fuerte tendencia a rizarse e inflamarse a más de cuarenta grados centígrados, empezó a rodar imparable por el mundo entero y ser conocido como “celuloide” por su asociación estratégica con el naciente séptimo arte.
Pronto apareció el montaje, se empezaron a cortar y unir los “clips de película” de manera manual para transformar la narración cinematográfica. Tal es el caso del británico James Williamson, perteneciente a la llamada Escuela de Brighton, con Ataque a una misión china (1901), que crea un “montaje alterno”, donde narra a través de planos y contraplanos, de manera rítmica, acelerando la acción, una de las primeras persecuciones del cine. Luego le seguirá audazmente, al otro lado del Atlántico, el norteamericano Edwin S. Porter con Asalto y robo al tren (1903) con un “montaje paralelo” de acciones que transcurren en diferentes lugares, para dar de paso una fecha de nacimiento al western. Así, el camarógrafo o el director, tal como lo describen Fernández Casado y Nohales Escribano, realizaban el siguiente trabajo de montaje, por ese entonces:
“…hacían pasar el celuloide entre sus dedos ante una fuente de luz para encontrar el ritmo. Rompían la película con la mano y unían los trozos con alfileres. Después de realizar los empalmes, visionaban el resultado en proyección, rollo a rollo, decidían algunas correcciones y volvían a empezar. La tarea de sustituir los alfileres o los clips por empalmes más apropiados se confiaba después a los empleados de los laboratorios”[3].
En 1924, Iwan Serrurier, un ingeniero eléctrico de origen holandés, vendió su primera máquina de edición conocida como “Moviola” a los estudios de Douglas Fairbanks. Se estableció así el oficio de los montadores, al permitirles visionar la película individualmente con una potente lupa que concentraba la mirada en un fotograma. El soviético Sergei Eisenstein, con sus icónicas fotografías, observando a trasluz largas cintas de películas y con una tijera siempre a mano, fue quién llevó el arte del montaje a su máxima expresión en el cine silente.
Ya para los años treinta, los exitosos herederos del cinematógrafo se exhibían pletóricos de sonido y color rodando a 24 cuadros por segundo, y con un acetato de celulosa más seguro. Mientras tanto, Konrad Zuse, un recién graduado ingeniero alemán soñaba con una máquina que pudiera hacer cálculos. En 1936, año en que Alan Turing escribió su ensayo «Sobre los números computables», Zuse se puso manos a la obra y comenzó a construir en el piso de sus padres, en Berlín, lo que posteriormente se conocería como el primer ordenador digital, empleando cinta perforada para controlar los programas de su ordenador, que eran en realidad, descartes de película de 35 mm. Un auténtico “remake” tecnológico, como lo define Lev Manovich, al quedar desplazado el código icónico a favor del código binario, anticipando la futura convergencia de ambos medios[4].
Durante la Segunda Guerra Mundial, los ordenadores, tanto para británicos como para estadounidenses, fueron utilizados con fines de defensa militar. Con las «máquinas de Turing», como se les conocía después de que Alan Turing descifró los códigos nazis (hecho que fue llevado al cine en 1986 por Hugh Whitemore en Breaking the Code), trabajaba un joven John Whitney en la fábrica de aviones Lockheed. Diez años más tarde, y ya en tiempos de paz, Whitney compra uno de estos ordenadores analógicos como “excedente de guerra” para poner en práctica su idea de pintar con luz en movimiento, adaptando una cámara que podía “impresionar” lo que hacía el ordenador[5]. Así, con este dispositivo híbrido, realiza junto al diseñador Saul Bass, la secuencia inicial de Vértigo (Alfred Hitchcock, 1958). Y en la década del sesenta funda su propia empresa, Motion Graphics Inc., dedicada a realizar producciones audiovisuales a partir de este ordenador análogo, convirtiéndose su Catalog (1961) en una obra de arte en sí. Por otra parte, en 1963 un sistema llamado “Sketchpad” permitía al usuario dibujar directamente sobre una pantalla de visualización catódica mediante un “lápiz luminosos”[6], logrando modificar y guardar su obra de forma digital. Era el primer paso hacia sistemas gráficos interactivos y de dibujo por ordenador.
Mientras tanto, los ordenadores, como los robots, llegan a la gran pantalla de la mano de la ciencia ficción y se convierten en nuevos personajes dotados de inteligencia artificial, que inevitablemente entran en conflicto con los intereses humanos. Tal es el caso de Hal 9000, en 2001, Odisea del espacio (Stanley Kubrick, 1968) o de Madre en Dark Star (John Carpenter, 1974).
Los primeros frutos tecnológicos de la imagen en mapa de bits los veremos en la gran pantalla finalmente en 1973 con Westworld (Almas de metal) de Michael Crichton. Aquí, proféticamente, Yul Brynner hace una de sus últimas apariciones como un pistolero-robot con una mirada subjetiva completamente maquinal, así la realidad se comienza a pixelar. Y en su secuela, Futurewold (Mundo futuro) de 1976, pero esta vez dirigido por Richard T. Heffron, se va un paso más allá y se introduce una animación 3D para representar la cara y mano de Peter Fonda gracias a unos efectos creados en la Universidad Utah por los estudiantes Edwin Catmull y Fred Parke. Posteriormente, Catmull (futuro fundador de Pixar con Alvy Ray Smith) fundó Computer Graphics Lab en el New York Institute of Technology y en 1979 empezó a trabajar para George Lucas en Lucasfilm, donde ayudó al desarrollo de la tecnología de composición de imagen digital usada para combinar múltiples imágenes. Finalmente, llegó Tron (Steven Lisberger 1982) con breves escenas completamente digitales y con uno de los primeros personajes completamente animado por ordenador, y no podía ser de otro sino “Bit”, un ser binario que solamente es capaz de responder “sí” y “no” cambiando de forma y haciendo sonidos electrónicos.
Por otra parte, el proceso de montaje, incluido en la posproducción, seguía siendo completamente manual y con escasos adelantos tecnológicos, como los vistos en pantalla: en los cincuenta el montador italiano Leo Cattozzo ideó una empalmadora de cinta adhesiva, sustituyendo la tijera y la cola de pegar; y a finales de los setenta aparece la “moviola vertical” que reduce el ruido y el movimiento intermitente al sustituir la “Cruz de Malta” por un prisma rotatorio, que permite a la vez el visionado a alta velocidad.
La disyuntiva de los ochenta: ¿cine o vídeo?
Poco a poco, la imagen digital empieza a ganar terreno, pero el sueño del cine a color se desvanece. El soporte de poliester, a pesar de ser más estable químicamente, no podía garantizar su perpetuidad. Por lo que en 1980, Martin Scorsese denuncia a Kodak por la fragilidad de sus emulsiones a color, y ese año hay un revival del blanco y negro en estrenos: Manhattan (Woody Allen), El hombre elefante (David Lynch) y Toro Salvaje, del mismo Scorsese. Sin embargo, Michelangelo Antonioni parece hacer caso omiso a esta polémica, y al ansia de posteridad, y graba directamente en vídeo El misterio de Oberwald (1981), experimentando una fascinación por el color digital, aunque finalmente la pasa a 35 mm para su exhibición. Así, el director italiano declaraba en “La Semana Internacional del Cine de Barcelona” en 1981: “el sistema electrónico, el video, es el cine del mañana”[7]. Al director se le empieza a ir la película de las manos, y su contacto empieza a estar relegado a la posproducción, pero no por mucho tiempo.
El montaje cinematográfico empieza a hacerse con sistemas de edición lineal que permitían no dañar el material original mientras se montaba, pero la utilización de cintas de vídeo no resulta muy gratificante para el montador que no le permitía desandar manualmente la edición como antaño. Así lo explica una carta de Randy Roberts, uno de los tres montadores de Corazonada (Francis Ford Coppola, 1982) que envió a la revista “Editors’ Eagle”:
“La cinta no puede ser acortada o alargada. Muchas veces quise tener un acoplador y cortar una pulgada y media de cinta para ahorrarme una hora y la mitad de trabajo. La cinta tiene la mejor capacidad de búsqueda. Para realizar cambios, no se puede superar la velocidad de los cambios en cine. Esta es la causa por la que es muy cómodo cortar una vez e incluso dos en vídeo, pero más allá de ese punto, el cine es más rápido”[8]
Pronto llegó la edición no-lineal, permitiendo una edición no destructiva mediante acceso directo del material fuente. Primero con Editing Machines Corp. (EMC) en 1989 y su editor EMC2; y luego con Avid y su Avid /1, el primero de sus sistemas Media Composer, basado en una plataforma de un ordenador Apple con hardware y software especial desarrollado e instalado por Avid. La calidad de vídeo de la Avid /1 era parecida a la de un VHS, debido a la utilización de un reciente Motion JPEG (M-JPEG) codec. Pero fue suficiente para convertirse en un sistema versátil de edición, que rápidamente se fue perfeccionado y que en 1993 ya proporcionaba un acceso a más de 7 terabytes de datos de vídeo digitales. Con lo que ya se podía almacenar y empezar la edición de un largometraje. Al año siguiente, en Hollywood, de las setenta películas que se encontraban en fase de posproducción, cuarenta se estaban editando con sistemas de edición no lineal[9].
Pero el vídeo también empieza a invadir el terreno casero en los ochenta y a modificar los hábitos de consumo cinematográfico, como presagio de lo que ocurriría finalmente en la industria cinematográfica del siglo XXI. Así, aunque ya en 1956 Ampex había lanzado su primer formato de vídeo “portable”, los formatos de VHS y Betamax comienzan a disputarse la pantalla chica de los hogares y surge el negocio del “video club”. Incluso las nuevas cámaras de vídeo desplazan a la cámara de Super 8 en su registro casero. Posteriormente, el espectador pasa a convertirse en usuario al fijar su atención en la pantalla del ordenador. Y a finales de esta década, Apple comenzó a promocionar el concepto de ordenador multimedia y, ya en 1991, lanza el software QuickTime que permitía la visualización de películas en la pantalla de un ordenador personal. La metáfora de El proyecto de la Bruja de Blair (Daniel Myrick y Eduardo Sánchez, 1999) de una película realizada completamente con una cámara “handycam”, propia de un vídeo aficionado, empezaba a ser real.
Con un clic a mano
A mediados de los años noventa el cine empezó su proceso de migración digital con la animada Toy Story (John Lasseter, 1995), como la primera película íntegramente producida de manera digital. Mientras tanto, las cámaras digitales comienzan a captar la realidad, transformado los rayos de luz en un código binario, y su uso pasa a convertirse en un sello de autor: Lars Von Trier y Thomas Vinterberg ruedan en vídeo digital Los idiotas (1998) y La Celebración (1998), como parte del naciente movimiento Dogma 95, Arturo Ripstein rueda Así es la Vida (2000) convirtiéndose en la primera película mexicana, y latinoamericana, que se realizó en vídeo digital, y Julio Medem rueda en España Lucía y el sexo (2001). Aunque para la mayor parte de su exhibición cinematográfica, se utilizaron copias en 35 mm.
Finalmente, el digital llega a la sala de proyección, la última morada del celuloide. José Caparrós define así estreno en Barcelona de la primera sala de “e-cine” en 1999, como el último cambio de piel del cine que hoy estamos acostumbrados a ver en el presente siglo:
“En primer lugar, hay que decir es ‘cine sin película’, es decir la cinta de celuloide –con un ligero temblor durante la proyección- es sustituida por imágenes comprimidas –no fotogramas-, almacenadas en cuatro discos duros, con una capacidad cada uno de 72 gigabytes. O sea, cine electrónico decodificado cuyo proyector –sin bobinas- envía a la pantalla un haz luminoso con un cromatismo más intenso y sin rayas o defectos en la imagen”[10].
[1] Konigsberg, Ira: Diccionario técnico Akal de cine. Madrid 2004, Ediciones Akal, p. 113.
[2] Burch, Noel: El tragaluz del infinito. Madrid 1987, Ediciones Cátedra, p. 68.
[3] Fernández Casado, José Luis y Tirso Nohales Escribano: Postproducción digital- cine y vídeo no lineal. Andoain 1999, Producciones ESCIVI, p. 4.
[4] Lev Monovich en El lenguaje de los nuevos medios, Buenos Aires 2006, Paidós, p. 70-71, toma como referencia la obra de Charles Eames: A Computer perspective: Background to the Computer Age, Cambrigge (Massachusetts), Harvard University Press, 1990.
[5] Moritz, Willima: Digital Harmony: The Life of John Whitney, Computer Animation Pioneer. 1997. Animation World Magazine (http://www.awn.com/mag/issue2.5/2.5pages/2.5moritzwhitney.html)
[6] Darley, Andrew: Cultura visual digital- Espectáculo y nuevos géneros en los medios de comunicación. Barcelona 2002. Paidós, p. 30-31.
[7] Casals, Enric: Michelangelo Antonioni: «El video es el cine del mañana» en El País, Madrid- España, 21 de octubre de 1981.
[8] Mathias, Harry y Richard Patterson: Cinematografía eletrónica. Andoain 1994, Producciones ESCIVI, p. 209.
[9] Ohanian, Thomas A. y Michael E. Phillips: «Digital Filmmaking.The Changing Art and Craft of Making Motion Pictures». Boston 200. Focal Press, p. 173.
[10] Caparrós Lera, José María: “Llega el cine digital: fantasía 2000”. En El cine de fin de milenio. Madrid 2001. Ediciones RIALP S.A.