| | ELABORAZIONE DELL'IMMAGINE Criteri generali "Cattura" delle immagini Montaggio Modificare l'immagine Elementi e/o Ambienti virtuali Registrazione finale Criteri generali L'intervento sull'aspetto visivo del film, in una post-produzione attraverso i mezzi dell'informatica, segue dei passaggi fondamentali per ogni tipo di sviluppo dell'immagine tramite il digitale. Si tratta di parametri molto generici, i quali, più che descrivere delle norme operative, ne tracciano la teoria ed il tipo d'approccio. Il punto di partenza è l'acquisizione dell'immagine, che richiede un mezzo di riproduzione e la capacità di "digitalizzare" i segnali da questo prodotti. Laddove l'input sia analogico, costituito i pratica da dati in una serie continua di variazioni della frequenza di tempo, occorrerà un'opportuna conversione al digitale, vale a dire ad una serie binaria d'impulsi lineari. (12) Acquisita, o tecnicamente catturata, l'immagine, si passa ad un pre-sviluppo, che consiste in un miglioramento o formattazione dei termini visivi per i passaggi successivi: rinforzo del contrasto, riduzione del rumore, isolamento di regioni in cui la grana indica la probabilità d'informazioni alfanumeriche. L'immagine o il corpus delle immagini viene, dunque, suddiviso nelle sue parti costituenti. La segmentazione degli oggetti rappresenta una delle fasi più impegnative dell'intera operazione. Si agisce, poi, sull'unione, rimozione o variazione dei dati grezzi isolati, per giungere, infine, ad una contestualizzazione completa che dà il risultato finale. Questo necessiterà, in seguito, di un'ulteriore registrazione su supporto adeguato alla fruizione del destinatario dell'immagine. (13) "Cattura" delle immagini Come già detto, il primo passo nella manipolazione in digitale consiste nel trasferimento in elettronica delle immagini su pellicola. Il procedimento fa parte di una particolare tecnologia, il cui nome sta ad indicare tutti i tipi di passaggi che le informazioni audiovisive di un film compiono nel cambiamento di supporto. Il telecinema. Sin dalle prime diffusioni televisive delle riprese dal vivo le immagini filmate necessitarono di un trasferimento al video. La produzione di notiziari si basava allora sull'utilizzo di pellicola invertibile 16 mm sottoposta ad una rudimentale apparecchiatura di telecinema, consistente in un proiettore puntato sull'obiettivo della video camera ricevente. Tale concetto fu successivamente sviluppato da grandi industrie dell'elettronica, come Philips e Sony. Tuttavia il telecinema non fu preso in considerazione come strumento utile alla post-produzione, se non nel momento in cui fu tecnicamente possibile effettuare interventi di correzione del colore su di un segnale video, a partire dalla scomposizione della luminanza di quest'ultimo. Riepilogando: l'acquisizione delle immagini (telecinema) e l'alterazione digitale di queste rappresentano due punti tra loro speculari nella post-produzione. La prima generazione di telecinema dotati di sistema d'immagazzinamento digitale dei dati fu quella degli MKIII e degli URSA, entrambi prodotti dalla Cintel. I sistemi si basavano su di una scansione fotoelettronica delle immagini a tubo catodico (CRT) e con la capacità di digitalizzare la luminanza (Y) e le componenti cromatiche (R-Y e B-Y), a risoluzione molto alta (nel caso dell'URSA gold il rapporto del segnale era 4:4:4, cioè un bilanciamento totale tra le caratteristiche dell'immagine).Un ulteriore miglioramento fu dato dal sistema C-Reality, che disponeva di un alta definizione dei dati visivi: 2K, ossia 2048X1556 pixel contro i 720X488 dell'Ursa gold. Contemporaneamente alla presentazione dell'MKIII la Philips Digital Video System Company introdusse il modello di telecinema FDL-60, destinato a rivoluzionare il rapporto tra film ed elettronica. Il sistema adottava la tecnologia CCD: un complesso di fotodiodi, caricabili elettricamente secondo la quantità di luce ricevuta, è colpito da un fascio luminoso (laser o xeno) che, attraversato il piano della pellicola, è diviso da un prisma nelle tre componenti cromatiche fondamentali dello spettro (rosso, verde, blu, o RGB). La risoluzione di questo tipo di telecinema risulta nettamente superiore, in quanto il numero di pixel è dato dalla complessità della struttura dei fotodiodi disposti in file sul piano irraggiato e che sono 1024 per riga. L'ultimo perfezionamento giunge nel 1996 con l'introduzione dello Spirit Data Cine, frutto di una collaborazione tra Kodak e Philips, con il quale è possibile acquisire immagini in CCD a risoluzione 2K (1920 pixel per riga). Lo Spirit è in grado di trasferire oltre 350 Mb al secondo, che si traducono in 6 fotogrammi /sec contro i 10 o 30 dei sistemi tradizionali. (14) Altre soluzioni si sono delineate nel corso del Siggraph 99, ventiseiesima conferenza annuale su Computer Graphic e tecniche interattive tenutasi a Los Angeles, dove Imagica Corp. e Arri hanno presentato lo scanner Imager XE in grado di digitalizzare 4 fotogr./sec. a risoluzione 2K ed 11 a risoluzione 4K. Considerando che la velocità d'acquisizione e l'alta risoluzione di queste macchine permettono una correzione del colore ed interventi quasi in tempo reale ci si aspetta un continuo superamento delle prestazioni dei sistemi di telecinema, come dimostra l'Imagica 3000V in grado di scansionare informazione dell'ordine di 100 Mb per fotogramma. (15) Montaggio "Sia attraverso il contenuto plastico dell'immagine che le risorse del montaggio, il cinema dispone di tutto un arsenale di procedimenti per imporre allo spettatore la propria interpretazione dell'evento rappresentato" (16). Molti registi parlano del montaggio come un lavoro solitario di seconda scrittura del film, accostabile alla composizione musicale. Tra tutti Orson Welles a proposito: "È senso del ritmo, tutto lì. La vera forma di un film è musicale. [...] Se mai cercassi di insegnare a fare cinema, terrei la maggior parte dei miei corsi intorno ad una moviola" (17). Il montaggio è, dunque, un passaggio fondamentale nella produzione di un film, il momento in cui questo assume una "forma" definitiva e che "inizia il primo giorno delle riprese e termina quando tutti i cambiamenti sono stati fatti e sia i titoli, sia il negativo sono stati tagliati e assemblati" (18). Una volta sviluppati i negativi si produce una "copia lavoro", chiamata così poiché non vi è molta cura nella trascrizione fotografica (posa) delle immagini. Questa è accoppiata in sincrono con il suono per mezzo di una macchina codificatrice che stampa su entrambi dei numeri di giuntura. A questo punto si passa al montaggio vero e proprio che può, teoricamente, avvenire secondo due tipi di sistemi: lineare e non lineare. Il primo tipo si riferisce al montaggio consequenziale effettuato direttamente sul negativo e consistente in una serie di tagli e ricombinazioni delle inquadrature secondo il disegno definitivo del film. Il montaggio ad un solo passaggio lineare è stato, con l'introduzione dei mezzi informatici, completamente sostituito dal tipo di montaggio non lineare. Il sistema off-line consente, una volta acquisite le immagini, di operare sui dati elettronici per produrre una lista decisionale di montaggio (edit decision list- EDL o cut list) per passare, solo in un secondo momento, al taglio fisico del negativo. "Per il computer le immagini sono dati che possono essere spostati, cancellati o aggiunti in qualsiasi punto" (19) senza alterare lo stato della copia su cui si lavora. Montare off-line significa tagliare, incollare, muovere scene, cambiare i ciak utilizzati, aggiungere del sonoro, effetti, incorporare titoli (anche se questo passaggio avviene di norma nella fase on-line, cfr. Par.2.5) su di un terminale. In tempo reale è possibile provare ogni tipo di cambiamento e poi cambiare di nuovo. Il negativo non viene toccato, evitando così di graffiare o sporcare l'immagine: le scene possono essere tagliate e ritagliate all'infinito senza preoccuparsi di ridividere i rulli o aspettare stampe successive. I vantaggi per l'esecuzione delle operazioni di montaggio sono innumerevoli, anche se il costo del materiale per allestire una sala di montaggio off-line è incredibilmente maggiore di quello per una sala di montaggio pellicola. Per immagazzinare i dati si utilizzano degli hard-disk molto spaziosi e con particolari requisiti, come un'elevata velocità di risposta e numero di giri, in grado di permettere una lettura senza "salti" del flusso visivo di 24 fotogrammi al secondo. Una postazione di montaggio così concepita può superare un valore dell'ordine di centinaia di milioni. I software più diffusi nel settore professionale sono Avid Media Composer, Film Composer 8000, Data Translation's Media 100, Lightworks, The Video Cube, D-Vision (20). Il concetto di base, condiviso sia da questi programmi sia da altri più economici e diffusi nel campo semi-professionale, ma comunque molto validi, come Final Cut Pro o Adobe Premiere, è lo stesso.  L'insieme di immagini raccolte, definibile come master clip, viene diviso in tante subcilps, ossia stringhe di sequenze che corrispondono alle parti di scene che vengono usate. Queste clip, gestibili da un'icona rappresentante il fotogramma del punto d'attacco o di stacco della clip stessa, sono disposte su di una timeline: una finestra che visualizza, su diversi livelli, la sequenza sull'asse temporale delle informazioni audio e video. Le clip singole, tagliate, vengono visionate su di un monitor o finestra di visione, dal quale sono "inviate" virtualmente ad un altro monitor da cui è possibile vedere il risultato finale.  In questa fase è possibile gestire il montaggio con molta agilità e partire da soluzioni di problemi molto semplici, come stabilire i fondù e le dissolvenze, fino ad altri più complessi, come l'asincronia tra punti di taglio visivo e sonoro. Un caso esemplare della versatilità creativa offerta da questi sistemi è il lavoro svolto per il film Star Wars: The Phantom Menace (George Lucas, 1999). Il montatore Paul Martin Smith, insieme al regista Lucas, ha impiegato per questo film, editato in Avid, gran parte delle potenzialità del software, montando tra loro ciak diversi all'interno della stessa inquadratura ed ottenendo delle vere e proprie "composizioni" di montaggio. Il risultato finale del film si è ottenuto sulla base di tagli interni, gonfiaggi, inversioni, spostamenti delle inquadrature o di parti di esse, che hanno permesso di ripensare il film a riprese ultimate, cambiando situazioni (personaggi in ambienti diversi, riuniti nella stessa scena) e, sostituendo le labbra degli attori, i dialoghi (21). Modificare l'immagine La correzione del colore, altresì nota come posa o timing, è un passaggio essenziale della post-produzione, a seguito di cui si ottiene il tono fotografico definitivo del film. Essenzialmente la posa consiste nell'aggiustare, rinforzare, cambiare completamente i colori a fini espressivi o per necessità di omologare le differenze presentate da diversi tipi di pellicola (per numero ASA o per bilanciamento) e, spesso, all'interno dello stesso stock (22). La correzione del colore può, tuttavia, divenire uno strumento di intervento creativo da parte del direttore della fotografia o del colorista, noto come timer o, più tradizionalmente, come "datore luci". Questo termine si riferisce al processo classico di posa che utilizza un Video Colour Analyzer (o analizzatore) dal quale, agendo su tre luci (una rossa, una verde e una blu) si stampa, dal negativo montato, la copia positiva (23). L'esito finale si ha solo dopo due o più stampe di prova che servono a valutare gli effetti ricercati, e che rendono il ciclo dei passaggi macchinoso e complicato. Altro inconveniente della posa tradizionale è che i cambiamenti di colore e densità ottenibili con l'analizzatore sono riferiti all'inquadratura intera e non applicabili a singole parti di essa. Negli ultimi anni sono stati introdotti particolari procedimenti chimici di sviluppo per modificare ulteriormente le caratteristiche dell'immagine, non facilmente controllabili in posa classica, come il contrasto di chiarezza e la saturazione. I risultati, per quanto soddisfacenti, continuano tuttavia ad interessare l'interezza dell'immagine e non i suoi costituenti. L'aspirazione ad un'ulteriore manipolazione fotografica è stata corrisposta, negli ultimi dieci anni, dai continui superamenti della tecnologia elettronica del telecinema che hanno portato all'elaborazione della tecnica ad "intermediato digitale". Le immagini acquisite dal computer (cfr. par.2.2) subiscono, durante il digital itermediate process, la correzione del colore e delle caratteristiche visive attraverso apparecchiature informatiche che poi convertono nuovamente i dati digitali su pellicola. I color correctors (equivalenti digitali dei vecchi analyzer) sono il Da Vinci's Reinassance 8:8:8 che è montato sullo Spirit Data Cine (cfr. par.2.2), il Pogel Digital Colour Process, il DME7000 della Sony, il Kaleidoscope e l'Abacus. I livelli di controllo sulla correzione del colore sono principalmente due. Vi è una prima operazione di timing che riguarda il bilanciamento dell'immagine e lavora sull'interazione dei canali RGB (rosso, verde e blu) per la resa cromatica delle luci alte, di quelle basse e dei mezzi toni. L'interazione indica l'effetto di un cambiamento sulle altre qualità cromatiche (ad esempio con l'aggiunta di rosso sulle alte luci si riduce il livello di ciano). Modificando i tre colori primari si completa la tonalità e la crominanza generale, in quanto i segnali RGB costituiscono le informazioni sui bianchi e sulla brillantezza, e la loro azione combinata definisce i neri, permettendo così il controllo di tutto il gamma (24). La seconda operazione di timing interessa un colore specifico dello spettro, indipendentemente dalla colorazione complessiva della scena. Si ottiene così, per una data tinta il controllo del livello di saturazione e in alcuni casi, della luminanza per un ristretto gruppo cromatico. Un intervento in questa fase, ad esempio sul rosso, non ha alcuna conseguenza sul livello di un altro colore non interessato dalla correzione, ad esempio il ciano. Questa funzione rappresenta una componente molto interessante del processo, in quanto permette un preciso isolamento e controllo del colore. È possibile inoltre, durante la correzione, selezionare determinate aree su cui intervenire con effetti di luce o particolari filtrature; per ammorbidire, ad esempio, la grana del tono della pelle, "bruciare" determinati colori (o le alte luci) o creare "salti" ed esclusioni.  La stragrande maggioranza degli spot e dei video-clip girati negli ultimi sei anni abbonda di queste tecniche (25) ora possibili anche per la pellicola. "Crediamo che l'intermediato digitale rappresenti il futuro della narrazione cinematografica" (26) afferma il dirigente della Kodak per il Digital Mastering Fred Franziwa, prospettando un cambiamento nelle tecniche di ripresa (effettuate con illuminazione non perfetta e con un minor uso di filtrature) (27) e un maggior coinvolgimento nella fase post-produttiva dei direttori della fotografia, impegnati a seguire interattivamente le operazioni dei color timers. Il digital timing è già stato impiegato per film come Pleasantville (Gary Ross, 1998), per sottrarre i colori ed ottenere un particolare effetto di bianco e nero, Star Wars: The Phantom Menace, per permettere la fusione d'elementi ripresi e immagini create in CG, nel film in Super16 Urbania (Jon Shear, 2000), fotografato da Shane Kelly e, ultimamente, dal direttore Roger Deakins per Oh Brother, where are thou? (Joel Coen, 2000). Desiderando i Coen un tono fotografico secco e polveroso, ed avendo deciso di girare il film nello stato del Mississippi (in una regione particolarmente umida e piena di fogliame), Deakins ha dovuto affrontare il problema di desaturare i verdi, che avrebbero occupato gran parte delle inquadrature, per ottenere l'effetto "vecchio, da cartolina dipinta a mano (28)" , voluto dagli autori. Dopo aver effettuato una serie di test di sviluppo con processi come il bleach-bypass (29) o l'ACE (30), il direttore della fotografia ha ottenuti risultati ragguardevoli, ma non applicabili selettivamente. Rivoltosi, pertanto, al laboratorio Cinesite, ha supervisionato il lavoro di acquisizione a 2K mediante Philips Data Cine e di intervento sul colore in collaborazione con il colorista Julian Friede. I due hanno lavorato per dieci settimane, manipolando i verdi e gli alberi ripresi per cambiarli in zone cromatiche gialle e marroni. Deakins ha riscontrato una leggera perdita di qualità nel lavorare in digitale (31), anche se accettabile per il tipo di film voluto dai Coen. Tuttavia Sarah Priestnall, direttrice delle operazioni digitali alla Cinesite, imputa il tipo di limitazione all'impiego della risoluzione a 2K, auspicando un notevole aumento della qualità tecnologica dell'intermediato digitale con l'attuazione delle elaborazioni dei dati a risoluzione 4K. Elementi e/o Ambienti virtuali Il negativo, tagliato e montato, e i dati relativi alla posa, subiscono un ulteriore trasferimento su macchine specializzate nell'aggiunta di effetti e creazioni grafiche. Il passaggio è necessario per l'inserimento dei titoli, ma il vero impegno per i computer grafici e 3D, come l'Inferno, consiste nella creazione di contesti od elementi da unire al montaggio definitivo. Per consentire l'unione in un film di immagini riprese ed immagini create al computer si richiede da queste una credibilità pari a quella fotografica. Ciò dipende in primo luogo dall'abilità dell'artista o di chi progetta in CG (Computer Graphic), dalla potenza del software usato, e dalla duttilità del sistema hardware. Il terreno specialistico di cui si parla è molto vasto; in questa sede ci si limiterà ad una descrizione generale dei due aspetti fondamentali della simulazione in CG per il cinema, già menzionati in apertura di paragrafo: gli ambienti dove i personaggi del film si muovono e gli elementi che interagiscono con essi. Avvalersi dell'informatica per simulare l'ambito in cui svolgere l'azione di una o più scene può significare una sostituzione della scenografia del set con la creazione di modelli tridimensionali, capaci di realizzare effetti non raggiungibili dal vero. Si sono sviluppati, a tal fine, dei software specializzati per l'estrazione delle caratteristiche 3D a partire da immagini bidimensionali, come il Syna-Flex della Syna-Pyx, o l'IPF della RealViz (32). La costruzione di set virtuali sulla base di fotografie dal vero, "riprese" in un secondo momento dal computer con dei movimenti sintetici, è esattamente ciò in cui consiste la cosiddetta Virtual Cinematography, tecnica introdotta ed utilizzata per The Matrix. Molte scenografie urbane, soggette nel film ad effetti di distorsione visiva, sono state elaborate dalle fotografie di grattacieli reali a cui sono state applicate funzioni di view-morphing, come per la scena in cui il personaggio Neo (Reeves), durante un allenamento, cade da un edificio e rimbalza sulla strada come se questa fosse elastica (33). "Scenografia improbabile" può anche essere sinonimo di "impossibile da ricreare", almeno in un ambiente reale. Le inquadrature del film di Ridley Scott The Gladiator (2000) che mostrano una particolareggiata architettura della Roma imperiale sono frutto di una creazione virtuale supervisionata dallo stesso regista e dall'architetto Arthur Max, ispiratosi a più fonti visive (pittura romantica inglese del diciannovesimo secolo, Metropolis di Lang, classici pepla come Ben Hur e Spartacus, iconografia cinematografica nazista). Gli ambienti ricostruiti mostrano dettagli molto precisi, non solo per quanto riguarda le strutture di case e palazzi (tra cui una ricostruzione integrale del Colosseo), ma anche per gli elementi decorativi e per la distribuzione illuministica all'interno della città (34). La simulazione di elementi virtuali è quella, in genere, applicabile su scala ridotta, che copre sia l'esigenza di presentare effetti di tipo fantascientifico sia di rispondere all'impossibilità di effettuare determinate riprese. Appartiene, senz'altro, alla prima categoria la piccola creatura a due teste, incrocio tra più specie anfibie, che si muove nel film di Cronenberg eXistenZ (1999), creata in Animatronics dalla Toybox (35). Il secondo tipo di esigenze è, invece, più difficile da identificare, in quanto le difficoltà affrontate al momento della ripresa variano inaspettatamente da un caso ad un altro. Così, in una delle ultime sequenze del già citato Oh Brother, where are thou?, dove un'inondazione salva dalla forca i quattro protagonisti del film, è stato necessario aggiungere delle animazioni in CG ad alcune riprese sott'acqua, come il cane del poliziotto che si dimena e la coreografia delle scatole di gelatina per capelli che danno alla scena un tono buffo ed ironico. Ancora, nel film di Julian Schnabel Before the night falls (2001), si è reso indispensabile l'intervento di un grafico digitale per creare un buco nel soffitto di una chiesa in cui si svolge una delle scene chiave. La luce è stata fatta provenire dall'alto impiegando sul set dei palloni ad elio che sostenevano lampade maxi-bruti 20Kw ed il buco, non presente sulla scena, è stato aggiunto in post-produzione. Registrazione finale L'avventura post-produttiva termina con il film. L'insieme dei dati che costituiscono l'intero lavoro svolto sono contenuti all'interno della memoria del computer e da questo sono pronti ad essere trasferiti su di un supporto capace di essere distribuito al pubblico. I sistemi di registrazione di immagini digitali su pellicola sono macchine molto precise, i cui criteri di valutazione qualitativa sono gli stessi del telecinema (cfr. par.2.2). Nella storia dei perfezionamenti tecnici dei cosiddetti film recorders, una svolta è avvenuta due anni fa, il ventisette febbraio 1999, quando il direttore della Pixar Photo Science e co-fondatore dell'omonima casa di produzione, David Di Francesco, ha ricevuto l'Oscar al merito scientifico e tecnico dall'Academy of Motion Pictures Arts and Sciences. Il premio è stato motivato da un rivoluzionario sistema di registrazione del digitale su film, il Pixar Vision, perfezionato da Di Francesco e che ha permesso di impressionare la pellicola sui tre segnali cromatici (RGB) in modo simultaneo, anziché sequenzialmente come operano i classici sistemi a tubo catodico (CRT). L'innovazione più importante apportata dal sistema consisteva nella velocità di registrazione: un fotogramma ogni otto secondi contro i trentacinque del CRT. Dal Pixar Vision, impiegato per i due lungometraggi A bug's life (John Lasseter, 1998) e Toy Story 2 (Lasseter, 1999) che hanno reso famosa la Pixar, i sistemi si sono evoluti ulteriormente per ciò che riguarda la qualità dell'immagine, arrivando a garantire una risoluzione, quell'odierna, paragonabile a quella in pellicola (36). Il laboratorio di post-produzione Digital Film Works a Hollywood dispone, ad esempio, di due tipi di sistemi: il Solitaire Cine IIIFLX a CRT, che stampa un fotogramma ogni trenta secondi su pellicola Kodak 5245, e l'Autologic Lux a tecnologia laser (CCD), che impressiona a risoluzione 2K un fotogramma ogni sei secondi su pellicola 5244. Se il materiale di partenza è di bassa qualità (ad esempio per un film tv) è utilizzato il primo macchinario, altrimenti, nel film destinato alla distribuzione nelle sale, è impiegato il Lux. Ad aver adottato sistemi di trascrizione al laser sono state, peraltro, tutte le maggiori case di post-produzione hollywoodiane. La Cinesite, ad esempio, usa il Kodak Laser recorder, anch'esso premiato dall'Academy, che permette di ottenere dallo stesso master una vasta gamma di formati diversi (37). L'Arrilaser è, invece, impiegato dalla Digital Film Lab e dalla Computer Film Company (CFC). La CFC adotta inoltre uno schema di lavoro di post-produzione che non passa per alcun taglio del negativo. I trasferimenti da pellicola a digitale e poi, di nuovo, a pellicola sono ridotti al minimo; in modo da ottenere un unico master su computer da cui derivare tutti i tipi di copie distributive: film, proiezione digitale, DVD, televisione, eccetera (38). Questo studio si conclude con la menzione di due dei sistemi di registrazione che al momento sembrano essere tra i più veloci sul mercato: il Celco eXtrme MPX e il Nitro. Entrambi usati dall'Engram Digital Film, sono capaci di trascrivere su pellicola 16 e 35 mm ad una velocità di un fotogramma ogni cinque secondi, ed in grado di trasferire i dati digitali su innumerevoli supporti di altro tipo (1920X1080 HD, NTSC, PAL e così via). I due digital film recorders hanno trovato impiego per le produzioni di Sleepy Hollow (Tim Burton, 1999), Star Wars: The Phantom Menace, The Mummy (Stephen Sommers, 1999) (39). Il settore della tecnologia informatica è in continua espansione e, probabilmente, sarà presto possibile porre sullo stesso piano la definizione della pellicola con quella elettronica. La direzione,in ogni caso, già tracciata e in parte percorsa sin da ora, va verso l'utilizzo del digitale come strumento dalle numerose potenzialità che, combinato alle tecniche tradizionali del film, sembra modificare sostanzialmente gli aspetti della produzione cinematografica. Tra gli aspetti che cambiano, è importante sottolinearlo, vi è anche quello creativo, che si traduce in nuovi modi di raccontare storie al cinema. |