Controllo in voltaggio

Maurizio Zoccola

La trasmissione e la gestione di dati, parametri e più in generale di informazioni all’interno di un sistema o tra più sistemi interattivi, rappresentano le prime problematiche che i musicisti e i compositori di musica elettroacustica si sono ritrovati ad affrontare. Il problema era così rilevante da influire sulla natura e la genesi dell’opera stessa; come sempre accade, le importanti questioni tecniche intervengono radicalmente nei processi compositivi.

In questa serie di articoli, si cercherà di tracciare un percorso che descriva i passaggi più importanti della storia dei mezzi e dei protocolli di trasmissione di dati. S’inizierà dal Controllo in Voltaggio per poi passare alla nascita del protocollo MIDI, si accennerà ad altri protocolli che hanno cercato di contrastare la sua egemonia (avallata dall’industria degli strumenti musicali) come lo SKINI, lo ZIPI, il FUDI (specifico per Pure Data ).

Infine, approfondiremo e ci soffermeremo lungamente sull’ultimo nato tra i protocolli di trasmissione dati: l’OSCOpen Sound Control. Sarà posta molta attenzione all’OSC poiché non si tratta di un semplice antagonista del MIDI, ma di una vera rivoluzione nell’ambito dell’interazione tra sistemi paragonabile in importanza a quella avvenuta quando si è passati dal Controllo in Voltaggio (dominio analogico) al MIDI (dominio digitale).

Si tralascerà la descrizione delle varie tipologie di sistemi interattivi, anche se durante lo scritto si ricorrerà alla rappresentazione di alcuni di essi, ma ci sono degli aspetti fondamentali da evidenziare che accomunano tutti i sistemi:
• La necessità di un mezzo e/o linguaggio di comunicazione condiviso
• Una catena di elaborazione consistente in tre stadi:

o Input
o Processo
o Output

• La sincronizzazione temporale dei processi comunicativi
Questi punti saranno da tenere ben presenti durante la descrizione e l’approfondimento dei vari strumenti di comunicazione presi in analisi.


Prima parte


Controllo in Voltaggio

Negli anni cinquanta, come si può immaginare, la dotazione tecnologica degli studi era alquanto limitata e le metodologie di lavoro ne erano di conseguenza influenzate. Le apparecchiature che si potevano trovare erano principalmente generatori di forme d’onda, di rumore bianco, filtri, modulatori ad anello e soprattutto registratori su nastro magnetico.
Riportiamo una metodologia di lavoro descritta da Gottfried Michael Koenig:
Quando sono entrato nello studio di Colonia c’era un solo generatore di onde sinusoidali, e questo non era situato nemmeno nello studio ma nel reparto di manutenzione. Il collegamento doveva essere effettuato ogni volta attraverso la sala di commutazione principale della stazione radio, in questo modo due assistenti attraverso un collegamento telefonico potevano registrare singole note da sincronizzare successivamente.

In pratica il processamento dei suoni avveniva principalmente attraverso la manipolazione del nastro e un uso intensivo del registratore.

Daphne Oram (1925 – 2003)
Herbert Eimert (1897 – 1972)

Questo era il principale modo per ottenere cambi di pitch, inviluppi, polifonia ecc. Con l’avvento dei transistor si è potuta sviluppare la tecnologia del Controllo in Voltaggio che consentiva di operare in modo più veloce e automatizzato. Un controllo di tensione elettrica applicata a un oscillatore (VCO Voltage Controlled Oscillator) consentiva di cambiarne in modo più efficace il pitch. La stessa cosa applicata a un dispositivo capace di controllare l’ampiezza (VCA Voltage Controlled Amplifier) consentiva di creare degli inviluppi. Con i VCF si era capaci di controllare nel tempo l’andamento dei parametri di un filtro. Con il controllo in tensione si potevano creare quindi dei segnali di controllo capaci di pilotare altre apparecchiature. Inoltre questi segnali di controllo erano memorizzabili sul nastro, potevano essere riutilizzati svariate volte per creare successioni di eventi sonori ed essere modificati nel tempo alla stregua dei segnali audio. Questo punto è fondamentale poiché l’automatizzazione di eventi indirizzerà l’interesse di molti ricercatori verso un processo che porterà alla Computer Music. I calcolatori a quel tempo erano tecnologicamente già in grado di operare la sintesi sonora ma si trattava ancora di un task molto oneroso da svolgere in termini computazionali, quindi i ricercatori si diressero in un primo momento verso la possibilità di poter usare i calcolatori per esplorare l’automazione dei processi compositivi e formali. Approfondiamo questi concetti attraverso le parole di Koenig :

“…I recenti sviluppi dei dispositivi, specialmente il generatore di funzioni variabili, non hanno solo esteso le possibilità del compositore. Allo stesso modo le nuove macchine non sono solo generatori supplementari per produrre suoni o inviluppi: esse permettono al compositore di svolgere una relazione tra varie caratteristiche del suono con altre o anche farne derivare delle altre. Tale modello (pattern), in forma di una curva di tensione programmata, può essere utilizzato con dispositivi controllati in tensione…

Le applicazioni pratiche possono essere collocate in tre categorie.

1Registrazioni di azioni manuali.

Può accadere che il compositore voglia avere una lunga sequenza di suoni con un inviluppo comune. Anche se la sequenza è basata su una forma schematica (es. crescendo/decrescendo), il compositore molto probabilmente vorrà interagire con l’inviluppo attraverso un’azione manuale per ottenerne una forma ottimale. È impossibile scrivere questa interpretazione su una partitura o riprodurne l’inviluppo nel caso la registrazione venisse perduta. Il modulatore di ampiezza controllato in voltaggio rende possibile la registrazione del controllo in tensione in modo da poter riprodurre l’inviluppo in un secondo momento. Questa metodologia può essere applicata a tutti i parametri di qualsiasi apparecchiatura che sia dotata di controllo in tensione.

2 Vari parametri con curve comuni.

Il paragrafo precedente mostra l’importanza di poter registrare il Control Voltage. Se esso può essere programmato, ne risultano ulteriori possibilità. Il compositore può, per esempio, fissare determinate curve e utilizzarle per controllare tutti i parametri per i quali ci siano apparecchiature controllate in tensione. Può peraltro modificare la curva programmata nel dettaglio. Questo metodo potrebbe essere chiamato “indiretto” perché il compositore non produce più direttamente il suono controllandolo a orecchio durante la produzione; egli produce solo le curve di tensione il cui effetto sulle caratteristiche sonore deve ancora essere sentito…

3 Trasformazione di controlli in tensione.

Un controllo in tensione che sia stato registrato su nastro può essere trattato allo stesso modo di un segnale audio. Teoricamente questo crea la possibilità di comporre e registrare un intero pezzo di musica elettronica sotto forma di tensioni di controllo programmate e trasformate. Non appena le tensioni di controllo registrate vengono riprodotte in modo sincrono e collegate tramite il corrispondente numero di demodulatori con le attrezzature dello studio controllate in tensione, il pezzo diventa udibile. Questo metodo è ovviamente ancor più “indiretto” rispetto agli altri, ma potrebbe attirare i compositori interessati alla programmazione di strutture musicali e che non abbiano a disposizione calcolatori per la produzione di suoni.

Tuttavia, il controllo in tensione come descritto sopra è solo un collegamento tra la tradizionale produzione del suono in uno studio di musica elettronica e la programmazione del suono con un computer come sorgente sonora. Ad Utrecht, degli sforzi iniziali verso questa direzione hanno portato ad una serie di progressi. Il computer non svolge i compiti tipici di uno studio tradizionale (con o senza Voltage Control) come la produzione di spettri sonori. La musica elettronica fu la prima a dare al termine “suono” un nuovo significato – derivato dalla musica strumentale – senza esser stata capace di fare giustizia delle implicazioni che questo comportava. Il “suono” non è più un termine distintivo della musica strumentale polifonica, ma semplicemente indica ciò che suona. Tuttavia, lo studio tradizionale ha sviluppato alcuni mezzi tecnici in grado di adattare ciò che suona a schemi musicali di arrangiamento; nello studio elettronico anche il compositore si scontra con confini “strumentali”. Il compito è, quindi, comporre il “suono”, anziché con i suoni. Vi è ancora poca esperienza in questo campo, motivo per cui il “comporre il suono” con un computer è ancora terra di conquista. Prima che il compositore possa concepire e programmare questi suoni, egli deve imparare quanto la sua stessa conoscenza, esperienza e desiderio siano programmabili. La programmazione delle strutture musicali corre il rischio di essere superata dalla programmazione dei suoni. A tal fine, molti programmi per la composizione sono stati scritti nello studio dell’università di Utrecht, con i quali il compositore può testare modelli di strutture compositive. Sebbene tali modelli avvengano nella macrostruttura (che è la più piccola unità musicale nell’intervallo della percezione ritmica), possono poi essere trasferiti alla microstruttura (la struttura della curva onda). Questo metodo di produzione del suono è altrettanto “indiretto”, come quelli descritti nella sezione del controllo in tensione; questo approccio indiretto è insito nella programmazione…”

Questo è quanto accadeva presso lo Studio di Sonologia dell’Università di Utrecht (finanziato dalla Philips) sotto la guida di Koenig intorno alla metà degli anni sessanta, nel quale troviamo tra le varie apparecchiature il Variable Function Generator 50 step (1964) realizzato nello specifico da Stan Templaars.

Ho voluto riportare in modo approfondito l’importante punto di vista di Koenig poiché la sua visione delle implicazioni del Voltage Control, pur fondamentale da punto di vista compositivo e della ricerca, è passata storicamente in secondo piano. L’innovazione del Voltage Control, in effetti, è nota ai più soprattutto per il suo utilizzo nella liuteria elettronica per quanto riguarda lo sviluppo dei sintetizzatori. Questi in particolare apportarono un nuovo ausilio per gli studi ma non solo; con i sintetizzatori si ebbe la possibilità di mettere a disposizione di altri ambiti (come la radiofonia, la cinematografia e il mercato discografico) le potenzialità di uno studio di fonologia. La tecnologia del transistor, sostituendo quella della valvola termoionica, permise di ridurre le dimensioni delle apparecchiature a vantaggio della portabilità, migliorò la loro affidabilità e manutenzione e ne ridusse i costi. Robert Moog, Don Buchla, Alan Pearlman (ARP) e Peter Zinovieff (EMS) furono tra i principali sviluppatori di sintetizzatori in quegli anni, intuendo per primi le potenzialità (anche di profitto economico) di questo strumento. Tra questi bisogna menzionare soprattutto R. Moog che presentò all’AES Conference nell’ottobre del 1964 un documento nel quale esponeva le innovazioni del Controllo in Voltaggio e soprattutto ne standardizzava i valori operativi. Nella stessa occasione, inoltre, presentò il suo prototipo di sintetizzatore modulare. Esempi di modulari dalle grandi dimensioni costruiti tra la fine degli anni ’60 e l’inizio dei ’70 sono il Moog 3P, il Moog Modular 55, l’EMS Synthi 100, l’ARP 2500 e il Buchla 200.

Moog 3P. Si notino i cablaggi esterni che collegano i moduli tra loro.

Per correttezza bisogna citare anche l’ingegnere italo polacco Paolo Ketoff, che nel 1958, quindi prima di Moog, progettò e realizzò il Fonosynth su richiesta del compositore Gino Marinuzzi jr per la realizzazione di colonne sonore per l’industria cinematografica italiana, a quel tempo molto florida.

Fonosynth, Deutsches Museum

In effetti, Moog in un primo momento invitò Ketoff a trasferirsi in America per instaurare una collaborazione, cosa che non avvenne per volontà di Ketoff. Dopo il Fonosynth, Paolo Ketoff realizzò nel 1964 il SynKet per il nascente laboratorio di musica elettronica presso l’Accademia Americana in Roma, laboratorio realizzato in collaborazione con Otto Luening.
La tendenza in seguito divenne quella di miniaturizzare i sintetizzatori così da avere macchine con meno possibilità operative ma più economiche e trasportabili: Minimoog, ARP Odyssey, ARP2600, EMS-VCS3, ecc. In questo modo le apparecchiature si rimpicciolivano e la musica elettronica si preparava a uscire dalle mura degli studi di ricerca; questa tecnologia permetteva la nascita di piccoli studi privati che non necessitavano più di enormi investimenti da parte di istituzioni pubbliche o private.

EMS-VCS3. Si notino le ridottissime dimensioni e l’assenza di cablaggi esterni.

Ritornando agli aspetti tecnici, i sintetizzatori erano strutturati in modo modulare: vi era la sezione degli oscillatori, quella amplificatrice per inviluppi, la sezione di filtraggio ecc. Queste sezioni erano collegate tra loro per la maggior parte dei casi da cablaggi esterni, in altri casi attraverso collegamenti interni attivabili tramite interruttori e switch. Attraverso questi collegamenti erano trasmesse le tensioni di controllo. Nel caso dei sintetizzatori più compatti, espandendo il concetto della modularità, i segnali di controllo in tensione erano fatti uscire da una singola macchina e per poi rientrare in altri sintetizzatori in modo da poter pilotare due dispositivi differenti con lo stesso segnale. Facendo suonare insieme due sintetizzatori si ottenevano timbri e inviluppi più complessi. Bisogna ricordare che la maggior parte dei sintetizzatori erano monofonici e la comparsa dei primi polifonici rese la situazione più complessa e gestire due dispositivi con il Voltage Control divenne una cosa complicata. Il mercato dei sintetizzatori di conseguenza rinunciò a sviluppare questa possibilità fino all’avvento del MIDI.
Con l’avvento dei sintetizzatori nasce un nuovo settore di mercato, di conseguenza ci si ritroverà a parlare dell’industria degli strumenti musicali e delle sue strategie atte a influenzare la ricerca e lo sviluppo di nuove tecnologie. Da una situazione quasi artigianale dove il progresso tecnologico, conseguenza diretta di esigenze artistiche, era sviluppato all’interno degli studi di fonologia (luogo in cui collaboravano a stretto contatto il tecnico e il ricercatore, l’ingegnere e il compositore), si è passati ad un contesto in cui è l’industria a determinare i campi di sviluppo tecnologico influenzando e limitando la ricerca artistica.

Alla prossima puntata che tratterà il MIDI (Musical Instrument Digital Interface)

Maurizio Zoccola

Condividi questo articolo!
Nessun commento