La musica è la più perfetta delle arti perché al massimo grado esprime e riflette l’idea dell’Architetto. […] La musica crea il mondo. È il corpo spirituale del mondo, l’idea (fluida) del mondo.
(Aleksandr Aleksandrovič Blok)
Il legame che intercorre tra musica e spazialità fisica dell’architettura ha sempre affascinato nel corso dei secoli generazioni di pensatori. Non solamente architetti e musicisti ma anche matematici, poeti, filosofi e scienziati, tutti certi che esistesse un filo invisibile, un legame per certi versi ancora da sciogliere, che mette in relazione le vibrazioni sonore e le possibilità di uno spazio di plasmarsi in relazione a questi input incorporei e divenire oggetto fisico nel mondo sensibile. Le mani di un direttore di orchestra che sapientemente “accendono” ora le sezioni dei fiati, ora quelle degli archi, sembrano richiamare le mani dell’architetto che tracciando linee arcuate curva lo spazio tempo con la vitalità delle forme che progetta e genera un dominio di esistenza che prima non sembrava possibile.
Tradurre in scrittura architettonica quella musicale è stato sempre quindi momento di grande crisi e riflessioni nella storia dell’umanità e solo nel secolo scorso avviene uno scatto propulsivo che ci consente di esplorare questa relazione con le armi del progetto grazie ad un linguaggio condiviso in grado di garantire una comunicazione tra due mondi apparentemente destinati a rimanere legati solamente da speculazioni di tipo teorico.
Iannis Xenakis crea un framework operativo per muoversi in un campo di applicazione transdisciplinare che interconnetta musica e architettura. Questo architetto e musicista greco, naturalizzato francese, applica alla tecnica compositiva la teoria della probabilità e della logica matematica, coerentemente con il sua idea di musica come modello stocastico[1] (dal greco stochastikós, “che tende bene al fine”) che vedeva l’utilizzo di accurati calcoli probabilistici con i quali controllare lo sviluppo dei singoli caratteri musicali. Con opere musicali quali Metastasis e architetture quali il padiglione Philips (realizzato in collaborazione con Le Corbusier), dove i glissati delle sue composizioni generano le superfici rigate che danno forma all’edificio, Xenakis riesce a creare un ponte tra le due discipline consentendoci di reificare le notazioni del pentagramma in scrittura architettonica, di definire un metalinguaggio in cui forma e suono siano rispettivamente i due poli di un processo morfogenetico[2] che è possibile ripercorrere come uno spartito musicale cogliendone i vibrati, le singole pause e accelerazioni.
Il lavoro di Xenakis ha tracciato un solco che molti altri hanno percorso in stretta relazione con l’evolversi delle possibilità dell’Information Technology e del suo agire come elemento fondamentale per ricerche spaziali e architettoniche prima impossibili. Dobbiamo però, prima di proseguire, operare un importante distinguo tra il lavoro dell’architetto greco dove la traduzione tra musica e spazio avviene tramite un processo di notazione, ovvero la riduzione deterministica di un insieme complesso come quello musicale in una serie di segni traducibili in scrittura architettonica, e un processo di rappresentazione dove è possibile creare un ponte digitale per tradurre la performance musicale in un dominio spaziale.
Come spiega Antonino Saggio “la rappresentazione è oggi indispensabile perché solo se possiamo rappresentare l’invisibile lo possiamo in seguito progettare e quindi costruire: si tratta di una possibilità resa completamente disponibile oggi dall’avanzamento scientifico e tecnologico[3]”.
Lo spazio nel quale ci muoviamo è quindi, per Saggio, pieno e manipolabile, composto di elementi primari (che possiamo definire quanti se ci muoviamo nel mondo fisico o dati se ci muoviamo in uno digitale) che possiamo trasformare, tramite l’applicazione di una determinata convenzione in informazioni[4] in grado di consentirci di progettare una dimensione nuova e di estrapolare dal caos una nuova materia per plasmare lo spazio-tempo nel quale viviamo. Aprendoci verso queste nuove considerazioni siamo in grado di ridefinire completamente i confini di quella che Elizabeth Martin[5] ha definito come la “Y-condition”: la posizione intermedia tra musica e design dello spazio dove l’architetto può agire contemporaneamente come musicista e progettista in un processo di che è stato definito di “musico-spatial design”, in cui gli input musicali vengono processati algoritmicamente e generativamente in output dotati di una loro precisa spazialità.
Su questo fronte è interessante esemplificare un lavoro presentato lo scorso Settembre nel corso della conferenza eCAADe 2017 | Shock – Sharing of Computable Knowledge, tenutasi a Roma e alla cui presentazione chi scrive ha potuto partecipare come pubblico in quanto lecturer in un altro panel[6] nel corso della stessa manifestazione.
I Tre ricercatori[7] coinvolti hanno dimostrato come, tramite quattro esercizi di improvvisazione poliritmica alla batteria, fosse possibile tradurre direttamente la performance musicale in un dominio spaziale, muovendosi su una retta di risposta in tempo reale crescente che mette in connessione performance statica e dal vivo, notazione bidimensionale e tridimensionale, rappresentazione in tempo reale tra environment tridimensionale e virtual reality[8].
Il primo esercizio da loro proposto è basato su una live performance in studio di registrazione che viene catturata in formato MIDI tramite un apposito software e poi esportata in un ulteriore formato (.csv) al fine di consentire a Rhinoceros® di poter assegnare ad ogni colpo una posizione sull’asse temporale e determinarne la velocità di esecuzione e durata.
Grazie all’utilizzo di Grasshopper®, le singole note sono tra loro messe in relazione e disposte su un asse temporale Z, al fine di realizzare una notazione tridimensionale completamente diversa da quella pentagrammatica e che cominci a definire una spazialità propriamente architettonica, fatta di concavità e convessità, tunnel e spazi in-between tra i singoli attimi della performance.

rappresentazione statica elaborato digitalmente del file MIDI poliritmico originario in ambiente NURBS
Il secondo e il terzo esercizio esplorano invece le potenzialità di passaggio da una performance statica ad una dinamica, dove vi è una sempre maggior correlazione, l’attimo t e la configurazione spaziale da esso collegata, al fine di far immergere l’ascoltare in uno spazio completamente costruito dalle onde sonore che, per semplicità di rappresentazione, sono discretizzate in sfere di differente colore e dimensione.
Tramite l’ausilio di un virtual environment realizzato dall’Università di Stoccarda (chiamato CAVE – Cave Automatic Virtual Environment) è quindi possibile immergersi completamente in uno spazio aumentato dove ci si ritrova completamente avvolti dalla rappresentazione dell’input sonoro elaborato dal calcolatore digitale. Nell’esercizio 2 la configurazione proposta è statica, in quanto rappresentazione cristallizzata di un file musicale che ha già precedentemente subito un processo di algoritmizzazione in Grasshopper®; nel seguente esempio invece la musica viene usata generativamente in tempo reale e il visitatore può attraversare la CAVE e vedere lo spazio che si costruisce al variare delle onde sonore come di fronte ad un quadro che, istante dopo istante, si arricchisce di linee e sfumature.
Come si può notare si è passati progressivamente da una distinzione temporale netta tra i momenti della notazione e rappresentazione ad un continuum dove i due cominciano a coincidere rendendone difficile la scissione in momenti differenti. L’esercizio numero 4 è la sublimazione di questo processo nonché il più interessante per esplorare le potenzialità della musica come materia generatrice dell’architettura. Un drum-kit elettronico è infatti collocato all’interno della CAVE stessa e l’architetto-musicista viene invitato ad indossare degli occhiali 3D e a suonare in uno spazio buio e apparentemente simile ad una camera di deprivazione sensoriale. Al primo colpo di rullante però lo spazio intorno a lui esplode letteralmente; ogni nota, ogni vibrazione è trasformato in una forma spaziale rappresentate in tempo reale. L’utilizzo di occhiali 3D consente di aumentare la capacità immersiva dell’operazione e di far dimenticare il fatto che si stia suonando una batteria elettronica per spostare l’attenzione sul movimento delle proprie mani che, grazie a quella che è definita una playful interaction[9], consentono di disegnare uno spazio fatto di informazioni che diventano forme, dove il dato musicale è estratto dal regno dell’invisibile e rappresentato in una realtà percepibile e manipolabile che come affermano gli stessi autori: “ci consente di creare un continuum tra performance, notazione e rappresentazione della musica in un dominio spaziale ancora inesplorato […][10]”.
La visione che questo esperimento rafforza è quella che afferma che quello in cui ci troviamo immersi è quindi uno spazio mai vuoto ma sempre denso di informazioni, uno “spazio schiumoso[11]” che ci consente, grazie alle potenzialità digitali, di operare in un campo di ibridazione, di operare in un’idea tanto di rappresentazione che di esecuzione. Spazio-tempo non sono più dati oggettivi, non più concetti newtoniani inconfutabili, ma informazioni fluide che sta a noi in-formare e cristallizzare in attimi di senso compiuto in un processo in continua ridefinizione di se stesso.
Valerio Perna | nITro
Note
[1]Cfr. Iannis Xenakis, Formalized Music: Thought and Mathematics in Composition, Pendragon Press, New York 1992
[2]Per maggiori approfondimenti sull’idea del processo progettuale come morfogenesi: Cfr. Michael Leyton, Shape as memory. A geometric theory of architecture, Birkhauser, Basilea 2006
[3]Antonino Saggio, Rappresentare l’invisibile? Information Technology, Spazio dell’informazione e nuove sfide per il progetto e la rappresentazione, «Disegnare. Idee, Immagini”, n. 50, 2015
[4]Sui concetti di dato e informazione cfr. Antonino Saggio, Introduzione alla Rivoluzione Informatica in architettura, Carocci Editore, Roma 2007
[5]Elizabeth Martin, Pamphlet Architecture 16: Architecture as a Translation of Music, Princeton Architectural Press, New York 1994
[6]Matteo Baldissara, Valerio Perna, Antonino Saggio, Gabriele Stancato, Plug-In Design. Reactivating the Cities with responsive Micro-Architectures. The Reciprocal Experience, in ShoCK! Sharing of Computable Knowledge! Vol. I & II Proceedings of the 35th International Conference on Education and Research in Computer Aided Architectural Design in Europe – eCAADe 2017
[7]I ricercatori coinvolti facevano parte di un team internazionale che vedeva assieme l’RMIT University di Melbourne (Jeremy Ham), la Hochschule Rheinmain (Joachim B. Kieferle) e la 3University of Stuttgart High Performance Computing Centre (Uwe Woessner)
[8]Jeremy Ham, Joachim B. Kieferle, Uwe Woessner, Exploring the Three Dimensional Spatiality of Polyrhythmic Drum Improvisation, in ShoCK! Sharing of Computable Knowledge! Vol. I & II Proceedings of the 35th International Conference on Education and Research in Computer Aided Architectural Design in Europe – eCAADe 2017
[9]Sul concetto di playfulness cfr. Miguel Sicart, Play Matters, MIT Press, 2014
[10]Trad. it. a cura dell’autore
[11]Per approndire l’idea di “spazio schiumoso”: Antonino Saggio, La schiuma che informa, «L’architetto», n.23, Gennaio 2015