ARCHITETTURA IN DIVENIRE | Makoto Sei Watanabe e Sun God City/Iidabashi station

PREMESSA

Nell’epoca della rivoluzione informatica si è resa sempre più protagonista la cosiddetta Architettura Parametrica, che ad oggi trova il suo più convinto sostenitore nella figura di Patrik Schumacher, direttore dello studio Zaha Hadid Architects, che ne sottolinea la cifra stilistica quale architettura d’avanguardia, ma diversi  sono i nomi che indagano le potenzialità degli strumenti digitali sotto diverse declinazioni come ad esempio Norman Foster sulle prestazioni strutturali e bioclimatiche, UN Studio sui modelli topologici, François Roche sui processi biomorfici, Makoto Sei Watanabe sui sistemi infrastrutturali, sono tra i principali.

Questo ramo di ricerca riconosce tra i suoi padri il recente premio Pritzker Frei Otto per il suo approccio rigoroso e scientifico nell’identificare relazioni trasversali al mondo naturale sviluppando per via sperimentale nuovi modelli procedurali che lo condussero a essere tra i primi a considerare la questione dell’ottimizzazione delle risorse disponibili all’uomo. Volgendo lo sguardo più indietro nel tempo una figura di rilievo è identificata in Antoni Gaudì per aver aperto una nuova ricerca prestazionale su base empirica degli elementi strutturali applicata in particolare sugli archi catenari che conformano la Sagrada Familia e che poi troverà eredi in Felix Candela e in Sergio Musmeci.

Ma il vero padre indiscusso di questa branca di ricerca è di scuola italiana e in particolare di natali romani: si tratta di Luigi Moretti, il quale non solo teorizzò l’architettura parametrica sistematizzandone i principi e coniandone il nome ma applicò tali teorie sviluppando metodologie di modellazione in ambiente informatico già dagli anni sessanta. La scelta del termine “parametrica” è rilevante in quanto si oppone in primo luogo all’idea di standard assoluto sostituendovi l’idea di “relazione tra” gli elementi. Si consideri ad esempio il Modulor, che come afferma Le Corbusier aveva “la pretesa di unificare le costruzioni in tutti i paesi”, questa scala metrica era in origine basata su “una taglia piuttosto francese” di 175 cm poi modificata a favore di un’altezza ricavata dai “romanzi polizieschi inglesi” [1] pari a sei piedi ovvero 182,88 cm.

Già da questo si può comprendere che l’operazione volutamente rinuncia non solo a considerare l’altezza tipica dei francesi ma quella di qualunque popolo non sia inglese, non considera inoltre l’anatomia di persone più alte e persone più basse, esclude le donne, esclude condizioni peculiari come essere incinte, esclude gli anziani, i portatori di handicap e tutta la varietà del mondo umano in favore di una generalizzazione, vale a dire della stretta cima di una campana di Gauss, che costituisce la normalizzazione della società. Si trattava di un’operazione necessaria al tempo ma che appiattiva il mondo e fuggiva la sua complessità. Se si considera di preservare la regola lasciando variabile il parametro di riferimento essa potrebbe però svilupparsi in una sequenza pressoché illimitata di variazioni soddisfacendo svariate esigenze. Questa propensione alla variazione e alla estensibilità ha reso la metodologia parametrica uno strumento importante dell’architettura contemporanea e in particolare a quelle declinazioni che si ispirano al ripiegamento multi prospettico che fa capo a Deleuze.

L’utilizzo di forme dotate di variazioni progressive continue ha condotto erroneamente alcuni critici a ritenere che “architettura parametrica” fosse sinonimo di un nuovo espressionismo e di formalismo quando la sua reale vocazione è di stampo logico-funzionalista, come dimostrano gli stessi metodi generativi strettamente logico-matematici che nella maggior parte dei casi riguardano la risoluzione simultanea di complessi rapporti delle componenti sia strutturali, sia bioclimatiche, costruttive, impiantistiche, ecc. Nell’introduzione a “La Rete della Vita” Fritjof Capra [2] apriva sottolineando che i problemi più seri del nostro tempo sono di ordine sistemico, vale a dire interconnessi e interdipendenti, pertinenti cioè a quella  rete le cui relazioni sono non lineari e in cui ogni alterazione può diventare un anello di retroazione con effetto globale.

Questa è la ragione per la quale i procedimenti algoritmici di correlazione dei parametri sono divenuti uno strumento di grande interesse per l’architettura contemporanea che desidera affrontare e in un certo senso incarnare la complessità del mondo. Si tenga presente che la stessa etimologia di algoritmo proviene dal nome del matematico arabo al-Khwarizmi nato nel 780 d.C., a cui si devono i natali dell’algebra (dall’arabo, al-ğabr che significa “unione”, “connessione”), la tecnologia informatica ha permesso di tradurre questo strumento cognitivo che reifica procedimenti risolutivi attraverso programmi riconfigurabili.
Tale sistema ha liberato le ricerche che ponevano l’accento sul processo allontanando l’ideologia machiavellica del ‘fine che giustifica i mezzi’ che ha tristemente guidato le azioni distruttive degli ultimi secoli e che oggi ci costringe a ripensare il nostro modo di vivere. Come sostiene Bruce Mau: “finchè il risultato guida il processo andremo sempre e solo dove siamo già stati. Se, invece, il processo guida il risultato, potremmo non sapere dove stiamo andando ma sapremo di essere nella direzione giusta”. [3]

MAKOTO SEI WATANABE

makoto_sei_watanabe_photo
“Progettare senza la mano, progettare con il cervello”. [4]

Per capire l’importanza dell’opera di Watanabe all’interno del paradigma dell’architettura algoritmica è necessario cambiare l’oggetto di indagine usuale della critica architettonica: dall’oggetto al processo. In quest’ottica concetti come quelli di algoritmo genetico, processi generativi, scienza della complessità e programmi di reti neurali assumono un ruolo centrale per la comprensione del metodo progettuale dell’architetto giapponese.Lo strumento fondamentale per il processo generativo di questo tipo di architettura è chiaramente il calcolatore automatico: le possibilità di elaborazione che offre il computer sono necessarie allo sviluppo di progetti che si concentrino su processi generativi che procedono per cicli iterativi. Questo ovviamente non vuol dire che sia il calcolatore a generare il progetto: è sempre la mente dell’architetto che genera gli algoritmi che, a loro volta, danno luogo ai processi che determinano lo spazio. Il computer è uno strumento di calcolo eccezionale ma, senza gli input del progettista, non è capace di generare una forma compiuta, un progetto funzionante.“L’idea non è automatizzare la progettazione. Non si tratta di diventare capaci di completare un progetto con un clic del mouse. Lo scopo è chiarire aspetti del processo che finora restavano indeterminati, in modo da comprendere meglio ciò che si vuole davvero. Si tratta di ottenere una qualità superiore, non una maggiore efficienza. Vogliamo che sia migliore, non più veloce.” [5]

La grande chiarezza con cui Watanabe espone e codifica i cardini dell’architettura parametrica assume ancora maggiore rilevanza se si considera che la sua attività progettuale precede di almeno dieci anni l’inizio delle teorizzazioni degli altri grandi attori della scena architettonica. Se il progetto per Sun-God City è del 1994, infatti, il manifesto di Patrik Schumacher, Parametricism as Style, è del 2008. Contemporaneamente alla sperimentazione progettuale Watanabe ha sempre portato avanti un lavoro di sistematizzazione teorica che è iniziata nel 2002, anno in cui è stato pubblicato Induction Design. Riflettere sulle date può essere utile per una seconda considerazione di grande importanza: gran parte dell’architettura parametrica contemporanea è prodotta attraverso Grasshopper, uno script per il famoso software di modellazione 3D Rhinoceros, che è un vero e proprio linguaggio di programmazione visuale (VPL ne è l’acronimo inglese); ma la prima edizione di Grasshopper è stata sviluppata da Robert McNeel & Associates solo nel 2007. Tutti i lavori di Watanabe, in effetti, non si appoggiano su nessuno script, ma sono generati da software specifici, sviluppati dall’architetto e dal team con cui lavora. Sebbene possa sembrare un elemento secondario, il fatto che lo studio di Watanabe utilizzi software specifici per ogni singolo progetto aiuta a sciogliere un’ulteriore ambiguità: è sufficiente che un’architettura adoperi una sintassi ed un linguaggio anamorfici per essere considerata parametrica? La risposta, chiara a chiunque abbia operato nel campo del digitale con cognizione di causa, è no. In effetti le forme anamorfiche generate dai software di grafica sono generate secondo una logica scultorea, seppur digitale.In questo senso possiamo affermare che, sebbene il calcolatore velocizzi drasticamente il processo, questi processi di generazione formali potrebbero essere anche eseguiti attraverso modelli fisici. “Da un punto di vista logico, nulla più dell’architettura è adatto a essere progettato in maniera tradizionale, compiendo studi su modelli” [6] . La grande differenza tra un processo generativo tradizionale ed uno parametrico ha ancora a che vedere con l’interscambio tra oggetto e processo. Nella progettazione parametrica l’oggetto del progetto non è l’architettura, ma il processo stesso: i programmi che generano i progetti di Watanabe non scelgono semplicemente il progetto migliore tra i possibili, ma scelgono l’algoritmo che genera questo progetto. Le conseguenze di un simile cambio di oggetto sono facilmente intuibili: conservando traccia dell’algoritmo che genera il progetto, quest’ultimo non è più un’entità statica, cristallizzata per sempre, ma solo un’istantanea di un processo su cui è sempre possibile intervenire. Esiste un ultimo equivoco che è necessario eludere per essere certi di avere compreso tutti i termini del ragionamento: osservando alcune delle opere di Watanabe appare evidente l’analogia formale delle sue composizioni con quelle del mondo naturale, ma, con le parole dello stesso architetto, “usare la teoria del caos ed i frattali non vuol dire creare forme simili agli attrattori di Lorenz, od ai contorni frastagliati. Non è la forma ma il processo che contribuisce al progetto”. [7]

È una nuova generazione architettonica, una generazione in cui “il computer è un’estensione del cervello”. [8]

LA SCENEGGIATURA DELLE SCELTE CONCRETE

Se alla metà del secolo scorso Louis Kahn, in un mondo dilaniato dalle atrocità della guerra, reduce dalla caduta delle ideologie, si domandava: “cosa vuole essere quest’architettura”, aprendo il dibattito verso nuovi orizzonti comunicativo-simbolici del sapere architettonico, oggi è possibile porsi un nuovo interrogativo che ribalta completamente il nostro modo di guardare il mondo. Le innovative ricerche di alcuni gruppi di architetti ci consentono, infatti, di immaginare rivoluzionari protocolli basati sulla commistione tra tecnologie informatiche ed esperienza inconscia dove l’elemento catalizzatore è la possibilità del calcolatore elettronico di trascrivere codici eterogenei. È una visione della macchina non di deleuziana memoria, pensata solo per produrre energia, ma come nuovo artefatto in grado di creare, scambiare ed elaborare informazione. Per la sua capacità di divenire piattaforma di scambio questa diventa il tramite attraverso cui portare il regno della natura, o dell’esperienza umana, all’interno dell’architettura. La domanda che oggi possiamo, e dobbiamo porci, non è, quindi, quale significato un’architettura possa avere ma “cosa quest’architettura vuole diventare”.

È proprio questo nuovo interrogativo che ha guidato il nostro operare mentre ipotizzavamo nuovi orizzonti per le opere di Watanabe. Si è riflettuto sulla possibilità di guardare ad un’architettura che non fosse la cristallizzazione di una delle progressive iterazioni generate da una logica algoritmica relazionale, ma un sistema vivo ed interagente che, come un organismo vivente, si modificasse secondo le condizioni dell’ambiente che la ospita e di coloro che interagiscono con essa.
In quest’ottica si è scelto di operare su delle scacchiere ibride, sviluppate attraverso l’uso di software generativi parametrici e sistemi interattivi su base Arduino e Kinect. L’utilizzo di questi strumenti è stato necessario per la rielaborazione e comprensione delle opere di Watanabe in quanto generate anch’esse da una logica algoritmica, la quale consente di sviluppare una famiglia di progetti rispondenti alle condizioni contestuali, ai vincoli imposti e alle esigenze espressive. In particolare abbiamo ritenuto interessante affrontare lo studio di due progetti, uno che analizzasse le implicazioni di tale logica nell’ambito di un processo urbano, Sun-God City, ed uno che affrontasse la questione infrastrutturale e architettonica, la stazione di Iidabashi.

SUN-GOD CITY (1994)

taiyo_la
L’intero progetto si muove a partire da due criticità: l’eccessiva densità del tessuto delle grandi metropoli nipponiche e l’esigenza di fornire a ciascuna abitazione un apporto ottimale di luce naturale. Gli elementi posti in gioco sono dunque il vettore della luce solare e la forma primaria del cubo; le motivazioni che hanno portato alla scelta di questa geometria di base sono la sua semplicità, che consente quindi una maggiore velocità di elaborazione da parte dei calcolatori elettronici, e il fatto che la linearità della primitiva non attira l’attenzione sulla forma e quindi consente una maggiore leggibilità delle scelte processuali che guidano il sistema iterativo. L’obiettivo dell’intera operazione era quello di generare un blocco abitativo con un indice di densità fondiaria congrua alla sua localizzazione urbana ma allo stesso tempo con un grado di porosità sufficiente a soddisfare le esigenze della singola unità e a generare al contempo nuove possibilità di relazione tra le funzioni da una parte e gli spazi comuni dall’altra.
Entriamo ora nel processo che sottende all’opera. Watanabe parte da una sovrabbondanza di unità volumetriche cubiche in cui induce una progressiva rarefazione secondo i tracciati descritti dal movimento del vettore d’illuminazione naturale (effemeridi solari) che aumenta il grado di porosità del conglomerato edilizio/urbano sino a soddisfare il requisito iniziale. Contemporaneamente l’algoritmo definisce anche le aperture di ogni singola unità, generate anch’esse da posizioni significative del vettore solare. Nel processo di Watanabe quindi, lo spazio, sia esso pieno o vuoto, assume la medesima importanza: il positivo e il negativo si compenetrano nella creazione di un’unità spaziale in cui ombra e luce sono perfettamente bilanciate nel loro rapporto.
Cattura6
Nella realizzazione della scacchiera digitale ispirata al suddetto progetto si è presa in considerazione una superficie limitata ma caratterizzata orograficamente, sulla quale le unità abitative, rappresentate come cubi, si densificano o rarefanno in funzione del diagramma solare di una specifica località (Roma), catturato in tempo reale, e da un sistema di cinque fotoresistori in parallelo collocati su una scheda Arduino, i cui valori influenzano sensibilmente posizione, orientamento e volumetria delle stesse unità. Rispetto al processo originario di Sun-God City abbiamo implementato il grado di flessibilità, aggiungendo oltre al fattore fisico anche un fattore di personalizzazione: il sistema di fotoresistori simula la possibilità di ogni singolo abitante di ricevere la qualità e quantità di luce desiderata.
Cattura5
algoritmo_sungod
L’algoritmo consente ad uno dei residenti, sia esso ad esempio un lavoratore notturno e che preferisce quindi di avere un apporto solare minimo nelle prime ore del mattino, in cui di solito dorme, di avere un apporto solare massimo nel pomeriggio.
Dal punto di vista tecnico, per la realizzazione di questa scacchiera è stato necessario l’utilizzo di una scheda Arduino attraverso cui recepire l’intensità luminosa dai cinque sensori e convertire tale dato in un’informazione spaziale e volumetrica. Queste informazioni vengono processate dal software Grasshopper andando a influenzare in particolare la forza e la posizione di punti attrattori, vale a dire punti notevoli che come un campo di forza respingono o attraggono le entità geometrica che si muovono sulla superficie. Nello spirito con cui abbiamo interpretato questo progetto, un maggiore apporto di luce sui fotoresistori viene interpretato come una maggior richiesta di luce in una posizione specifica, generando una maggiore rarefazione attorno all’attrattore collegato al fotoresistore più intensamente sollecitato.

12910786_10209205069511979_872959871_n

STAZIONE DI IIDABASHI (2000)

web0914_640

Si tratta di una stazione della metropolitana di Tokyo che il progettista stesso definisce come una versione olografica della metropolitana di Tokyo. Il progetto si compone di tre elementi principali: la struttura spaziale delle banchine e dei sistemi di risalita in superficie, un sistema impiantistico articolato dai tubi saldati raccoglie e accompagna il flusso di utenti integrando anche le componenti impiantistiche e risolvendo l’articolazione spaziale e volumetrica, culminando infine con una inflorescenza artificiale, che rappresenta il terzo elemento del progetto. Questa costituisce la torre di ventilazione la cui struttura complessa è a sua volta il risultato di un programma di ottimizzazione strutturale che considera i diversi materiali e le differenti sezioni e superfici che entrano in gioco sfruttando al massimo le prestazioni della struttura tridimensionale.

Dal momento che il percorso che qui cerchiamo di compiere è quello che conduce all’estrapolazione di un metodo progettuale trasmissibile, e dal momento che i diversi elementi del progetto sono generati da software differenti, abbiamo focalizzato la nostra attenzione sull’elemento impiantistico reticolare che accompagna i sistemi di risalita dei passeggeri. La ragione di questa scelta è duplice: da una parte il sistema reticolare è quello a più stretto contatto con l’utenza e dunque quello che maggiormente si presta a elaborazioni di tipo evolutivo, dall’altra risulta essere un elemento catalizzante nell’intera progettazione. Infatti, a ben vedere, l’intero sistema della stazione metropolitana è realizzato mediante un sistema espressivo quasi brutalista, in cui il progettista rinuncia a qualunque sovrastruttura linguistica in favore di un ruolo prominente proprio della struttura impiantistica, che è infatti l’unica a cui l’architetto affida l’istanza estetica e caratteristica dello spazio, conformandosi in un elemento iconico.
WEB2_A1
Dal punto di vista processuale l’operazione di progetto si divide in due fasi. Nella prima un software (Web Frame) genera una struttura reticolare che sia caratterizzata da un alto grado di rigidità, un alto grado di discretizzazione degli elementi e che possa incorporare un certo livello di “rumore”, o fattore caos. Questa prima fase è denominata da Watanabe “hard regulation”, ovvero un sistema che regola i parametri costruttivi fissi, come numero degli elementi, angolo di connessione e superfici utile da occupare. Nella seconda fase questa maglia si flette e si articola sia in relazione alla struttura spaziale dei tunnel di risalita sia per rispondere alla più rilevante condizione del passaggio degli utenti. Questo sistema funziona come un mantice che accoglie e spinge gli utenti attraverso lo spazio, verso l’uscita. La conformazione spaziale di questo manto è ottenuta attraverso un sistema definito dal progettista “soft regulation” e che è rappresentato come un insieme di sfere di diverse dimensioni che sono in realtà campi di forza che, in maniera quasi pneumatica, deformano questa maglia altrimenti rigida.

 

seo_02
L’analisi delle logiche costitutive della stazione di Iidabashi ci ha spinto a riflettere sulle possibilità evolutive di questo sistema, che ruotano attorno agli utenti e alla presenza fisica; in tal senso le sfere rappresentate da Watanabe hanno una forte corrispondenza con quelle che Edward Hall definiva “sfere prossemiche”. Esse costituiscono ambiti spaziali fisicamente misurabili che hanno qualità di ordine psicosociale definendo e influenzando 4 zone che Hall chiama: lo spazio intimo, lo spazio personale, lo spazio sociale e lo spazio pubblico.

 

Body Contact and Personal Space in US.

Personal_Space
La scacchiera che abbiamo realizzato utilizza un sensore Kinect, il quale è in grado di catturare una sequenza di movimenti del corpo umano il cui progressivo inviluppo genera una superficie. Un ulteriore algoritmo realizza poi, una discretizzazione di elementi reticolari a formare la struttura della stessa superficie, che è continuamente riconfigurabile a partire dal primo algoritmo e quindi da nuovi movimenti. Immaginando ora di avere una serie di sensori Kinect collegati lungo il tragitto del tunnel metropolitano e associando ad ogni passeggero la propria sfera prossemica, il progetto di Watanabe si arricchisce di nuove ed affascinanti prospettive, aprendo la strada ad una struttura completamente responsiva, e quindi infinitamente riconfigurabile, un modello operativo dinamico in continua relazione ai flussi umani con i quali entra in contatto.

 

algoritmo_iidabashi
kinect2_display_image
scac_ida4
scac_ida
12600255_10209276352334892_969360885_n

IMPLICAZIONI FUTURE

“Ciò che è veramente inquietante non è che il mondo si trasformi in un dominio completo della tecnica. Più inquietante è che l’uomo non sia preparato a questo radicale mutamento. Ed ancora più inquietante è che non siamo capaci di raggiungere, attraverso un pensiero meditativo, un adeguato confronto con ciò che sta realmente emergendo nella nostra epoca” [9]
 
Il percorso intrapreso in questo testo ha progressivamente dimostrato come le continue ricerche nel campo del parametrico abbiano pervaso, in modo sempre più deciso, il dibattito architettonico degli ultimi quarant’anni. Di fronte alle implicazioni della Rivoluzione Informatica e alle continue sperimentazioni in tali direzioni, il mondo degli architetti, infatti, si è sempre più progressivamente diviso tra coloro che hanno tentato di trasformare la nuova crisi in valore e coloro i quali, in modo reazionario, hanno declinato l’invito a confrontarsi con le nuove potenzialità offerte dall’Information Technology.
Watanabe è stato, a nostro giudizio, uno dei precursori di un modo nuovo di intendere il rapporto tra Architettura e Informazione. Il maestro giapponese, nella sua infaticabile ricerca, ha dimostrato come siano possibili nuovi orizzonti di sperimentazione in architettura proprio tramite la manipolazione dell’Informazione e una logica induttiva per processi e progressive iterazioni che possa “rendere manifesto ciò che è nascosto” [10], portando al livello cosciente ciò che avviene nel pensiero dell’individuo, del sistema sociale e quindi del sistema infrastrutturale, immaginando la macchina realmente come un’estensione attiva della mente in grado di decodificare linguaggi quasi in un isomorfismo sintattico uomo-macchina.
Le implicazioni future per l’architettura parametrica sembrano spingere fortemente verso l’idea, precedentemente espressa, di un’architettura viva ed interagente con il contesto, un’architettura che non solo “vuole essere”, ma che aspira a diventare qualcosa di nuovo.
Pensiamo al caso di François Roche e del suo gruppo New Territories, col quale ha sempre inseguito il desiderio di un’architettura lontana da ogni schema intellegibile e senza alcuna volontà rappresentativa, nella quale la componente formale non fosse momento di partenza ma arrivo di un susseguirsi di iterazioni successive legate non da una componente “meccanica” dell’edificio, ma in relazione ai suoi comportamenti vitali. Un’architettura come sistema vivente quindi che, secondo quanto teorizzato da Varela e Maturana [11], rispetti due condizioni cruciali: la coesistenza delle componenti del sistema in un’organizzazione relazionale chiusa, sebbene aperta a scambi esterni necessari; la possibilità per tali componenti di distruggersi e rigenerarsi, mantenendo però l’identità del sistema stesso.
Ciò avviene nel progetto dell’Olzweg in cui il robot è più di un agente regolatore, è un cleaning fish, che pulisce uno spazio e ne restituisce un altro, elaborando un sistema di iterazioni possibili e varie (ad esempio il rumore delle automobili); lo spazio che esso produce nel tempo non è assolutamente casuale ma il più possibile corrispondente a quello che le informazioni definiscono. Il visitatore è libero di muoversi in un ambiente fisico che è sempre più plasmato rispetto ai suoi sogni e alle sue attese e che può scoprire solamente immergendovisi totalmente. Tutto ciò è possibile grazie alle potenzialità dello script, che può descrivere infinite operazioni possibili in un’idea di città che viene definita “emergente”, non condizionata da processi decisionali subordinati ad un’autorità precostituita e che elabora una serie di biofeedback raccolti tramite dei nanorecettori presenti nell’aria.
Roche nella sua ricerca si scaglia contro l’assenza di rumore nel mondo delle procedure algoritmiche tradizionali che non sono grado di rinnovare i propri domini semantici e lavorano sempre sullo stesso codice trovando la loro debolezza proprio in questo determinismo. Il passaggio nel suo lavoro è epocale, si passa dalla mente assimilabile ad un computer della scienza cognitiva degli anni ’70 ad una radicata nel contesto e profondamente radicata nel corpo (embodied).
Ed è proprio l’assenza di rumore che insegue ancora il gruppo ORAMBRA con il suo obiettivo di oltrepassare il confine tra mondo fisico e mondo digitale. Basandosi sull’assunto di Yona Friedman che già negli anni Sessanta, affermava che il più grande limite degli architetti era quello di costruire per un occupante sconosciuto, questi architetti di Chicago, guidati da Tristan d’Estrée Sterk tentano proprio di far sì che ciò non accada. Non è più l’idea che la “forma segua la funzione” a dominare le scelte dell’architetto ma che la “forma segua i desideri”, di coloro che vivono, abitano e attraversano gli edifici. Il loro lavoro si concentra su strutture “tensegrity” che, controllate da un sistema digitale, si modificano a seconda delle condizioni che, ambientali, di flusso, energetiche che l’edificio è chiamato a soddisfare.
Ci stiamo avvicinando sempre più a quella “Transarchitettura” che Marcos Novak già teorizzava negli anni 2000 e grazie alla quale auspicava la fusione di due mondi, all’epoca così distanti come quello digitale e quello reale. Pioneristicamente egli parlava di “transvergenza” come l’atteggiamento prospettico di un nuovo modo di progettare, che supera i concetti di divergenza e convergenza seguendo un vettore perpendicolare in grado di generare una terza via, che Novak indica come “produzione dell’estraneo “. La ricerca di Novak ci porta a rapportarci col fenomeno della “eversione”, ovvero la possibilità offerta dalle tecnologie digitali e dalle nuove tecniche di prototipazione, di portare le sperimentazioni morfogenetiche generative, realizzate nel cyberspace, a coagularsi nella realtà, attraverso modalità flessibili. La sua è un’architettura iper-estesa, che spinge travalica la propria funzionalità perfino a superare i limiti stessi della struttura e della forma.
La sfida di proporre una propria “Sceneggiatura delle scelte concrete in architettura” ci ha condotto a riflettere su universi complessi, su galassie lontane che stanno influenzando sempre di più il mondo della nostra disciplina e i suoi futuri sviluppi, dei quale non può la nostra sensibilità di giovani architetti non tener conto. L’uso del digitale nel tentativo di liberare una sintassi architettonica facilmente trasmissibile non è stata decisione mossa da un mero uso strumentale dell’apparato tecnologico oggi a disposizione ma un tentativo di dimostrare come oggi l’Architettura possa rispondere a domande profondamente rivoluzionarie e con implicazioni formali e strutturali completamente differenti a quelle del passato. La nostra idea è stata quella di orientare il nostro sguardo ad un futuro che per reificarsi ha bisogno della costruzione di un nuovo pensiero: il pensiero dell’informazione, che cambia secondo le angolazioni dei punti di vista e dove tutto è in-formazione, tutto è correlato, perché, citando il fisico Fritjof Capra:
“Nella teoria dei quanti non si termina mai con “cose”, ma sempre con interconnessioni. […] Quando penetriamo dentro la materia, la natura non ci mostra alcun isolato mattone da costruzione, ma piuttosto una complicata ragnatela di relazioni esistenti tra le varie parti di un unificato intero.” [12]


Selezione Bibliografica

Converso S., Il progetto digitale per la costruzione. Cronache di un mutamento professionale, Maggioli Editore, Sant’Arcangelo di Romagna (RN), 2010
Di Raimo A., François Roche. Eresie meccaniche e architetture viventi di New-Territories.com, Edilstampa, Roma, 2015
Giràrd C., Makoto Sei Watanabe, Edilstampa, Roma, 2007
Hall E.T., The Hidden Dimension, New York, 1990
Heidegger M., Pensieri-guida sulla nascita della metafisica, della scienza contemporanea e della tecnica moderna. Testo tedesco a fronte BompianiMilano, 2014
Hall E.T., The Hidden Dimension, New York, 1990
Mau B., An incomplete Manifesto for Growth, 1998
Saggio A., Introduzione alla Rivoluzione Informatica in Architettura, Carocci, Roma, 2007
Saggio A., Architettura e Modernità. Dal Bauhaus alla Rivoluzione Informatica, Carocci, Roma, 2010
Watanabe M.S., Induction Design. Un metodo per la progettazione evolutiva, Testo&Immagine, Roma, 2004
Note
[1] Le Corbusier,  Il Modulor. Saggio su una misura armonica a scala umana universalmente applicabile all’architettura e alla meccanica, Gabriele Capelli Editore, Mendrisio, 2004, P.56
[2] Capra F.La rete della Vita, BUR, Bergamo 2005
[3] Mau B., An incomplete Manifesto for Growth, 1998
[4] Watanabe M.S., Induction Design. Un metodo per la progettazione evolutiva, Testo&Immagine, Roma, 2004
[5] Ibidem
[6] Ibidem
[7] Giràrd C., Makoto Sei Watanabe, Edilstampa, Roma, 2007
[8] Watanabe (2004)
[9] Heidegger M., Pensieri-guida sulla nascita della metafisica, della scienza contemporanea e della tecnica moderna. Testo tedesco a fronte BompianiMilano, 2014
[10] http://www.makoto-architect.com/subway/subway_2e.html
[11] Di Raimo A., François Roche. Eresie meccaniche e architetture viventi di New-Territories.com, Edilstampa, Roma, 2015 P.73
[12] Capra F., La rete della Vita, BUR, Bergamo 2005

Matteo Baldissara
Valerio Perna
Gabriele Stancato

CAP. I: Sulla funzione operativa della critica

Non è data architettura fuori dalla sua dimensione storica, perché non esiste individuo né cultura che non sia il risultato di stratificazioni temporali. Estraniata dalla sua condizione di elemento storicizzato, l’architettura non è leggibile come tale, né immaginabile. La sua condizione storica è oggettiva, ma la consapevolezza che, come architetti e critici, abbiamo di tale condizione è sempre soggettiva, dal momento che possiamo conoscere la storia solo attraverso la storiografia. L’impiego di questa coscienza, che è dunque la nostra costruzione del reale, è strumento critico e progettuale al contempo, dal momento che l’opera di progetto è allo stesso tempo creativa e critica. La consapevolezza di muoversi tra le righe della storia non porta dunque ad una reificazione delle forme storicizzate: al contrario, solo attraverso la costante rilettura delle opere del passato siamo in grado di progredire. La rilettura di P. Eisenman del lavoro di L. B. Alberti e di G. Terragni in chiave puramente sintattica è un chiaro esempio di questo approccio all’opera architettonica. Gli stessi autori postmoderni, quantomeno quelli della scena europea, per cui la reificazione della forma storica è fondamento del progetto, ne applicano una costante modificazione del significato, non mirando alla ricostituzione di uno stile, ma piuttosto alla risemantizzazione di archetipi ed elementi classici. Appare dunque chiaro come, da un lato, lo statuto epistemologico del progettista contemporaneo non abbia confini netti e protocolli precisi e, dall’altro, come la consapevolezza storica sia fondamentale non solo per l’inserimento dell’opera all’interno del contesto, ma per il progresso dello stesso. In questo senso possiamo guardare con interesse ai razionalisti italiani, sia dal punto di vista progettuale che da quello critico: pur aderendo ai movimenti di avanguardia di respiro europeo, la costante attenzione all’elemento storico e contestuale ha consentito alla scuola italiana di produrre alcune delle opere più significative del secolo.

porco zio

 

 

D’altronde è evidente come la ricerca storico-critica non sia estranea dal contesto storico nel quale si inserisce e, come ogni altra disciplina, viva di discontinuità e salti nella sua evoluzione. In questo senso la lettura storico-critica che oggi si può dare degli atteggiamenti post-modernisti deve necessariamente essere differente da quella che si è data durante gli anni ‘80-’90. Il cambio di prospettiva non è solo foriero di nuove interpretazioni e, quindi, di nuove possibilità operative sul passato e sul presente, ma necessario, perché rispondente al paradigma vigente quando si effettua l’analisi. È fuori di dubbio che il dato storiografico esista e non sia eludibile ma, proprio per la sua natura di dato, acquista valore nel momento in cui il progettista ed il critico sono in grado di darne una lettura che lo trasformi in informazione storico-critica. In questo senso è chiaro che intende dare, anche all’attività critica del formarsi della consapevolezza storica, un carattere preminentemente operativo.

CAP I: ERICH MENDELSOHN-Masse energetiche

I miei schizzi non sono che appunti, contorni di visioni subitanee, benché nella loro natura di edifici, essi appaiano quali entità. È di somma importanza fissare queste visioni sulla carta, così come ci balenano nella mente, poiché ogni nuova creatura porta con sé il germe del suo potenziale sviluppo, e diviene un essere umano seguendo un processo di evoluzione.

6

L’attenzione di Mendelsohn al mondo del disegno impulsivo ha radici profonde, ma molto prossime. Avendo vissuto il clima dell’espressionismo, avendo avuto contatti Klee, Marc e Kandinsky, attraverso il gruppo Der blaue Reiter, il valore dell’energia potenziale contenuta nello schizzo gli era ben noto. Ma la linfa che ha alimentato queste radici aveva ancora altre origini: tra il 1900 e il 1930 Sigmund Freud scrisse molti dei suoi testi più diffusi tra gli intellettuali dell’epoca; nel 1905 Albert Einstein pubblicò la sua teoria della relatività e, dieci anni dopo, quella della relatività generale. Il mondo era stato sconvolto in tutte le sue dimensioni: quella del mondo esterno, dell’infinitamente grande, delle enormi masse capaci di deformare lo spazio attraverso la propria energia, e quella del mondo interiore, con subconsci scuri e profondi come buchi neri, sconvolti dalla grande guerra.

7

 

Ritornando dunque al disegno: gli schizzi di Mendelsohn sono una visione stellare. Lo sguardo è puntato verso il cielo, ma ha origine dal nostro stesso interno, un punto infinitamente distante dentro noi. Talmente distante che il suo orizzonte è curvo, come curva è la superficie terrestre, come curvo è lo spazio deformato dalla massa. L’edificio è certamente il protagonista della rappresentazione – unico soggetto, in effetti – ma qualcosa di ancora più importante: il punto di misura dell’universo, un picchetto di conoscenza di ciò che è altro da noi.

Così come negli schizzi, nelle sue architetture il valore cosmico acquisisce un’importanza fondamentale: combinando tecniche che derivano dal neoplasticismo e dal costruttivismo, l’obiettivo di Mendelsohn è generare sistemi di masse dinamiche in relazione ritmica tra loro. Non poteva, come gli esponenti della Nuova oggettività, rinunciare alla massa, perché, rinunciandovi, avrebbe perso anche tutta l’energia potenziale che porta con sé.

 

La massa ha bisogno della luce, la luce mette in moto la massa, è reciproco, parallelo, complementare. La massa è chiaramente organizzata quando la luce interviene in modo bilanciato.

 

È lo stretto legame tra massa, energia e luce a definire spazialmente le architetture di Menedelsohn.

 

CAP. IV: SERGIO MUSMECI-L’incognita della forma

3

 

Occuparsi oggi delle sovrapposizioni e delle interrelazioni tra sistemi biologici e artefatti antropici vuol dire scontrarsi spesso von il pregiudizio che gli ultimi siano una riproposizione formale dei primi. È un pericolo effettivo, al quale si può sfuggire spostando l’oggetto di studio dall’assetto formale finale dell’artefatto antropico al suo processo compositivo. Uno slittamento dell’attenzione che può sembrare semplice, ma risulta a tutti gli effetti sostanziale: un cambio di prospettiva che permette di rileggere la forma sotto una nuova lente. Rintracciare nella storia episodi virtuosi di un simile atteggiamento è tanto più difficile quanto più indietro ci si spinge a cercare. Una delle figure che ha compiuto questo slide concettuale sul tema della forma è certamente Sergio Musmeci.  Se alcune delle sperimentazioni sull’assetto strutturale delle sue architetture erano state precedute da Gaudì, il processo mentale nella progettazione di Musmeci è stato assolutamente rivoluzionario, ribaltando il metodo tradizionale. L’analisi non partiva infatti dal dimensionamento di morfologie astratte o semplificate ma, al contrario, dalla ricerca della forma migliore per la trasmissione delle forze. Un metodo molto simile a quello che oggi i progettisti i cui processi generativi sono fortemente influenzati dal digitale chiamano form-finding: un metodo progettuale che esplora la tendenza del materiale ad auto-organizzarsi in relazione all’azione di particolari influenze esterne e alle caratteristiche intrinseche della materia stessa. Chiunque abbia avuto a che fare, anche in maniera tangenziale, con simili processi di progettazione ha ben chiaro che non si tratta semplicemente di una trasposizione analitica di meccanismi naturali in assetti formali. Si tratta al contrario di processi creativi che pongono in progettista in una posizione di rilievo nel rapporto tra scienza, struttura e natura: un ruolo in cui la creatività è lo strumento che permette l’adattamento dei principi naturali all’artefatto antropico. Un simile approccio è oggi molto facilitato dall’impiego di software appositi ma quando, nel 1967, Musmeci iniziò a progettare il suo celebre ponte sul Basento, i suoi metodi progettuali erano ancora di tipo analogico.

4

La forma del ponte deriva dagli studi effettuati su modelli che possono ammettere soltanto sforzi di trazione, come le membrane di gomma e i film di sapone e la struttura realizzata, costituita da una membrana in cemento armato a compressione uniforme, di trenta centimetri per tutto il suo sviluppo, presenta una linea fluida e continua tra i piloni di appoggio e le “ali” di sostegno dell’impalcato. La ricchezza del progetto, costituito da una forma organica, continua, articolata, rivela ad un tempo la sua naturalezza e la sua complessità: come tutti gli artefatti antropici elaborati a partire dall’evoluzione di processi naturali manifesta un’articolazione elaborata che non risulta mai gratuita e appare spesso compiuta. La straordinaria spazialità che risulta tra la membrana strutturale continua e l’impalcato superiore descrive un ambiente plastico di estrema modernità.

5

Un altro esempio in cui lo studio dei processi di formazione naturali è ancora più evidente è la progettazione della copertura della chiesa del villaggio del sole a Vicenza. La struttura della copertura è modellata sulla “spira mirabilis”, ovvero la spirale meravigliosa – così definita nel XVII secolo dal matematico J. Bernoulli, e che consiste in una figura geometrica presente in natura, che può però essere decritta attraverso geometrie logaritmiche relativamente complesse. Seguendo questa struttura la cupola presenta un sistema di tensioni variabili che sono però armonizzate tra loro creando un sistema statico affidabile e dinamico.

Guardare oggi al lavoro di Musmeci ci consente non solo di apprezzarne l’ingegno e la qualità spaziale, ma di comprendere come i processi di generazione della forma contemporanea non siano un “capriccio digitale”, ma rappresentino invece sistemi progettuali che sono espressione di un vero salto cognitivo.

 

CAP. V: PETER EISENMANN

“L’architettura stessa è un genere di scrittura. Si deve leggere un monumento per trovarvi un discorso e degli insegnamenti iscritti. Allora l’architettura è solo un testo nel senso classico di testo, un testo sacro”

Jacques Derrida

 

“Aver scelto l’architettura, per me, è stato come un impegno nei confronti del mondo esterno, una sorta di rifiuto a restare confinato nell’universo della sperimentazione. Il contributo più positivo dell’architettura è stato l’avermi permesso di sviluppare i campi più svariati nelle mie vesti di scrittore. Questo in definitiva è il mio unico vero interesse, riconoscermi o riuscire ad immaginarmi in un altro mondo.”

Rem Koolhaas

A volte la dimensione operativa che più ci attira di un architetto non è quella del progetto dell’architettura, ma quella del progetto del substrato teorico da cui essa è generata. È per me il caso di Peter Eisenman. La scrittura di Eisenman non è infatti né narrativa né descrittiva, ma preminentemente progettuale, solo un’altra forma di progetto. Eisenman non fa della scrittura un medium di comunicazione delle sue idee, ma la utilizza come un terreno di sperimentazioni teoriche in cui, attraverso complesso giochi di risemantizzazione dei concetti fondanti dei movimenti architettonici precedenti, costruisce il proprio paradigma operativo.

1

Verso la fine degli anni ’70, Eisenman è un giovane dottorando che collabora con Colin Rowe e la scrittura è il campo di indagine e di sperimentazione in cui generare, prima concettualmente e solo poi graficamente, i propri progetti. In questa fase l’intera ricerca eisenmaniana ruota intorno alla tesi che che esista una sostanziale continuità del paradigma della classicità, che lega virtualmente il rinascimento al post-moderno.  Questo processo analogico, che si sviluppa intorno alcuni nodi fondamentali (rappresentazione, ragione, storia, segno e decomposizione) trova la sua prima reale fase di discontinuità con l’idea, che alla metà degli anni ’80 iniziava a formarsi, di un’architettura de-composta, decostruita. L’intera ricerca si inserisce nel più ampio orizzonte del lavoro di Eisenman che, influenzato anche dallo stretto rapporto con Colin Rowe, scindeva l’architettura in due componenti fondamentali: quella sintattica e quella semantica, con una forte prevalenza ed un’essenziale autonomia della prima rispetto alla seconda.

 

“Intendendo l’architettura come un sistema di segni (non per forza connesso a un corrispondente sistema di significati), Eisenman relaziona la sua «interiorità» a un paradigma linguistico. Un paradigma che, nel contesto dell’architettura, permette di mostrarne la piena autonomia rispetto ai «discorsi» ai quali essa è classicamente e normativamente riferita. Un’architettura intesa come scrittura di se stessa: non più come narrazione, nel senso tradizionale del termine, bensì – secondo quanto afferma Derrida conversando con Eisenman – come «spaziatura»: dove «non si abbandona il testo discorsivo, ma si ha nuova esperienza di questo stesso testo, della sua struttura, della sua apertura, della sua non-chiusura, della disgiunzione, soprattutto della maniera in cui vi si inscrive un discorso».”

  1. Biraghi

Per una volta, invece di analizzare un’opera di architettura, vorrei provare a ricostruire un metodo progettuale analizzando un’opera letteraria: la fine del classico. Il libro è articolato in sette saggi, pubblicati su carie riviste in un arco di dieci anni.

I primi due saggi, Post-Funzionalismo e La rappresentazione del Dubbio, affrontano il tema del segno. Nel primo saggio Eisenman evidenzia come, da un lato, il Movimento moderno incarni una nuova sensibilità rispetto all’epoca pre-industriale, mentre dall’altro “rappresenti solo una fase tardiva dell’epoca classica”. Il rapporto forma e funzione veicola, infatti, il rapporto tra le componenti sintattica e semantica dell’architettura, non raggiungendo l’autonomia a cui Eisenman aspira. Nel secondo saggio l’autore ci guida invece in una riflessione che lega il segno alla rappresentazione: quando quest’ultima non è più il mezzo che lega il segno al significato, allora i due possono muoversi in autonomia. Materializzazione diretta del ragionamento sono gli studi sulla serie di case, dalla House I alla House X, realizzati da Eisenman: confondendo il rapporto tra oggetto (architettonico) e soggetto (che recepisce l’oggetto), il significato di questi studi è destabilizzante, svincolando il segno dal suo valore semantico.

2.jpg

Ne La città degli scavi artificiali e ne La futilità degli oggetti, il tema cardine è la storia. Nel primo saggio, scritto in occasione del concorso per l’IBA di Berlino, Eisenman sottolinea come la memoria storica, quando assunta come valore predominante, non possa che portare ad un atteggiamento romantico o stilistico. Introduce perciò il concetto di antimemoria, “diversa dalla memoria sentimentale o nostalgica, poiché essa non richiede né cerca un passato (o un futuro)”. Memoria e antimemoria lavorerebbero insieme per produrre un oggetto “sospeso”, un luogo. Nel secondo scritto la storia rappresenta invece il punto di partenza di un ragionamento che punta ad arrivare al tema della decomposizione. “La storia non è continua. È fatta di assenze e di presenze”, scrive Eisenman. E proprio sull’assenza lavora l’architetto, intesa come un momento di rottura tra la continuità che è appena finita e quella che sta per iniziare. Nella prima reale fase di discontinuità del paradigma classico, che Eisenman individua nella fine del post-moderno, è la decomposizione lo strumento che gli permette di attivare l’assenza.

Il core del volume è il saggio che porta lo stesso titolo. La fine del classico tira le fila dell’intero ragionamento, ricostruendo il processo attraverso le tre parole chiave già affrontate (rappresentazione, ragione e storia), intese comefiction – ovvero come narrazioni – che si sono succedute nella storia. Abbiamo già sottolineato come la classicità pre-industriale si fondasse interamente sulla rappresentazione di ciò che era considerato portatore di valore, come sempre fosse alla ricerca di modelli. Questa condizione è stata rotta solo dal movimento moderno che, attraverso l’astrazione, ha abbandonato l’idea di modello da rappresentare solo per cadere nella seconda fiction, quella della ragione. Il mito della forma generata dalla funzione non fa che saldare ancora più strettamente il rapporto tra segno e significato, richiudendosi su se stesso. La rottura della narrazione della ragione arriva con il post-moderno, che si trova però avvolto in un altro loop, quello della storia. Non esiste altro modo, per spezzare il ciclo, che quello di introdurre un nuovo paradigma, analizzato nel saggio di chiusura: il paradigma della non-linearità. Quest’ultimo scritto ha un carattere pronunciatamente programmatico: discontinuità, ricorsività e assenza sono gli strumenti del nuovo paradigma, il cui risultato non può che essere un’architettura del frammento, decostruita.

Questa raccolta di saggi acquisisce valore, a mio avviso, quando letta come programma progettuale: la scrittura per Eisenman non è un processo descrittivo o metanarrativo, ma un azione di progetto. È chiaro che, dal punto di vista storiografico e storico, molte sono le critiche che si potrebbero muovere alla divisione per macrotemi che Eisenman compie per riscrivere la sua storia dell’architettura. Infatti se alcuni nodi concettuali evidenziati da Eisenman costituiscono un effettivo ponte dal rinascimento al post-mo, altri sono stati, a mio avviso, cerniere rivoluzionarie nei cambi di paradigma: in particolare i temi del significato e del modello hanno costituito i punti di maggiore frattura tra mondo moderno e quanto lo aveva preceduto. E certamente anche Eisenman ne è consapevole, tanto che nella sua famose serie di case, ed in particolare nella House X, le variabili messe in gioco sono appunto il modello, inteso sia come prototipo che come rappresentazione, e le sue possibili variazioni di significato rispetto all’oggetto rappresentato. Ma che senso avrebbe fare una lettura in chiave dell’attendibilità storiografica di un manifesto? Perché in fondo è di questo che si tratta, il manifesto del paradigma della non-linearità.

Ciò che mi interessa de La fine del classico non è tanto il contenuto, quanto il metodo. Eisenman rilegge i maggiori movimenti della storia in maniera operativa: a lui interessano gli aspetti sintattici che sono stati prodotti nel corso dei secoli, non la loro rilevanza semantica. La scrittura non gli serve solo per produrre, ma prima di tutto per comprendere: concentrandosi solo su alcuni aspetti significativi di ciò che studia, è in grado di darne letture diverse e nuove. Il processo di generazione dell’architettura del nuovo paradigma è un diretto derivato di questa operazione di rilettura: è la sintassi della contemporaneità.

CAP. VII: JOHN ALLEN, WILLIAM DEMPSTER,MARGRET AUGUSTINE-biosinergie

“Il problema è di impiegare le energie naturali, non di opporvisi e tale atteggiamento porta alla possibilità di una esistenza compiuta dell’uomo sulla terra”.[1]

Iniziamo con il chiarire un grande equivoco: ecologia non sta per ambientalismo. Tecnicamente l’ecologia è la scienza che studia l’interazione tra gli organismi ed il loro ambiente. Certo si può dare una valenza più generale al termine “ecologico”, intendendo con esso un atteggiamento che studi non più il singolo artefatto o concetto, ma il suo ruolo all’interno di un sistema e le interazioni che all’interno dello stesso sistema sono generalmente intessute. È chiaro dunque che il metodo ecologico sia un metodo sistemico e relazionale che non ha niente a che vedere, almeno non nei processi, con un metodo prestazionale come quello legato all’ambientalismo tout court. In altre parole: un edificio può essere parzialmente avanzato sotto il profilo del rispetto dell’ambiente (impiegando tecnologie performanti dal punto di vista climatico o energetico) ma non essere affatto ecologico nella sua definizione spaziale e relazionale.

Il distinguo è più che mai necessario non per una mera riaffermazione di dignità e complessità della disciplina, ma perché ha un carattere operativo. Non è un caso, ad esempio, che negli studi di biomimetica ci si riferisca a prodotti ecologici più spesso che sostenibili, con ciò intendendo un prodotto che abbia un basso costo ambientale di produzione, che lavori per cicli chiusi (che non produca dunque rifiuti), che lavori in cooperazione con gli altri sistemi. In effetti la biomimetica è una disciplina ecologica, nel senso che è interdisciplinare e coinvolge studi di biologia evolutiva, genetica ed etologia. Per questi motivi tra i tre livelli di analisi biomimetica (formale, processuale ed ecosistemico) è l’ultimo quello che ha la maggiore rilevanza nel processo di progettazione: l’ambiente influenza in modo decisivo lo sviluppo di un organismo e il processo di formazione di quest’ultimo non costituisce mai un danno per il primo; se crei un prodotto efficiente che riproduca forme naturali ma crei una tonnellata di rifiuti nel processo, beh allora hai perso di vista l’obbiettivo.

Ritornando dunque al tema dell’ecologia nel suo significato più ampio, arricchendolo di un aspetto che non è stato sinora affrontato: quello della sinergia. Perché la sinergia è tanto importante quando si lavora nell’ambito dell’ecologia? Perché è solo tramite un processo sinergico, quindi sistemico e relazionale, che si crea una reazione di due o più agenti che, agendo insieme, creano un risultato non ottenibile singolarmente da nessuno dei due. È un processo molto chiaro nella chimica e nella biologia, ma che ha molti validi esempi anche nel campo dell’architettura e del pensiero spaziale in generale.

1

Uno di questi è certamente il caso Biosphere 2.0 e del suo ideatore, John Allen[2]. Alla base del lavoro di Allen esiste una profonda sinergia tra due personaggi che prima di allora nessuno aveva pensato di connettere: Buckminster Fuller e Vladimir Vernadskij. Quest’ultimo, certamente meno noto del primo, è conosciuto all’interno della comunità scientifica per la pubblicazione, nel 1926, di un libro intitolato “La Biosfera”, in cui analizzava ed approfondiva il concetto di biosfera, precedentemente ipotizzato da Eduard Suess. Il suo pensiero era così intrinsecamente sinergico che inventò diverse discipline che si basavano proprio sul concetto di sinergia: la geochimica, la biogeochimica e la radiogeologia. Anche Buckminster Fuller aveva una “concezione sinergica ed ecologica del mondo, nel quale l’individuo è parte di un contesto generale con cui entra in relazione”[3]. L’idea di Allen fu dunque quella di implementare il concetto di biosfera di Vernadskij attraverso la visione e la tecnica di Fuller. Nacque così Biosphere 2.0: nel 1991 in Arizona Allen, insieme all’architetto Augustine e all’ingegnere Dempster ed altri collaboratori, progetta un insieme di sette biomi autosufficienti, progettati sulla base del sistema della biosfera, e che serviranno a studiare i fenomeni sistemici.

2All’interno del complesso sono inseriti anche spazi per la vita quotidiana, abitazioni e spazi di comunione, perché parte integrante dell’esperimento era che otto scienziati avrebbero dovuto vivere all’interno del sistema per due anni, per dimostrarne la vivibilità effettiva e la sostenibilità. Il progetto era chiaramente concepito in termini ecologici e costituiva dunque in sistema in lavorazione a cicli chiusi, ovvero minimizzando la quantità di rifiuti prodotti, massimizzando la rigenerazione delle risorse naturali e quasi annullando il consumo energetico. Il progetto, oltre a dimostrare la vivibilità dell’habitat e a fornire dunque un modello per l’abitazione di spazi che normalmente non considereremmo adatti, produsse anche un gran numero di brevetti per il riciclo dell’acqua, dei resti animali e il consumo di energia.

3Il progetto di Allen ha in qualche modo aperto la strada ad un nuovo modo di intendere l’ecologia applicata ai sistemi abitativi, tanto che, solo dieci anni più tardi dell’apertura di Biosphere 2.0, nel sud-ovest dell’Inghilterra viene inaugurato il progetto di Nicholas Grimshaw l’Eden Project: la riproduzione di due biomi (quello mediterraneo e quello tropicale) sempre all’interno di strutture geodetiche di EFTE e acciaio. Mentre il carattere di Biosphere 2.0 era più sperimentale e scientifico, quello dell’Eden Project è più turistico-educativo.

Altre sperimentazioni che si basano sempre su un approccio sinergico ed ecologico sono quelle di Zbigniew Oksiuta, che realizza dei veri e propri habitat biologici[4]. Queste sfere biologiche, composte di gelatina naturale e agar-agar, possono essere abitabili in qualunque tipo di ecosistema grazie alla loro natura particolarmente modificabile e, essendo biologiche, reversibile.

È chiaro che la strada aperta da Allen è feconda e sarà certamente arricchita da nuove sperimentazione, che involveranno probabilmente nanotecnologie, responsive materials, e tutti i portati dei nuovi processi di generazione.

 

[1] B. Fuller, intervista, Architectural Design m.° 12, 1972

[2] A. Saggio, GreenBodies – Give me an Ampoule and I will Live, Rethinking the Human in Technology Driven Architecture, Transactions on Architectural Education No 55, 2012

[3] L. Prestinenza Puglisi, Storia dell’architettura 1905-2008

[4] L. Sforza, Gli habitat biologici di Oksiuta, ON/OFF Magazine, n.° 9, Bio

 

CAP VIII: DILLER+SCOFIDIO-Nuove sensorialità

 

Da molti anni nutro un sostanziale interesse per il mondo della comunicazione, specialmente quella digitale e, più in generale, sulle implicazione dei nuovi media nella nostra concezione ed esperienza del mondo. Molti sono gli architetti che negli ultimi trenta anni hanno affrontato il tema dell’interazioni tra architettura e nuovi media, come Marcos Novak o Toyo Ito, ma il gruppo che ha sistematizzato il ragionamento in maniera più efficace è, per chi scrive, quello composto da Elizabeth Diller e Ricardo Scofidio.

1 BALDISSARA

 

A partire dalla sua nascita, nel 1979, lo studio ha indagato il tema del rapporto tra spazio, fruitore e media con una serie di installazioni. Tra le più celebri vale la pena ricordare Para-site, esposta al MoMa nel 1989: un’installazione in cui l’oggetto dell’opera è lo stesso fruitore. Attraverso un sistema di telecamere e schermi che attaccano l’ambiente da più parti, come un parassita appunto, è il fruitore stesso a generare il soggetto delle proiezioni attraverso i propri movimenti. Diller + Scofidio confondono i ruoli, giocano sull’ambiguità dell’ipersoggettività della contemporaneità, ma, soprattutto, dimostrano come l’interattività sia una costante della vita e dell’arte contemporanea. Numerose sono le installazioni che, con intelligenti variazioni e declinazioni di questo tema generale, contribuiscono allo sviluppo di una poetica e di un’idea sempre più architettonica dello studio. È nel 2000, con il progetto Brasserie, realizzato in uno dei sottopiani del Seagram Building, che il concetto di interconnessione tra spazio, visitatore e media viene implementato ad un nuovo livello di complessità architettonica. Di lì a poco la riflessione sul tema dell’interazione tra informazione e spazio avrebbe avuto una rapida impennata. Nel 2002 Diller + Scofidio realizzerà infatti un padiglione per la Swiss Expo: Blur.

2

 

È un edificio che non rappresenta niente, ma un niente spettacolare.

Elizabeth Diller

 

Cosa è Blur? È un’architettura dell’atmosfera, per dirla con le parole dei suoi creatori. Una piattaforma, il cui linguaggio è un chiaro rimando alle opere di Buckminster Fuller, con una superficie di 5500 m2 costruita sul lago Neuchâtel. A separare l’ambiente circostante dallo spazio interno al padiglione non c’è però un involucro tradizionale: 35000 ugelli nebulizzano acqua secondo un algoritmo che interpreta ed elabora costantemente dati relativi all’ambiente e all’utenza. Dopo aver percorso il lungo ponte che porta alla piattaforma, il visitatore si trova così in uno spazio, per usare ancora una volta le parole degli architetti, in bassa definizione: la vera esperienza offerta dal padiglione è la sospensione dei sensi, la creazione di un ambiente sperimentale in cui il movimento è libero.

3

Perché, dunque, Blur è un’opera così importante? In fondo è un padiglione temporaneo, potrebbe essere addirittura definita un’architettura effimera. La sua importanza risiede nel fatto che l’ambiente è la vera entità generatrice del progetto: senza le variazione del grado di umidità, direzione ed intensità del vento, la temperatura, l’edificio non sarebbe che un’ossatura metallica. È la sua capacità di rispondere alle variabili ambientali e di creare un vero e proprio spazio architettonico che rende questo padiglione proiettato nel presente, alla ricerca di un nuovo rapporto tra architettura e natura. Intere generazioni di architetti hanno trovato nel rapporto tra costruito e ambiente naturale la ragion d’essere dei propri progetti, con la costante ricerca di un equilibro, una simbiosi forse, tra i sistemi spaziali della natura e quelli antropici. Ma, mentre la lettura di un sistema spaziale è soggetta all’idea che di spazio ha il lettore ed è statica, la lettura scientifica di variabili ambientali e la loro elaborazione algoritmica consente di relazionare in modo dinamico i due sistemi spaziali. Certo, niente di questo sarebbe possibile se, alla base di tutto, non esistesse un algoritmo, ideato e progettato dagli architetti, capace di tradurre gli stimoli ambientali in elementi materici.

4

Il che ci porta alla seconda questione, fondamentale per l’architettura contemporanea, che è quella del rapporto di indipendenza che i nuovi processi generativi inducono tra autore ed opera. È un tema che non può essere eluso da chi si occupa in maniera critica ed operativa del tema della progettazione computazionale e diagrammatica, del rapporto con le nuove tecnologie e dell’introduzione di processi scientifici multidisciplinari nell’architettura. La questione è apparentemente semplice: una volta generato il diagramma, costruito l’algoritmo o individuato il processo scientifico che genera il progetto, qual è il ruolo del progettista nella materializzazione dello stesso? Non è certo una problematica nuova per gli architetti: chi, anche prima dello sviluppo di nuovi modelli decisionali processuali, ha lavorato sulla componente sintattica dell’architettura, come P. Eisenman ad esempio, o F. Purini nel panorama italiano, ha dovuto affrontare questo passaggio cruciale. Una volta stabilite le regole fondamentali della nostra architettura, come un sistema di comunicazione spaziale con la propria struttura, quanto il progetto risponde al progettista e quanto alla regola? Dal punto di vista di chi scrive l’adozione di modelli progettuali nuovi, siano essi diagrammatici, algoritmici, biomimetici, rappresenta un modo di risolvere il conflitto. I modelli sopra elencati hanno infatti alcune caratteristiche in comune: sono adattivi, e perciò mutano con il mutare delle condizioni che li generano, e non sono generalizzabili, ma occorre ripensarli per ogni specifica condizione. Se perciò da una parte è vero che la materializzazione di Blur è indipendente da un controllo formale dei progettisti, è lo specifico algoritmo che la genera quello su cui tale controllo è stato esercitato. L’oggetto della progettazione slitta perciò, anche se non in maniera assoluta, dalla formalizzazione ultima al processo che la genera.

5

Certo, l’occasione di un padiglione temporaneo ha dato agli architetti una maggiore libertà per sperimentare ed applicare metodi alternativi di pensare e vivere lo spazio, e difficilmente un processo analogo potrebbe essere applicato ad un caso di edilizia permanente e con una destinazione d’uso più specifica. Ma Diller + Scofidio vengono dal mondo delle installazioni artistiche, e quante volte l’arte ha mostrato all’architettura nuovi modi di pensare il progetto? La grandezza di questo padiglione è proprio questa: aver mostrato ad un pubblico vasto un nuovo modo di vivere l’architettura, superando il divario tra spazio antropico e spazio naturale. Ora è la nostra generazione a dover trovare un sistema con il quale le esigenze del vivere della quotidianità e questa nuova visione possano convivere.