MIMESIS

REAL-TIME A/V INSTALLATION
2020

MIMESIS

REAL-TIME A/V INSTALLATION
2020

Mimesis è un'installazione su larga scala che trae ispirazione dalla evoluzione biologica della vita sul nostro pianeta investigando l'influenza che l'attività umana ha sul pianeta terra. Sin dall'inizio della nostra storia, la specie umana ha tentato di imitare e riprodurre aspetti del reale al fine di creare una rappresentazione significativa di tutto ciò che ci circonda. Come possiamo rappresentare lo scenario che ci attende? Come sarà il pianeta del futuro? Attraverso questo lavoro tentiamo di rivelare come il futuro sia influenzato dal modo con cui interagiamo con l'ambiente. Per ottenere questo risultato abbiamo creato un sistema generativo che raccoglie ed elabora i dati ambientali del luogo in cui l'installazione viene allestita. Questi dati modificano continuamente il risultato visivo e sonoro creando una rappresentazione astratta dell'ambiente in cui vivremo.

Questo concetto non è solo da intendersi come mera riproduzione o immagine illusoria della natura, ma piuttosto come una sua manifestazione. Grazie all'interazione in tempo reale dei dati, la natura appare nell'immagine digitale per essere intensificata nella sua processualità e imprevedibilità. Mimesis non solo restituisce una conoscenza senza precedenti degli aspetti della natura che di solito sfuggono alla visione, ma aumenta anche la consapevolezza degli effetti dell'azione umana sull'ambiente.

 

PROCESS

Il fulcro attorno a cui si sviluppa la narrazione dell'opera è il concetto di Successione ecologica primaria, il processo che si verifica con la formazione di nuove terre e l'esposizione di un nuovo habitat che può essere colonizzato per la prima volta, come avviene ad esempio in seguito all'eruzione dei vulcani o dopo violente alluvioni. Il suolo è influenzato dai cambiamenti attraverso la deposizione di nuova materia organica e dal graduale aumento della biodiversità.
Questo processo è spesso suddiviso in fasi in cui diverse specie consolidano la loro presenza in base alle condizioni particolari del luogo; inizialmente si sviluppano le cosiddette piante pioniere come muschi, alghe, funghi e licheni, seguite da piante erbacee, poi erbe e arbusti che precedono la comparsa di piante più robuste come alberi dal fusto resistente. Questo processo si ripete più volte e ad ogni stadio nuove specie colonizzano l'area fino all'eventuale raggiungimento di un stato di equilibrio relativamente stabile. Possiamo considerare questo processo come la crescita graduale di un ecosistema attraverso un lungo periodo di tempo.
Mimesis EPK.jpg 0006 Layer 8 white
In Mimesis sono stati creati cinque capitoli, ciascuno corrispondente alle diverse fasi della successione, che rappresentano il punto di partenza di un ciclo della durata di un'ora in cui è rappresentata la nascita di una nuova forma di vita dalle condizioni più semplici possibili. Queste condizioni cambiano in continuazione durante il giorno in quanto rispecchiano le condizioni climatiche della città in cui l’opera viene allestita. Le informazioni raccolte dai sensori climatici sono utilizzate per creare un bioma, una vasta regione della biosfera caratterizzata da determinate tipologie di piante e clima. Ogni capitolo/bioma viene generato in tempo reale elaborando i dati estratti dal vivo sia per quanto riguarda la parte visiva che per quella sonora.

Mimesis EPK.jpg 0007 Layer 7 white

Le rappresentazioni audiovisive emulano diversi fenomeni e modelli naturali attraverso l’utilizzo di algoritmi combinati tra loro. Il risultato è influenzato anche dall'uso di software specifici che sfruttano un'architettura di apprendimento automatico (GAN) adatta in modo specifico alla generazione di immagini artificiali. Queste GAN (Generative Adversarial Networks) vengono utilizzati per generare nuove immagini artificiali per ciascun tema della successione ecologica. Il risultato di questo processo viene inserito nel software e influenza costantemente il risultato visivo finale.
Mimesis EPK.jpg 0005 Layer 6 white
La generazione di nuove immagini è solo una parte del software che elabora il risultato visivo. Gli stessi dati metereologici raccolti modificano l’evoluzione dei paesaggi digitali durante il corso della giornata.Mimesis EPK.jpg 0004 Layer 5 white
I dati raccolti influenzano in maniera profonda l'output visivo sul lungo termine nel corso dell'anno. In particolare, ogni fase della successione ecologica è rappresentata da diversi scenari o stagioni. Durante la prima fase ad esempio vengono generati una serie di terreni inospitali grazie a software di intelligenza artificiale. In questo caso, durante l'estate la generazione principale ruoterà attorno alla visualizzazione di paesaggi desertici che, a loro volta si trasformeranno in canyon, ghiacciai e rocce durante le diverse stagioni. Tutte le modifiche minori ai parametri durante il giorno influenzeranno il risultato in ordine gerarchico inferiore. Lo stesso concetto viene quindi applicato per ogni altro capitolo della successione.
Per questo motivo il risultato visivo è molto diverso da una stagione all'altra e questa scelta vuole anche rappresentare il fatto che la vita possa emergere da condizioni estremamente diversificate.

Mimesis EPK.jpg 0003 Layer 4 white

 Mimesis - Seasonal Variation

Mimesis EPK.jpg 0002 Layer 3 white

  Mimesis - Digital Ecological Succession

 

SOUNDTRACK

La componente sonora dell'installazione è generata in tempo reale da una sistema sviluppato con Max / MSP ed integrato in Ableton Live. Per ogni fase della successione ecologica digitale, è stato creato un paesaggio sonoro modellando la registrazione di suoni raccolti in ambienti naturali. La generazione delle note inizia con una procedura di selezione della scala e del tono che, attraverso un criterio di colore ed espressività, può avere un carattere scuro o più brillante. Ad esempio, una melodia impostata su scala modale suggerisce un'atmosfera sospesa, arcaica ed indefinita per l'orecchio moderno. La selezione delle scale cambia in base alla stagione, a partire da toni più chiari in primavera e in estate andando verso i colori più freddi per l'autunno e l'inverno. Ogni nota ha diverse probabilità di essere suonata e questa percentuale può variare nel tempo o cambiare in base ai dati raccolti; l'altezza dell'ottava della nota segue lo stesso principio.
Le note generate sono usate per controllare l'intonazione del filtro di uno strumento di modellazione fisica, controllando così la sorgente sonora originale. I parametri utilizzati per la modellazione possono cambiare nel tempo in base ai dati raccolti o ai valori estratti dal processo generativo visivo.


Produzione: fuse*
Prima Commessa: JL design
Direzione Artistica: Mattia Carretti, Luca Camellini
Concept: Mattia Carretti, Luca Camellini, Samuel Pietri, Riccardo Bazzoni
Software Artists: Luca Camellini, Samuel Pietri
Sound Design: Riccardo Bazzoni
Hardware Engineering: Matteo Mestucci
Supporto alla stesura del Concept: Saverio Macrì