Facial Noise, mimetic recognition feedback

FacialNoise

Facial Noise, una performance artistica creata da Noa Dolberg, eseguita da Azumi Oe e con il sound design di Khen Price, utilizza i dati di espressioni facciali per manipolare suoni generati in tempo reale. Utilizzando FaceOSC, un software di tracciamento facciale realizzato da Kyle McDonald con openFrameworks, i dati di espressione facciale sono utilizzati come materiali base per modulare gli oggetti sonori e le texture in Max MSP e Ableton Live. La performance è stata realizzata seguendo i dettami tradizionali del Butoh, uno stile conosciuto per i suoi movimenti controllati e che scava secondo antiche conoscenze negli estremi della condizione umana. Nella performance, il viso diventa una maschera che annulla immediatamente le espressioni umane riconoscibili e nasconde ogni soggettivo stato emotivo. Mentre già dal momento della nascita la percezione delle espressioni è fondamentale nell’uomo per riconoscere tendenze emotive e comprendere le interazioni sociali, Facial Noise ricabla questo sistema di comunicazione primordiale e innata per diventare uno strumento musicale. Nella mappatura tra i movimenti dei muscoli facciali e il suono non si tenta di creare in alcun modo corrispondenze tra suoni ed espressioni figurative riconoscibili. Si tratta di una rimodulazione elettro-facciale dove l’espressione è sfruttata per la sua forma cruda e astratta. Il sistema è un buon esempio di come il costrutto mimetico di un sistema di riconoscimento/mappatura può avere un effetto feedback sulle espressioni e – in effetti – sul linguaggio del sistema stesso. Paul Prudence

 

Facial Noise, mimetic recognition feedback