|
automata_inak_v.r.e.
automata_inak_v.r.e.
|
Auslegung zum Konzept automata_inak_v.r.e.
|
|
Konzept, Idee und A/V Kompositionen: reMI (Renate Oblak, Michael Pinter)
|
|
PD Programmierung: Thomas Musil
|
|
Mein Projekt realisiert sich durch Ortung der erstellten Klangkompositionen mit Hilfe der PD-Matrix im IEM CUBE der Kunstuniversität Graz. Dafür ist eine Programmierung der Steuerung unter PD im CUBE erforderlich.
Weiters ist die Entwicklung von visuellen Daten und deren Steuerungsmodule vorgesehen.
Die Aufführung des Stückes wird beim nächsten V:NM Festival im Mai 2003 stattfinden. Im Zuge dessen wird
eine 5.1 DVD am IEM produziert.
|
|
Das Erstellen der Kompositionen wurde durch eine Komponistenförderung des BKA finanziert.
Bei den Kompositionen geht es hauptsächlich um Arbeiten die sich gegen eine klassische Dramaturgie wendet.
Eine Entfernung von der Emotionsdarstellung und dem 4/4 Takt. Das Ausgangsmaterial für die Kompositionen
sind konvertierte Videodaten und FoundFootage Material. Beides wurde in digitalen Übertragungsprozessen
soweit zerstört, dass vom Originalmaterial nichts mehr hörbar ist. Die durch den Zerfallsprozess übriggebliebenen
akustischen Bruchteile wurden in einem anderen ästhetischen Kontext reorganisiert und komponiert.
Die stark hoch- und niederfrequente Kompositionen interagieren auf auf acht Spuren.
Durch einen Mix auf zwei Spuren löscht sich stellenweise das Klangmaterial aus und bildet das additative
Kernstück der Komposition. (siehe Abbildung Audiokompositionen)
|
|
Die Komposition wird gleichzeitig als Partitur für die Spatialisation im CUBE verwendet
und bildet dadurch ein in sich abgeschlossenes System. Für die Programmierung der Ortung unter PD
werden Zahlenkolonnen aus den Audiospuren ausgelesen und zugewiesen.
|
|
Beispiel einer der möglichen Zuweisung:
|
|
|
*01 |
*02 |
*03 |
*04 |
*05 |
*06 |
*07 |
*08 |
|
*Set_ra_vre (Audiospuren) |
|
Synchron zur Ortung verwenden die
Steuerungsmodule der visuellen Daten (RGB-, Alpha- und Zeilenaufbau) ebenfalls jene ausgelesenen Zahlenkolonnen. |
|
Diese "Datenvideos" werden von den ausgelesenen Zahlenkolonnen der Spatialisationspartitur gesteuert und durchlaufen
die unter PD/GEM entwickelten Echtzeitfilter. Die Filter kontrollieren RGB-, Alpha- und Zeilenaufbau des Bildes.
Die teils restrealen geometrischen Dekonstruktionen der Datenvideos verfolgen die schnell wandernden Tonkompositionen
und erzeugen beim Rezipienten einen Zustand von Desorientierung durch Komplexität.
|
|
Observierung und Installation
|
|
Bei den visuellen Daten handelt es sich
um fünf vierundzwanzigminütige Videokompositionen. Das Ausgangsmaterial dafür waren ausgesuchte
Bild- und Textfragmenten. Mittels arragierter Übertragungsfehler und/oder dem Korrupieren der Daten
wurden Fehler in den Videofiles erzeugt. Ein Zusammenschitt der Bildsequenzen parallel zu den Schnittstellen der
Komposition und stellt den Dialog zwischen Bild und Ton her.
Neben der Ortung der Komposition mit Hilfe der PD-Matrix im Cube werden
die Bildsequenzen durch fünf Monitore dem Rezipienten sichtbar gemacht. Die Vielfalt und Synchronität
der computergenerierten Klang/Bildumgebung sorgt für ein intensives Erleben des virtuellen Raumes.
|
|
Abbildung Audiokompositionen
|
|
Audiokompositionen, die gleichzeitig auch als Partitur (Parameter der Raumbeschallung)
für die Spatialisation im Cube angewendet werden.
|
Video (24.700 KB)
|
entstanden im Video/Soundatelier algorythmics, leitnergasse 7 8010 graz austria
|
|
e-mail: remi@algo.mur.at
|
|