Dance the Music · Jänner 2006

Mittels Motiontracking wurden Samples und/oder Filmsequenzen von zwei Tänzerinnen gesteuert. Die Tonhöhe, die Lautstärke, auch das Weiterschalten zu neuen Klängen, sowie die Pausen zwischen den Soundsamples wurden durch die Choreographie beeinflusst.

Die Körperbewegungen wurden von einer Videokamera abgetastet und in einem PC an die oben genannten Veränderungsparameter weitergeleitet. In Echtzeit bzw. synchron zu den Bewegungen wurden die Sounds durch den Tanz ausgelöst und durch die Lautsprecher hörbar. Somit geht es hier um die Echtzeit-Vereinigung von Musik, Video und Tanz.

Erprobt wurde das von Frieder Weiss entwickelte Eyecon- Software in diesem Video gemeinsam mit Ulrike Auer und Anke Obermayer.

Danke an die Tänzerinnen für ihr ausgezeichnetes Engagement! Danke an Reni Hofmüller für den ESC Raum! Danke an Irmgard Doler und Marie Neugebauer für die Kameramontage! Danke an Markus Stiglechner für den Beamer und die VGA-Umsetzung!