VIRTUAL STRING
von Ernst Zettl

english

Die Hardware basiert auf dem Sensorlab, einer Entwicklung der steim-Foundation/Amsterdam, deren freundliche Hilfe und Unterstützung dieses Projekt erst ermöglichte.

Das Ergebnis ist ein Instrument, welches zwar nicht mehr wie eine Geige aussieht (es gibt keinen Korpus, keine Saiten und keinen Bogen mehr), aber trotzdem wie eine Geige gespielt werden kann, in seinen Möglichkeiten der Klangformung und Modulation aber das Vorbild in mancher Weise noch übertrifft. So ist es unter anderem möglich, zwischen bis zu vier verschiedenen Sounds zu "morphen" oder die Positon des Klanges im Raum in Echtzeit zu beeinflußen.

Ein Computerinterface, welches die Bewegungen und Spieltechniken eines Geigenspielers analysiert und in für Synthesizer und Sampler verständliche MIDI-Informationen umwandelt.

Das Instrument besteht aus zwei Handstücken: einem "Griffbrett" und einem "Bogen". Mit Hilfe verschiedener Ultraschallsysteme und druckempfindlicher Sensoren wird die Position der Hände und Finger erfaßt, von einem Computer analysiert und in entsprechende Klangdaten umgerechnet.


The ‘VIRTUAL STRING’ is an interface which, like the keyboard for pianoplayers, makes use of the playing-techinques of violin-, guitar- and bassplayers to control Midi-instruments.

It is a musical instrument, that makes sounds in response to the player's actions. The interface consists of two handles a ‘shoulderpad’ and a pedalboard, fitted with a range of sensors to measure the player's actions (16 switches (7+4+5), 2 pressure-sensors, 2 ultrasound systems, 1 footpedal).

These then go into a real-time computing environment that calibrates the data, parses it to find features, and implements rules for how gestures control electronically-produced sounds (STEIM´s sensorlab with proprietary software is feeding MIDI-data to specially programmed samplers).

It can be played (almost) like an ordinary violin, but can also do more. For example, it is possible to "morph" up to four different sounds while controlling theyr position in space in realtime, opening up entirely new sonic pallettes, or gestures can launch phrases or control algorithm parameters instead of just producing single notes.

 

BACK