EP1713057A1 - Virtuelles Musikinstrument - Google Patents

Virtuelles Musikinstrument Download PDF

Info

Publication number
EP1713057A1
EP1713057A1 EP05008274A EP05008274A EP1713057A1 EP 1713057 A1 EP1713057 A1 EP 1713057A1 EP 05008274 A EP05008274 A EP 05008274A EP 05008274 A EP05008274 A EP 05008274A EP 1713057 A1 EP1713057 A1 EP 1713057A1
Authority
EP
European Patent Office
Prior art keywords
musical instrument
sensors
virtual musical
person
instrument according
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP05008274A
Other languages
English (en)
French (fr)
Inventor
Tünde Kirstein
Ivo Locher
Jamie Anthony Ward
Holger Junker
Gerhard Tröster
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eidgenoessische Technische Hochschule Zurich ETHZ
Original Assignee
Eidgenoessische Technische Hochschule Zurich ETHZ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eidgenoessische Technische Hochschule Zurich ETHZ filed Critical Eidgenoessische Technische Hochschule Zurich ETHZ
Priority to EP05008274A priority Critical patent/EP1713057A1/de
Publication of EP1713057A1 publication Critical patent/EP1713057A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/321Garment sensors, i.e. musical control means with trigger surfaces or joint angle sensors, worn as a garment by the player, e.g. bracelet, intelligent clothing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/395Acceleration sensing or accelerometer use, e.g. 3D movement computation by integration of accelerometer data, angle sensing with respect to the vertical, i.e. gravity sensing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/4013D sensing, i.e. three-dimensional (x, y, z) position or movement sensing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/045Special instrument [spint], i.e. mimicking the ergonomy, shape, sound or other characteristic of a specific acoustic musical instrument category
    • G10H2230/251Spint percussion, i.e. mimicking percussion instruments; Electrophonic musical instruments with percussion instrument features; Electrophonic aspects of acoustic percussion instruments or MIDI-like control therefor
    • G10H2230/275Spint drum

Definitions

  • the present invention relates to a virtual musical instrument according to the preamble of patent claim 1.
  • FR 2 803 714 Al discloses a music jacket in which the person wearing a headset. This music jacket allows the experience of music as at a concert without disturbing the neighbors, especially by the low tones (bass).
  • the virtual musical instrument according to which for the transformation of movements into sounds the sensors on the garment are interconnected and register body movement relative to a reference point corresponding to a body part to be rigidly accepted; allows for virtual music without the need for a physical instrument, and the integration of sensors into a piece of clothing does not require any customization.
  • the garment in question captures the movements and body positions performed by the person relative to a predetermined body part to be assumed to be rigid in a body coordinate system. Depending on the selected instrument or sound, corresponding sounds are generated. The wearer of such a garment together with the virtual musical instrument is thus able to play on an instrument regardless of his whereabouts.
  • the transformation of body movements to sounds of a virtual musical instrument is based on the basic idea of positioning the virtual musical instruments relative to the body, so that the musical instruments for the wearer from his point of view are always in the same place to find.
  • a musical instrument, which is arranged to his right, should also dwell on his right vertical body axis to his right and remain with any rotation.
  • a corresponding body coordinate system (xk, yk, zk) is to be introduced.
  • the origin and orientation of the axes xk, yk, zk can be chosen essentially arbitrarily, the only condition being that they remain constant relative to the body.
  • the positions of the body parts relevant to the movement relative to the body coordinate system must be detected at any time.
  • the temporal change of the body positions corresponds to the body movements.
  • the body positions can be measured with sensors integrated into the clothing. The sensors are thus close enough to the body to draw conclusions about body movements, but do not hinder the user (such as, for example, directly attached to the body sensors).
  • this measurement method allows the user to move freely and is not dependent on stationary measurement technology.
  • the system is easy and convenient to use. The manner in which a garment 4 must be put on is self-explanatory and not prone to error, i. the sensors are automatically in the right place after tightening.
  • FIG. 1 shows an example of an earth coordinate system (xe, ye, ze), a body coordinate system (xk, yk, zk) and the measured orientation of a sensor 2.
  • the orientation and position of a sensor 2 is measured with respect to the earth coordinate system (xe, ye, ze) and then converted to the body coordinate system (xk, yk, zk) by means of a coordinate transformation.
  • the mapping algorithm can be implemented on a portable or apparel-integrated device. But it is also possible to send the sensor data to an external device and evaluate it there.
  • the sounds can be played back on portable devices (such as headphones or small speakers). But it is also possible to play the sounds on external music systems.
  • Inertial sensors 2 are integrated in the lower and upper part of the jacket 4 jacket.
  • the torso serves as reference point 1; it defines the body coordinate system. Therefore, a sensor 1 is installed in the front part of the jacket at chest level. All sensors 2 are networked together, e.g. with a textile cable 3.
  • the data is collected in a portable device and sent from there to an external computer for evaluation. Therefore, a transmitting unit for transmitting the recorded body movements and provided with a receiving unit coupled computer is provided, which transforms the received body movements in tones.
  • the mapping algorithm is installed on the external computer. However, the computer does not need to be externally designed as a personal computer or similar.
  • the mapping algorithm is configurable, which means that several disjoint cuboid areas can be defined and assigned to different drum types.
  • mapping algorithm By implementing a configurable mapping algorithm, it is possible to change the number, location and shape of the areas to which a sound is associated. In addition, the assigned sounds and instruments can be changed and the other factors (such as the speed profile) can be configured.
  • FIG. 3 a plurality of cuboid rows arranged one behind the other, that is to say in the depth, are possible; this is not shown in FIG. 3 for reasons of clarity.
  • the location, size and number of areas is freely selectable. A sound is produced when a hand is in one of the defined areas and makes a typical strike movement (ie decelerates again from a grounded acceleration). The sounds are played through speakers connected to the external computer.
  • the triangle with the thick lines represents navel, left shoulder, right shoulder.
  • the areas are arranged in cuboids with horizontal rows. Each row corresponds to a drum or pelvic type. The left and right sections of a row are configured on the same drum or basin. The middle area is assigned to a different type of the same drum or basin.
  • the bottom row corresponds to the "bass drums", then the "snares” and further to the "cymbal rides”. At the next level are the hi-hats and at the top are the cymbals.
  • another sample is played. There are between 5 and 11 samples per drum / cymbal. Per stroke, the direction "away from the palm” is determined. If this direction is "down", the sample will be played without effect.
  • the sample is additionally sent to a "delay with feedback”. This means that it is repeated periodically but more and more quietly. If the direction "away from the palm” is horizontal, the sample will be sent twice as fast with “feedback”. All of these effects can be configured or turned off.
  • the aforementioned sensors are known from the prior art and, for example, available at Xsens Technologies BV NL - 7500 AM Enschede URL http://www.xsens.com .
  • the triggering is programmed to be sturdy and still be small enough to trigger it. In particular, double triggering and spontaneous triggering are suppressed.
  • both the calibrated acceleration sensor data and the rotary matrices calculated by the software "MT9" from Xsens are used.
  • an acceleration becomes parallel from the position of the hand calculated from the vector model and the rotation matrices calculated to the speed.
  • an acceleration (without earth gravity) in the direction of the local z-axis is calculated from the calibrated data of the acceleration sensors on the wrists.
  • Embodiments of the present invention are by no means limited to percussion instruments, and in another embodiment an organ with manuals and pedals or a piano according to the present invention may be modeled as a virtual musical instrument.
  • an organ is provided in addition to a provided with sensors jacket 4 a corresponding pants 4.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

Ein virtuelles Musikinstrument wird gebildet aus
- einer Mehrzahl von an einem Kleidungsstück (4) angebrachten Sensoren (1, 2) zur Aufnahme von Körperbewegungen einer Person;
- einer Sende-Einheit zur Übertragung der aufgenommenen Körperbewegungen;
- einem Rechner der mit einer Empfangseinheit gekoppelt ist, der die empfangenen Körperbewegungen in Töne transformiert.
Die am Kleidungsstück (4) angebrachten Sensoren (1, 2) sind miteinander verbunden (3) und registrieren die Körperbewegungen relativ zu einem Bezugspunkt (1, 10), der einem starr anzunehmenden Körperteil entspricht. Die so registrierten Körperbewegungen werden mit einem Algorithmus in Töne transformiert.

Description

  • Die vorliegende Erfindung betrifft ein virtuelles Musikinstrument gemäss dem Oberbegriff des Patentanspruchs 1.
  • In FR 2 803 714 Al [1] ist eine Musikjacke offenbart, bei der die betreffende Person einen Kopfhörer trägt. Diese Musikjacke erlaubt das Erleben von Musik wie an einem Konzert ohne dass die Nachbarn insbesondere durch die tiefen Töne (Bässe) gestört werden.
  • Gemäss der Lehre von EP 0 773 699 A1 [2] erlaubt ein körperakustisches Gerät die Transformation von elektroakustischen Signalen in mechanische Schwingungen, um einem Benutzer ein wahres Umgebungsgefühl zu vermitteln.
  • Die vorstehenden genannten Dokumente haben den Hintergrund, dass sich ein Individuum dem passiven Konsumieren von Inhalten wie z.B. Musik hingeben kann. Der aktuelle gesellschaftliche Trend geht jedoch in eine andere Richtung, nämlich zu mehr Eigenaktivität bei sehr hoher Mobilität. Eigenaktivität bedeutet dabei, dass eine Person Inhalte, wie z.B. Musik selber spielen oder erzeugen will. Grössere Musikinstrumente wie z.B. Schlagzeug oder Perkussion erfordern eine erheblichen Transport- und Aufstellungsaufwand. Im Sinne dieser Schrift ist unter dem Begriff «Musik» auch das Erzeugen eines Rhythmus mit einem Schlaginstrument oder mit einem Schlagzeug subsummiert.
  • Es stellt sich daher die Aufgabe, ein virtuelles Musikinstrument anzugeben, mit dem eine Person Musik spielen kann ohne dabei ein Musikinstrument physisch mitführen zu müssen oder physisch darauf Zugriff zu haben.
  • Diese Aufgabe wird durch ein virtuelles Musikinstrument gemäss den im Patentanspruch 1 angegebenen Merkmalen gelöst.
  • Das virtuelle Musikinstrument, wonach für die Transformation von Bewegungen in Töne
    die Sensoren am Kleidungsstück miteinander verbunden sind und die Körperbewegung relativ zu einem Bezugspunkt registrieren, der einem starr anzunehmenden Körperteil entspricht;
    ermöglicht ein virtuelles Musizieren, ohne dass ein Musikinstrument physisch vorhanden sein muss und dass dank der Integration von Sensoren in ein Kleidungsstück keine personenspezifische Anpassung erfordert.
  • Mit dem erfindungsgemässen virtuellen Musikinstrument erfasst das betreffende Kleidungsstück die von der Person ausgeführten Bewegungen und Körperpositionen relativ zu einem vorgegebenen als starr anzunehmenden Körperteil in einem Körperkoordinatensystem. Je nach ausgewähltem Instrument oder Klangbild werden entsprechende Töne generiert. Der Träger eines solchen Kleidungsstücks zusammen mit dem virtuellen Musikinstrument ist damit in der Lage, unabhängig von seinem Aufenthaltsort auf ein Instrument zu spielen.
  • Vorteilhafte Ausführungsformen der vorliegenden Erfindung sind in den abhängigen Ansprüchen aufgeführt.
  • Ausführungsbeispiele der Erfindung werden nachfolgend anhand der Zeichnung näher erläutert. Dabei zeigen:
  • Figur 1
    Erdkoordinatensystem (xe, ye, ze) und zugehöriges Körperkoordinatensystem (xk, yk, zk);
    Figur 2
    Anordnung der Sensoren in einer Schlagzeug-Jacke und
    Figur 3
    schematische Spiegel-Ansicht einer Sensoren tragenden Person.
  • Die Transformation von Körperbewegungen auf Töne eines virtuellen Musikinstrumentes basiert auf der Grundidee, die virtuellen Musikinstrumente relativ zum Körper zu positionieren, sodass die Musikinstrumente für den Träger von ihm aus gesehen immer an der gleichen Stelle zu finden sind. Ein Musikinstrument, welches zu seiner rechten angeordnet ist, soll auch bei jeglicher Drehung um seine eigene senkrechte Körperachse zu seiner rechten verweilen und verbleiben. Dazu ist ein entsprechendes Körperkoordinatensystem (xk, yk, zk) einzuführen. Der Ursprung und die Ausrichtung der Achsen xk, yk, zk kann im wesentlichen beliebig gewählt werden, die einzige Bedingung ist, dass sie relativ zum Körper konstant bleiben. Eine Möglichkeit wäre, den Ursprung in den Körperschwerpunkt zu legen und die Achsen an den entsprechenden Körperachsen (longitudinal: senkrecht zur ebenen Bodenfläche von unten nach oben, transversal: waagerecht (parallel) zur ebenen Bodenfläche von links nach rechts, saggital: waagerecht (parallel) zur ebenen Bodenfläche von vorne nach hinten) auszurichten.
  • Für die Erkennung von Körperbewegungen müssen die Positionen der für die Bewegung relevanten Körperteile relativ zum Körperkoordinatensystem (xk, yk, zk) zu jedem Zeitpunkt erfasst werden. Die zeitliche Änderung der Körperpositionen entspricht den Körperbewegungen. Die Körperpositionen können mit Sensoren gemessen werden, die in die Kleidung integriert sind. Die Sensoren sind dadurch nah genug am Körper, um Rückschlüsse auf Körperbewegungen ziehen zu können, behindern aber den Nutzer nicht (so wie zum Beispiel direkt am Körper befestigte Sensoren). Ausserdem ermöglicht diese Messmethode, dass der Nutzer sich frei bewegen kann und nicht auf stationäre Messtechnik angewiesen ist. Durch die Integration der Sensoren in ein Kleidungsstück 4 ist das System einfach und komfortabel zu nutzen. Die Art und Weise, wie ein Kleidungsstück 4 angelegt werden muss, ist selbsterklärend und nicht fehleranfällig, d.h. die Sensoren sitzen automatisch an der richtigen Stelle nach dem Anziehen.
  • Eine Möglichkeit, die Körperpositionen zu messen, besteht in der Verwendung von Inertial-Sensoren 2, die sich aufgrund ihrer geringen Grösse auch für die Integration in Kleidungsstücke 4 eignen. Mittels solcher Sensoren und geeigneter Signalverarbeitungsalgorithmen wie z.B. ein Kalmanfilter kann man die Orientierung eines Objektes, welches starr mit dem Sensor verbunden ist relativ zu einem Erdkoordinatensystem bestimmen. Bringt man nun die Inertial-Sensoren an den entsprechenden Körperteilen an, kann man deren Position beispielsweise mit Hilfe eines einfachen Körpermodels bestimmen. In diesem Körpermodel werden einzelne Körperteile, beispielsweise
    • Unterarme,
    • Oberarme,
    • oberkörper,
    • Kopf,
    • Oberschenkel,
    • Unterschenkel
    als starre Körpersegmente angenommen, die definierte Abmasse haben, Die Position eines Körpersegments relativ zu dem gegebenen Körperkoordinatensystem kann dann über die gegebenen Orientierungen der Körperteile relativ zu einem Erdkoordinatensystem unter Berücksichtigung der Abmasse der starren Körpersegmente durch rein geometrische Überlegungen bestimmt werden.
  • In der Figur 1 ist beispielhaft ein Erdkoordinatensystem (xe, ye, ze), ein Körperkoordinatensystem (xk, yk, zk) sowie die gemessene Orientierung eines Sensors 2 gezeigt. Die Orientierung und Lage eines Sensors 2 wird in Bezug auf das Erdkoordinatensystem (xe, ye, ze) gemessen und dann auf das Körperkoordinatensystem (xk, yk, zk) mittels einer Koordinatentransformation umgerechnet.
  • Um Töne zu erzeugen - eine Sequenz von Tönen wird oder soll als Musik empfunden werden-, werden bestimmten Körperpositionen oder Bewegungen mit einem Mapping-Algoritbmus Töne zugeordnet, dazu wird auf die Erläuterungen zur Figur 3 weiter unten verweisen.
  • Der Mapping-Algorithmus kann auf einem tragbaren oder in die Kleidung integrierten Gerät implementiert sein. Es ist aber auch möglich, die Sensordaten an ein externes Gerät zu senden und dort auszuwerten.
  • Die Klänge können mit tragbaren Geräten wiedergegeben werden (z.B. über Kopfhörer oder kleine Lautsprecher). Es ist aber auch möglich, die Klänge auf externen Musikanlagen wiederzugeben.
  • Ein entsprechendes Musik-Kleidungsstück muss die Bewegungen eines Schlagzeugers umsetzen. Für diese Anwendung ist die Erkennung von Armbewegungen relevant, deswegen wird als Kleidungsstück eine Jacke 4 gewählt. Für die weiteren Erläuterungen wird nun auf die Figur 2 Bezug genommen. Im unteren und oberen Teil der Ärmel DER Jacke 4 sind jeweils Inertial-Sensoren 2 integriert. Der Torso dient als Bezugspunkt 1; über ihn wird das Körperkoordinatensystem definiert. Daher ist ein Sensor 1 im Vorderteil der Jacke auf Brusthöhe eingebaut. Alle Sensoren 2 sind miteinander vernetzt, z.B. mit einem textilen Kabel 3. Die Daten werden in einem tragbaren Gerät gesammelt und von dort an einen externen Rechner zur Auswertung gesendet. Daher ist eine Sende-Einheit zur Übertragung der aufgenommenen Körperbewegungen und ein mit einer Empfangseinheit gekoppelter Rechner vorgesehen, der die empfangenen Körperbewegungen in Töne transformiert.
  • Auf dem externen Rechner ist der Mapping-Algorithmus installiert. Der Rechner braucht jedoch nicht extern als Personalcomputer oder ähnlich ausgebildet zu sein. Der Mapping-Algorithmus ist konfigurierbar, das heisst, es können mehrere, disjunkte quaderförmige Bereiche definiert und unterschiedlichen Schlagzeugarten zugeordnet werden.
  • Definierten Bereichen können unterschiedliche Tontimbre oder Instrumente zugeordnet werden. Die Zuordnung von solchen Bereichen ist ansatzweise in Figur 3 gezeigt. Der eine Person umgebende Raum ist in Quader aufgeteilt und abgebildet. Diese Quader werden als Bereiche definiert. Es sind auch andere Einheiten für diese Abbildung denkbar wie z.B. Kugeln. Quader sind deshalb bevorzugt, weil sie keine lückenhafte und trotzdem disjunkte Abbildung des vorgenannten Raumes erlauben, Befindet sich ein bestimmter Sensor in einem dieser Bereiche wird die Erzeugung des entsprechenden Klanges getriggert. Die Erzeugung des Klanges kann auch noch von weiteren Faktoren abhängig gemacht werden, wie zum Beispiel von einem Geschwindigkeitsprofil. Das heisst der erzeugte Klang unterscheidet sich je nach der Geschwindigkeit, mit der sich der betreffende Sensor 2 durch den definierten Bereich bewegt. In der Figur 3 sind nun diesen Bereichen bestimmte Musikinstrumente einer Schlagzeuganordnung durch die Angabe des Instrumentes zugeordnet:
    • BassDrum Bass Drum;
    • CRI Cymbalrides;
    • Cym Cymbals;
    • HH HiHats.
  • Durch die Implementierung eines konfigurierbaren Mapping-Algorithmus besteht die Möglichkeit, die Anzahl, die Lage und die Form der Bereiche zu verändern, denen ein Klang zugeordnet ist. Ausserdem können die zugeordneten Töne und Instrumente verändert und die weiteren Faktoren (wie das Geschwindigkeitsprofil) konfiguriert werden.
  • So sind gemäss der Figur 3 mehrere hintereinander, also in der Tiefe angeordnete Quaderreihen möglich, dies ist in der Figur 3 aus Übersichtlichkeitsgründen nicht dargestellt. Die Lage, Grösse und Anzahl der Bereiche ist frei wählbar. Ein Klang wird erzeugt, wenn sich eine Hand in einem der definierten Bereiche befindet und eine schlag-typische Bewegung macht (d.h. aus einer erdgerichteten Beschleunigung wieder abbremst). Die Töne werden über Lautsprecher, die an den externen Rechner angeschlossen sind, wiedergegeben.
  • Das Dreieck mit den dick ausgezogenen Linien repräsentiert Bauchnabel, linke Schulter, rechte Schulter. Die Bereiche sind in Quadern mit horizontalen Reihen gegliedert. Jede Reihe entspricht einer Trommel- oder Beckenart. Der linke und rechte Bereich einer Reihe sind auf dieselbe Trommel oder Becken konfiguriert. Der mittlere Bereich ist jeweils einem anderen Typ der gleichen Trommel oder Becken zugeordnet. Die unterste Reihe entspricht den «Bassdrums», dann folgen die «Snares» und weiter hinten die «CymbalRides». Auf der nächsten Ebene kommen die «HiHats» und zuoberst sind die «Cymbals». Je nach Schlagstärke wird ein anderes Sample abgespielt. Es gibt zwischen 5 und 11 Samples pro Trommel/Becken. Pro Schlag wird die Richtung «von der Handfläche weg» bestimmt. Ist diese Richtung «nach unten», so wird das Sample ohne Effekt abgespielt. Ist diese Richtung «nach oben», so wird das Sample zusätzlich in ein «Delay mit Feedback» geschickt. Das heisst, es wird periodisch aber immer leiser wiederholt. Ist die Richtung "von der Handfläche weg" horizontal, so wird das Sample in ein doppelt so schnelles «Delay mit Feedback» geschickt. Alle diese Effekte lassen sich konfigurieren oder ausschalten.
  • Die vorgenannten Sensoren sind aus dem stand der Technik bekannt und beispielsweise verfügbar bei
    Xsens Technologies B.V.
    NL - 7500 AM Enschede
    URL http://www.xsens.com .
  • Die Triggerung wird so programmiert, dass sie robust ist und trotzdem schon kleine Schläge genügen, um sie auszulösen. Insbesondere werden Doppeltriggerungen und spontantriggerungen unterdrückt. Dazu werden sowohl die kalibrierten Beschleunigungssensordaten, wie auch die Drehmatrizen, die die Software «MT9» der Firma Xsens berechnet, benutzt. Einerseits wird aus der Position der Hand, die aus dem Vektormodell und den Drehmatrizen berechnet wird, eine Beschleunigung parallel zur Geschwindigkeit berechnet. Anderseits wird aus den kalibrierten Daten der Beschleunigungssensoren an den Handgelenken eine Beschleunigung (ohne Erdgravitation) in Richtung der lokalen z-Achse berechnet. Diese beiden Kurven brauchen beide fast gleichzeitig einen Peak, damit ein Sample getriggert wird.
  • Ausführungsformen der vorliegenden Erfindung sind keineswegs auf Schlagzeuginstrumente beschränkt, ebenso kann in einer weiteren Ausführungsform eine Orgel mit Manualen und Pedalen oder ein Klavier gemäss der vorliegenden Erfindung als virtuelles Musikinstrument nachgebildet werden. Im Falle einer Orgel ist neben einer mit Sensoren versehenen Jacke 4 eine entsprechende Hose 4 vorzusehen.
  • Liste der verwendeten Bezugszeichen
  • 1
    Bezugssensor; Sensor am Bezugspunkt
    2
    Sensor
    3
    textiles Kabel
    4
    Kleidungsstück, Jacke
    10
    Bezugspunkt
    Literaturliste
  • [1]
    FR 2 803 714 A1
    «Casque musical integral»
    C.M.I Societe à responsabilité limite
    [2]
    EP 0 773 699 Al
    «Sound feeling device, playing device, method of controlling the playing device, playing device using light beam and acoustic device»
    CAPCOM C.., Ltd.
    Psala-shi,
    Osaka-fu (JP)

Claims (6)

  1. Virtuelles Musikinstrument, das enthält:
    - eine Mehrzahl von an einem Kleidungsstück (4) angebrachten Sensoren (1, 2) zur Aufnahme von Körperbewegungen einer Person;
    - eine Sende-Einheit zur Übertragung der aufgenommenen Körperbewegungen;
    - ein Rechner der mit einer Empfangseinheit gekoppelt ist, der die empfangenen Körperbewegungen in Töne transformiert;
    dadurch gekennzeichnet, dass
    die Sensoren (1, 2) am Kleidungsstück (4) miteinander verbunden (3) sind und die Körperbewegung relativ zu einem Bezugspunkt (1, 10) registrieren, der einem starr anzunehmenden Körperteil entspricht.
  2. Virtuelles Musikinstrument nach Anspruch 1,
    dadurch gekennzeichnet, dass
    die Sensoren (1, 2) als Inertial-Sensoren ausgebildet sind.
  3. Virtuelles Musikinstrument nach Anspruch 1 oder 2,
    dadurch gekennzeichnet, dass
    der Bezugspunkt (1, 10) dem Kopf oder dem Oberschenkel oder dem Oberarm oder dem Oberkörper einer Person entspricht.
  4. Virtuelles Musikinstrument nach einem der Ansprüche 1 bis 3
    dadurch gekennzeichnet, dass
    im Rechner der eine Person umgebenden Raum abgebildet ist und die Lage der Sensoren (1, 2) diesen Bereichen (BassDrum, CRI, Cym, HH) zugeordnet wird, wobei jedem Bereich (BassDrum, CRI, Cym, HH) ein Tontimbre und/oder ein Musikinstrument zugeordnet ist.
  5. Virtuelles Musikinstrument nach Anspruch 4,
    dadurch gekennzeichnet, dass
    die Bereiche als Quader ausgebildet sind.
  6. Virtuelles Musikinstrument nach Anspruch 4 oder 5,
    dadurch gekennzeichnet, dass
    für die Transformation in Töne abhängig von der Geschwindigkeitsänderung der Lage eines Sensors (1, 2) in einem Bereich (BassDrum, CRI, Cym, HH) ist.
EP05008274A 2005-04-15 2005-04-15 Virtuelles Musikinstrument Withdrawn EP1713057A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP05008274A EP1713057A1 (de) 2005-04-15 2005-04-15 Virtuelles Musikinstrument

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP05008274A EP1713057A1 (de) 2005-04-15 2005-04-15 Virtuelles Musikinstrument

Publications (1)

Publication Number Publication Date
EP1713057A1 true EP1713057A1 (de) 2006-10-18

Family

ID=34935226

Family Applications (1)

Application Number Title Priority Date Filing Date
EP05008274A Withdrawn EP1713057A1 (de) 2005-04-15 2005-04-15 Virtuelles Musikinstrument

Country Status (1)

Country Link
EP (1) EP1713057A1 (de)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0507355A2 (de) * 1986-10-14 1992-10-07 Yamaha Corporation Vorrichtung zur Musiktonsteuerung unter Verwendung eines Detektors
EP0666544A1 (de) * 1994-02-03 1995-08-09 Canon Kabushiki Kaisha Gesteneingabeverfahren und Gerät
FR2806288A1 (fr) * 2000-03-16 2001-09-21 Kitchen Vetements et accessoires interactifs pour la detection et l'analyse de mouvement corporel, et systeme de creation artistique associe
US6388183B1 (en) * 2001-05-07 2002-05-14 Leh Labs, L.L.C. Virtual musical instruments with user selectable and controllable mapping of position input to sound output
US20020088335A1 (en) * 2000-09-05 2002-07-11 Yamaha Corporation System and method for generating tone in response to movement of portable terminal
US20040011189A1 (en) * 2002-07-19 2004-01-22 Kenji Ishida Music reproduction system, music editing system, music editing apparatus, music editing terminal unit, method of controlling a music editing apparatus, and program for executing the method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0507355A2 (de) * 1986-10-14 1992-10-07 Yamaha Corporation Vorrichtung zur Musiktonsteuerung unter Verwendung eines Detektors
EP0666544A1 (de) * 1994-02-03 1995-08-09 Canon Kabushiki Kaisha Gesteneingabeverfahren und Gerät
FR2806288A1 (fr) * 2000-03-16 2001-09-21 Kitchen Vetements et accessoires interactifs pour la detection et l'analyse de mouvement corporel, et systeme de creation artistique associe
US20020088335A1 (en) * 2000-09-05 2002-07-11 Yamaha Corporation System and method for generating tone in response to movement of portable terminal
US6388183B1 (en) * 2001-05-07 2002-05-14 Leh Labs, L.L.C. Virtual musical instruments with user selectable and controllable mapping of position input to sound output
US20040011189A1 (en) * 2002-07-19 2004-01-22 Kenji Ishida Music reproduction system, music editing system, music editing apparatus, music editing terminal unit, method of controlling a music editing apparatus, and program for executing the method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
EMMANUEL FLÉTY: "Interactive devices for gestural acquisition in musical live performance context", PROCEEDINGS OF SCI 2001 - ORLANDO - INTERACTIVE DEVICES & GESTURAL ACQUISITION, 2001, IRCAM-PARIS, XP002332240 *

Similar Documents

Publication Publication Date Title
v. Békésy Human skin perception of traveling waves similar to those on the cochlea
DE3344910C2 (de) Anordnung zum aktiven Dämpfen von Schallwellen
EP1108994A3 (de) Verfahren und Anordnung zur gleichzeitigen Schätzung von verschiedenen Richtungen mehrerer Schallquellen und zur Bestimmung der individuellen Schallhöhen von verschiedenen sich bewegenden Schallquellen
WO2005005000A1 (de) Messanordnung
DE3422737A1 (de) Elektronisches koerperinstrument
DE4343411C2 (de) Gitarren-Signalanalyseeinrichtung
WO2001086512A3 (fr) Procede de conception numerique tridimensionnelle de vetement
CN108421236A (zh) 木人桩运动系统及其运动优化方法
EP0374902B1 (de) Mikrofonsystem zum Bestimmen der Richtung und Position einer Schallquelle
DE69123467T2 (de) Verfahren zur Steuerung einer Tonquelle für ein elektronisches Musikinstrument und Musikinstrument zur Anwendung dieses Verfahrens
DE19942441A1 (de) Tastenmusikinstrument mit einem Attrappenhammer mit gut geregeltem Schwerpunkt zur Erzeugung eines Pianotastengefühls ohne akustischen Ton
EP1713057A1 (de) Virtuelles Musikinstrument
DE19614830A1 (de) Tastenmusikinstrument, das ohne Geräusch im stillen Betriebszustand spielbar ist
DE19927781B4 (de) Tönendes Trainingsgerät
EP2425270B1 (de) Vorrichtung und verfahren zur binauralen wiedergabe von audio-sonarsignalen
DE102012102157B4 (de) Oberflächentexturaufzeichnung mit Mikrofon
EP0141976B1 (de) Verfahren zum Bestimmen der Qualität von Ballschlägern
DE102018205645A1 (de) Resonanzklang-Steuervorrichtung und Resonanzklang-Lokalisierungssteuerverfahren
EP2787501A1 (de) Musikinstrument und Vorrichtung zum Fernsteuern eines Vorgangs im Umfeld des Musikinstruments
DE102006004488A1 (de) Mikrofon
DE10147710B4 (de) Messungen an einem Saiteninstrument
Nizioł et al. Free vibration of the discrete-continuous system with damping
DE19636831C1 (de) Verfahren zum Kompensieren von negativen Emotionen für eine an einer Datenverarbeitungsanlage arbeitende Person, und Vorrichtung zur Durchführung des Verfahrens
Miccoli et al. Recent advances in noise and vibration active control by means of piezoceramic transducers
DE102013004468B4 (de) Verfahren und Vorrichtung zur Erfassung einer Betätigung einer auslenkbaren Geberkomponente

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU MC NL PL PT RO SE SI SK TR

AX Request for extension of the european patent

Extension state: AL BA HR LV MK YU

AKX Designation fees paid
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20070419

REG Reference to a national code

Ref country code: DE

Ref legal event code: 8566