EP1713057A1 - Virtuelles Musikinstrument - Google Patents
Virtuelles Musikinstrument Download PDFInfo
- Publication number
- EP1713057A1 EP1713057A1 EP05008274A EP05008274A EP1713057A1 EP 1713057 A1 EP1713057 A1 EP 1713057A1 EP 05008274 A EP05008274 A EP 05008274A EP 05008274 A EP05008274 A EP 05008274A EP 1713057 A1 EP1713057 A1 EP 1713057A1
- Authority
- EP
- European Patent Office
- Prior art keywords
- musical instrument
- sensors
- virtual musical
- person
- instrument according
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 210000000689 upper leg Anatomy 0.000 claims abstract description 4
- 230000009466 transformation Effects 0.000 claims description 4
- 230000001133 acceleration Effects 0.000 description 5
- 238000013507 mapping Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000009527 percussion Methods 0.000 description 4
- 230000001419 dependent effect Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 239000004753 textile Substances 0.000 description 2
- 206010041953 Staring Diseases 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 210000000245 forearm Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000000034 method Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 230000002269 spontaneous effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/321—Garment sensors, i.e. musical control means with trigger surfaces or joint angle sensors, worn as a garment by the player, e.g. bracelet, intelligent clothing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/395—Acceleration sensing or accelerometer use, e.g. 3D movement computation by integration of accelerometer data, angle sensing with respect to the vertical, i.e. gravity sensing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/401—3D sensing, i.e. three-dimensional (x, y, z) position or movement sensing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2230/00—General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
- G10H2230/045—Special instrument [spint], i.e. mimicking the ergonomy, shape, sound or other characteristic of a specific acoustic musical instrument category
- G10H2230/251—Spint percussion, i.e. mimicking percussion instruments; Electrophonic musical instruments with percussion instrument features; Electrophonic aspects of acoustic percussion instruments or MIDI-like control therefor
- G10H2230/275—Spint drum
Definitions
- the present invention relates to a virtual musical instrument according to the preamble of patent claim 1.
- FR 2 803 714 Al discloses a music jacket in which the person wearing a headset. This music jacket allows the experience of music as at a concert without disturbing the neighbors, especially by the low tones (bass).
- the virtual musical instrument according to which for the transformation of movements into sounds the sensors on the garment are interconnected and register body movement relative to a reference point corresponding to a body part to be rigidly accepted; allows for virtual music without the need for a physical instrument, and the integration of sensors into a piece of clothing does not require any customization.
- the garment in question captures the movements and body positions performed by the person relative to a predetermined body part to be assumed to be rigid in a body coordinate system. Depending on the selected instrument or sound, corresponding sounds are generated. The wearer of such a garment together with the virtual musical instrument is thus able to play on an instrument regardless of his whereabouts.
- the transformation of body movements to sounds of a virtual musical instrument is based on the basic idea of positioning the virtual musical instruments relative to the body, so that the musical instruments for the wearer from his point of view are always in the same place to find.
- a musical instrument, which is arranged to his right, should also dwell on his right vertical body axis to his right and remain with any rotation.
- a corresponding body coordinate system (xk, yk, zk) is to be introduced.
- the origin and orientation of the axes xk, yk, zk can be chosen essentially arbitrarily, the only condition being that they remain constant relative to the body.
- the positions of the body parts relevant to the movement relative to the body coordinate system must be detected at any time.
- the temporal change of the body positions corresponds to the body movements.
- the body positions can be measured with sensors integrated into the clothing. The sensors are thus close enough to the body to draw conclusions about body movements, but do not hinder the user (such as, for example, directly attached to the body sensors).
- this measurement method allows the user to move freely and is not dependent on stationary measurement technology.
- the system is easy and convenient to use. The manner in which a garment 4 must be put on is self-explanatory and not prone to error, i. the sensors are automatically in the right place after tightening.
- FIG. 1 shows an example of an earth coordinate system (xe, ye, ze), a body coordinate system (xk, yk, zk) and the measured orientation of a sensor 2.
- the orientation and position of a sensor 2 is measured with respect to the earth coordinate system (xe, ye, ze) and then converted to the body coordinate system (xk, yk, zk) by means of a coordinate transformation.
- the mapping algorithm can be implemented on a portable or apparel-integrated device. But it is also possible to send the sensor data to an external device and evaluate it there.
- the sounds can be played back on portable devices (such as headphones or small speakers). But it is also possible to play the sounds on external music systems.
- Inertial sensors 2 are integrated in the lower and upper part of the jacket 4 jacket.
- the torso serves as reference point 1; it defines the body coordinate system. Therefore, a sensor 1 is installed in the front part of the jacket at chest level. All sensors 2 are networked together, e.g. with a textile cable 3.
- the data is collected in a portable device and sent from there to an external computer for evaluation. Therefore, a transmitting unit for transmitting the recorded body movements and provided with a receiving unit coupled computer is provided, which transforms the received body movements in tones.
- the mapping algorithm is installed on the external computer. However, the computer does not need to be externally designed as a personal computer or similar.
- the mapping algorithm is configurable, which means that several disjoint cuboid areas can be defined and assigned to different drum types.
- mapping algorithm By implementing a configurable mapping algorithm, it is possible to change the number, location and shape of the areas to which a sound is associated. In addition, the assigned sounds and instruments can be changed and the other factors (such as the speed profile) can be configured.
- FIG. 3 a plurality of cuboid rows arranged one behind the other, that is to say in the depth, are possible; this is not shown in FIG. 3 for reasons of clarity.
- the location, size and number of areas is freely selectable. A sound is produced when a hand is in one of the defined areas and makes a typical strike movement (ie decelerates again from a grounded acceleration). The sounds are played through speakers connected to the external computer.
- the triangle with the thick lines represents navel, left shoulder, right shoulder.
- the areas are arranged in cuboids with horizontal rows. Each row corresponds to a drum or pelvic type. The left and right sections of a row are configured on the same drum or basin. The middle area is assigned to a different type of the same drum or basin.
- the bottom row corresponds to the "bass drums", then the "snares” and further to the "cymbal rides”. At the next level are the hi-hats and at the top are the cymbals.
- another sample is played. There are between 5 and 11 samples per drum / cymbal. Per stroke, the direction "away from the palm” is determined. If this direction is "down", the sample will be played without effect.
- the sample is additionally sent to a "delay with feedback”. This means that it is repeated periodically but more and more quietly. If the direction "away from the palm” is horizontal, the sample will be sent twice as fast with “feedback”. All of these effects can be configured or turned off.
- the aforementioned sensors are known from the prior art and, for example, available at Xsens Technologies BV NL - 7500 AM Enschede URL http://www.xsens.com .
- the triggering is programmed to be sturdy and still be small enough to trigger it. In particular, double triggering and spontaneous triggering are suppressed.
- both the calibrated acceleration sensor data and the rotary matrices calculated by the software "MT9" from Xsens are used.
- an acceleration becomes parallel from the position of the hand calculated from the vector model and the rotation matrices calculated to the speed.
- an acceleration (without earth gravity) in the direction of the local z-axis is calculated from the calibrated data of the acceleration sensors on the wrists.
- Embodiments of the present invention are by no means limited to percussion instruments, and in another embodiment an organ with manuals and pedals or a piano according to the present invention may be modeled as a virtual musical instrument.
- an organ is provided in addition to a provided with sensors jacket 4 a corresponding pants 4.
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
Ein virtuelles Musikinstrument wird gebildet aus
- einer Mehrzahl von an einem Kleidungsstück (4) angebrachten Sensoren (1, 2) zur Aufnahme von Körperbewegungen einer Person;
- einer Sende-Einheit zur Übertragung der aufgenommenen Körperbewegungen;
- einem Rechner der mit einer Empfangseinheit gekoppelt ist, der die empfangenen Körperbewegungen in Töne transformiert.
- einer Mehrzahl von an einem Kleidungsstück (4) angebrachten Sensoren (1, 2) zur Aufnahme von Körperbewegungen einer Person;
- einer Sende-Einheit zur Übertragung der aufgenommenen Körperbewegungen;
- einem Rechner der mit einer Empfangseinheit gekoppelt ist, der die empfangenen Körperbewegungen in Töne transformiert.
Die am Kleidungsstück (4) angebrachten Sensoren (1, 2) sind miteinander verbunden (3) und registrieren die Körperbewegungen relativ zu einem Bezugspunkt (1, 10), der einem starr anzunehmenden Körperteil entspricht. Die so registrierten Körperbewegungen werden mit einem Algorithmus in Töne transformiert.
Description
- Die vorliegende Erfindung betrifft ein virtuelles Musikinstrument gemäss dem Oberbegriff des Patentanspruchs 1.
- In
FR 2 803 714 - Gemäss der Lehre von
EP 0 773 699 A1 [2] erlaubt ein körperakustisches Gerät die Transformation von elektroakustischen Signalen in mechanische Schwingungen, um einem Benutzer ein wahres Umgebungsgefühl zu vermitteln. - Die vorstehenden genannten Dokumente haben den Hintergrund, dass sich ein Individuum dem passiven Konsumieren von Inhalten wie z.B. Musik hingeben kann. Der aktuelle gesellschaftliche Trend geht jedoch in eine andere Richtung, nämlich zu mehr Eigenaktivität bei sehr hoher Mobilität. Eigenaktivität bedeutet dabei, dass eine Person Inhalte, wie z.B. Musik selber spielen oder erzeugen will. Grössere Musikinstrumente wie z.B. Schlagzeug oder Perkussion erfordern eine erheblichen Transport- und Aufstellungsaufwand. Im Sinne dieser Schrift ist unter dem Begriff «Musik» auch das Erzeugen eines Rhythmus mit einem Schlaginstrument oder mit einem Schlagzeug subsummiert.
- Es stellt sich daher die Aufgabe, ein virtuelles Musikinstrument anzugeben, mit dem eine Person Musik spielen kann ohne dabei ein Musikinstrument physisch mitführen zu müssen oder physisch darauf Zugriff zu haben.
- Diese Aufgabe wird durch ein virtuelles Musikinstrument gemäss den im Patentanspruch 1 angegebenen Merkmalen gelöst.
- Das virtuelle Musikinstrument, wonach für die Transformation von Bewegungen in Töne
die Sensoren am Kleidungsstück miteinander verbunden sind und die Körperbewegung relativ zu einem Bezugspunkt registrieren, der einem starr anzunehmenden Körperteil entspricht;
ermöglicht ein virtuelles Musizieren, ohne dass ein Musikinstrument physisch vorhanden sein muss und dass dank der Integration von Sensoren in ein Kleidungsstück keine personenspezifische Anpassung erfordert. - Mit dem erfindungsgemässen virtuellen Musikinstrument erfasst das betreffende Kleidungsstück die von der Person ausgeführten Bewegungen und Körperpositionen relativ zu einem vorgegebenen als starr anzunehmenden Körperteil in einem Körperkoordinatensystem. Je nach ausgewähltem Instrument oder Klangbild werden entsprechende Töne generiert. Der Träger eines solchen Kleidungsstücks zusammen mit dem virtuellen Musikinstrument ist damit in der Lage, unabhängig von seinem Aufenthaltsort auf ein Instrument zu spielen.
- Vorteilhafte Ausführungsformen der vorliegenden Erfindung sind in den abhängigen Ansprüchen aufgeführt.
- Ausführungsbeispiele der Erfindung werden nachfolgend anhand der Zeichnung näher erläutert. Dabei zeigen:
- Figur 1
- Erdkoordinatensystem (xe, ye, ze) und zugehöriges Körperkoordinatensystem (xk, yk, zk);
- Figur 2
- Anordnung der Sensoren in einer Schlagzeug-Jacke und
- Figur 3
- schematische Spiegel-Ansicht einer Sensoren tragenden Person.
- Die Transformation von Körperbewegungen auf Töne eines virtuellen Musikinstrumentes basiert auf der Grundidee, die virtuellen Musikinstrumente relativ zum Körper zu positionieren, sodass die Musikinstrumente für den Träger von ihm aus gesehen immer an der gleichen Stelle zu finden sind. Ein Musikinstrument, welches zu seiner rechten angeordnet ist, soll auch bei jeglicher Drehung um seine eigene senkrechte Körperachse zu seiner rechten verweilen und verbleiben. Dazu ist ein entsprechendes Körperkoordinatensystem (xk, yk, zk) einzuführen. Der Ursprung und die Ausrichtung der Achsen xk, yk, zk kann im wesentlichen beliebig gewählt werden, die einzige Bedingung ist, dass sie relativ zum Körper konstant bleiben. Eine Möglichkeit wäre, den Ursprung in den Körperschwerpunkt zu legen und die Achsen an den entsprechenden Körperachsen (longitudinal: senkrecht zur ebenen Bodenfläche von unten nach oben, transversal: waagerecht (parallel) zur ebenen Bodenfläche von links nach rechts, saggital: waagerecht (parallel) zur ebenen Bodenfläche von vorne nach hinten) auszurichten.
- Für die Erkennung von Körperbewegungen müssen die Positionen der für die Bewegung relevanten Körperteile relativ zum Körperkoordinatensystem (xk, yk, zk) zu jedem Zeitpunkt erfasst werden. Die zeitliche Änderung der Körperpositionen entspricht den Körperbewegungen. Die Körperpositionen können mit Sensoren gemessen werden, die in die Kleidung integriert sind. Die Sensoren sind dadurch nah genug am Körper, um Rückschlüsse auf Körperbewegungen ziehen zu können, behindern aber den Nutzer nicht (so wie zum Beispiel direkt am Körper befestigte Sensoren). Ausserdem ermöglicht diese Messmethode, dass der Nutzer sich frei bewegen kann und nicht auf stationäre Messtechnik angewiesen ist. Durch die Integration der Sensoren in ein Kleidungsstück 4 ist das System einfach und komfortabel zu nutzen. Die Art und Weise, wie ein Kleidungsstück 4 angelegt werden muss, ist selbsterklärend und nicht fehleranfällig, d.h. die Sensoren sitzen automatisch an der richtigen Stelle nach dem Anziehen.
- Eine Möglichkeit, die Körperpositionen zu messen, besteht in der Verwendung von Inertial-Sensoren 2, die sich aufgrund ihrer geringen Grösse auch für die Integration in Kleidungsstücke 4 eignen. Mittels solcher Sensoren und geeigneter Signalverarbeitungsalgorithmen wie z.B. ein Kalmanfilter kann man die Orientierung eines Objektes, welches starr mit dem Sensor verbunden ist relativ zu einem Erdkoordinatensystem bestimmen. Bringt man nun die Inertial-Sensoren an den entsprechenden Körperteilen an, kann man deren Position beispielsweise mit Hilfe eines einfachen Körpermodels bestimmen. In diesem Körpermodel werden einzelne Körperteile, beispielsweise
- Unterarme,
- Oberarme,
- oberkörper,
- Kopf,
- Oberschenkel,
- Unterschenkel
- In der Figur 1 ist beispielhaft ein Erdkoordinatensystem (xe, ye, ze), ein Körperkoordinatensystem (xk, yk, zk) sowie die gemessene Orientierung eines Sensors 2 gezeigt. Die Orientierung und Lage eines Sensors 2 wird in Bezug auf das Erdkoordinatensystem (xe, ye, ze) gemessen und dann auf das Körperkoordinatensystem (xk, yk, zk) mittels einer Koordinatentransformation umgerechnet.
- Um Töne zu erzeugen - eine Sequenz von Tönen wird oder soll als Musik empfunden werden-, werden bestimmten Körperpositionen oder Bewegungen mit einem Mapping-Algoritbmus Töne zugeordnet, dazu wird auf die Erläuterungen zur Figur 3 weiter unten verweisen.
- Der Mapping-Algorithmus kann auf einem tragbaren oder in die Kleidung integrierten Gerät implementiert sein. Es ist aber auch möglich, die Sensordaten an ein externes Gerät zu senden und dort auszuwerten.
- Die Klänge können mit tragbaren Geräten wiedergegeben werden (z.B. über Kopfhörer oder kleine Lautsprecher). Es ist aber auch möglich, die Klänge auf externen Musikanlagen wiederzugeben.
- Ein entsprechendes Musik-Kleidungsstück muss die Bewegungen eines Schlagzeugers umsetzen. Für diese Anwendung ist die Erkennung von Armbewegungen relevant, deswegen wird als Kleidungsstück eine Jacke 4 gewählt. Für die weiteren Erläuterungen wird nun auf die Figur 2 Bezug genommen. Im unteren und oberen Teil der Ärmel DER Jacke 4 sind jeweils Inertial-Sensoren 2 integriert. Der Torso dient als Bezugspunkt 1; über ihn wird das Körperkoordinatensystem definiert. Daher ist ein Sensor 1 im Vorderteil der Jacke auf Brusthöhe eingebaut. Alle Sensoren 2 sind miteinander vernetzt, z.B. mit einem textilen Kabel 3. Die Daten werden in einem tragbaren Gerät gesammelt und von dort an einen externen Rechner zur Auswertung gesendet. Daher ist eine Sende-Einheit zur Übertragung der aufgenommenen Körperbewegungen und ein mit einer Empfangseinheit gekoppelter Rechner vorgesehen, der die empfangenen Körperbewegungen in Töne transformiert.
- Auf dem externen Rechner ist der Mapping-Algorithmus installiert. Der Rechner braucht jedoch nicht extern als Personalcomputer oder ähnlich ausgebildet zu sein. Der Mapping-Algorithmus ist konfigurierbar, das heisst, es können mehrere, disjunkte quaderförmige Bereiche definiert und unterschiedlichen Schlagzeugarten zugeordnet werden.
- Definierten Bereichen können unterschiedliche Tontimbre oder Instrumente zugeordnet werden. Die Zuordnung von solchen Bereichen ist ansatzweise in Figur 3 gezeigt. Der eine Person umgebende Raum ist in Quader aufgeteilt und abgebildet. Diese Quader werden als Bereiche definiert. Es sind auch andere Einheiten für diese Abbildung denkbar wie z.B. Kugeln. Quader sind deshalb bevorzugt, weil sie keine lückenhafte und trotzdem disjunkte Abbildung des vorgenannten Raumes erlauben, Befindet sich ein bestimmter Sensor in einem dieser Bereiche wird die Erzeugung des entsprechenden Klanges getriggert. Die Erzeugung des Klanges kann auch noch von weiteren Faktoren abhängig gemacht werden, wie zum Beispiel von einem Geschwindigkeitsprofil. Das heisst der erzeugte Klang unterscheidet sich je nach der Geschwindigkeit, mit der sich der betreffende Sensor 2 durch den definierten Bereich bewegt. In der Figur 3 sind nun diesen Bereichen bestimmte Musikinstrumente einer Schlagzeuganordnung durch die Angabe des Instrumentes zugeordnet:
- BassDrum Bass Drum;
- CRI Cymbalrides;
- Cym Cymbals;
- HH HiHats.
- Durch die Implementierung eines konfigurierbaren Mapping-Algorithmus besteht die Möglichkeit, die Anzahl, die Lage und die Form der Bereiche zu verändern, denen ein Klang zugeordnet ist. Ausserdem können die zugeordneten Töne und Instrumente verändert und die weiteren Faktoren (wie das Geschwindigkeitsprofil) konfiguriert werden.
- So sind gemäss der Figur 3 mehrere hintereinander, also in der Tiefe angeordnete Quaderreihen möglich, dies ist in der Figur 3 aus Übersichtlichkeitsgründen nicht dargestellt. Die Lage, Grösse und Anzahl der Bereiche ist frei wählbar. Ein Klang wird erzeugt, wenn sich eine Hand in einem der definierten Bereiche befindet und eine schlag-typische Bewegung macht (d.h. aus einer erdgerichteten Beschleunigung wieder abbremst). Die Töne werden über Lautsprecher, die an den externen Rechner angeschlossen sind, wiedergegeben.
- Das Dreieck mit den dick ausgezogenen Linien repräsentiert Bauchnabel, linke Schulter, rechte Schulter. Die Bereiche sind in Quadern mit horizontalen Reihen gegliedert. Jede Reihe entspricht einer Trommel- oder Beckenart. Der linke und rechte Bereich einer Reihe sind auf dieselbe Trommel oder Becken konfiguriert. Der mittlere Bereich ist jeweils einem anderen Typ der gleichen Trommel oder Becken zugeordnet. Die unterste Reihe entspricht den «Bassdrums», dann folgen die «Snares» und weiter hinten die «CymbalRides». Auf der nächsten Ebene kommen die «HiHats» und zuoberst sind die «Cymbals». Je nach Schlagstärke wird ein anderes Sample abgespielt. Es gibt zwischen 5 und 11 Samples pro Trommel/Becken. Pro Schlag wird die Richtung «von der Handfläche weg» bestimmt. Ist diese Richtung «nach unten», so wird das Sample ohne Effekt abgespielt. Ist diese Richtung «nach oben», so wird das Sample zusätzlich in ein «Delay mit Feedback» geschickt. Das heisst, es wird periodisch aber immer leiser wiederholt. Ist die Richtung "von der Handfläche weg" horizontal, so wird das Sample in ein doppelt so schnelles «Delay mit Feedback» geschickt. Alle diese Effekte lassen sich konfigurieren oder ausschalten.
- Die vorgenannten Sensoren sind aus dem stand der Technik bekannt und beispielsweise verfügbar bei
Xsens Technologies B.V.
NL - 7500 AM Enschede
URL http://www.xsens.com . - Die Triggerung wird so programmiert, dass sie robust ist und trotzdem schon kleine Schläge genügen, um sie auszulösen. Insbesondere werden Doppeltriggerungen und spontantriggerungen unterdrückt. Dazu werden sowohl die kalibrierten Beschleunigungssensordaten, wie auch die Drehmatrizen, die die Software «MT9» der Firma Xsens berechnet, benutzt. Einerseits wird aus der Position der Hand, die aus dem Vektormodell und den Drehmatrizen berechnet wird, eine Beschleunigung parallel zur Geschwindigkeit berechnet. Anderseits wird aus den kalibrierten Daten der Beschleunigungssensoren an den Handgelenken eine Beschleunigung (ohne Erdgravitation) in Richtung der lokalen z-Achse berechnet. Diese beiden Kurven brauchen beide fast gleichzeitig einen Peak, damit ein Sample getriggert wird.
- Ausführungsformen der vorliegenden Erfindung sind keineswegs auf Schlagzeuginstrumente beschränkt, ebenso kann in einer weiteren Ausführungsform eine Orgel mit Manualen und Pedalen oder ein Klavier gemäss der vorliegenden Erfindung als virtuelles Musikinstrument nachgebildet werden. Im Falle einer Orgel ist neben einer mit Sensoren versehenen Jacke 4 eine entsprechende Hose 4 vorzusehen.
-
- 1
- Bezugssensor; Sensor am Bezugspunkt
- 2
- Sensor
- 3
- textiles Kabel
- 4
- Kleidungsstück, Jacke
- 10
- Bezugspunkt
-
- [1]
-
FR 2 803 714 A1
«Casque musical integral»
C.M.I Societe à responsabilité limite - [2]
-
EP 0 773 699 Al
«Sound feeling device, playing device, method of controlling the playing device, playing device using light beam and acoustic device»
CAPCOM C.., Ltd.
Psala-shi,
Osaka-fu (JP)
Claims (6)
- Virtuelles Musikinstrument, das enthält:- eine Mehrzahl von an einem Kleidungsstück (4) angebrachten Sensoren (1, 2) zur Aufnahme von Körperbewegungen einer Person;- eine Sende-Einheit zur Übertragung der aufgenommenen Körperbewegungen;- ein Rechner der mit einer Empfangseinheit gekoppelt ist, der die empfangenen Körperbewegungen in Töne transformiert;dadurch gekennzeichnet, dass
die Sensoren (1, 2) am Kleidungsstück (4) miteinander verbunden (3) sind und die Körperbewegung relativ zu einem Bezugspunkt (1, 10) registrieren, der einem starr anzunehmenden Körperteil entspricht. - Virtuelles Musikinstrument nach Anspruch 1,
dadurch gekennzeichnet, dass
die Sensoren (1, 2) als Inertial-Sensoren ausgebildet sind. - Virtuelles Musikinstrument nach Anspruch 1 oder 2,
dadurch gekennzeichnet, dass
der Bezugspunkt (1, 10) dem Kopf oder dem Oberschenkel oder dem Oberarm oder dem Oberkörper einer Person entspricht. - Virtuelles Musikinstrument nach einem der Ansprüche 1 bis 3
dadurch gekennzeichnet, dass
im Rechner der eine Person umgebenden Raum abgebildet ist und die Lage der Sensoren (1, 2) diesen Bereichen (BassDrum, CRI, Cym, HH) zugeordnet wird, wobei jedem Bereich (BassDrum, CRI, Cym, HH) ein Tontimbre und/oder ein Musikinstrument zugeordnet ist. - Virtuelles Musikinstrument nach Anspruch 4,
dadurch gekennzeichnet, dass
die Bereiche als Quader ausgebildet sind. - Virtuelles Musikinstrument nach Anspruch 4 oder 5,
dadurch gekennzeichnet, dass
für die Transformation in Töne abhängig von der Geschwindigkeitsänderung der Lage eines Sensors (1, 2) in einem Bereich (BassDrum, CRI, Cym, HH) ist.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP05008274A EP1713057A1 (de) | 2005-04-15 | 2005-04-15 | Virtuelles Musikinstrument |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP05008274A EP1713057A1 (de) | 2005-04-15 | 2005-04-15 | Virtuelles Musikinstrument |
Publications (1)
Publication Number | Publication Date |
---|---|
EP1713057A1 true EP1713057A1 (de) | 2006-10-18 |
Family
ID=34935226
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
EP05008274A Withdrawn EP1713057A1 (de) | 2005-04-15 | 2005-04-15 | Virtuelles Musikinstrument |
Country Status (1)
Country | Link |
---|---|
EP (1) | EP1713057A1 (de) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0507355A2 (de) * | 1986-10-14 | 1992-10-07 | Yamaha Corporation | Vorrichtung zur Musiktonsteuerung unter Verwendung eines Detektors |
EP0666544A1 (de) * | 1994-02-03 | 1995-08-09 | Canon Kabushiki Kaisha | Gesteneingabeverfahren und Gerät |
FR2806288A1 (fr) * | 2000-03-16 | 2001-09-21 | Kitchen | Vetements et accessoires interactifs pour la detection et l'analyse de mouvement corporel, et systeme de creation artistique associe |
US6388183B1 (en) * | 2001-05-07 | 2002-05-14 | Leh Labs, L.L.C. | Virtual musical instruments with user selectable and controllable mapping of position input to sound output |
US20020088335A1 (en) * | 2000-09-05 | 2002-07-11 | Yamaha Corporation | System and method for generating tone in response to movement of portable terminal |
US20040011189A1 (en) * | 2002-07-19 | 2004-01-22 | Kenji Ishida | Music reproduction system, music editing system, music editing apparatus, music editing terminal unit, method of controlling a music editing apparatus, and program for executing the method |
-
2005
- 2005-04-15 EP EP05008274A patent/EP1713057A1/de not_active Withdrawn
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0507355A2 (de) * | 1986-10-14 | 1992-10-07 | Yamaha Corporation | Vorrichtung zur Musiktonsteuerung unter Verwendung eines Detektors |
EP0666544A1 (de) * | 1994-02-03 | 1995-08-09 | Canon Kabushiki Kaisha | Gesteneingabeverfahren und Gerät |
FR2806288A1 (fr) * | 2000-03-16 | 2001-09-21 | Kitchen | Vetements et accessoires interactifs pour la detection et l'analyse de mouvement corporel, et systeme de creation artistique associe |
US20020088335A1 (en) * | 2000-09-05 | 2002-07-11 | Yamaha Corporation | System and method for generating tone in response to movement of portable terminal |
US6388183B1 (en) * | 2001-05-07 | 2002-05-14 | Leh Labs, L.L.C. | Virtual musical instruments with user selectable and controllable mapping of position input to sound output |
US20040011189A1 (en) * | 2002-07-19 | 2004-01-22 | Kenji Ishida | Music reproduction system, music editing system, music editing apparatus, music editing terminal unit, method of controlling a music editing apparatus, and program for executing the method |
Non-Patent Citations (1)
Title |
---|
EMMANUEL FLÉTY: "Interactive devices for gestural acquisition in musical live performance context", PROCEEDINGS OF SCI 2001 - ORLANDO - INTERACTIVE DEVICES & GESTURAL ACQUISITION, 2001, IRCAM-PARIS, XP002332240 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
v. Békésy | Human skin perception of traveling waves similar to those on the cochlea | |
DE3344910C2 (de) | Anordnung zum aktiven Dämpfen von Schallwellen | |
EP1108994A3 (de) | Verfahren und Anordnung zur gleichzeitigen Schätzung von verschiedenen Richtungen mehrerer Schallquellen und zur Bestimmung der individuellen Schallhöhen von verschiedenen sich bewegenden Schallquellen | |
WO2005005000A1 (de) | Messanordnung | |
DE3422737A1 (de) | Elektronisches koerperinstrument | |
DE4343411C2 (de) | Gitarren-Signalanalyseeinrichtung | |
WO2001086512A3 (fr) | Procede de conception numerique tridimensionnelle de vetement | |
CN108421236A (zh) | 木人桩运动系统及其运动优化方法 | |
EP0374902B1 (de) | Mikrofonsystem zum Bestimmen der Richtung und Position einer Schallquelle | |
DE69123467T2 (de) | Verfahren zur Steuerung einer Tonquelle für ein elektronisches Musikinstrument und Musikinstrument zur Anwendung dieses Verfahrens | |
DE19942441A1 (de) | Tastenmusikinstrument mit einem Attrappenhammer mit gut geregeltem Schwerpunkt zur Erzeugung eines Pianotastengefühls ohne akustischen Ton | |
EP1713057A1 (de) | Virtuelles Musikinstrument | |
DE19614830A1 (de) | Tastenmusikinstrument, das ohne Geräusch im stillen Betriebszustand spielbar ist | |
DE19927781B4 (de) | Tönendes Trainingsgerät | |
EP2425270B1 (de) | Vorrichtung und verfahren zur binauralen wiedergabe von audio-sonarsignalen | |
DE102012102157B4 (de) | Oberflächentexturaufzeichnung mit Mikrofon | |
EP0141976B1 (de) | Verfahren zum Bestimmen der Qualität von Ballschlägern | |
DE102018205645A1 (de) | Resonanzklang-Steuervorrichtung und Resonanzklang-Lokalisierungssteuerverfahren | |
EP2787501A1 (de) | Musikinstrument und Vorrichtung zum Fernsteuern eines Vorgangs im Umfeld des Musikinstruments | |
DE102006004488A1 (de) | Mikrofon | |
DE10147710B4 (de) | Messungen an einem Saiteninstrument | |
Nizioł et al. | Free vibration of the discrete-continuous system with damping | |
DE19636831C1 (de) | Verfahren zum Kompensieren von negativen Emotionen für eine an einer Datenverarbeitungsanlage arbeitende Person, und Vorrichtung zur Durchführung des Verfahrens | |
Miccoli et al. | Recent advances in noise and vibration active control by means of piezoceramic transducers | |
DE102013004468B4 (de) | Verfahren und Vorrichtung zur Erfassung einer Betätigung einer auslenkbaren Geberkomponente |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PUAI | Public reference made under article 153(3) epc to a published international application that has entered the european phase |
Free format text: ORIGINAL CODE: 0009012 |
|
AK | Designated contracting states |
Kind code of ref document: A1 Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU MC NL PL PT RO SE SI SK TR |
|
AX | Request for extension of the european patent |
Extension state: AL BA HR LV MK YU |
|
AKX | Designation fees paid | ||
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN |
|
18D | Application deemed to be withdrawn |
Effective date: 20070419 |
|
REG | Reference to a national code |
Ref country code: DE Ref legal event code: 8566 |