DE102009017204A1 - Musiksystem - Google Patents

Musiksystem Download PDF

Info

Publication number
DE102009017204A1
DE102009017204A1 DE200910017204 DE102009017204A DE102009017204A1 DE 102009017204 A1 DE102009017204 A1 DE 102009017204A1 DE 200910017204 DE200910017204 DE 200910017204 DE 102009017204 A DE102009017204 A DE 102009017204A DE 102009017204 A1 DE102009017204 A1 DE 102009017204A1
Authority
DE
Germany
Prior art keywords
instrument
sensor
action
preferences
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE200910017204
Other languages
English (en)
Other versions
DE102009017204B4 (de
Inventor
Maximilian Meier
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
RECHNET GmbH
Original Assignee
RECHNET GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by RECHNET GmbH filed Critical RECHNET GmbH
Priority to DE200910017204 priority Critical patent/DE102009017204B4/de
Priority to PCT/EP2010/001835 priority patent/WO2010115519A1/de
Publication of DE102009017204A1 publication Critical patent/DE102009017204A1/de
Application granted granted Critical
Publication of DE102009017204B4 publication Critical patent/DE102009017204B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/38Chord
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/105Composing aid, e.g. for supporting creation, edition or modification of a piece of music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/201User input interfaces for electrophonic musical instruments for movement interpretation, i.e. capturing and recognizing a gesture or a specific kind of movement, e.g. to control a musical instrument
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/395Acceleration sensing or accelerometer use, e.g. 3D movement computation by integration of accelerometer data, angle sensing with respect to the vertical, i.e. gravity sensing.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

Die Erfindung betrifft ein Musiksystem zum Umwandeln von Sensorsignalen in eine Tonfolge, umfassend: wenigstens ein Instrument (3, 3'), das wenigstens einen ersten Sensor (2) aufweist, der erste Sensorsignale ausgibt; und wenigstens eine Steuerung (4), die von dem Instrument (3, 3') die ersten Sensorsignale empfängt und eingerichtet ist, den ersten Sensorsignalen erste vorgegebene Präferenzen zuzuweisen und die ersten Präferenzen wenigstens mit zweiten Präferenzen zu kombinieren, wobei die Steuerung (4) weiter eingerichtet ist, aus den kombinierten Präferenzen mit Hilfe von Soft-Constraints eine Tonfolge zu berechnen und diese auszugeben.

Description

  • GEBIET DER ERFINDUNG
  • Die vorliegende Erfindung bezieht sich allgemein auf Musiksysteme und insbesondere auf ein Musiksystem, Verfahren und Computerprogramm zum Umwandeln von Sensorsignalen in eine Tonfolge.
  • HINTERGRUND DER ERFINDUNG
  • Es sind allgemein Musikinstrumente bekannt, die auf analoge oder digitale Art und Weise Töne erzeugen können. Um herkömmliche Musikinstrumente spielen zu können bedarf es nicht nur einiger Übung, sondern insbesondere auch entsprechender körperlicher Voraussetzungen hinsichtlich der Koordinationsfähigkeit.
  • Die menschliche Koordinationsfähigkeit kann aber bspw. aufgrund einer Behinderung, Krankheit oder dergleichen beeinträchtigt sein.
  • Während der ungeübte Benutzer eines Musikinstrumentes noch die Möglichkeit hat, ein Instrument durch entsprechende Übung zu erlernen, kann dies für den körperlich beeinträchtigten Menschen nahezu unmöglich sein.
  • In der Musiktherapie hat sich allerdings gezeigt, dass behinderte Kinder, ältere Menschen und insbesondere Menschen, die an der Parkinsonschen Krankheit leiden, ihre motorischen Fähigkeiten und ihre psychische Gesamtsituation durch Musizieren erheblich verbessern können, wie bspw. eine klinische Studie festgestellt hat: Claudia Pacchetti et al., "Active Music Therapy in Parkinson's Disease: An Integrative Method for Motor and Emotional Rehabilitation", Psychosomatic Medicine, 2000, Band 62, Seiten 386 bis 393.
  • Für solche Therapien stehen letztlich nur Instrumente sinnvollerweise zur Verfügung, die auch ein ungeübter und/oder motorisch eingeschränkter Benutzer bedienen kann, wie bspw. einfache Schlag- und Rhythmusinstrumente oder einfach zu bedienende Tasteninstrumente.
  • Aufgabe der vorliegenden Erfindung ist es, ein Musiksystem, ein Verfahren bzw. ein Computerprogramm bereitzustellen, das auch ungeübten und/oder motorisch beeinträchtigten Benutzern ermöglicht, zu musizieren.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Nach einem ersten Aspekt stellt die vorliegende Erfindung ein Musiksystem zum Umwandeln von Sensorsignalen in eine Tonfolge bereit, das umfasst: wenigstens ein Instrument, das wenigstens einen ersten Sensor aufweist, der erste Sensorsignale ausgibt; und wenigstens eine Steuerung, die von dem Instrument die ersten Sensorsignale empfängt und eingerichtet ist, den ersten Sensorsignalen erste vorgegebene Präferenzen zuzuweisen und die ersten Präferenzen wenigstens mit zweiten Präferenzen zu kombinieren, wobei die Steuerung eingerichtet ist, aus den kombinierten Präferenzen mit Hilfe von Soft-Constraints eine Tonfolge zu berechnen und diese auszugeben.
  • Nach einem zweiten Aspekt stellt die vorliegende Erfindung ein Verfahren zum Umwandeln von Sensorsignalen in eine Tonfolge bereit, das die Schritte umfasst: Zuweisen von ersten vorgegebenen Präferenzen zu ersten Sensorsignalen, die von wenigstens einem ersten Sensor von wenigstens einem Instrument stammen; Kombinieren der ersten Präferenzen mit wenigstens zweiten Präferenzen; Berechnen einer Tonfolge aus den kombinierten Präferenzen mit Hilfe von Soft-Constraints; und Ausgeben der berechneten Tonfolgen.
  • Nach einem dritten Aspekt stellt die Erfindung ein Computerprogramm bereit, das eine prozessorbasierte Vorrichtung veranlasst, ein Verfahren nach dem zweiten Aspekt auszuführen.
  • Weitere Aspekte und Merkmale der vorliegenden Erfindung ergeben sich aus den abhängigen Ansprüchen, der beigefügten Zeichnung und der nachfolgenden Beschreibung bevorzugter Ausführungsbeispiele.
  • KURZBESCHREIBUNG DER ZEICHNUNG
  • Ausführungsbeispiele der Erfindung werden nun beispielhaft und unter Bezugnahme auf die beigefügten Zeichnungen beschreiben, in welchen:
  • 1 den Aufbau eines Musiksystems nach einem Ausführungsbeispiel der Erfindung veranschaulicht;
  • 2 ein Instrument des Musiksystems nach 1 veranschaulicht;
  • 3 Bewegungen des Instruments von 2 veranschaulicht;
  • 4 den Zusammenhang der Bewegungen des Instruments von 3 und zugewiesenen Präferenzen darstellt;
  • 5 die Zuweisung von Präferenzen illustriert;
  • 6 eine Bewegungsverteilung und zugehörige Notenwerte zeigt;
  • 7 eine weitere Bewegung des Instruments veranschaulicht;
  • 8 eine Bewegungsverteilung der Bewegung des Instruments nach 7 und zugehörige Tonhöhenpräferenzen zeigt;
  • 9 das Musiksystem von 1 mit mehreren Musikschnittstellen zeigt; und
  • 10 ein Ablaufdiagramm eines Ausführungsbeispiels in Übereinstimmung mit der vorliegenden Erfindung zeigt.
  • BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSBEISPIELE
  • 1 zeigt ein Ausführungsbeispiel eines Musiksystems 1 der vorliegenden Erfindung. Vor einer detaillierten Beschreibung folgen zunächst allgemeine Erläuterungen zu den Ausführungsbeispielen und deren Vorteile.
  • Wie eingangs erwähnt, besteht insbesondere in der Musiktherapie der Bedarf, dass auch ungeübte und motorische eingeschränkte Benutzer Musizieren können, um so ihre motorischen Fähigkeiten und ihr psychisches Wohlbefinden zu steigern. Aber auch ungeübte Benutzer haben großen Spaß am Musizieren, verfügen allerdings oftmals nicht über die Zeit und/oder Möglichkeit ein Musikinstrument entsprechend zu erlernen.
  • Der Erfinder hat erkannt, dass insbesondere für solche ungeübten und/oder motorisch eingeschränkten Benutzer einerseits ein einfaches Eingabegerät erforderlich ist, dessen Benutzung keine oder nur wenig Übung verlangt und damit keine allzu hohen Anforderungen an die Feinmotorik stellt. Andererseits hat er erkannt, dass es nicht ausreicht einfach nur ein Signal, das von dem Eingabegerät stammt, in einen Ton umzusetzen, da diese Umsetzung alleine noch kein Musizieren ermöglicht. Um wohlklin gende Musik zu erzeugen, müssen gewisse Regeln beachtet werden, wie bspw. die klassische Harmonielehre. Die Beachtung von gewissen Regeln, wie bspw. Rhythmus oder Harmonie, ist insbesondere dann erforderlich, wenn mehrere Benutzer gleichzeitig musizieren wollen, wie bspw. in einer Therapiegruppe mit mehreren Parkinsonpatienten oder einer Musikgruppe.
  • Um diesen Anforderungen gerecht zu werden, stellen die Ausführungsbeispiele ein Musiksystem, ein Verfahren bzw. ein Computerprogramm zum Umwandeln von Sensorsignalen in eine Tonfolge bereit.
  • Dabei weist bspw. ein Eingabegerät, im Folgenden in Anlehnung an ein Musikinstrument auch Instrument genannt, wenigstens einen ersten Sensor auf. Dieser Sensor dient dazu Bewegungen des Benutzers des Instruments oder an dem Instrument in entsprechende Sensorsignale umzusetzen. Als Sensoren kommen dabei bspw. Drucksensoren, Bewegungssensoren, wie Beschleunigungssensoren, Gyroskope oder dergleichen zur Anwendung. Auch kann ein Berührungssensor, wie eine Multitouch-Oberfläche oder andere Tangible-Interfaces Verwendung finden. Oder aber die Sensorsignale stammen von einer Bilderkennungseinrichtung, die beispielsweise die Anordnung mehrere Körper auf einer Tischoberfläche überwacht, wobei die räumliche Anordnung der Körper auf der Tischoberfläche und der verschiedenen Körper zueinander die Sensorsignale bestimmt. Letztlich kommen bspw. Sensoren zum Einsatz, die die Beschleunigung oder Bewegung des Instruments in eine, zwei oder drei Raumrichtungen, die absolute Position im Raum oder die Ausrichtung des Instruments im dreidimensionalen Raum messen können und entsprechende Signale oder davon abgeleitete Signale ausgeben können. Die Instrumente selbst können aber auch Dreh- oder Kippschalter aufweisen, die bspw. Bewegungen eines Joysticks in zwei Dimensionen aufnehmen oder dergleichen.
  • Eine Steuerung des Instruments oder eine zentrale Steuerung des Musiksystems wertet bspw. die Sensorsignale aus, um ihnen bestimmte, vorgegeben erste Präferenzen zuzuweisen. Diese Präferenzen sendet dann bspw. die Steuerung des Instruments wahlweise zusammen mit den Sensorsignalen an eine zentrale Steuerung des Musiksystems. Bei einem Ausführungsbeispiel bei dem das Instrument einen Beschleunigungssensor und ein Gyroskop aufweist, können die Präferenzen bspw. so sein, dass das Instrument, wenn es der Benutzer schnell bewegt und dabei aufrecht hält, schnel le Noten mit hoher Tonhöhe bevorzugt.
  • Die Präferenzen stellen demnach nicht in jedem Ausführungsbeispiel eine fest vorgegebene unveränderliche Abbildung der Sensorsignale bspw. auf Tonhöhen und/oder Tonlängen oder dergleichen dar, sondern sie geben nur eine Tendenz oder einen Wunsch an, den die Steuerung des Musiksystems dann bspw. mit zweiten Präferenzen kombiniert.
  • Dazu empfängt die Steuerung, bspw. die von dem Instrument an sie übertragenen ersten Präferenzen oder die von ihr zugewiesen Präferenzen und kombiniert diese mit zweiten Präferenzen. Die zweiten Präferenzen dienen bspw. der Koordination von mehreren Instrumenten und können sich bspw. aus Tönen ableiten, die von einem anderen Instrument stammen oder einer anderen vorgegeben Tonfolge oder dergleichen, wie weiter unten im Detail ausgeführt wird.
  • Die Steuerung des Musiksystems ist eingerichtet, aus den kombinierten Präferenzen mit Hilfe von Soft-Constraints eine Tonfolge zu berechnen und diese auszugeben. Dazu weist die Steuerung bspw. einen Mikroprozessor und einen nichtflüchtigen Speicher auf, indem bspw. ein entsprechendes Programm abgespeichert ist, das den Mikroprozessor bei Ablauf des Programmes dazu veranlasst, entsprechende Berechnungen vorzunehmen.
  • Ein ”Soft-Constraint” ist eine ”weiche Randbedingung” im Gegensatz zum ”normalen Constraint”, der eine ”feste” Randbedingung darstellt. In der Constraint-Programmierung wird allgemein ein erwünschtes Ergebnis durch verschiedene Bedingungen spezifiziert, welche die Eigenschaften der Lösungen des Problems beschränken. Diese Bedingungen werden in der klassischen Constraint-Programmierung oft als logische Formeln ausgedrückt, die eine harte Grenze zwischen „richtigen” und „falschen” Lösungen festlegen. Soft-Constraints sind eine Erweiterung klassischer Constraints. Sie ermöglichen die Modellierung verschiedenster Optimierungsprobleme auf natürliche Weise, ohne eine harte Grenze zwischen „gut” und „schlecht” zu ziehen. Stattdessen gewichten Soft-Constraints Lösungen, wodurch den Lösungen eine Rangfolge auferlegt wird. Dadurch ist es ermöglicht mit ihnen Alltagsprobleme zu lösen.
  • Von Bistarelli et al. wurde in „Semiring-based contraint satisfaction and optimization", J. ACM, 44(2): 201–236, 1997 eine elegante und abstrakte Theorie von Soft-Constraints eingeführt. Auf Grundlage dieser Theorie implementierten Wirsing et al. in „A rewriting logic framework for Soft-Constraints.", WRLA 2006, 6th International Workshop an Rewriting Logic and its Applications, April 2006, ENTCS, 2006 einen Solver in einer Rewriting-Logik und modellierten das Problem optimaler Parameterzuordnungen für Software-Definined-Radio (SDR). Hölzl et al. erweiterten diese Theorie in "Which Soft-Constraints do you Prefer?", WRLA 2008, 7th International Workshop an Rewriting Logic and its Applications, March 2008, ENTCS, 2008 um einen allgemeinen Ansatz, Präferenzen auf Soft-Constraints zu deklarieren. Darin sind auch sogenannte Monoide Soft-Constraints behandelt, die eine Weiterentwicklung der Soft-Constraints basierend auf mathematischen Halbringen aus der genannten Veröffentlichung von Bistarelli et al darstellen.
  • Auch wenn im Folgenden Monoide Soft-Constraints behandelt werden, so können natürlich auch andere mathematische Darstellungen, wie bspw. Halbringe, als Grundlage für die Soft-Constraints der folgenden Ausführungsbeispiele verwendet werden.
  • Bei den Monoiden Soft-Constraints werden Rangstufen (engl. ”grades”) verwendet, um Lösungen eines Problems zu klassifizieren, welche sich mathematisch als sogenannte Monoide, ein Begriff aus der Gruppentheorie, darstellen lassen. Ein Monoid sind bspw. die natürlichen Zahlen zusammen mit der Addition oder Multiplikation.
  • Allgemein kann man ein zu lösendes Problem durch eine Menge von (Problem-)Variablen und eine Menge von (Problem-)Werten darstellen. Einzelne Werte können dabei entsprechenden Variablen zugeordnet werden, was durch Funktionen von Variablen auf Werte dargestellt werden kann. Im Folgenden wird die Notation [A → B] verwendet, um die Menge aller Funktionen zu definieren, die von A nach B abbilden. Eine Belegung ist also eine Funktion von Variablen auf Werte:

    Belegung = [Variable → Wert].
  • Ein Soft-Constraint weist nun einer Belegung eine Rangstufe zu. Die Rangstufen werden mithilfe von Monoiden definiert und dienen der Bewertung von Belegungen. Ein Soft-Constraint kann dann als Funktion von Belegungen auf Rangstufen definiert werden:

    SoftConstraint = [Belegung → Rangstufe]
  • Mehrere Soft-Constraints lassen sich zu einem einzigen Soft-Constraint kombinieren, indem die verschiedenen Rangzahlen zu einer einzigen kombiniert werden. Ein sehr elegantes und allgemeines Verfahren zur Kombination mehrerer Constraints findet sich in dem o. g. Artikel Hölzl. et al (vgl. auch Abschnitt 2.2).
  • Die genannten Präferenzen stellen letztlich einzelne Soft-Constraints dar. So kann bspw. das Musiksystem aus mehreren Instrumenten bestehen, die jeweils eine Stimme aufweisen, zum Beispiel die erste (oberste) oder zweite (bspw. eine mittlere) usw, die dann entsprechende Variablen des Constraint Problems darstellen, oder aber ein Instrument kann selbst verschiedene Stimmen haben:

    Variable = Stimme = {s1, s2, s3, ...}
  • Die Werte der Variablen sind bspw. Aktionen, die ein Instrument ausführen kann, wie das Spielen bestimmter Tonhöhen oder Noten: Diese Aktionen stellen dann Werte des Constraint Problems dar:

    Belegung = [Stimme → Aktion].
    Aktion = {..., Spiele(c3), Spiele(c#3), ..., Halte(f4), ..., Pausiere, ...}
  • Die Übereinstimmung einer Aktion eines Instruments mit dem Sensorsignal des Instruments stellt eine erste Randbedingung des Constraint-Problems dar:

    SensorConstraint = [Belegung → Rangstufe]
    = [(Stimme → Aktion) → Rangstufe]
  • Durch den ”Sensor-Constraint” werden Aktionen eines Instrumentes, bspw. Tonhöhen oder Noten, Rangstufen zugeordnet, die ihre Übereinstimmung mit dem Sensorsignal zum Ausdruck bringen. Der Sensor-Constraint stellt also die Präferenzen dar, die das Instrument einem bestimmten Sensorsignal zuordnet, wie in dem oben erwähnten Beispiel, bei dem der Benutzer das Instrument schnell und aufrecht bewegt und damit hohe und schnelle Töne/Noten bevorzugt hat.
  • Diese Aktionen können verschiedene Typen sein, so ist bspw. ein Typ eine ”Notenaktion”, die immer verknüpft ist mit einer Notentonhöhe:

    NotenAktion ⊂ Aktion
    Tonhöhe: NotenAktion → Tonhöhe

    Tonhöhe = {..., c3, c#3, d3, d#3, ...
  • Natürlich lassen sich beliebige andere Präferenzen definieren. Allgemein sind die Präferenzen über die Aktionen durch Soft-Constraints definiert, welche die Aktionenzuweisungen für die Stimmen mit einer Rangstufe klassifizieren:

    (Stimme → Aktion) → Rangstufe
  • Auf diese Weise lassen sich also Präferenzen über Stimmenzuweisungen mit Soft-Constraints ausdrücken.
  • Bei manchen Ausführungsbeispielen legt jedes Instrument seine eigenen Präferenzen fest, wobei diese Festlegung auf den Sensorsignalen und einem globalen Zustand des Systems basieren kann. Diese Zuweisung kann allerdings auch in der zentralen Steuerung des Musiksystems geschehen, wie weiter unten beschrieben wird.
  • Diese Präferenzen kombiniert nun bspw. die Steuerung mit anderen, zweiten Präferenzen. Diese zweiten Präferenzen können bspw. von einem weiteren Instrument stammen oder aber auch nur festlegen, dass bspw. die Tonfolge des ersten Instruments gewissen harmonischen Regeln genügen soll, indem bspw. bestimmte Tonhöhenverhältnisse (Frequenzverhältnisse) zwischen den verschiedenen Stimmen bevorzugt werden und andere weniger bevorzugt sind.
  • Diese Koordinierung zwischen den Präferenzen des ersten Instruments und anderen Präferenzen kann ebenfalls als Soft-Constraint-Problem formuliert werden. Auf diese Art und Weise können auch mehrere einzelne Instrumente koordiniert werden.
  • So kann bspw. die harmonische Beziehung zwischen zwei Stimmen durch eine Klassifizierung der Intervalle zwischen diesen beiden Stimmen ausgedrückt werden. Dazu weist man bspw. einzelnen Intervallen bestimmte Rangstufen zu. Dabei bekommen wohlklingende Intervalle, d. h. bspw. konsonante Intervalle, wie Quinten und Quarten, einen hohen Rang 1 und bspw. das dissonante Intervall Tritonus den schlechtesten, untersten Rang 6:
    • Rang 1 = Quinte, Quarte
    • Rang 2 = große Terz, kleine Sexte
    • Rang 3 = kleine Terz, große Sexte
    • Rang 4 = große Sekunde, kleine Septime
    • Rang 5 = kleine Sekunde, große Septime
    • Rang 6 = Tritonus
  • Damit lässt sich die Harmonie zwischen zwei Tonlagen bzw. Tonhöhen, wie folgt darstellen:

    Harmonie: Tonhöhe × Tonhöhe → Rangstufe
  • Der ”Harmonie-Constraint” ist dann analog zu den obigen Überlegungen für eine beliebige Anzahl an Stimmen:

    Harmonie Constraint:Belegung → Rangstufe,
    dies entspricht: (Stimme → Aktion) → Rangstufe
  • Der Harmonie-Constraint kann dargestellt werden als das Produkt über alle möglichen Harmonien von Stimmpaarkombinationen (sa, sb) aus der Menge aller Stimmen {s1, s2, s3, ...), wobei sa = s1, s2, s3 ... und sb = s1, s2, s3 ...:
    Figure 00090001
    Im obigen Beispiel bezog sich der Harmonie-Constraint auf das harmonische Zusammenspiel von Stimmen. Bezüglich der Harmonie kann man natürlich auch andere Constraints verwenden, wie bspw., dass die von einem Instrument gespielten Töne zu einer tonalen Skala, z. B. Tonleiter C-Dur oder dorische Kirchenmusikskala, gehören sollen. So wäre bspw.

    Tonale SkalaC-Dur ((s1 → Spiele(f#4)), ...)
    falsch, da der Ton ”f#4” nicht zu C-Dur gehört. Allgemein lässt sich folglich dieser tonale Harmonie Constraint wie folgt ausdrücken:

    Tonale SkalaSkala: (Stimme → Aktion) → {wahr, falsch}
  • Natürlich kann man noch andere Koordinationspräferenzen durch Constraints ausdrücken, wie bspw. gleichen Rhythmus zu spielen oder Harmonieabfolgen wie bspw. Kadenzen zu berücksichtigen, Artikulationen von Tönen (Staccato, Akzente, etc.) oder dergleichen.
  • Die Steuerung des Musiksystems kombiniert in bestimmten Zeitintervallen die vorliegenden Präferenzen, d. h. die ersten, zweiten usw. Dann stellt sie das entsprechende Soft-Constraint-Problem auf, wobei, wie oben ausgeführt, sich die verschiedenen Soft-Constraints zu einem einzigen Soft-Constraint-Problem zusammenführen lassen. Dieses ermittelte einzelne Soft-Constraint-Problem wird dann gelöst, bspw. durch einen bekannten Verzweigen-Begrenzen-Algorithmus (engl. ”branch-and-bound algorithm”). Die Lösung dieses Soft-Constraint-Problems definiert Tonfolgen für die unterschiedlichen Stimmen, die möglichst gut den jeweiligen Präferenzen genügen, die also zum einen möglichst in Übereinstimmung mit den von den Instrumenten jeweils erzeugten Sensorsignalen sind, zum anderen aber auch bspw. harmonisch sind.
  • Die Lösung ist dabei nicht absolut, sondern es können bspw. mehrere Lösungen des Problems mit unterschiedlichen Rängen als Ergebnis herauskommen. Das Ergebnis, d. h. die berechnete Tonfolge, kann als lokales optimales Ergebnis oder aber auch als globales optimales Ergebnis abgespeichert werden. Dabei kann die Tonfolge auch Harmonien, also mehrere gleichzeitig erklingende Töne umfassen oder auch nur einen einzigen Ton.
  • Unter Tonfolge soll hier auch eine Rhythmusfolge verstanden werden, die letztlich immer den gleichen ”Ton” aufweist. Mit ”Ton” ist hier ein Frequenzmuster gemeint, das also auch ein Geräusch sein kann.
  • Das Zeitintervall, das die Steuerung dem Constraint-Problem zugrundelegt, d. h. das Zeitintervall, über das die Steuerung beispielsweise Sensorsignale sammelt, um daraus die Präferenzen für bestimmte Aktionen des Instruments und damit die resultierende Tonfolge zu berechnen, kann beliebig sein, bspw. die Dauer eines metrischen Schlages, Halbschlages, 1/16-Schlages oder dergleichen umfassen. Bevorzugt ist das Zeitintervall jedoch kurz, um eine schnelle Reaktion der produzierten Tonfolge auf das Sensorsignal zu ermöglichen. Dabei kann die brechnete Tonfolge bspw. auch nur einen einzigen Ton umfassen. Alternativ kann das Zeitintervall aber auch länger sein, z. B. einen kompletten Takt umfassen. In letzterem Fall können sich, wiederum um eine schnelle Reaktion zu bewirken, aufeinanderfolgende Zeitintervalle auch überlappen, z. B. indem ein Zeitfenster der Länge eines Taktes in Schritten von 1/16-Schlägen über die Zeitachse bewegt wird. Gemäß der oben genannten Beispiele für Zeitintervalle kann sich eine Aktion eines Instruments also auf das Spielen einer Note beziehen (wenn das Zeitintervall beispielsweise die Länge eines 1/16-Schlages hat), oder aber auch auf das Spielen einer Notensequenz (wenn das Zeitintervall beispielsweise die Länge eines Takte hat). Die Zeitintervalle müssen zudem nicht unbedingt äquidistant gewählt werden. Es wäre auch denkbar, die Zeitintervalle an den Zeitpunkt der Erzeugung der Sensorsignale anzupassen, so dass beispielsweise durch jeden Sensorimpuls ein Zeitintervall abgegrenzt wird, dessen Länge durch den zeitlichen Abstand des aktuellen Sensorimpulses vom vorhergehenden Sensorimpuls bestimmt ist. Nachdem die Steuerung für ein Zeitintervall die Tonfolge berechnet hat, berechnet sie die Tonfolge des nächsten Zeitintervalls.
  • Die mithilfe von Soft-Constraints spielenden Instrumente können auch mit anderen Musikinstrumenten koordiniert werden. So können bspw. Präferenzen definiert werden, die ein Instrument mit einem elektrischen Klavier koordinieren, welches aber selbst nicht koordiniert wird. Dafür kann auch eine Aufzeichnung verwendet werden, wie bspw. eine Midi-Datei, in der Tonhöhen, Tonlängen und auch Stimmenzuteilungen gespeichert sein können.
  • Die Instrumente, die mit der Steuerung verbunden sind, können auch als Musikschnittstelle betrachtet werden, an der letztlich die Präferenzen oder wenigstens die Sensorsignale im beliebigen von der Steuerung verarbeitbaren Format bereitgestellt werden.
  • Manche Ausführungsbeispiele betreffen auch ein Verfahren oder ein Computerpro gramm, das einen Programmcode enthält, der eine prozessorbasierte Vorrichtung (bspw. einen Computer) veranlasst, das entsprechende Verfahren auszuführen.
  • Wie bereits ausgeführt können die Präferenzen beliebige Parameter umfassen, wie bspw. Tonhöhe, Tondauer, Tonhöhenbereich, Tondauerbereich, Tonintervall, Tonpause, Lautstärke, Rhythmus, Klangfarbe. Der Tonhöhenbereich stellt dabei bspw. einen bevorzugten Bereich an Tönen mit einer bestimmten Höhe dar, wie bspw. Töne, die zwischen dem c2 und c4 liegen oder dergleichen. Der Tondauerbereich kann sich dabei auf ein absolutes Zeitmaß, bspw. eine Zehntelsekunde, beziehen oder auf ein relatives, wie bspw. ein metrisches Zeitmaß, wie bspw. Viertelnoten, Achtelnoten oder dergleichen. Gleiches gilt für die Lautstärke, die relativ angegeben sein kann, wie bspw. durch ”forte” oder aber auch in Dezibel oder dergleichen. Auch der Rhythmus kann auf einer absoluten Zeitskala vorgegeben sein, bspw. jede Sekunde einen Ton mit Zehntelsekunde Dauer, oder im metrischen Sinne, bspw. auf jeden ersten Schlag eines Taktes eine Sechzehntelnote usw.
  • Die Präferenzen können dabei in digitaler oder auch in analoger Form vorliegen. So kann bspw. die Steuerung aus einem normierten Frequenzmuster bestimmte Parameter z. B. durch Fouriertransformation oder dergleichen extrahieren. Dabei stellt zum Beispiel die Amplitude eine Lautstärke dar, die Länge des Frequenzmusters stellt die Tondauer da, die Frequenz selbst die Tonhöhe usw.
  • Natürlich können die Präferenzen auch in digitaler Form, bspw. als Präferenzdaten vorliegen, in denen die jeweiligen Präferenzen gespeichert sind.
  • Zurückkommend zu 1 veranschaulicht diese ein Ausführungsbeispiel eines Musiksystems 1 in Übereinstimmung mit der vorliegenden Erfindung. Das Musiksystem 1 weist ein oder mehrere Instrumente 3 auf, die einen oder mehrere Sensoren 2 aufweisen. Dabei können verschiedene Instrumente 3 auch verschiedenen Sensoren 2 aufweisen. Zwischen dem Sensor 2 und bspw. einem Mikroprozessor 14 (2) des Instruments 3 besteht eine Verbindung, die als Signalleitung 15 (2) ausgestaltet ist. Über die Signalleitung 15 können der Sensor 2 und der Mikroprozessor 14 des Instruments 3 Signale austauschen, d. h. der Sensor 2 liefert Sensorsignale an den Mikroprozessor 14 des Instruments 3.
  • Der Sensor 2 ist dabei in diesem Ausführungsbeispiel als Bewegungssensor, d. h. Beschleunigungssensor, ausgestaltet, der Bewegungen bzw. Beschleunigungen des Instruments 3 in alle drei Raumrichtungen erkennt und entsprechende Sensorsignale an den Mikroprozessor 14 ausgibt. Dabei weist das Instrument 3 den Sensorsignalen bestimmte Präferenzen zu. Zum Beispiel weist das Instrument 3 Bewegungen des Instruments 3, die nach oben gerichtet sind und entsprechende Sensorsignale erzeugt, vorzugsweise höhere Töne, das heißt Töne mit größeren Frequenzen zu, als Bewegungen, die nach unten gerichtet sind. Nach unten gerichteten Bewegungen weist das Instrument 3, bzw. der Mikroprozessor 14, tiefere Töne, das heißt Tönen mit kleineren Frequenzen zu.
  • Die Bewegungen des Instrumentes 3 sind in 3 veranschaulicht. Der Pfeil nach oben stellt eine Aufwärtsbewegung des Instruments 3 dar und der Sensor 2 detektiert die Aufwärtsbewegung und gibt entsprechende Sensorsignale aus, die die Aufwärtsbewegung repräsentieren. Der Pfeil nach unten hingegen veranschaulicht die Abwärtsbewegung des Instrumentes 3 und der Sensor 2 erkennt wiederum diese Bewegung und gibt ebenfalls entsprechende Sensorsignale aus, die die Abwärtsbewegung repräsentieren.
  • Der Mikroprozessor 14 weist diesen Sensorsignalen jeweilige Präferenzen zu, wobei die Sensorsignale entsprechend getaktet aufgenommen werden. Die Aufnahme der Sensorsignale ist je nach Ausführungsbeispiel unterschiedlich. Im vorliegenden Fall ist die zeitliche Achse nach dem entsprechenden eingestellten metrischen Takt in Sechzehntelwerte unterteilt und der Mikroprozessor 14 mittelt die empfangenen Sensorsignale für die Dauer einer Sechzehntelnote und weist dann diesem Mittelwert eine entsprechende Präferenz zu.
  • So führt beispielsweise eine kleine Abwärtsbewegung des Instrumentes 3 zu dem Ton ”f1”, wie in 3 als erste Note dargestellt ist. Eine darauffolgende, größere Aufwärtsbewegung des Instruments 3 führt hingegen zur Zuweisung der Note ”h1”. Die zwei darauffolgenden gleichstarken Abwärtsbewegungen interpretiert der Mikroprozessor 14 als jeweilige große Sekunden und weist dementsprechend die Noten ”a1” bzw. ”g1” zu. Die sehr große Aufwärtsbewegung führt schließlich zu einem Septsprung zur Note ”f2”.
  • Bei anderen Ausführungsbeispielen hingegen ist die Taktung bspw. in Viertel, Achtel, oder anderen metrischen Schritten zur Ermittlung einer Tonhöhe unterteilt. Natürlich kann auch lediglich zu einem metrischen Zeitpunkt, bspw. auf jeden metrischen Schlag eines Taktes, ein kurzer ”Schnappschuss” eines Sensorsignales aufgenommen werden. Wie die Sensorsignale aufgenommen werden steht im Belieben des Fachmanns. Jedes Verfahren, das erlaubt, Präferenzen den Sensorsignale eines zu einem bestimmten Zeitpunkt oder über ein bestimmtes Zeitintervall zuzuweisen kann verwirklicht werden.
  • Es kann auch jede andere Bewegung des Instrumentes oder Teilen davon, die von Sensoren erkannt werden und in Sensorsignalen darstellt werden können, entsprechenden Präferenzen zugewiesen werden, wie weiter oben bereits ausgeführt wurde. So kann eine Bewegung nach Links mit hohen Noten und eine Bewegung nach rechts des Instruments 3 mit niedrigen Noten assoziiert werden. Folglich kann jede unterscheidbare Bewegung oder Ausrichtung des Instruments oder Teilen davon, die in unterscheidbaren Sensorsignalen mündet, zur Zuweisung unterschiedlicher Präferenzen führen.
  • Die entsprechenden Präferenzen sendet dann das Instrument 3 an eine Steuerung 4 des Musiksystems 1. Die Steuerung 4 ist nun bspw. so eingerichtet, dass sie die Noten eines einzelnen Instrumentes 3 mit anderen Noten harmonisiert. Dazu generiert sie bspw. aus einem Zustandsspeicher 5 entsprechende Soft-Constraints, die zu einer Harmonisierung der von dem Instrument 3 übermittelten Tonfolge verwendet werden können oder bspw. nur Töne einer bestimmten Tonskala zulassen. Mit anderen Worten, die von Instrument 3 übermittelte Tonfolge ist nicht fest vorgeben, sondern sie kann variiert werden, wie in 4 durch die ”Zustandswolke” angegeben. Diese Zustandswolke symbolisiert, dass jede Note einen gewissen Tonhöhen-Spielraum besitzt in dem sie geändert werden kann.
  • Die Steuerung 4 stellt folglich das Soft-Constraint-Problem aus den von dem Instrument 3 erhaltenen Präferenzen auf und löst dieses, bspw. mit dem Verzweigen-Begrenzen-Algorithmus. Das Ergebnis dieser Lösung ist dann eine harmonisierte Tonfolge oder auch mehrere harmonisierte Tonfolgen, die jeweils einen unterschiedlichen Rang aufweisen. Welche Tonfolge dann tatsächlich ausgegeben wird, kann bspw. voreingestellt sein. So kann zum Beispiel immer die Beste ausgegeben werden oder es kann auch ein Benutzer die verschiedenen Lösungen, d. h. die verschiedenen harmonisierten Tonfolgen, analysieren und eine nach seinen persönlichen Präferenzen auswählen.
  • Diese Tonfolge, die Beste oder die ausgewählte oder nach einem anderen Verfahren bestimmte, wird dann durch eine Musikausgabe 6 ausgegeben, beispielsweise an einen Synthesizer, an eine Soundkarte eines PCs, oder an einen Digital-Analogwandler, über die die Tonfolge direkt als analoge oder digitale Signale ausgegeben wird. Die Ausgabe kann aber auch in eine Datei erfolgen, in der die Tonfolge gespeichert wird (z. B. Midi, MP3, AAC (advanced audio coding), FLAC (free losless audio codec) oder dergleichen).
  • Bei manchen Ausführungsbeispielen weist der Mikroprozessor 14 den Sensorsignalen nicht Tonhöhen in Abhängigkeit der Beschleunigungsrichtung als Präferenzen zu, sondern bspw. in Abhängigkeit der Beschleunigungsstärke entsprechende Tonlängen. Dabei spielt dann bspw. die Bewegungsrichtung des Instruments 3 keine Rolle, sondern es kommt nur auf die Beschleunigungsstärke an. Je schwächer die Bewegung ausfällt, desto länger ist der Ton und desto weniger Töne werden in einem Zeitintervall gespielt. Je schneller die Bewegungen des Instrumentes 3 sind, desto kürzer sind die Töne und desto mehr Töne werden in einem Intervall gespielt. Dies veranschaulicht 6 in der beispielhaft eine Bewertung verschiedener Tonlängen dargestellt wird. Die Beschleunigungsstärken werden auf ein Intervall von 0 bis 1 normalisiert und die Tonlängen auf dieses Intervall verteilt. Die vertikale Linie stellt die aktuelle Beschleunigungsstärke dar, die daraus abgeleitete Bewertung von Tonlängen wird als Kurve dargestellt (hier bspw. ähnlich einer Gaußverteilung). In diesem Fall bekommt die Achtelnote die beste Bewertung, gefolgt von der Viertel- und 1/16-Note.
  • Natürlich können die Beschleunigungswerte auch auf andere Art und Weise ermittelt und auf entsprechende metrische Werte abgebildet werden. So entsprechen bei manchen Ausführungsbeispiele festgelegte Beschleunigungswertbereiche jeweils einem Notenwert usw.
  • Die beiden obigen Ausführungsbeispiele können auch kombiniert werden. Dabei wird sowohl die Bewegungsrichtung und Auslenkung zur Zuweisung von Präferenzen, wie Tonhöhen, als auch die Beschleunigungsstärke zur Zuweisung von Präferenzen, wie Tondauern, genutzt.
  • Bei einem weiteren Ausführungsbeispiel berechnet der Mikroprozessor 14 bspw. aus den Beschleunigungssignalen des Sensors 2 einen Winkel, in dem das Instrument gerade gehalten wird, wie 7 durch den kreisförmigen Pfeil veranschaulicht. Bei anderen Ausführungsbeispielen weist das Instrument bspw. einen Sensor 2 auf, der als Gyroskop ausgestaltet ist und somit die absolute Ausrichtung im dreidimensionalen Raum als Sensorsignal ausgeben kann. Hier kann das Instrument 3 bspw. in einem Winkel schräg nach oben gehalten werden und der Mikroprozessor 14 berechnet aufgrund der zugehörigen Sensordaten, die aus einer Bewegung in diese Stellung folgen, zugehörige Präferenzen, wie bspw. bevorzugte Tonhöhen, wie in 8 dargestellt. Dabei entspricht die Kurve der Bewertung von Tonhöhen. In 8 liegt die am Besten bewertete Tonhöhe der Verteilung gerade bei der Note c1. Damit kann das Instrument je nach Winkelstellung in der es gerade gehalten wird, Tonhöhen unterschiedlich bewerten.
  • Damit das Instrument nicht ständig bewegt werden muss, hängen die Tonhöhen bei manchen Ausführungsbeispielen nicht direkt von der Winkelstellung des Instruments 3 ab, sondern es wird eine Gaußverteilung bspw. über den gesamten Tonumfang des Instruments berechnet. Der Peak dieser berechneten Verteilung wird nun mit der Winkelstellung des Instruments 3 assoziiert. Es bewegt sich folglich der Peak der Verteilung in Abhängigkeit der Winkelstellung des Instruments 3, wie in 8 durch die vertikale Linie dargestellt ist, die von dem Peak der Verteilung zu der Note c1 reicht.
  • Bei einem anderen Ausführungsbeispiel sind die Noten völlig wahlfrei mit der Bewegung des Instruments 3 assoziiert und es gibt bspw. nur die Präferenzen, dass die Noten innerhalb des Tonumfanges von einer Oktave sein sollen und dass sie harmonisch und rhythmisch sind. Demzufolge wird bei diesem Ausführungsbeispiel jede Art von Sensorsignalen in harmonische und rhythmische Töne umgewandelt. Dieses Ausführungsbeispiel ist insbesondere für Benutzer geeignet, deren motorische Fähigkeiten stark beeinträchtigt sind, da sie auch mit unkontrollierten Bewegungen des Instruments 3 rhythmische und harmonische Musik erzeugen können. Allerdings ist es bei diesem Ausführungsbeispiel schwierig, bestimmte vorhersagbare Tonhöhen durch eine gezielte Bewegung zu erzeugen.
  • Bei einem weiteren Ausführungsbeispiel ist das Instrument 3 ebenfalls mit Sensoren 2 ausgestattet, die Beschleunigungen in alle drei Raumrichtungen messen und entsprechende Signale ausgegeben können. Bei diesem Ausführungsbeispiel haben die Bewegungsrichtung und die Bewegungsstärke keinen direkten Einfluss auf die Tonhöhe, sondern sie sind genauso wie bei dem vorher beschriebenen Ausführungsbeispiel (harmonisch) zufallsverteilt. Allerdings wählt das Instrument 3 entsprechend den Beschleunigungswerten rhythmische Präferenzen, sodass der Benutzer des Instruments 3 Kontrolle über den Rhythmus erhält, wie oben in Zusammenhang mit 6 beschrieben ist.
  • Bei einem weiteren Ausführungsbeispiel umfasst das Musiksystem 1 neben Instrumenten 3, noch weitere Musikquellen, bspw. noch ein elektrisches Klavier 3' und eine Notenquelle 3''. Das elektrische Klavier 3' liefert bspw. Töne im Midi-Format und auch die Notenquelle 3'' liegt im Midi-Format vor. Die Musikquellen 3, 3' und 3'' sind jeweils mit der Steuerung 4 verbunden, sodass diese die einzelnen Quellen koordinieren kann. Zum Beispiel kann die Steuerung 4 die jeweils von den Instrumenten 3, dem elektrischen Klavier 3' und der Notenquelle 3'' gelieferten Präferenzen untereinander bspw. hinsichtlich Harmonie und Rhythmus koordinieren. Dabei geht die Steuerung im Wesentlichen so vor, wie oben beschrieben wurde. Das heißt sie behandelt die jeweiligen Präferenzen der Instrumente 3, des elektrischen Klaviers 3' und der Notenquelle 3'' als Soft-Constraints und stellt ein einzelnes Soft-Constraint-Problem auf, mit den oben beispielhaft eingeführten Randbedingungen ”Harmonie” und ”Rhythmus” und löst dieses. Das Ergebnis ist dann eine Tonfolge, die die einzelnen Stimmen, d. h. die Stimmen der Instrumente 3, 3' und 3'' miteinander harmonisch und rhythmisch kombiniert. Wie weiter oben bereits beschrieben, kann die Ausgabe des Ergebnisses in digitaler oder analoger Form erfolgen.
  • Die Sensorsignale des Sensors 2 können ebenfalls in analoger oder digitaler Form vorliegen. So sind bei manchen Ausführungsbeispielen die Sensoren 2 eingerichtet, digitale Sensorsignalen, also Sensordaten auszugeben, die dann von der Steuerung 4 verarbeitet werden. Auch die Präferenzen können sowohl analog als auch digital an die Steuerung 4 von den Instrumenten 3 weitergeleitet werden.
  • Bei den obigen Ausführungsbeispielen sind die Instrumente 3 eingerichtet, den Sensorsignalen entsprechende Präferenzen zuzuweisen. Bei manchen Ausführungsbei spielen übernimmt diese Funktion eine zentrale Steuerung 4 des Musiksystems 1. Bei manchen Ausführungsbeispielen empfängt demnach die zentrale Steuerung des Musiksystems 1 Sensorsignale von Instrumenten 3, 3' und/oder Präferenzen, wie bspw. Tonfolgen mit Tonhöhen und Tondauern, und ist in der Lage diese entsprechend miteinander zu koordinieren. Dabei weist dann beispielsweise die zentrale Steuerung 4 entsprechend empfangenen Sensorsignalen von verschiedenen Instrumenten 3, 3', 3'' jeweilige Präferenzen zu. Dazu ist die zentrale Steuerung 4 bspw. so eingerichtet, dass sie von einem Benutzer eingerichtet werden kann. Zum Beispiel kann der Benutzer der Steuerung 4 mitteilen welcher der Musikquellen 3, 3' oder 3'', im Folgenden auch Musikschnittstellen genannt, welche Stimme zugewiesen wird. Ferner kann der Benutzer bei manchen Ausführungsbeispielen der zentralen Steuerung 4 mitteilen, welche Musikschnittstelle welche Präferenzen hat. So kann er bspw. die zentrale Steuerung 4 so einstellen, dass diese bei den Sensorsignalen der Instrumente 3, die eine Bewegung nach oben bzw. unten repräsentieren, die Präferenz hohe bzw. tiefe Töne zuweist. Bei den Signalen, die sie von dem elektrischen Klavier 3' empfängt, kann sie bspw. die Präferenz Harmonie zuweisen. Bei der Notenquelle 3'' weist die Steuerung 4 hingegen die Präferenz Rhythmus zu, da bspw. die Notenquelle 3'' bereits harmonisch ist und nur als Rhythmusvorlage gilt.
  • Allgemein lässt sich ein Verfahrensablauf, der bspw. in der Steuerung 4 als Computerprogramm abläuft, wie folgt darstellen. Dies Computerprogramm kann zum Beispiel auf einem Datenträger, wie eine CD-Rom oder DVD gespeichert sein oder als Programmpaket von einer Internet-Seite heruntergeladen werden. Der Programmcode des Computerprogramms veranlasst die entsprechende prozessorbasierte Vorrichtung, wie bspw. ein Computer oder eine Spielekonsole, das entsprechende Verfahren auszuführen, wenn es den Programmcode des Computerprogramms ausführt.
  • Das Verfahren beginnt, wie in 10 gezeigt, nach einem Start 7 damit, bei 8 erste Sensorsignale zu empfangen. Wie oben ausgeführt, können diese Sensorsignale von einem beliebigen Sensor eines Instruments stammen und in analoger oder digitaler Form vorliegen. Bei 9 werden dann diesen ersten Sensorsignalen erste vorgegebene Präferenzen zugewiesen. Wie oben ausgeführt, können diese ersten Präferenzen bspw. Tonlage, Tondauer, Rhythmus usw. sein. Bei 10 werden diese ersten Präferenzen mit zweiten Präferenzen kombiniert. Die zweiten Präferenzen können dabei, wie erwähnt, von einer beliebigen Musikschnittstelle stammen und verschiedener Art sein, wie bspw. Tonhöhe, Tondauer, Tonhöhenbereich, Tondauerbereich, Tonintervall, Tonpause, Lautstärke, Rhythmus oder dergleichen. Bei 11 wird dann eine Tonfolge aus den kombinierten Präferenzen mit Hilfe von Soft-Constraints, wie oben beschrieben, berechnet. Bei 12 wird schließlich die Tonfolge analog oder digital entsprechend ausgegeben. Nach Ausgabe der Tonfolge springt das Verfahren wieder zurück und empfängt bei 8 folgende erste Sensorsignale.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • - Claudia Pacchetti et al., ”Active Music Therapy in Parkinson's Disease: An Integrative Method for Motor and Emotional Rehabilitation”, Psychosomatic Medicine, 2000, Band 62, Seiten 386 bis 393 [0005]
    • - Bistarelli et al. wurde in „Semiring-based contraint satisfaction and optimization”, J. ACM, 44(2): 201–236, 1997 [0033]
    • - Wirsing et al. in „A rewriting logic framework for Soft-Constraints.”, WRLA 2006, 6th International Workshop an Rewriting Logic and its Applications, April 2006, ENTCS, 2006 [0033]
    • - Hölzl et al. erweiterten diese Theorie in ”Which Soft-Constraints do you Prefer?”, WRLA 2008, 7th International Workshop an Rewriting Logic and its Applications, March 2008, ENTCS, 2008 [0033]
    • - Hölzl. et al (vgl. auch Abschnitt 2.2) [0038]

Claims (25)

  1. Musiksystem zum Umwandeln von Sensorsignalen in eine Tonfolge, umfassend: wenigstens ein Instrument (3, 3'), das wenigstens einen ersten Sensor (2) aufweist, der erste Sensorsignale ausgibt; und wenigstens eine Steuerung (4), die von dem Instrument (3, 3') die Sensorsignale empfängt und eingerichtet ist, den ersten Sensorsignalen erste vorgegebene Präferenzen zuzuweisen und die ersten Präferenzen wenigstens mit zweiten Präferenzen zu kombinieren, wobei die Steuerung (4) weiter eingerichtet ist, aus den kombinierten Präferenzen mit Hilfe von Soft-Constraints eine Tonfolge zu berechnen und diese auszugeben.
  2. Musiksystem nach Anspruch 1, bei welchem dem Instrument wenigstens eine Stimme (s1) zugeordnet ist und diese Stimme (s1) verschiedene Aktionen ausführen kann, die jeweils eine auszugebende Tonfolge definieren.
  3. Musiksystem nach Anspruch 2, wobei die erste Präferenz, insbesondere ein Sensor-Constraint, sich auf die Übereinstimmung der Aktionen des Instruments mit den Sensorsignalen dieses Instruments bezieht, wobei jeder Aktion des Instruments eine Rangstufe zugeordnet wird, welche die Übereinstimmung dieser Aktion mit dem Sensorsignal bestimmt.
  4. Musiksystem nach Anspruch 3, wobei die zweite Präferenz, insbesondere ein Harmonie-Constraint, sich auf die Übereinstimmung der Aktionen der Stimme des Instruments (s1) mit den Aktionen einer zweiten Stimme (s2) bezieht, wobei jeder Aktion des Instruments eine Rangstufe zugeordnet wird, welche die Übereinstimmung dieser Aktion mit der Aktion der zweiten Stimme bestimmt.
  5. Musiksystem nach Anspruch 4, das mehrere Stimmen ({s1, s2 , s3, ...}) umfasst und die zweite Präferenz, insbesondere der Harmonie-Constraint, durch folgenden Ausdruck dargestellt wird:
    Figure 00200001
    wobei Belegung(sa) eine Aktion einer ersten Stimme (sa) bezeichnet, Belegung(sb) eine Aktion einer zweiten Stimme (Sb) bezeichnet, Tonhöhe(Belegung(sa)) die Reduktion der Aktion der ersten Stimme auf eine Tonhöhenfolge beschreibt und Tonhöhe(Belegung(sb)) die Reduktion der Aktion der zweiten Stimme auf eine zweite Tonhöhenfolge beschreibt.
  6. Musiksystem nach Anspruch 3, wobei die zweite Präferenz, insbesondere ein tonaler Harmonie-Constraint, sich auf die Übereinstimmung der Aktionen der Stimme des Instruments (s1) mit einer tonalen Skala bezieht, wobei jeder Aktion des Instruments eine Rangstufe ({wahr, falsch}) zugeordnet wird, welche die Übereinstimmung dieser Aktion mit der tonalen Skala misst.
  7. Musiksystem nach einem der vorstehenden Ansprüche, wobei die ersten und/oder zweiten Präferenzen eines der Folgenden umfassen: Tonhöhe, Tondauer, Tonhöhenbereich, Tondauerbereich, Tonintervall, Tonpause, Lautstärke, Rhythmus, Klangfarbe.
  8. Musiksystem nach einem der vorstehenden Ansprüche, wobei der Sensor des Instruments ein Drucksensor, ein Berührungssensor, ein Bewegungssensor, ein Beschleunigungssensor, ein Gyroskop oder eine Bilderkennungseinrichtung ist.
  9. Musiksystem nach einem der vorstehenden Ansprüche, wobei der erste Sensor des Instruments eine Bilderkennungseinrichtung ist, die aus einer Oberfläche besteht, auf der verschiedene Körper beweglich angeordnet sind, und die Sensorausgabe durch die Position der Körper auf der Oberfläche und/oder durch die relative Position der Körper zueinander bestimmt wird.
  10. Musiksystem nach einem der vorhergehenden Ansprüche, wobei die. Steuerung die Tonfolge an eine Musikausgabe (6), insbesondere einen Synthesizer, an eine Soundkarte eines PCs, oder an einen Digital-Analogwandler übermittelt, welche die Tonfolge ausgeben.
  11. Musiksystem nach einem der vorhergehenden Ansprüche, bei welchem die Soft-Constraints über mathematischen Halbringen oder Monoiden definiert werden.
  12. Musiksystem nach einem der vorhergehenden Ansprüche, bei welchem die Steuerung (4) weiter eingerichtet ist, aus den kombinierten Präferenzen mit Hilfe von Soft-Constraints die Tonfolge unter Verwendung eines Verzweigen-und-Begrenzen-Algorithmus zu berechnen.
  13. Verfahren zum Umwandeln von Sensorsignalen in eine Tonfolge, umfassend die Schritte: Zuweisen von ersten vorgegebenen Präferenzen zu ersten Sensorsignalen, die von wenigstens einem ersten Sensor (2) von wenigstens einem Instrument (3, 3') stammen; Kombinieren der ersten Präferenzen mit wenigstens zweiten Präferenzen; Berechnen einer Tonfolge aus den kombinierten Präferenzen mit Hilfe von Soft-Constraints; und Ausgeben der berechneten Tonfolgen.
  14. Verfahren nach Anspruch 13, bei welchem dem Instrument wenigstens eine Stimme (s1) zugeordnet ist und diese Stimme (s1) verschiedene Aktionen aus führen kann, die jeweils eine auszugebende Tonfolge definieren.
  15. Verfahren nach Anspruch 14, bei welchem die erste Präferenz, insbesondere ein Sensor-Constraint, sich auf die Übereinstimmung der Aktionen des Instruments mit den Sensorsignalen dieses Instruments bezieht, wobei jeder Aktion des Instruments eine Rangstufe zugeordnet wird, welche die Übereinstimmung dieser Aktion mit dem Sensorsignal bestimmt.
  16. Verfahren nach Anspruch 15, bei welchem die zweite Präferenz, insbesondere ein Harmonie-Constraint, sich auf die Übereinstimmung der Aktionen der Stimme des Instruments (s1) mit den Aktionen einer zweiten Stimme (s2) bezieht, wobei jeder Aktion des Instruments eine Rangstufe zugeordnet wird, welche die Übereinstimmung dieser Aktion mit der Aktion der zweiten Stimme bestimmt.
  17. Verfahren nach Anspruch 16, das mehrere Stimmen ({s1, s2, s3, ...}) verwendet und bei welchem die zweite Präferenz, insbesondere der Harmonie-Constraint, durch folgenden Ausdruck dargestellt wird:
    Figure 00230001
    wobei Belegung(sa) eine Aktion einer ersten Stimme (sa) bezeichnet, Belegung(sb) eine Aktion einer zweiten Stimme (sb) bezeichnet, Tonhöhe(Belegung(sa)) die Reduktion der Aktion der ersten Stimme auf eine Tonhöhenfolge beschreibt und Tonhöhe(Belegung(sb)) die Reduktion der Aktion der zweiten Stimme auf eine zweite Tonhöhenfolge beschreibt.
  18. Verfahren nach Anspruch 15, bei welchem die zweite Präferenz, insbesondere ein tonaler Harmonie-Constraint, sich auf die Übereinstimmung der Aktionen der Stimme des Instruments (s1) mit einer tonalen Skala bezieht, wobei jeder Aktion des Instruments eine Rangstufe ({wahr, falsch}) zugeordnet wird, welche die Übereinstimmung dieser Aktion mit der tonalen Skala misst.
  19. Verfahren nach einem der Ansprüche 13 bis 18, wobei die ersten und/oder zweiten Präferenzen eines der Folgenden umfassen: Tonhöhe, Tondauer, Tonhöhenbereich, Tondauerbereich, Tonintervall, Tonpause, Lautstärke, Rhythmus, Klangfarbe.
  20. Verfahren nach einem der Ansprüche 13 bis 19, bei welchem die ersten Sensorsignale des Instruments von einem Drucksensor, einem Berührungssensor, einem Bewegungssensor, einem Beschleunigungssensor, einem Gyroskop oder einem Bilderkennungseinrichtung stammen.
  21. Verfahren nach einem der Ansprüche 13 bis 20, bei welchem die ersten Sensorsignale des Instruments von einer Bilderkennungseinrichtung stammen, die aus einer Oberfläche besteht, auf der verschiedene Körper beweglich angeordnet sind, und die Sensorausgabe durch die Position der Körper auf der Oberfläche und/oder durch die relative Position der Körper zueinander bestimmt wird.
  22. Verfahren nach einem der Ansprüche 13 bis 21, bei welchem die Tonfolge an eine Musikausgabe, insbesondere einen Synthesizer, an eine Soundkarte eines PCs, oder an einen Digital-Analogwandler übermittelt wird, welche die Tonfolge ausgeben.
  23. Verfahren nach einem der Ansprüche 13 bis 22, bei welchem die Soft-Constraints über mathematischen Halbringen oder Monoiden definiert werden.
  24. Verfahren nach einem der Ansprüche 13 bis 23, bei welchem aus den kombinierten Präferenzen mit Hilfe von Soft-Constraints die Tonfolge unter Verwendung eines Verzweigen-und-Begrenzen-Algorithmus berechnet wird.
  25. Computerprogramm, das eine prozessorbasierte Vorrichtung veranlasst, ein Verfahren nach einem der Ansprüche 13 bis 24 auszuführen.
DE200910017204 2009-04-09 2009-04-09 Musiksystem Expired - Fee Related DE102009017204B4 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE200910017204 DE102009017204B4 (de) 2009-04-09 2009-04-09 Musiksystem
PCT/EP2010/001835 WO2010115519A1 (de) 2009-04-09 2010-03-24 Musiksystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE200910017204 DE102009017204B4 (de) 2009-04-09 2009-04-09 Musiksystem

Publications (2)

Publication Number Publication Date
DE102009017204A1 true DE102009017204A1 (de) 2010-10-14
DE102009017204B4 DE102009017204B4 (de) 2011-04-07

Family

ID=42269545

Family Applications (1)

Application Number Title Priority Date Filing Date
DE200910017204 Expired - Fee Related DE102009017204B4 (de) 2009-04-09 2009-04-09 Musiksystem

Country Status (2)

Country Link
DE (1) DE102009017204B4 (de)
WO (1) WO2010115519A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019196052A1 (en) * 2018-04-12 2019-10-17 Sunland Information Technology Co., Ltd. System and method for generating musical score

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4526078A (en) * 1982-09-23 1985-07-02 Joel Chadabe Interactive music composition and performance system
US5541358A (en) * 1993-03-26 1996-07-30 Yamaha Corporation Position-based controller for electronic musical instrument
DE19522958C2 (de) * 1995-06-15 1999-05-20 Peter P Wiest Verfahren zur Akustisierung körpereigener physikalischer Werte und Vorrichtung zur Durchführung des Verfahrens
EP0961262A1 (de) * 1998-05-27 1999-12-01 Sony France S.A. Problemlösung durch eine verbesserte Formulierung von Zwangsbedingungserfüllungsproblemen
US20070241918A1 (en) * 2005-12-02 2007-10-18 Mr. Farah Jubran Sound Generating Device For Use by People with Disabilities
US7297857B2 (en) * 2002-08-29 2007-11-20 Yamaha Corporation System of processing music performance for personalized management and evaluation of sampled data

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5541356A (en) * 1993-04-09 1996-07-30 Yamaha Corporation Electronic musical tone controller with fuzzy processing
EP0858650B1 (de) * 1995-10-23 2003-08-13 The Regents Of The University Of California Kontrollstruktur für klangsynthesierung
AUPR150700A0 (en) * 2000-11-17 2000-12-07 Mack, Allan John Automated music arranger
FR2903804B1 (fr) * 2006-07-13 2009-03-20 Mxp4 Procede et dispositif pour la composition automatique ou semi-automatique d'une sequence multimedia.
US7297852B1 (en) 2006-08-29 2007-11-20 Kuo-Chang Chen Pedal device for a drum

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4526078A (en) * 1982-09-23 1985-07-02 Joel Chadabe Interactive music composition and performance system
US5541358A (en) * 1993-03-26 1996-07-30 Yamaha Corporation Position-based controller for electronic musical instrument
DE19522958C2 (de) * 1995-06-15 1999-05-20 Peter P Wiest Verfahren zur Akustisierung körpereigener physikalischer Werte und Vorrichtung zur Durchführung des Verfahrens
EP0961262A1 (de) * 1998-05-27 1999-12-01 Sony France S.A. Problemlösung durch eine verbesserte Formulierung von Zwangsbedingungserfüllungsproblemen
US7297857B2 (en) * 2002-08-29 2007-11-20 Yamaha Corporation System of processing music performance for personalized management and evaluation of sampled data
US20070241918A1 (en) * 2005-12-02 2007-10-18 Mr. Farah Jubran Sound Generating Device For Use by People with Disabilities

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Bistarelli et al. wurde in "Semiring-based contraint satisfaction and optimization", J. ACM, 44(2): 201-236, 1997
Claudia Pacchetti et al., "Active Music Therapy in Parkinson's Disease: An Integrative Method for Motor and Emotional Rehabilitation", Psychosomatic Medicine, 2000, Band 62, Seiten 386 bis 393
Hölzl et al. erweiterten diese Theorie in "Which Soft-Constraints do you Prefer?", WRLA 2008, 7th International Workshop an Rewriting Logic and its Applications, March 2008, ENTCS, 2008
Hölzl. et al (vgl. auch Abschnitt 2.2)
Wirsing et al. in "A rewriting logic framework for Soft-Constraints.", WRLA 2006, 6th International Workshop an Rewriting Logic and its Applications, April 2006, ENTCS, 2006

Also Published As

Publication number Publication date
WO2010115519A1 (de) 2010-10-14
DE102009017204B4 (de) 2011-04-07

Similar Documents

Publication Publication Date Title
DE112011103067B4 (de) System, Computerprogrammprodukt und Verfahren mit einer grafischen Benutzerschnittstelle für die Programmierung von Musiksequenzen
DE602004000873T2 (de) Vorrichtung zur Synthese einer singenden Stimme unter Berücksichtigung unterschiedlicher Modelle je nach Ansatzkontext der gesungenen Töne
Hurley et al. Spontaneous sensorimotor coupling with multipart music.
DE2056509A1 (de) Elektrisches Tastenmusikinstrument
DE112005003043T5 (de) Verfahren und Vorrichtung, zum Ermöglichen von Änderungen einer Audiodatei durch einen Benutzer
DE102009040540B4 (de) Elektronisches Musikinstrument mit Stegreifaufführungsfunktion und Programm für Stegreifaufführungsfunktion
DE112013005807T5 (de) Vorrichtung und Verfahren zur Erzeugung einer Echtzeitmusikbegleitung
DE102014014856B4 (de) Musikinstrument, welches Akkordauslöser, die gleichzeitig auslösbar sind und denen jeweils ein konkreter Akkord, der aus mehreren Musiknoten verschiedener Tonhöhenklassen besteht, zugeordnet ist, beinhaltet
DE102005049485A1 (de) Steuerung der Wiedergabe von Audioinformationen
Zagorski-Thomas Musical meaning and the musicology of record production
Wang et al. An intelligent music generation based on Variational Autoencoder
DE102009017204B4 (de) Musiksystem
EP2372696B1 (de) Steuergerät für eine Spielkonsole sowie Verfahren zur Steuerung einer Spielkonsole
DE102009006765B4 (de) Verfahren zur Ansteuerung einer Bildausgabeeinrichtung, Verfahren zur Ermittlung von tangentialen Schnittebenen, Ansteuerungsmodul und Schnittebenenermittlungseinheit
Madison et al. Metrically structured time and entrainment
Miranda et al. Towards brain-computer music interfaces: Progress and challenges
DE102018005247A1 (de) Differenzierte Stimmungssteuerung für digitale Musikdateien
Roidinger Musikalisches Improvisieren
DE102012222577B4 (de) Verfahren, Computerprogrammprodukt und Vorrichtung zur Erzeugung einer Tonfolge
Lenc et al. Hysteresis in the selective synchronization of brain activity to musical rhythm
DE212012000111U1 (de) Musikinstrument
DE60131521T2 (de) Verfahren und Vorrichtung zur Steuerung des Betriebs eines Geräts bzw. eines Systems sowie System mit einer solchen Vorrichtung und Computerprogramm zur Ausführung des Verfahrens
EP4088275B1 (de) 2d benutzerschnittstelle für ein musikinstrument zum spielen von kombinierten akkord- und melodiefolgen
DE102014007712B4 (de) Verfahren zur teilautomatischen Erzeugung eines rhythmischen Ausgangssignals aus einem Einzelpulse aufweisenden Eingangssignal, Vorrichtung zur Durchführung eines solchen Verfahrens und Programmprodukt
AT525615A1 (de) Vorrichtung und verfahren zur ausgabe eines akustischen signals basierend auf physiologischen daten

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R020 Patent grant now final
R020 Patent grant now final

Effective date: 20110823

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee