DE69716848T2 - System zum Simulieren von Dirigieren - Google Patents
System zum Simulieren von DirigierenInfo
- Publication number
- DE69716848T2 DE69716848T2 DE69716848T DE69716848T DE69716848T2 DE 69716848 T2 DE69716848 T2 DE 69716848T2 DE 69716848 T DE69716848 T DE 69716848T DE 69716848 T DE69716848 T DE 69716848T DE 69716848 T2 DE69716848 T2 DE 69716848T2
- Authority
- DE
- Germany
- Prior art keywords
- data
- time
- tempo
- voice
- allocating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 239000004020 conductor Substances 0.000 claims description 37
- 230000014509 gene expression Effects 0.000 claims description 15
- 230000001944 accentuation Effects 0.000 claims description 14
- 238000006073 displacement reaction Methods 0.000 claims description 3
- 238000005259 measurement Methods 0.000 claims 2
- 238000001514 detection method Methods 0.000 claims 1
- 230000001360 synchronised effect Effects 0.000 claims 1
- 230000001755 vocal effect Effects 0.000 claims 1
- 238000000034 method Methods 0.000 description 52
- 230000008569 process Effects 0.000 description 29
- 230000008859 change Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 10
- 230000029058 respiratory gaseous exchange Effects 0.000 description 9
- 230000009471 action Effects 0.000 description 7
- ZYXYTGQFPZEUFX-UHFFFAOYSA-N benzpyrimoxan Chemical compound O1C(OCCC1)C=1C(=NC=NC=1)OCC1=CC=C(C=C1)C(F)(F)F ZYXYTGQFPZEUFX-UHFFFAOYSA-N 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 241000238876 Acari Species 0.000 description 3
- 230000003137 locomotive effect Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 229910001385 heavy metal Inorganic materials 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/40—Rhythm
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/201—User input interfaces for electrophonic musical instruments for movement interpretation, i.e. capturing and recognizing a gesture or a specific kind of movement, e.g. to control a musical instrument
- G10H2220/206—Conductor baton movement detection used to adjust rhythm, tempo or expressivity of, e.g. the playback of musical pieces
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Electrophonic Musical Instruments (AREA)
- Processing Or Creating Images (AREA)
Description
- Die Erfindung betrifft ein System, das gemäß einem Dirigat Ausdrucksweisen an Stimmen und/oder Bilder zuteilen kann, bei dem folgend der Wiedergabe von Stimmen und/oder Bildern in Echtzeit auf der Grundlage von einem der Parameter wie dem Tempo, der Amplitude, der Akzentsetzung und Betonung, die anhand einer Bewegung einer Eingangsvorrichtung erfasst werden, oder einer Kombination derselben Ausdrucksweisen an Stimmen und/oder Bilder zugeteilt werden, mit:
- einer Einrichtung zum Erfassen von Parametern wie dem Tempo, der Amplitude, der Akzentsetzung und Betonung anhand einer Bewegung einer Eingangsvorrichtung, und
- einer Einrichtung zum Wiedergeben von Stimmen und/oder Bildern in Echtzeit in einer solchen Weise, dass den Parametern wie dem Tempo, der Amplitude, der Akzentsetzung und Betonung oder einer Kombination derselben gefolgt wird.
- Die Erfindung betrifft ein System zum Zuteilen von Ausdrucksweisen an Stimmen und/der Bilder gemäß einem Dirigat.
- Jedermann weiß, dass es mehr Spaß bereitet, selbst Musik zu machen als nur Musik zu hören. Ohne die Fähigkeit, ein Musikinstrument zu beherrschen, wäre es jedoch schwer, Musik zu machen. Die meisten Leute verspüren einen Widerstand dagegen, mit Kindern zusammen eine Musikschule zu beginnen. In den letzten Jahren findet Desktop-Musik (DTM), welches Neulingen erlaubt, auf einem Personalcomputer Musik zu spielen, das Interesse der Leute. Selbst mit DTM ist jedoch eine Kenntnis der Notenschrift erforderlich. Ferner ist die Kenntnis von für DTM wichtigen Techniken wie etwa des MIDI-Formats (Musical Instrument Digital Interface) als Standard-Musikformat in der Welt der Computermusik wichtig.
- Die folgenden Verfahren zum Zuteilen von Ausdrucksweisen wie etwa Lautstärke und Tempo der Wiedergabe an Musik- oder Trickfilmdaten, die von Zeit zu Zeit wiedergegeben werden, sind bisher bekannt.
- 1) Ein Verfahren, bei welchem der Bedienende Ausdrucksdaten an Musik- oder Trickfilmdaten unter Verwendung einer Schieber- oder Pedalsteuerung zuteilt.
- 2) Ein Verfahren, das statistisch Daten ausgibt, indem Graphen und numerische Daten auf dem Computerbildschirm dargestellt werden.
- Zum vorgenannten Verfahren (1) benötigt man eine Schieber- oder Pedalsteuerung. Ferner müssen zum Setzen von zu vielen Parametern gleichzeitig zu viele Steuerer eingesetzt werden, was es erschwert, das System zu bedienen und zu beherrschen, wie die Parameter zu setzen sind.
- Zum vorgenannten Verfahren, (2) müssen hingegen Daten vorab statistisch vorgegeben sein. Dies erschwert es, nach Wunsch an Stimmen und/oder Bilder Ausdrucksweisen zuzuteilen, weil es ohne ausreichende Kenntnis nicht möglich ist vorherzusagen, welche Ausdrucksweisen von diesen Daten bereitgestellt werden.
- 3) Ein System zum Zuteilen gemäß einem Dirigat nach der WO-A-9322762, das als Eingangsvorrichtung beispielsweise eine Videokamera verwendet, um die Bewegungen des Benutzers zu erfassen.
- Es ist ein erstes Ziel der Erfindung, Ausdrucksweisen bereitzustellen folgend der Wiedergabe von Stimmen und/oder Bildern in Echtzeit auf der Grundlage von einem der Parameter wie dem Tempo, der Amplitude, der Akzentsetzung, die anhand den Bewegungen einer Eingangsvorrichtung erfasst werden, oder einer Kombination derselben.
- Es ist ein zweites Ziel der Erfindung, die Wiedergabe von Stimmen und/oder Bildern synchron mit einem Liedzeiger zu beginnen.
- Es ist ein drittes Ziel der Erfindung, Schlag- oder Bödenpunkte durch Analyse der Bewegung einer von der Eingangsvorrichtung gezeichneten graphischen Form einzuschätzen, um das vorgenannte Tempo und die vorgenannte Akzentsetzung zu bestimmen.
- Es ist ein viertes Ziel der Erfindung, die Bewegung einer von der Eingangsvorrichtung gezeichneten graphischen Form zu analysieren, um die Größe der graphischen Form zu bestimmen und dadurch die vorgenannte Amplitude zu bestimmen.
- Es ist ein fünftes Ziel der Erfindung, zu bewirken, dass eine Wiedergabeeinrichtung zum Wiedergeben von Stimmen und/oder Bildern in Echtzeit Akzentdaten empfängt, die die analytischen Ergebnisse der Bewegung einer graphischen Form zum Vorbereiten interner Daten beschreiben, und die vorgenannten Stimmen und/oder die vorgenannten Bilder durch Interpretieren der internen Daten wiederzugeben.
- Es ist ein sechstes Ziel der Erfindung, es zu ermöglichen, dass Stimmen und/oder Bilder im Probenmodus oder im Konzertmodus wiedergegeben werden.
- Fig. 1 ist ein Schaubild, das die Systemanordnung bei der Erfindung darstellt.
- Fig. 2 ist ein Schaubild, das ein typisches Display im Probenmodus darstellt.
- Fig. 3 ist ein Schaubild, das ein typisches Display im Konzertmodus darstellt.
- Fig. 4 ist ein Flussschaubild, das die Vorgehensweise bei dieser Erfindung darstellt.
- Fig. 5 zeigt typische Schritte beim Dirigieren für Musiker.
- Fig. 6 zeigt die vertikale Bewegung eines Mauscursors.
- Fig. 7 zeigt einen, Geschwindigkeitsgraphen eines Mauscursors.
- Fig. 8 ist ein Hilfsschaubild zum Erklären der Berechnung des Tempos im Stand der Technik.
- Fig. 9 ist ein Hilfsschaubild zum Erklären der Berechnung des Tempos bei der Erfindung.
- Fig. 10 ist ein Hilfsschaubild zum Erklären der Dateidaten bei der Erfindung.
- Fig. 11 ist ei Hilfsschaubild zum Erklären der internen Daten bei der Erfindung.
- Fig. 12 ist ein Flussschaubild für das Lesen von Daten gemäß der Erfindung.
- Fig. 13 zeigt ein typisches Datenformat von Akzentdaten gemäß der Erfindung.
- Fig. 14 ist ein Flussschaubild betreffend die Vorgehensweise bei der Wiedergabe bei der Erfindung.
- Fig. 15 ist ein Flussschaubild betreffend das Neusetzen von Parametern beim Ausführen von Schritten bei der Erfindung.
- Fig. 16 ist ein Flussschaubild betreffend die Vorgehensweise beim Weiterführen eines Liedzeigers, wenn die Atmung angegeben wird.
- Fig. 17 zeigt ein typisches Display für einen Trickfilm bei der Erfindung.
- Fig. 18 zeigt eine Serie von Bildgruppen.
- Zu Anfang wird unter Bezug auf Fig. 1 eine Einrichtung zum. Lösen der Probleme skizziert.
- In Fig. 1 wird eine Eingangsvorrichtung 1 zum Eingeben von Bewegungen wie beispielsweise die Trajektorie und die Bewegungen eines. Mauscursors verwendet.
- Es wird eine Schnittstelle 2 verwendet, um aus der Bewegung der Eingangsvorrichtung 1 die Parameter Tempo, Amplitude, Akzentsetzung und Betonung oder Kombinationen von diesen zu erfassen.
- Es wird ein Prozessor 3 verwendet, um den von der Schnittstelle bereitgestellten Parametern folgend Stimmen und/oder Bilder wiederzugeben.
- Es wird eine Wiedergabe-/Aufnahmeeinheit 4 verwendet, um gemäß einer Anweisung zum Wiedergeben von Stimmen und/oder Bildern, die vom Prozessor 3 gegeben wird, auf einem Display 5 etwas anzuzeigen, über einen Lautsprecher 6 etwas auszugeben oder Stimmen und/oder Bilder aufzunehmen.
- Es wird ein Display 5 zum Anzeigen von Bildern verwendet. Es wird ein Lautsprecher 6 zum Wiedergeben von Stimmen verwendet.
- Ein Stimmspeicher 7 speichert ein vorhandenes Musikstück beispielsweise im MIDI-Format. Ein Bildspeicher 8 speichert beispielsweise Bilder mit Szenen aus einem Orchesterkonzert oder einen Trickfilm.
- Die Schnittstelle 2 erfasst Parameter wie das Tempo, die Amplitude, die Akzentsetzung und Betonung anhand von Bewegungen der Eingangsvorrichtung 1; der Prozessor gibt Stimmen und/oder Bilder in Echtzeit an die Wiedergabe-/Aufnahmeeinheit 4 in einer solchen Weise aus, dass den erfassten Parametern wie dem Tempo, der Amplitude, der Akzentsetzung und Betonung gefolgt wird, um Bilder auf dem Display 5 anzuzeigen oder Stimmen über den Lautsprecher 6 auszugeben.
- Dann können Noten betreffend die wiedergegebene Stimme zusammen mit dem in Echtzeit wiedergegebenen und angezeigten Bild in einem Notenliniensystem angezeigt werden, wobei sich ein Liedzeiger mit dem Fortschreiten der wiedergegebenen Stimmein seiner Stellung im Notenliniensystem bewegt.
- Die Schnittstelle 2 ist dazu ausgelegt, anhand der Wiederholungsfrequenz der Bewegungen der Eingangsvorrichtung das Tempo zu erfassen.
- Ferner ist die Schnittstelle 2 dazu ausgelegt, die Amplitude anhand der maximalen Auslenkung bei der Bewegung der Eingangsvorrichtung 1 zu erfassen.
- Die Schnittstelle 2 ist auch dazu ausgelegt, eine Akzentsetzung durch Extrahieren des Anfangspunkts der Bewegungen der Eingangsvorrichtung 1 bereitzustellen.
- Die Schnittstelle 2 ist auch dazu ausgelegt, die Betonung anhand der maximalen Geschwindigkeit und Auslenkung der Bewegungen der Eingangsvorrichtung 1 zu erfassen. Ferner wird die Wiedergabe wieder aufgenommen, indem in Antwort auf eine von der Eingangsvorrichtung 1 gegebene Anweisung zum Atmen der Liedzeiger auf die Neubeginnstellung bewegt wird.
- Dies alles erlaubt es, dass folgend der Wiedergabe von Stimmen und/oder Bildern in Echtzeit auf der Grundlage von den Parametern wie dem Tempo, der Amplitude, der Akzentsetzung und Betonung, die anhand einer Bewegung der Eingangsvorrichtung 1 erfasst werden, Ausdrucksweisen zugeteilt werden.
- Im folgenden werden Ausführungsformen der Erfindung ausführlicher beschrieben.
- Das erfindungsgemäße System zum Zuteilen gemäß einem Dirigat ist ein Werkzeug zum Machen von Musik durch Dirigieren eines virtuellen Orchesters mit einem virtuellen Taktstock. Diese Erfindung erlaubt es, Musik virtuell zu dirigieren, indem das Tempo, die Lautstärke etc. beispielsweise aus der von einer Maus, welche zum Simulieren der Bewegung eines Taktstocks bewegt wird, gezogenen Trajektorie berechnet wird.
- Die Merkmale der Erfindung können wie folgt zusammengefasst werden.
- 1) Software zum Dirigieren von Musik in virtueller Weise durch Betätigen einer Eingangsvorrichtung wie etwa einer Maus.
- Das herausragendste Merkmal dieser Erfindung besteht darin, dass man sein eigenes Gefühl von Musik direkt in Form des Dirigierens von Musik durch Verwenden einer Eingangsvorrichtung wie etwa einer Maus, die üblicherweise in Verbindung mit Datenverarbeitungseinheiten verwendet wird, ausdrücken kann. Die Verwendung von im Handel erhältlicher' Sequencer-Software ermöglicht natürlich ein Ändern musikalischer Elemente wie dem Tempo und der Lautstärke. Dieses herkömmliche Sequencer-Verfahren, welches die direkte Eingabe von numerischen Werten umfasst, ist jedoch überhaupt nicht in Echtzeit betreibbar und vom Fühlen von Musik im Körper sehr fern.
- Außerdem hat diese Erfindung einen großen, bei herkömmlicher DTM-Software nicht zu findenden Vorteil, der darin besteht, dass zum Dirigieren von Musik außer dem Bewegen einer Maus keine anderen Maßnahmen erforderlich sind, und dass es nicht notwendig ist, Musikinstrumente oder die Notenschrift zu kennen.
- 2) Übernahme des Standard-MIDI-Formats für Musikdaten Diese Erfindung verwendet MIDI, das Standardformat für Musikdaten. Musikdateien jeder Art, von klassischer Musik zum Heavy-Metal-Rock, auf der Grundlage von MIDI sind durch das Gewinnen eines Zugriffs auf das WWW im Internet oder in Onlinediensten erhältlich. Es besteht daher kein Mangel an Quellen für Musik. Alle durch Dirigieren eines virtuellen Orchesters im Computer erhaltenen Musikdaten können in MIDI-Dateien abgelegt und überall in die Welt hin gesendet werden.
- 3) Es kann aus zwei Dirigiermoden ausgewählt werden. Bei einer Ausführungsform der Erfindung stehen für Dirigiervorgänge im Konzert- und Probenmodus zwei Bildschirme zur Verfügung.
- Fig. 2 zeigt einen typischen Probenmodus-Bildschirm, auf dem Geigenteile I und II von Rahmen umgeben sind, wie es notwendig ist, damit nur diese von den Rahmen umgebenen Geigenteile wahlweise dirigiert werden können, um ihr Tempo und ihre Amplitude zu ändern.
- Fig. 3 zeigt einen typischen Konzertmodus-Bildschirm, welcher eine Konzertszene darstellt, so dass das ganze Orchester dirigiert werden kann.
- Für beide Bildschirme sind die Dirigiervorgänge nahezu gleich, das Dirigieren kann aber in unterschiedlicher Weise erfahren werden.
- In den Fig. 2 und 3 ist ein Bildsymbol oder Icon, das eine Hand mit einem Taktstock darstellt, auf dem Schirm gezeigt. Dieses Icon bewegt sich auf dem Schirm in nahezu derselben Weise, wenn der Bediener eine Eingangsvorrichtung wie eine Maus betätigt, wodurch der Eindruck vermittelt wird, als wenn die "Hand mit dem Taktstock" Musik dirigiert.
- Im Probenmodus wird eine Probensitzung eines Orchesters simuliert, und jeder Teil wird aus dem Orchester ausgegliedert, um für diesen Teil vorab die Amplitude und das Tempo zu setzen. Dieser Modus ist durch eine hohe Genauigkeit beim Folgen von Dirigiervorgängen ausgezeichnet, um einen freien musikalischen Ausdruck zu gewährleisten.
- Im Konzertmodus kann ein Trickfilm oder ein Ruhebild (wie eine Szene aus einer Orchesterdarbietung) synchron mit der Musik gezeigt werden. In diesem Modus wird ein ganzes Musikstück gespielt und dirigiert, wobei sich Bildschirme nur über eine begrenzte Dauer, z. B. 5 Minuten, hinweg ändern, und es besteht kein Bedarf zum Bereitstellen von animierten Bildschirmen, auf denen Dirigiervorgängen direkt gefolgt wird.
- Fig. 4 ist ein Flussschaubild, das im Detail die Vorgehensweise der gesamten Anordnung der in Fig. 1 gezeigten Erfindung darstellt.
- In Fig. 4 erfolgt im Schritt S1 eine Initialisierung. Dies bedeutet, dass Parameter (Tempo, Amplitude, Akzentsetzung, Betonung etc.) initialisiert werden.
- Im Schritt S2 werden Stimm-, und Bilddaten gelesen. Beispielsweise werden in Fig. 10 gezeigte Dateidaten, die später beschrieben werden, gelesen.
- Im Schritt S3 wird ein initialisierter Liedzeiger angezeigt. Dies bedeutet, dass eine vorbestimmte Wartezeit angegeben wird, indem der Wartezeit (t1) ein Wert von -1 gegeben wird, und der Liedzeiger wird dazu gebracht. Führungsdaten zu zeigen, wie sie im Liedzeigeranzeigebereich im oberen Teil von Fig. 17, die später beschrieben wird, gezeigt sind.
- Im Schritt S4 zeigt der Prozessor 3 ein Anfangsbild an. Im Falle eines Trickfilmbilds wird beispielsweise ein Anfangsbild, wie es in der Mitte von Fig. 17, die später beschrieben wird, gezeigt ist, angezeigt.
- Durch Durchlaufen der Schritte S1 bis S4 wird ein Anfangsbild auf dem Display 5 angezeigt.
- Im Schritt S5 wird aus der Eingangsvorrichtung 1 heraus eine Anweisung für eine Wiedergabe gegeben. Dadurch wird die Wartezeit (t1 = -1), die im Schritt S3 definiert wurde, in t1 = 0 geändert, um den Wartezustand auszuschalten, wodurch das Verfahren zum Schritt S8 weitergeht. Das heißt, dass der Schritt S5 den Anfang für die Musik und Akzentsetzung gibt. Im Schritt S6 wird eine Anweisung zum Atmen von der Eingangsvorrichtung 1 ausgegeben, wenn Anlass dazu gegeben ist. Dadurch wird bewirkt, dass die Schnittstelle 2 den Liedzeiger im Schritt S7 auf die Neubeginn-Stellung voranbewegt, wodurch das Verfahren zum Schritt S8 übergeht.
- Im Schritt S8 bleibt der Prozessor 3 für t1 im Wartezustand. Ist t1 = 0, dann beginnt der Prozessor 3.
- Im Schritt S9 wird der Liedzeiger aktualisiert. Das bedeutet, dass wenn eine Anweisung für eine Wiedergabe gegeben wird, bei der Vorgehensweise wieder fortgeschritten wird, indem der Liedzeiger auf die Anfangs- oder Ürsprungsstellung verbracht wird und der Liedzeiger an einen Pausenpunkt gebracht wird, wenn eine Anweisung zum Atmen gegeben wird.
- Im Schritt S10 erfolgt die Zuteilung gemäß einem Dirigat unter Verwendung der Eingangsvorrichtung 1.
- Im Schritt S11 werden Parameter (Zeit, Amplitude, Akzentsetzung und Betonung)der Bewegung der Eingangsvorrichtung aktualisiert, wenn die Schnittstelle 2 diese Parameter erfasst, um auf die Zuteilung gemäß einem Dirigat im Schritt S10 zu antworten. Im Schritt S12 werden Klang- und Bildausgaben erzeugt. Das bedeutet, dass Klang reproduziert und/oder ein Bild angezeigt wird in einer solchen Art und Weise, dass den Parametern, die im Schritt S11 aktualisiert wurden, gefolgt wird.
- Im Schritt S13 wird die Echtzeit für die nächste Ausführung aktualisiert, und im Verfahren wird zum Schritt S8 zurückgekehrt, um die Schritte S8, S9, S12 und S13 zu wiederholen.
- Mit der vorgenannten Vorgehensweise erfolgt die Klangwiedergabe und/oder Bildanzeige anhand von Standardparametern (Tempo, Amplitude, Akzentsetzung und Betonung), um auf eine Anweisung zum Wiedergeben in dem Zustand zu antworten, in welchem der Anfangsschirm angezeigt wird; und beim Zuteilen gemäß einem Dirigat werden die anhand der Bewegung beim Dirigiervorgang erfassten Parameter aktualisiert, und Klangwiedergabe und Bildanzeige ändern sich in Echtzeit mit den aktualisierten Parametern. Dies ermöglicht es. Klang und Bild anhand den aus dem Dirigiervorgang in Echtzeit erfassten Parametern wiederzugeben, so dass dem wiedergegebenen Klang und Bild Ausdrucksweisen zugeteilt werden können.
- Im folgenden wird der im Zusammenhang mit Schritt S10 erwähnte Dirigiervorgang unter Bezug auf Fig. 4 beschrieben.
- Beim Dirigieren eines Musikstücks gibt ein Dirigent gewöhnlicher Weise eine Vielzahl von Anweisungen. Außer von den vom Dirigenten gegebenen Anweisungen lassen sich die Spieler beim Spielen davon leiten, wie der Konzertmeister mit seinem Bogen streicht, sie hören auf den Klang, den sie selbst und andere Spiele erzeugen, wobei sie diese Informationen wieder in ihr Gehirn zurückleiten. Gegenwärtig ist es schwierig, dieses komplizierte System zu simulieren, aber das System zum Zuteilen gemäß einem Dirigat spielt ein Musikstück, indem es die vom Bediener erzeugten graphischen Dirigierformen auswertet, d. h. die graphischen Dirigierformen, welche von dem Mauscursor, der einen Dirigierstock simuliert, gezeichnet werden.
- Was ein Dirigent durch Dirigieren graphischer Formen ausdrückt ist das folgende:
- 1. Tempo eines Musikstück
- 2. Akzentsetzung
- 3. Lautstärke
- Bei dieser Erfindung werden das Tempo, die Akzentsetzung, die Betonung und die Lautstärke, welche während des Spielens eines Musikstücks den Gefühlsausdruck beeinflussen, in Echtzeit gesteuert, indem die von der Trajektorie des Mauscursors gebildete graphische Dirigierform analysiert wird.
- Um die graphische Dirigierform auszuwerten, sind die Kenntnis der üblicherweise von Dirigenten verwendeten graphischen Dirigierformen und der Geschichte und der Eigenarten von graphischen Dirigierformen wesentlich.
- Fig. 5 zeigt typische graphische Dirigierformen für Zweier-, Dreier- und Vierertakte. Diese graphischen Dirigierformen bestehen aus einer Kombination von mehreren Dirigiervorgängen. Diese Erfindung analysiert graphische Dirigierformen, indem gemeinsame Komponenten von Dirigiervorgängen erkannt und extrahiert werden, anstatt dass einzelne Dirigiervorgänge getrennt erkannt werden.
- Bei Dirigier-Grundvorgängen beginnt ein einzelner Dirigiervorgang einen halben Schlag (Auftakt) vor einer beabsichtigten Zeitangabe (Abwärtsschlag). Nachdem die Zeitangabe des Abwärtsschlags gegeben wurde, endet mit diesem Abwärtsschlag der Dirigiervorgang. Anschließend beginnt der nächste Dirigiervorgang. Mit der Zeitangabe des Abwärtsschlags können sich Geschwindigkeit und Richtung schnell ändern, oder die Geschwindigkeit kann nach und nach das Maximum erreichen. Die am weitesten unten gelegene Stelle in einer graphischen Form wird aber als Zeitangabe der Anweisung betrachtet. Den Anfangs- und Endstellungen werden die höchsten Stellungen in ihrer Nähe zugeordnet.
- Der den Abwärtsschlag angebende Punkt wird mit den Begriffen der Musik-Dirigiermethode häufig als Schlag- oder Bodenpunkt bezeichnet. Ein Dirigent bestimmt die Zeitangabe für das Musikspiel mit einem Schlag- oder Bodenpunkt und das Tempo der Musik durch ein Intervall zwischen den Schlag- und Bodenpunkten. Bei dieser Erfindung wird der Anfangs- oder Endpunkt (die den Verbindungspunkt zweier Dirigiervorgänge oder den Auftakt repräsentieren) von Dirigiervorgängen als Schlagpunkt bezeichnet, und der den Abwärtsschlag repräsentierende Punkt wird als Bodenpunkt bezeichnet; und die Zeitangabe und das Tempo werden durch Erfassen und Vohersagen dieser Zeitangaben gesteuert.
- Der Dirigent bestimmt die Lautstärke durch die Größe der von einem Dirigierstock gezeichneten graphischen Form. Bei dieser Erfindung, die darauf abzielt, eine Steuerung mit einer Antwortzeit von weniger als einer Schlagzeit zu erlangen, wird die Lautstärke durch die Größe der einzelnen Dirigiervorgänge gesteuert. Ein Problem besteht hier darin, dass sich die Form und die Größe von Dirigiervorgängen in einer graphischen Form mit der Anzahl der Schläge ändern. Ein Steuern der Lautstärke, ohne dass diese Faktoren berücksichtigt würden, könnte unnatürliche taktweise periodische Änderungen der Lautstärke bewirken.
- Im folgenden wird das Verfahren zum Analysieren von Veränderungen der Koordinaten einer Maus mit der Zeit und des Extrahierens von Schlag- und Bodenpunkten, von Tempo- und Lautstärkeelementen beschrieben.
- Der erste Schritt beim Analysieren eines mittels einer Maus vorgegebenen Dirigiervorgangs besteht darin, aus einer von einer Maus gezeichneten graphischen Dirigierform einen Schlag- oder Bodenpunkt vorherzusagen. Bei Ausführungsformen dieser Erfindung wird nur die vertikale Bewegung eines Mauscursors auf dem Computerbildschirm als den Schlag- und die Bodenpunkte bestimmend angesehen, und die horizontale Bewegung eines Mauscursors wird beim Erkennen der Schlag- und Bodenpunkte nicht berücksichtigt. Dies bedeutet, dass weil die Schlagzeitangabe vom niedrigsten Punkt eines Taktstocks repräsentiert wird und der Auftakt, der eine Zeitangabe ist, die durch Halbieren eines Intervalls zwischen Schlägen erhalten wird, im Standardmuster von Dirigiervorgängen vom höchsten Punkt des Taktstocks repräsentiert wird, die Schlag- und Bodenpunkte durch Analysieren der vertikalen Bewegung des Mauscursors auf dem Bildschirm erkannt werden.
- Fig. 6 ist ein Graph, in welchem die vertikale Bewegung eines Mauscursors gegen die Zeit auf getragen ist, wenn ein Bediener beim Hören eines Musikstücks die Maus regelmäßig zum Takt der Musik bewegt.
- Die Figur enthüllt die folgenden Tatsachen.
- 1. Im Windows-Betriebssystem tritt der Vorgang des Erkennens der Bewegung des Cursors in Schritten von etwa 20 bis 30 Millisekunden auf. Auch wenn sich dies natürlich in Abhängigkeit von der Systemanordnung und der Bedingung für die Aufgabe ändert, fällt das Zeitintervall grob in diesen Bereich.
- 2. Da die Fortbewegungsgeschwindigkeit der Maus in den höchsten und niedrigsten Werten in der vertikalen Richtung auf dem Schirm ihr Minimum erreicht, verdichten sich die erfassten Vorgangspunkte. Da außerdem die Neigung der Kurve in der Nähe dieser Werte sehr gering wird, kann eine Mehrzahl der erfassten Betriebspunkte über Zeitspannen von etwa 50 Millisekunden horizontale Linien bilden, wie es in Fig. 6 gezeigt ist.
- Daraus folgt, dass das Setzen der Schlag- und Bodenpunkte aus den Zeiten, zu denen die vertikale Cursorbewegung den minimalen oder maximalen Wert erreicht, die folgenden Nachteile bewirken könnte:
- 1. Auch wenn eine Genauigkeit für eine Gruppe von 12 Noten so sein muss, dass man eine Triole von einer Sechzehntel-Note unterscheiden kann, beträgt die Genauigkeit eines Tempos mit 120 Schlägen pro Minute (nahezu das Tempo eines Marsches) 40 Millisekunden. Die Verwendung einer Abfragezeit, bei der die vertikale Cursorbewegung das Minimum oder Maximum erreicht, mit einer Genauigkeit von 20 Millisekunden, würde bei der Wiedergabe von Musik Probleme bereiten.
- 2. Da es mehrere Punkte mit ähnlichen vertikalen Koordinatenwerten in der Nähe der maximalen und minimalen Cursorbewegungswerte gibt, ist es schwierig, die genaue Zeit abzuschätzen, zu der die vertikale Cursorbewegung den maximalen oder minimalen Wert erreicht, auch wenn Nachbarpunkte berücksichtigt werden.
- Aus diesen Gründen ist es nicht angemessen, diejenigen Punkte als Schlag- oder Bodenpunkte zu verwenden, an denen die vertikale Cursorbewegung ein Maximum oder Minimum erreicht.
- Fig. 7 ist ein Graph, auf dem die Geschwindigkeit eines Cursors auf dem Computerbildschirm in der vertikalen Richtung auf der Grundlage der in Fig. 6 gezeigten Daten aufgetragen ist.
- Die Figur enthüllt die folgenden Tatsachen.
- 1) In der Nachbarschaft der maximalen oder minimalen Geschwindigkeit der Cursorbewegung bilden drei Messpunkte, dabei die vorangehenden und nachfolgenden Punkte eine Form, die einem gleichschenkligen Dreieck mit einer scharfen Spitze im mittleren Punkt nahekommt.
- 2) Wie durch den Buchstaben a in der Figur angezeigt ist, können mehrere Punkte enthalten sein, die niemals ein Dreieck bilden. Ferner kann man diese Punkte oft in der Nähe der Spitze finden.
- Angesichts der Tatsache, dass der in Fig. 7 gezeigte Graph im allgemeinen scharfe Punkte aufweist, ist es klarerweise vorteilhafter. Schlag- und Bodenpunkte aus den Spitzen im Graphen aus Fig. 7 abzuschätzen, anstatt Schlag- und Bodenpunkte aus den Spitzen im Graphen aus Fig. 6 zu bestimmen. Es ist nicht notwendigerweise ausreichend, Schlag- und Bodenpunkte aus den Punkten zu bestimmen, an denen die vertikale Cursorgeschwindigkeit den maximalen oder minimalen Wert erreicht, weil die Kurve in der Nähe der Spitzen oft verzerrt ist.
- Dementsprechend verwendet die Erfindung ein Verfahren zum Abschätzen von Schlag- und Bodenpunkten aus der Durchschnittsgeschwindigkeit, in einem Bereich von zwischen dem Punkt, an dem die Geschwindigkeit gleich Null ist, bis zu dem Punkt, an dem sie wieder Null wird, mit den Punkten, an denen die Geschwindigkeit der Cursorbewegung den maximalen oder minimalen Wert erreicht. Das bedeutet, dass Schlag- und Bodenpunkte bei dieser Erfindung auf der Grundlage der Zeit abgeschätzt werden, zu der die Geschwindigkeit der Cursorbewegung den maximalen oder minimalen Wert erreicht.
- Die Musikwiedergabe und Trickfilmbilder werden synchron mit den von dem Dirigenten gegebenen Schlag- und Bodenpunkten aktualisiert. Aus diesem Grund wird das Tempo bei dieser Erfindung auf der Grundlage des Zeitintervalls zwischen den Schlag- und Bodenpunkten in Echtzeit berechnet.
- Zunächst wird beschrieben was passiert, wenn das Tempo mit dem einfachsten Verfahren zum Berechnen des Tempos aus den zuletzt erfassten Schlag- und Bodenpunkten berechnet wird.
- Fig. 8 ist ein Schaubild, das beim Erklären der Geschwindigkeitsberechnung hilft. In Fig. 8 werden die zuletzt erfassten beiden Schlag- oder Bodenpunkte a und β bezüglich der Zeit T verwendet. Da Tempo die für einen Schlag erforderliche Zeit meint, wird das Tempo zur Zeit T gleich tt.
- Das Einbeziehen des mittels dieses Verfahrens berechneten Tempos in Echtzeit der Musikwiedergabe zeigte an, dass das Tempo der Musik auf den von der Mausbewegung hervorgerufenen Dirigiervorgang zu schnell antwortet, um den Dirigiervorgang in Gang zu halten. Dies bedeutet, dass ein System zum Zuteilen gemäß einem Dirigat auf menschliche Dirigiervorgänge recht schleppend antworten muss. Insbesondere muss ein System zum Zuteilen gemäß einem Dirigat die folgenden Erfordernisse erfüllen.
- 1) Selbst wenn es Temposchwankungen gibt, sollte das System in der Lage sein, Musik ruhig zu spielen, wobei derartige Schwankungen unbeachtet bleiben.
- 2) Wenn im Tempo ein abrupter Wechsel auftritt, sollte das System zum Zuteilen gemäß einem Dirigat recht langsam auf den Wechsel antworten.
- Das Erfordernis 1) kann erfüllt werden, indem ein Tempo nicht nur aus dem unmittelbar vorhergehenden Schlag- oder Bodenpunkt berechnet wird, sondern auch auf der Grundlage der Zeit von dem Schlag- oder Bodenpunkt beträchtlich vor dem vorliegenden Schlag- oder Bodenpunkt für den vorliegenden, und durch Einbeziehen davon. Dies hilft beim Stabilisieren des Tempos. Das Erfordernis 2) kann erfüllt werden, indem das vorherige Tempo einbezogen wird. Indem dies getan wird, kann das System zum Zuteilen gemäß einem Dirigat auf Änderungen langsamer antworten.
- Fig. 9 ist ein Schaubild, das beim Erklären der Berechnung des Tempos hilft, indem das vorherige Tempo einbezogen wird. Das Tempo zur Zeit T wird in einem nachfolgend gegebenen Verhältnis berechnet, indem das gewichtete Mittel der vier Tempoarten wie etwa tt, bt, tb und bb, wie sie in Fig. 9 gezeigt sind, ermittelt wird. Damit kann ein Dirigiervorgang nahe an der menschlichen Empfindlichkeit resultieren.
- tt : bb : tb : bt = 2 : 1 : 1 : 0,5
- Genauso wie ein Dirigent seinen Taktstock heftiger schlägt, damit sein Orchester größere Lautstärken erzeugt, ist diese Erfindung dazu ausgelegt, größere Lautstärken zu erzeugen, wenn die Maus über eine größere Strecke bewegt wird.
- In MIDI-Daten werden bis zu 127 Lautstärkestufen von der kleinsten Stufe von 0 bis zur höchsten Stufe von 127 für jede Note bestimmt. Durch Hinzuaddieren eines aus der Fortbewegungsstrecke der Maus berechneten Verschiebungswerts offset kann die Lautstärke bei der Erfindung in Echtzeit eingestellt werden.
- wobei max X und max Y Größen des Dirigierbildschirms in den X- bzw. Y-Richtungen sind und dx und dy Fortbewegungsstrecken der Maus zwischen Schlag- oder Bodenpunkten bezeichnen. Der Grund, weswegen dy und max Y in der Gleichung verdoppelt werden, besteht darin, dass auf das Bildverhältnis von 1 : 2 des Dirigierbildschirms eingestellt werden muss.
- "lastoffset" ist der unmittelbar vorhergehende Verschiebungswert. Abrupte Änderungen der Lautstärke können durch Berechnen des Durchschnitts mit dem lastoffset gesteuert werden.
- Wie oben bemerkt, wird das Tempo für jeden Halbschlag bestimmt. Falls das auf diese Weise bestimmte Tempo sich bei der Musikwiedergabe in jedem Schlag- oder Bodenpunkt widerspiegelt, werden sowohl die Wiedergabe, als auch der Dirigiervorgang sehr unnatürlich. Dies gilt, weil wenn ein Tempo zwischen einem Schlag- oder Bodenpunkt und dem nächsten Schlag- oder Bodenpunkt stark abweicht, der Schlag- oder Bodenpunkt bei einem Dirigiervorgang sich von dem Teil der Musikwiedergabe entfernen kann, dem der Dirigiervorgang ursprünglich entsprechen sollte, oder es kann im Tempo beim nächsten Schlag- oder Bodenpunkt eine plötzliche Änderung auftreten. In einer derartigen Situation kann die Musikwiedergabe im ursprünglichen Tempo fortgesetzt werden, selbst wenn die Mausbewegung während des Dirigiervorgangs vollständig angehalten wird. Dies hat seinen Grund darin, dass selbst dann, wenn bei jedem Schlag- oder Bodenpunkt ein Tempowechsel auftritt, keine Schlag- oder Bodenpunkte erfasst werden, solange die Maus im Ruhezustand bleibt.
- Um diese Nachteile zu beheben, übt das erfindungsgemäße System zum Dirigieren eine Steuerung aus, während die Synchronisierung zwischen den Dirigiervorgängen und der Musikwiedergabe aufrechterhalten wird. Hierzu überwacht das erfindungsgemäße System zum Zuteilen gemäß einem Dirigat immer, um wie viele Schläge entweder des Dirigiervorgangs oder der Musikwiedergabe eine Abweichung bei jedem halben Schlag des Dirigiervorgangs und der Musikwiedergabe auftritt. Falls eine Abweichung erfasst wird, wird die Abweichung durch Anpassen der Geschwindigkeit der Musikwiedergabe in Echtzeit schnell korrigiert. Genauer wird zwischen den Dirigiervorgängen und der Musikwiedergabe eine perfekte Synchronisierung aufrechterhalten, indem die in Tabelle 1 gezeigten korrekten Vorgänge ausgeführt werden. Wie bei anzuzeigenden Bildern wird eine Reihe von Bildern in einzelnen Einheiten bereitgestellt, und die Anfangspunkte der einzelne Einheiten bildenden Bilder werden gesteuert, um während der obengenannten Musikwiedergabe eine Synchronität mit den Haupttaktzeiten aufrechtzuerhalten. Die Bilder werden in einer Folge mit einer Geschwindigkeit, die dem Tempo der Musikwiedergabe entspricht, angezeigt, wie es die Umstände verlangen. Tabelle 1 Abweichung beim Dirigiervorgang und Korrekturmaßnahmen
- Fig. 10 ist ein Schaubild, das darstellt, wie Dateidaten einer Notationsweise entsprechen.
- Die im oberen Teil von Fig. 10 gezeigte Notation ist durch Dateidaten ausgedrückt, die im unteren Teil der Figur gezeigt sind. Das heißt, dass zunächst ein 4/4-TaKt angewiesen wird, und dann werden C-Dur, ein Tempo und eine Amplitudenänderung angewiesen. Anschließend sind NOTEON- (für den Ton e) und NOTEON- (für den Ton g) Botschaften beschrieben, wobei die Differenzzeit (Tick) auf den selben Wert gesetzt wird, um so die Anweisung zu geben, die Töne e und g gleichzeitig anzuschalten. Anschließend ist eine Änderung der Amplitude angewiesen. Nach dem Verstreichen einer vorbestimmten Zeit sind NOTEOFF- (für den Ton e) und NOTEOFF- (für den Ton g) Botschaften beschrieben, um ein gleichzeitiges Ausschalten von den Tönen e und g anzuweisen, und es ist eine NOTEON- (für den Ton c) Botschaft beschrieben, um anzuweisen, dass der Ton c um selben Zeitpunkt eingeschaltet wird. Falls es keine Änderung der Amplitude gibt, wird die Änderung der Amplitude nicht beschrieben, und es wird ein "ENDE" nach dem NOTEOFF (für den Ton c) beschrieben, um den Ton c nach dem Verstreichen einer vorbestimmten Zeit auszuschalten.
- T in der "Type"-Spalte in Fig. 10 bezeichnet das Tempo, M MIDI- Daten und E die Enddaten.
- Fig. 11 zeigt interne Daten, die in dem System dieser Erfindung verwendet werden, wodurch die Umwandlungsergebnisse der in Fig. 10 gezeigten Dateidaten angezeigt werden.
- Bei Ausführungsformen dieser Erfindung wird Musik auf der Grundlage der in Fig. 11 gezeigten internen Daten und gemäß den Dirigiervorgängen, die einer von einer Eingangsvorrichtung wie einer Maus gezeichneten graphischen Form entsprechen, wiedergegeben. Im folgenden wird dieses Verfahren beschrieben. In Fig. 10 werden mit der Differenzzeit von "O" der "4/4-Takt", "C-Dur", "Tempo 120,0", "Änderung der Amplitude 127", "NOTEON 88 (Geschwindigkeit)" und "NOTEON 88 (Geschwindigkeit)" angewiesen. Nach dem Verstreichen von 240 Ticks werden die "Änderung der Amplitude 63", "NOTEOFF 0 Geschwindigkeit)", "NOTEOFF 0 (Geschwindigkeit)" und "NOTEON 88 (Geschwindigkeit)" angewiesen. Anschließend werden nach dem. Verstreichen von 960 Ticks nach diesem Zeitpunkt "NOTEOFF 0 (Geschwindigkeit)" und "Ende" angewiesen. Im oberen und unteren Teil von Fig. 10 sind (Anmerkungen) angegeben, um das Verständnis von Fig. 10 zu erleichtern.
- In Fig. 10 wird die abgelaufene Zeit durch die Differenzzeit angegeben, während in Fig. 11 die abgelaufene Zeit durch die seit der Zeit 0 abgelaufene Zeit (die als gegenwärtige Zeit beschrieben wird) angegeben wird.
- In Fig. 11 werden "Schlagdaten" oben hinzugefügt, und andere "Schlagdaten" werden den wichtigen Teilen der Datei hinzugefügt, während die in Fig. 10 gezeigte Differenzzeit von Fig. 10 kopiert, wird, während sie in die gegenwärtige Zeit umgewandelt wird.
- Das heißt, dass nach dem Hinzufügen der "Schlagdaten" der "4/4- Takt", "C-Dur", "Tempo 120,0", "Änderung der Amplitude 127 (max)", "NOTEON 88 (Geschwindigkeit)" und "NOTEON 88 (Geschwindigkeit)" kopiert werden, mit der gegenwärtigen Zeit "O". Anschließend wird die "gegenwärtige Zeit" aus der Differenz zwischen der Differenzzeit von Nr. (7) und der Differenzzeit in Nr. (6) in (Anmerkungen) auf der rechten Seite von Fig. 10 berechnet, und dann werden die "Schlagdaten" hinzugefügt.
- (Anmerkungen) auf der rechten Seite von Fig. 11 beschreiben die Beziehung zu den in Fig. 10 gezeigten. Wie man in diesen (Notizen) sehen kann, kann man "NOTEOFF 0 (Geschwindigkeit)", "NOTEOFF 0 (Geschwindigkeit)" und "NOTEON 88 (Geschwindigkeit)" mit der gegenwärtigen Zeit von "480" erhalten. Dann werden notwendige "Schlagdaten" hinzugefügt, und dann werden "NOTEOFF 0 (Geschwindigkeit)" und "Ende" mit der gegenwärtigen Zeit von "1440" erhalten.
- Fig. 12 ist ein Flussschaubild betreffend das Lesen von Daten bei dieser Erfindung, d. h. ein Flussschaubild betreffend das Umwandeln der in Fig. 10 gezeigten Datendaten in die in Fig. 11 gezeigten internen Daten.
- In Fig. 12 wird die gegenwärtige Zeit T im Schritt S21 auf 0 gesetzt.
- Im Schritt S22 wird eine MIDI-Datendatei gelesen. Das heißt, dass Dateidaten, wie sie beispielsweise in Fig. 10 gezeigt sind, als MIDI-Dateidaten gelesen werden.
- Im Schritt S23 werden oben Schlagdaten hinzugefügt. Das heißt, bevor die Dateidaten aus Fig. 10, die beispielsweise im Schritt S22 gelesen wurden, in interne Daten umgewandelt werden, werden Schlagdaten zu den umgewandelten internen Daten in Fig. 11 oben hinzugefügt.
- Schlagdaten haben ein Datenformat, wie es in Fig. 13 gezeigt ist, und welches unten beschrieben wird.
- Im Schritt S24 wird eine Zeile von den MIDI-Dateidaten oben genommen, d. h. es wird eine Zeile oben von den ursprünglichen Dateidaten geholt, die im Schritt S22 genommen wurden, oder von den Dateidaten aus Fig. 10.
- Im Schritt S25 wird beurteilt, ob Daten existieren. Falls JA, wird im Verfahren zum Schritt S26 übergegangen. Falls NEIN, wird das Verfahren beendet, wenn die Umwandlung der im Schritt S22 genommenen MIDI-Dateidaten in interne Daten abgeschlossen wurde (Ende).
- Im Schritt S26 werden die Typen und Daten kopiert, und die gegenwärtige Zeit T wird gespeichert. Das heißt, dass die Dateidaten, die vor der Umwandlung im Schritt S24 genommen wurden, oder die Online-Dateidaten oben in Fig. 10, beispielsweise
- in die zweite Zeile aus Fig. 11 nach dem umwandeln kopiert werden, und die gegenwärtige Zeit T = 0 wird gespeichert. Im Schritt 327 wird die nächste gegenwärtige Zeit T1 aus der Differenzzeit mittels der folgenden Gleichung berechnet:
- T1 = T + Differenzzeit.
- Im Schritt S28 wird die Länge ΔT einer Achtelnote zur gegenwärtigen Zeit hinzugefügt, wie es in der folgenden Gleichung gezeigt, ist:
- T = T + ΔT.
- Im Schritt S29 wird beurteilt, ob T kleiner als T1. Falls NEIN, ersetzt T1 im Schritt S31 T, und Schritt S24 und die nachfolgenden Vorgänge werden wiederholt. Falls JA, wurde herausgefunden, dass die Zeit T nach dem Hinzufügen der Achtelnotenlänge ΔT zur gegenwärtigen Zeit T kleiner als die nächste gegenwärtige Zeit T1 ist, so dass zu der Zeit T im Schritt S30 Schlagdaten hinzugefügt werden.
- Mit der vorgenannten Vorgehensweise werden bis zu "4/4-Takt", "C-Dur", "Tempo", "Änderung des Tempos", "NOTEON" und "NOTEON", die in Fig. 10 gezeigt sind, kopiert. Nun sei angenommen, dass die Vorgehensweise für die nächste "Änderung der Amplitude 63" den Schritt S26 erreicht. In diesem Fall wird die Gleichung
- T1 = 0 + 240 = 240
- im Schritt S27 berechnet, und
- T = T + ΔT
- wird im Schritt S28 erlangt. Da T < = T1, wird bei der Vorgehensweise zum Schritt 330 übergangen. Das heißt, Schlagdaten, wie sie in Fig. 11 gezeigt sind, werden hinzugefügt. Dann werden, wenn die Schlagdaten wie in Fig. 11 gezeigt hinzugefügt werden, die in Fig. 10 gezeigten Daten in Folge kopiert.
- Nun werden die in den Fig. 10 und 11 verwendeten Begriffe hier beschrieben.
- "Differenzzeit (Tick)" ist die Differenzzeit zwischen Eingaben. Die Typen T, M und E sind Symbole, die die Typen "Tempo", "MIDI-Daten" bzw. "letzte Daten" repräsentieren. Die Daten werden wie in der Figur gezeigt gesetzt, beispielsweise gemäß den Typen.
- "Tempo" sind Daten, die das Tempo für eine Note (jede Note in einem Notenliniensystem) repräsentieren. "Änderung in der Amplitude 127 (max)" zeigt an, dass die Lautstarkeamplitude geändert wurde, und dass die Lautstärkeamplitude nach der. Änderung "127 (Maximum)" ist. "NOTEON 88 (Geschwindigkeit)" sind Daten, die anzeigen, dass ein Klang erzeugt wird, und dass seine Geschwindigkeit (die Amplitude der Betonung) gleich "88" ist. "NOTEOFF 0 (Gechwindigkeit)" sind Daten, die anzeigen, dass der Klang angehalten wurde, und dass seine Geschwindigkeit (die Amplitude der Betonung) gleich 0 ist. "Ende" repräsentiert die letzten Daten.
- Die "gegenwärtige Zeit (Tick)" ist die gegenwärtige Zeit, die nach und nach ansteigt. (In Fig. 10 repräsentiert "gegenwärtige Zeit" die Differenzzeit zwischen Daten.) Typ B sind Schlagdaten oder in Fig. 13 gezeigte Daten, die später beschrieben werden. Weitere sind diejenigen, die aus Fig. 10 kopiert wurden.
- Auf diese Weise sind interne Daten Daten, in denen die Zeit nach und nach ansteigt, wie es in der Figur gezeigt ist, in Schritten von ganzzahligen Vielfachen von Achtelnoten = 240 Ticks.
- Fig. 13 zeigt ein typisches Schlagdatenformat gemäß der Erfindung. In den Schlagdaten werden die folgenden Inhalte wie in der Figur gezeigt gesetzt.
- "Head of Time" ist eine für die Bildauswahl verwendete Flag (Marke).
- "Head of Measure" ist eine Flag, die für die Bildauswahl verwendet wurde.
- "Fermata flag" ist eine Flag zum Anweisen der Erweiterung eines Klangs, wenn dieser eingeschaltet wird.
- "Breath flag" ist eine Flag zum Anweisen der Wiederaufnahme der Wiedergabe nach der Unterbrechung eines Klangs.
- "Tempo" sind Daten, die das Tempo der Wiedergabe von Stimmen oder Bildern beschreiben. Der Inhalt von Schlagdaten wird gemäß den Dirigiervorgängen gemäß der Erfindung beschrieben durch Analysieren graphischer Formen, die beispielsweise mit einer Maus gezeichnet wurden.
- Fig. 14 ist ein Flussschaubild für die erfindungsgemäße Vorgehensweise bei der Wiedergabe. Sie ist ein Flussschaubild, das die Vorgehensweise bei der Wiedergabe in den in Fig. 4 gezeigten Schritten S9, S12, S13 etc. im Detail zeigt.
- In Fig. 14 werden im Schritt S41 Daten, die durch einen "Liedzeiger" bezeichnet sind, geholt, wie sie beispielsweise in den internen Daten, die in Fig. 11 gezeigt sind, links gegeben sind.
- Im Schritt S42 wird beurteilt, ob die im Schritt S41 geholten Daten Schlagdaten sind. Falls JA, wird im Verfahren zum Schritt S43 übergegangen. Falls NEIN, wird im Verfahren zum Schritt S47 übergegangen.
- Im Schritt 343 wird weiter beurteilt, ob die im Schritt S42 als Schlagdaten beurteilten Daten für eine Fermate oder Atmen stehen. Falls JA, wird die Musikwiedergabe unterbrochen, indem im Schritt S44 die Wartezeit t1 auf einen größeren Wert (beispielsweise t1 = 30 sec) geändert wird. Falls NEIN, wird im Schritt S45 auf der Grundlage der Schlagdaten und Parameter das nächste Bild ausgewählt, das Bild wird im Schritt S46 aktualisiert, und dann wird im Verfahren zum Schritt S53 übergegangen.
- Im Schritt S47 wird beurteilt, ob die Daten MIDI-Daten sind. Falls JA, wird im Verfahren zum Schritt S48 übergegangen. Falls NEIN, wird im Verfahren zum Schritt S53 übergegangen.
- Im Schritt S48 wird weiter beurteilt, ob die im Schritt S47 als MIDI-Daten beurteilten Daten NOTEON (Beginn der Klangerzeugung) sind. Falls JA, d. h. falls gefunden wurde, dass die Daten MIDI- Daten sind, wird im Schritt S49 ihre Geschwindigkeit auf der Grundlage der die Akzentverleihung steuernden Parameter geändert, im Schritt S52 an eine Wiedergabevorrichtung ausgegeben, und dann wird im Verfahren zum Schritt S53 übergegangen. Falls andererseits im Schritt S48 NEIN gefunden wurde, wird im Schritt S50 beurteilt, ob die Daten eine "Änderung der Amplitude" sind. Falls JA, werden die Daten im Schritt S51 auf der Grundlage der Parameter, geändert, im Schritt S52 an die Wiedergabevorrichtung ausgegeben, und im Verfahren wird zum Schritt S53 übergegangen. Falls andererseits NEIN, werden die Daten im Schritt S52 an die Wiedergabeeinrichtung ausgegeben, und im Verfahren wird zum Schritt S53 übergegangen.
- Im Schritt S53 wird beurteilt, ob es weitere Daten gibt. Falls JA, geht der Liedzeiger im Schritt S54 um eine Einheit weiter, die Wartezeit t1 wird im Schritt S55 als
- t1 = (gegenwärtige Zeit der aktuellen Daten - gegenwärtige Zeit der vorhergehenden Daten)·Tempo
- berechnet, und das Verfahren wird abgeschlossen. Falls andererseits im Schritt S53 NEIN gefunden wurde, wird die Wartezeit im Schritt S56 gelöscht, t1 wird auf -1 gesetzt, und das Verfahren wird abgeschlossen.
- Durch die obengenannten Schritte werden die Daten, die durch den Liedzeiger bezeichnet wurden, beispielsweise aus den internen Daten aus Fig. 11 geholt, und dann wird die relevante Vorgehensweise angenommen, nachdem beurteilt wurde, ob die geholten Daten Schlagdaten sind, und falls sie Schlagdaten sind, ob sie für eine Fermate oder Atmen stehen. Falls die Daten keine Schlagdaten sind, wird beurteilt, ob sie MIDI-Daten sind. Falls sie MIDI-Daten sind, wird die Geschwindigkeit auf der Grundlage der Parameter geändert, falls Sie NOTEON sind. Falls es anstelle von NOTEON eine Amplitudenänderung gibt, werden die Daten geändert und an die Wiedergabevorrichtung ausgegeben. Falls es weitere Daten gibt, wird der Liedzeiger um eine Einheit weitergesetzt, und die Wartezeit wird berechnet und aktualisiert. Durch Rückkehr zum Ausgangspunkt im Verfahren und durch seine Wiederholung, wird es ermöglicht, die internen Daten aus Fig. 11 wiederabzuspielen, wobei den Parametern (Tempo, Amplitude, Akzentsetzung und Betonung), die aus der Bewegung der Eingangsvorrichtung erfasst wurden, gefolgt wird, und Stimme und Bild Ausdrucksweisen zuzuteilen.
- Fig. 15 ist ein Flussschaubild betreffend das erfindungsgemäße Aktualisieren von Parametern durch Dirigiervorgänge.
- In Fig. 15 wird im Schritt 361 eine Eingangsvorrichtung wie eine Maus betätigt. Das bedeutet, dass der Bediener Musik spielt, indem er die Eingangsvorrichtung 1 bedient.
- Im Schritt S62 wird die Größe der Amplitude aus der maximalen Amplitude einer von der Eingangsvorrichtung 1 gezeichneten graphischen Form erfasst. Anders gesagt, wird die Amplitude aus der maximalen Amplitude der Bewegung der Eingangsvorrichtung 1 erfasst, wenn der Bediener Musik spielt, indem er im Schritt S61 die Eingangsvorrichtung betätigt.
- Im Schritt S63 wird aus der maximalen Geschwindigkeit und Auslenkung die Akzentsetzung erfasst. Das heißt, dass der Akzent aus der maximalen Geschwindigkeit und Amplitude der Bewegung der Eingangsvorrichtung 1 erfasst wird, wenn der Bediener Musik spielt, indem er im Schritt S61 die Eingangsvorrichtung betätigt.
- Im Schritt S64 wird aus der Wiederholungsperiode das Tempo erfasst, und eine Abweichung von der Periode wird als Rubato erfasst. Das heißt, dass das Tempo aus der Wiederholungsperiode der Bewegung der Eingangsvorrichtung 1 erfasst wird, und dass eine Abweichung von der Periode als Rubato erfasst wird.
- Im Schritt S65 werden die Parameter gesetzt. Das heißt, dass die in den Schritten S62 bis S64 erfasste Amplitude, die Akzentsetzung und das Tempo (Rubato) als Inhalt der in Figur. 13 gezeigten Schlagdaten gesetzt, werden. Dies ermöglicht es, Stimme und Bild Ausdrucksweisen zuzuteilen, indem die oben genannten internen Daten aus Fig. 11 gemäß den Parametern wiedergegeben werden.
- Fig. 16 ist ein Flussschaubild der Vorgehensweise beim Weitersetzen des Liedzeigers, wenn bei dieser Erfindung das oben genannte Atmen angewiesen wird.
- Im Schritt S71 wird beurteilt, ob die gegenwärtigen Daten Atmen sind. Das heißt, dass im Schritt S71 beurteilt wird, ob eine Breath-Flag in den Schlagdaten, die beispielsweise aus den oben genannten internen Daten aus Fig. 11 geholt wurden, in den EIN- Zustand versetzt wurde. Falls JA, wird der Liedzeiger im Schritt S72 um eine Einheit weitergesetzt, und die Wartezeit t1 wird im Schritt S73 auf 0 gesetzt, das heißt, die Wiedergabe wird wiederaufgenommen. Falls NEIN, wird im Verfahren zum Schritt S74 übergegangen.
- Im Schritt S74 wird, da im Schritt S71 gefunden wurden, dass die Daten nicht für Atmen stehen, der Liedzeiger um eine Einheit weitergesetzt, und im Verfahren wird zum Schritt S75 übergegangen.
- Im Schritt S75 wird beurteilt, ob die gegenwärtigen Daten für Atmen stehen. Falls JA, wird im Verfahren zum Schritt S72 übergegangen und die Wartezeit t1 im Schritt S73 auf 0 gesetzt, wie oben bemerkt. Falls NEIN, wird im Verfahren andererseits zum Schritt S76 übergegangen.
- Im Schritt S76 wird beurteilt, ob die gegenwärtigen Daten NOTEON (Verstärke die Betonung) sind, weil im Schritt S75 gefunden wurde, dass die Daten nicht für Atmen stehen. Falls JA, wird die Musikwiedergabe wiederaufgenommen, indem die Wartezeit im Schritt S73 auf 0 gesetzt wird. Falls NEIN, werden die gegenwärtigen Daten andererseits an die Wiedergabevorrichtung ausgegeben.
- Fig. 17 zeigt ein Beispiel einer Trickfilmanzeige gemäß der Erfindung. In der Figur ist ein Liedzeigeranzeigeteil im oberen Teil des Bildschirms ein Bereich zum Anzeigen eines Liedzeigers zum Zeigen auf die nun wiedergegebenen Noten und verschiedene Symbole (wie Fermate, Atemzeichen und Taktsymbole). In der Mitte des Schirms gibt es einen Bereich zum Anzeigen beispielsweise eines Bildes einer Lokomotive, wobei bewirkt wird, dass die Geschwindigkeit der Lokomotive dem Tempo folgt, sie mit Geschwindigkeitsänderungen der Betonung folgt, und dass der Rauch der Lokomotive der Amplitude folgt.
- Fig. 18 zeigt eine Reihe von Bildern, die im Bildspeicher abzulegen sind. Eine Reihe von Bildern 100, 101, - ist im Bildspeicher abgelegt. Wenn auf eine Adresse, unter der ein Führungsbild 100-1 der Bildgruppe 100 abgelegt ist, und auf eine Adresse, unter der ein Führungsbild 101-1 der Bildgruppe 101 abgelegt ist, gemäß einer Anweisung zum Anzeigen des Anfangsbildes und des Liedzeigers zugegriffen wird, werden die Bildgruppen nacheinander aus den Adressen heraus synchron mit dem Tempo und gemäß der Wiedergabe der Bilder angezeigt.
- Auch wenn Fig. 18 einzelne Bilder wie die Bilder 100-1, 100-2, - 100-M zeigt, sind erfindungsgemäße Bilder nicht auf diese beschränkt, sondern sie können Videosignale sein, wie sie für Fernsehsignale verwendet werden.
- Wie oben beschrieben, hat diese Erfindung einen solchen Aufbau, dass wiedergegebenen Stimmen und/oder Bildern Ausdrucksweisen zugeteilt werden können, indem Wiedergabe in Echtzeit auf der Grundlage der Parameter wie Tempo, Amplitude und Akzentsetzung gefolgt wird, die aus der Bewegung einer Eingangsvorrichtung wie einer Maus erfasst werden, wodurch es ermöglicht wird, Stimme und. Bild, die wiedergegeben werden. Ausdrucksweisen zuzuteilen, indem Parameter (Tempo, Amplitude, Akzentsetzung und Betonung) aus der Bewegung einer Eingangsvorrichtung 1 (einer Maus, beispielsweise einer dreidimensionalen Maus), die von einem Bediener betätigt wird, erfasst werden.
Claims (17)
1. System zum Zuteilen von Ausdrucksweisen an Stimm-/oder
Bildausgaben gemäß einem Dirigat durch
Datenverarbeitungssystem, mit:
- einer Einrichtung (3) zum Erfassen von Parametern, welche
Tempo, Amplitude und Akzentsetzung und Kombinationen von
diesen Parametern umfassen,
- eine Wiedergabeeinrichtung (4) zum Wiedergeben von
Stimm-/oder Sprachdaten in einer solchen Weise, daß den
erfaßten Parametern wie dem Tempo, der Amplitude und der
Akzentsetzung gefolgt wird,
dadurch gekennzeichnet,
daß die von der Einrichtung erfaßten Parameter anhand der
Bewegung einer von einer Eingangsvorrichtung (1) bezogenen
graphischen Form erfaßt werden.
2. System zum Zuteilen gemäß einem Dirigat nach Anspruch
1, in welchem die wiedergegebenen Stimmdaten zusammen mit
einer Serie von digitalen Informationen abgelegt werden,
welche zumindest eine Information enthält, die die Zeit zum
Beginn einer Klangerzeugung für einen zu erzeugenden Klang
angibt, eine Information bezüglich der Amplitude des zu
erzeugenden Klangs enthält und eine Information enthält,
welche die Zeit angibt, an der die Klangerzeugung für den zu
erzeugenden Klang beendet werden soll.
3. System zum Zuteilen gemäß einem Dirigat nach Anspruch
1, in welchem das wiedergegebene Bild in der Form einer
Serie von Bildgruppen abgelegt wird, welche eine Mehrzahl von
Bildern als Einheit umfaßt, und wobei es wiedergegeben
wird, wenn der Startpunkt der eine Einheit bildenden
Bildgruppe mit der Zeitgebung der Hauptklangerzeugung im Fluß
der wiedergebenen Stimmdaten synchronisiert ist.
4. System zum Zuteilen gemäß einem Dirigat nach Anspruch
1, in welchem zusammen mit dem wiedergegebenen und in
Echtzeit gezeigten Bild eine Notation der wiedergegebenen
Stimmdaten angezeigt wird, und ein Liedzeiger gezeigt wird,
der mit dem Fortschreiten der Musik vorausschreitet, um auf
eine Note zu zeigen, die einen nun wiedergegebenen Klang
repräsentiert.
5. System zum Zuteilen gemäß einem Dirigat nach Anspruch
1, in welchem die Einrichtung zum Erfassen der Parameter
die Bewegungsgeschwindigkeit der von der
Eingangsvorrichtung gezogenen graphischen Form auf einer Koordinatenachse
herleitet und von der Eingangsvorrichtung vorgegebene
Schlag- oder Bodenpunkte unter Verwendung des niedrigsten
Meßwerts und/oder des höchsten Meßwerts der
Bewegungsgeschwindigkeit einschätzt.
6. System zum Zuteilen gemäß einem Dirigat nach Anspruch
5, in welchem die Einrichtung zum Erfassen der Parameter
das Tempo auf einer Wiederholungsperiode der Bewegung der
von der Eingangsvorrichtung gezogenen graphischen Form
erfaßt.
7. System zum Zuteilen gemäß einem Dirigat nach Anspruch
6, in welchem die Einrichtung zum Erfassen der Parameter
ein Tempo als Ergebnis der Erfassung eines Tempos erhält,
welches unter Verwendung der Zeit der eingeschätzten
Schlag- oder Bodenpunkte erfaßt wurde, und in welchem das
gewichtete Mittel der Zeit einer Periode des erfaßten
Tempos der Zeit einer Periode eines Tempos berechnet wird,
bevor das Tempo, erfaßt wird.
8. System zum Zuteilen gemäß einem Dirigat nach Anspruch
1, in welchem die Einrichtung zum Erfassen der
Parameterachsen, die dem gewichteten Mittel unterworfen werden, eine
Zeit einer vorhergehenden Halbperiode der einen Periode des
erfaßten Tempos und eine Zeit einer nachfolgenden
Halbperiode der einen Periode hinzufügt.
9. System zum Zuteilen gemäß einem Dirigat nach Anspruch
5, in welchem die Einrichtung zum Erfassen der Parameter
die Amplitude anhand der maximalen Auslenkung bei der
Bewegung auf einer Koordinatenachse einer graphischen Form
erfaßt, welche von der Eingangsvorrichtung gezogen wird.
10. System zum Zuteilen gemäß einem Dirigat nach Anspruch
9, in welchem die Einrichtung zum Erfassen der Parameter
die maximale Auslenkung der Bewegung der
Eingangsvorrichtung zum erfaßten Zeitpunkt und die maximale Auslenkung der
Bewegung der Eingangsvorrichtung vor dem erfaßten Zeitpunkt
verwendet, um die maximale Auslenkung der
Erfassungsergebnisse bezüglich der Bewegung der Eingangsvorrichtung zum
erfaßten Zeitpunkt zu erhalten.
11. System zum Zuteilen gemäß einem Dirigat nach Anspruch
1, in welchem die Einrichtung zum Erfassen der Parameter
Daten kombiniert, welche die Zeitspitze repräsentieren,
welche Klang entspricht, Daten, die die Spitze des Maßes
repräsentieren, eine Flag für eine Fermate, eine Flag für
den Atem, und Daten, die das Tempo als Schlagdaten
repräsentieren, um diese an die Wiedergabeeinrichtung zu
übertragen, um Stimm- und/oder Bilddaten in Echtzeit
wiederzugeben.
12. System zum Zuteilen gemäß einem Dirigat nach Anspruch
1, in welchem die Wiedergabeeinrichtung zum Wiedergeben der
Stimm- und/oder Bilddaten in Echtzeit zuvor ein
Eingangsbild zeigt, in dem die Leerlauf Zeit auf einen vorbestimmten
Wert gesetzt wird, die Leerlaufzeit am Startpunkt der
Bewegung einer von der Eingangsvorrichtung gezogenen
graphischen Form gelöscht wird und die Wiedergabe von Stimmdaten
gemäß dem Liedzeiger begonnen wird, während die Wiedergabe
des Bildes ausgehend von dem Eingangsbild begonnen wird.
13. System zum Zuteilen nach Anspruch 1, in welchem die
Wiedergabeeinrichtung zum Wiedergeben der Stimm- und/oder
Bilddaten in Echt Zeit gemäß der Flag für den Atem den
Liedzeiger auf eine vorbestimmte Neustartstellung setzt,
und die Wiedergabe der Stimm- und/oder Bilddaten beginnt,
wenn die Leerlaufzeit gelöscht wird.
14. System zum Zuteilen gemäß einem Dirigat nach Anspruch
1, in welchem die Wiedergabeeinrichtung zum Wiedergeben von
Stimm- und/oder Bilddaten in Echtzeit interne Daten dadurch
erzeugt, daß eine Serie von digitalen Informationen
ausgelesen wird, in welchen die Taktzeit beschrieben wird, und
in welchem der Inhalt der Schlagdaten gemäß Änderungen in
der Taktzeit zugeteilt wird.
15. System zum Zuteilen gemäß einem Dirigat nach Anspruch
14, in welchem die Wiedergabeeinrichtung zum Wiedergeben
der Stimm- und/oder Bilddaten in Echtzeit einen
Lautsprecher zum Wiedergeben der Stimmdaten und/oder eine Anzeige
zum Anzeigen des Bildes umfaßt, und wobei die Stimm-
und/oder Bilddaten wiedergegeben werden, indem die internen
Daten analysiert werden.
16. System zum Zuteilen gemäß einem Dirigat nach Anspruch
1, in welchem die Wiedergabeeinrichtung zum Wiedergeben der
Stimm- und/oder Bilddaten in Echtzeit die Wiedergabe gemäß
einem Probenmodus und einem Konzertmodus auswählen kann.
17. System zum Zuteilen gemäß einem Dirigat nach Anspruch
1, in welchem die Wiedergabeeinrichtung zum Wiedergeben der
Stimm- und/oder Bilddaten in Echtzeit einen Teil der auf
der Anzeige angezeigten Bilder auswählt, und nur solche
Stimmdaten wiedergibt, die gemäß den ausgewählten Bildern
erzeugt wurden.
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP24318496 | 1996-09-13 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| DE69716848D1 DE69716848D1 (de) | 2002-12-12 |
| DE69716848T2 true DE69716848T2 (de) | 2003-03-20 |
Family
ID=17100082
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE69716848T Expired - Fee Related DE69716848T2 (de) | 1996-09-13 | 1997-01-29 | System zum Simulieren von Dirigieren |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US5890116A (de) |
| EP (1) | EP0829847B1 (de) |
| DE (1) | DE69716848T2 (de) |
Families Citing this family (28)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6297818B1 (en) * | 1998-05-08 | 2001-10-02 | Apple Computer, Inc. | Graphical user interface having sound effects for operating control elements and dragging objects |
| JP3601350B2 (ja) * | 1998-09-29 | 2004-12-15 | ヤマハ株式会社 | 演奏画像情報作成装置および再生装置 |
| US6243683B1 (en) * | 1998-12-29 | 2001-06-05 | Intel Corporation | Video control of speech recognition |
| JP3632522B2 (ja) * | 1999-09-24 | 2005-03-23 | ヤマハ株式会社 | 演奏データ編集装置、方法及び記録媒体 |
| KR100387238B1 (ko) * | 2000-04-21 | 2003-06-12 | 삼성전자주식회사 | 오디오 변조 기능을 갖는 오디오 재생 장치 및 방법, 그장치를 적용한 리믹싱 장치 및 방법 |
| JP4127750B2 (ja) * | 2000-05-30 | 2008-07-30 | 富士フイルム株式会社 | 音楽再生機能付デジタルカメラ |
| US20020042834A1 (en) * | 2000-10-10 | 2002-04-11 | Reelscore, Llc | Network music and video distribution and synchronization system |
| US6388183B1 (en) | 2001-05-07 | 2002-05-14 | Leh Labs, L.L.C. | Virtual musical instruments with user selectable and controllable mapping of position input to sound output |
| JP3867630B2 (ja) * | 2002-07-19 | 2007-01-10 | ヤマハ株式会社 | 楽曲再生システム、楽曲編集システム、楽曲編集装置、楽曲編集端末、楽曲再生端末及び楽曲編集装置の制御方法 |
| JP2006030414A (ja) * | 2004-07-13 | 2006-02-02 | Yamaha Corp | 音色設定装置及びプログラム |
| US7519537B2 (en) * | 2005-07-19 | 2009-04-14 | Outland Research, Llc | Method and apparatus for a verbo-manual gesture interface |
| US7601904B2 (en) * | 2005-08-03 | 2009-10-13 | Richard Dreyfuss | Interactive tool and appertaining method for creating a graphical music display |
| US7342165B2 (en) * | 2005-09-02 | 2008-03-11 | Gotfried Bradley L | System, device and method for displaying a conductor and music composition |
| US7577522B2 (en) * | 2005-12-05 | 2009-08-18 | Outland Research, Llc | Spatially associated personal reminder system and method |
| US7586032B2 (en) * | 2005-10-07 | 2009-09-08 | Outland Research, Llc | Shake responsive portable media player |
| US20070075127A1 (en) * | 2005-12-21 | 2007-04-05 | Outland Research, Llc | Orientation-based power conservation for portable media devices |
| JP4557899B2 (ja) * | 2006-02-03 | 2010-10-06 | 任天堂株式会社 | サウンド処理プログラムおよびサウンド処理装置 |
| WO2009052032A1 (en) * | 2007-10-19 | 2009-04-23 | Sony Computer Entertainment America Inc. | Scheme for providing audio effects for a musical instrument and for controlling images with same |
| CA2739008C (en) | 2008-09-30 | 2015-04-07 | Rolls-Royce Corporation | Coating including a rare earth silicate-based layer including a second phase |
| US20110252951A1 (en) * | 2010-04-20 | 2011-10-20 | Leavitt And Zabriskie Llc | Real time control of midi parameters for live performance of midi sequences |
| WO2013134441A2 (en) | 2012-03-06 | 2013-09-12 | Apple Inc. | Determining the characteristic of a played note on a virtual instrument |
| US9484030B1 (en) * | 2015-12-02 | 2016-11-01 | Amazon Technologies, Inc. | Audio triggered commands |
| US9641912B1 (en) * | 2016-02-05 | 2017-05-02 | Nxp B.V. | Intelligent playback resume |
| US9805702B1 (en) | 2016-05-16 | 2017-10-31 | Apple Inc. | Separate isolated and resonance samples for a virtual instrument |
| US10846519B2 (en) * | 2016-07-22 | 2020-11-24 | Yamaha Corporation | Control system and control method |
| JP6614356B2 (ja) * | 2016-07-22 | 2019-12-04 | ヤマハ株式会社 | 演奏解析方法、自動演奏方法および自動演奏システム |
| JP6809112B2 (ja) * | 2016-10-12 | 2021-01-06 | ヤマハ株式会社 | 演奏システム、自動演奏方法およびプログラム |
| CN108108457B (zh) * | 2017-12-28 | 2020-11-03 | 广州市百果园信息技术有限公司 | 从音乐节拍点中提取大节拍信息的方法、存储介质和终端 |
Family Cites Families (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5005459A (en) * | 1987-08-14 | 1991-04-09 | Yamaha Corporation | Musical tone visualizing apparatus which displays an image of an animated object in accordance with a musical performance |
| US5159140A (en) * | 1987-09-11 | 1992-10-27 | Yamaha Corporation | Acoustic control apparatus for controlling musical tones based upon visual images |
| JP2663503B2 (ja) * | 1988-04-28 | 1997-10-15 | ヤマハ株式会社 | 楽音制御装置 |
| JP2631030B2 (ja) * | 1990-09-25 | 1997-07-16 | 株式会社光栄 | ポインティング・デバイスによる即興演奏方式 |
| WO1993022762A1 (en) * | 1992-04-24 | 1993-11-11 | The Walt Disney Company | Apparatus and method for tracking movement to generate a control signal |
| JP2682364B2 (ja) * | 1993-01-06 | 1997-11-26 | ヤマハ株式会社 | 電子楽器のデータ設定装置 |
-
1997
- 1997-01-27 US US08/789,670 patent/US5890116A/en not_active Expired - Fee Related
- 1997-01-29 DE DE69716848T patent/DE69716848T2/de not_active Expired - Fee Related
- 1997-01-29 EP EP97101326A patent/EP0829847B1/de not_active Expired - Lifetime
Also Published As
| Publication number | Publication date |
|---|---|
| EP0829847A1 (de) | 1998-03-18 |
| US5890116A (en) | 1999-03-30 |
| EP0829847B1 (de) | 2002-11-06 |
| DE69716848D1 (de) | 2002-12-12 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE69716848T2 (de) | System zum Simulieren von Dirigieren | |
| DE69629486T2 (de) | Kontrollstruktur für klangsynthesierung | |
| DE69427873T2 (de) | Musikinstrument mit erzeugung eines rhythmusdiagrammes | |
| DE69637504T2 (de) | Automatisches musikkomponierverfahren | |
| DE69908846T2 (de) | Vorrichtung zur Ton- und Bilderzeugung | |
| DE3889051T2 (de) | Vorrichtung zur Tonsignalerzeugung. | |
| DE69719270T2 (de) | Sprachsynthese unter Verwendung von Hilfsinformationen | |
| DE69818210T2 (de) | Vorrichtung und Verfahren zur Erzeugung von Ton und Bild auf Basis von einer Aufführungsdatei. | |
| DE602004000873T2 (de) | Vorrichtung zur Synthese einer singenden Stimme unter Berücksichtigung unterschiedlicher Modelle je nach Ansatzkontext der gesungenen Töne | |
| DE60129070T2 (de) | Vorrichtung zum Anzeigen einer Partiturdatei | |
| Langner et al. | Visualizing expressive performance in tempo-loudness space | |
| DE69902284T2 (de) | Verfahren und vorrichtung zum komponieren von elektronischer musik und zur erzeugung von graphischer information | |
| DE202020005830U1 (de) | Vorrichtung zum Zerlegen, Rekombinieren und Abspielen von Audiodaten | |
| DE69616099T2 (de) | Karaokevorrichtung, wobei die Gesangstimme durch eine Modellstimme verändert wird | |
| DE102007034774A1 (de) | Vorrichtung zur Bestimmung von Akkordnamen und Programm zur Bestimmung von Akkordnamen | |
| DE3415792C2 (de) | ||
| DE60024157T2 (de) | Vorrichtung und Verfahren zur Eingabe eines Vortragstils | |
| DE69615716T2 (de) | Synthesierer mit Erkennung der Tonhöhe und des Tonausgangspunkts eines Saiteninstruments zur Tonerzeugung | |
| DE69129522T2 (de) | Taktsteuerung zum automatischen Spielen von Musik | |
| DE602005006217T2 (de) | Audiosignalverarbeitungsvorrichtung und -programm | |
| DE60215750T2 (de) | Vorrichtung und Verfahren zum Anzeigen von Akkorden | |
| DE112005003043T5 (de) | Verfahren und Vorrichtung, zum Ermöglichen von Änderungen einer Audiodatei durch einen Benutzer | |
| DE69123467T2 (de) | Verfahren zur Steuerung einer Tonquelle für ein elektronisches Musikinstrument und Musikinstrument zur Anwendung dieses Verfahrens | |
| DE102017003408B4 (de) | Verfahren und Bedienhilfe zum Spielen eines Musikstücks | |
| DE112019004528T5 (de) | Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahrenund programm |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 8364 | No opposition during term of opposition | ||
| 8339 | Ceased/non-payment of the annual fee |