DE69932796T2 - MIDI-Schnittstelle mit Sprachfähigkeit - Google Patents

MIDI-Schnittstelle mit Sprachfähigkeit Download PDF

Info

Publication number
DE69932796T2
DE69932796T2 DE69932796T DE69932796T DE69932796T2 DE 69932796 T2 DE69932796 T2 DE 69932796T2 DE 69932796 T DE69932796 T DE 69932796T DE 69932796 T DE69932796 T DE 69932796T DE 69932796 T2 DE69932796 T2 DE 69932796T2
Authority
DE
Germany
Prior art keywords
sounds
notes
sound
sequence
frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69932796T
Other languages
English (en)
Other versions
DE69932796D1 (de
Inventor
Maurice Flam
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Application granted granted Critical
Publication of DE69932796D1 publication Critical patent/DE69932796D1/de
Publication of DE69932796T2 publication Critical patent/DE69932796T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/18Selecting circuits
    • G10H1/26Selecting circuits for automatically producing a series of tones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • G10H1/0066Transmission between separate instruments or between individual components of a musical system using a MIDI interface
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/045Special instrument [spint], i.e. mimicking the ergonomy, shape, sound or other characteristic of a specific acoustic musical instrument category
    • G10H2230/155Spint wind instrument, i.e. mimicking musical wind instrument features; Electrophonic aspects of acoustic wind instruments; MIDI-like control therefor.
    • G10H2230/195Spint flute, i.e. mimicking or emulating a transverse flute or air jet sensor arrangement therefor, e.g. sensing angle, lip position, etc, to trigger octave change
    • G10H2230/201Spint piccolo, i.e. half-size transverse flute, e.g. ottavino
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/201Physical layer or hardware aspects of transmission to or from an electrophonic musical instrument, e.g. voltage levels, bit streams, code words or symbols over a physical link connecting network nodes or instruments
    • G10H2240/241Telephone transmission, i.e. using twisted pair telephone lines or any type of telephone network
    • G10H2240/251Mobile telephone transmission, i.e. transmitting, accessing or controlling music data wirelessly via a wireless or mobile telephone receiver, analog or digital, e.g. DECT GSM, UMTS

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Use Of Switch Circuits For Exchanges And Methods Of Control Of Multiplex Exchanges (AREA)

Description

  • GEBIET DER ERFINDUNG
  • Die vorliegende Erfindung bezieht sich im Allgemeinen auf digitale Schnittstellen für Musikinstrumente und im Besonderen auf Verfahren und Einheiten zur Repräsentation von Tönen unter Verwendung einer digitalen Schnittstelle.
  • HINTERGRUND DER ERFINDUNG
  • MIDI (Musical Instrument Digital Interface) ist ein in der Technik bekannter Standard, mit dem digitale Musikinstrumente und Verarbeitungseinheiten digitaler Musik wie beispielsweise Personal Computer und Sequenzer Daten über Musiktöne austauschen können. Informationen zur Realisierung des MIDI-Standards stehen in großem Umfang zur Verfügung und finden sich z.B. in einer Veröffentlichung mit dem Titel „Official MIDI Specification" (MIDI Manufacturers Association, La Habra, Kalifornien).
  • Die beim MIDI-Standard verwendeten Daten beinhalten üblicherweise Zeitspannen mit gedrückten und Zeitspannen mit losgelassenen bestimmten Tasten eines digitalen Musikinstruments, die Geschwindigkeit des Anschlags, optionale Messungen der Anschlagstärke nach dem eigentlichen Anschlag, Vibrato, Tremolo usw. Vergleichbar einem Textdokument in einem Textverarbeitungsprogramm kann ein Spiel eines oder mehrerer digitaler Instrumente unter Verwendung des MIDI-Protokolls zu einem beliebigen späteren Zeitpunkt verarbeitet werden, indem standardmäßige Hilfsmittel für die Bearbeitung wie „Einfügen", „Löschen" und „Ausschneiden und Einfügen" so lange verwendet werden, bis alle Aspekte des Spiels den Wünschen eines Benutzers des Musikbearbeitungsprogramms entsprechen.
  • Dabei ist zu beachten, dass eine MIDI-Computerdatei, welche die oben erwähnten für eine musikalische Darbietung stehenden Daten enthält, keine Repräsentation der tatsächlichen Wellenformen beinhaltet, die von einem Ausgabemodul des ursprünglich spielenden Musikinstruments erzeugt wurden. Vielmehr kann die Datei einen Hinweis darauf enthalten, dass bestimmte Musiknoten von einem simulierten akustischen Konzertflügel gespielt werden sollten. Eine MIDI-fähige Ausgabeeinheit, die daraufhin die Datei abspielt, würde dann aus ihrem eigenen Speicher eine Repräsentation eines akustischen Konzertflügels abrufen, die mit derjenigen des ursprünglichen digitalen Instruments übereinstimmen oder auch davon abweichen kann. Die abgerufene Repräsentation dient zur Erzeugung der Musikwellenformen auf der Grundlage der Daten in der Datei.
  • MIDI-Dateien und MIDI-Einheiten, die MIDI-Daten verarbeiten, legen ein gewünschtes simuliertes Musikinstrument fest, das die folgenden Noten spielen soll, indem sie eine dem Instrument entsprechende Belegungsnummer angeben. Derartige Belegungsnummern werden durch das GM-Protokoll (General MIDI) vorgegeben, bei dem es sich um einen in der Technik weithin bekannten und anerkannten Standard handelt. Die GM-Protokoll-Spezifikation ist von der International MIDI Association mit Sitz in Los Angeles, Kalifornien, erhältlich und wurde ursprünglich in einem Artikel mit dem Titel „General MIDI (GM) and Roland's GS Standard" von Chris Meyer in der Ausgabe des Electronic Musician vom August 1991 beschrieben.
  • Gemäß GM erhalten 128 Klänge, zu denen auch Standardinstrumente, Stimme und Klangeffekte gehören, entsprechende fest vorgegebene Belegungsnummern, z.B. normaler akustischer Flügel = 1, Geige = 41, Ah-Chor = 53 und Telefonklingel = 125. Wenn eine dieser Belegungsnummern ausgewählt wird, erzeugt sie für das menschliche Ohr in qualitativer Hinsicht die gleiche Art von Klang wie für jede beliebige Taste auf der Tastatur des digitalen Musikinstruments. Wenn z.B. die Klangbelegung für „normaler akustischer Flügel" ausgewählt wird, erzeugt das Spielen des mittleren C und mehrerer benachbarter Noten klavierartige Klänge, die einander im Allgemeinen hinsichtlich ihrer Tonqualität ähneln und sich lediglich mit Blick auf die Tonhöhe unterscheiden. (Tatsächlich verhält es sich so, dass für den menschlichen Hörer ein schriller und unerwünschter Effekt entstünde, wenn sich die Musikklänge auch in anderer Hinsicht als nur in der Tonhöhe unterscheiden würden.)
  • Anhand von MIDI können Daten, die das Spiel von 16 unabhängigen simulierten Instrumenten festlegen, auf wirksame Art und Weise gleichzeitig über 16 Logikkanäle übertragen werden, die durch den MIDI-Standard definiert sind. Von diesen Kanälen ist Kanal 10 ausschließlich als Schlagzeugkanal vorgesehen, der – im Gegensatz zu den oben beschriebenen Klangbelegungen – über Klänge mit unterschiedlicher Tonqualität verfügt, die für jede aufeinander folgende Taste der Tastatur definiert sind. So erzeugt das Anschlagen der MIDI-Noten 40, 41 und 42 eine elektrische kleine Trommel, eine tiefe Stand-Tom bzw. eine geschlossene Hi-Hat. Grundsätzlich gesehen, lassen sich Wörter mit MIDI nicht in Musik umsetzen. In der Technik ist es jedoch bekannt, einen Synthesizer wie beispielsweise den Yamaha PSR310 so zu programmieren, dass das Anschlagen einer beliebigen Taste (d.h. das Auswählen einer beliebigen Note) innerhalb einer Oktave eine simulierte menschliche Stimme erzeugt, die „ONE" sagt, wobei die Tonhöhe des Wortes „ONE" abhängig von der jeweils angeschlagenen Taste ist. Das Anschlagen von Tasten in der nächsthöheren Oktave erzeugt dieselbe Stimme, die „TWO" sagt, und so weiter für die gesamte Tastatur.
  • Einige in der Technik bekannte MIDI-Klangbelegungen verwenden eine „Split-Keyboard"-Funktion, bei der Noten unterhalb einer bestimmten MIDI-Belegung (dem „Schwellenwert" auf der Tastatur) einen ersten Klang (z.B. Orgel) und Noten oberhalb des Schwellenwerts einen zweiten Klang (z.B. Flöte) aufweisen. Anhand der Split-Keyboard-Funktion können so mit einer einzigen Tastatur zwei verschiedene Instrumente wiedergegeben werden.
  • In der US-Patentschrift 4 733 591 wird ein elektronisches Musikinstrument beschrieben, mit dem sich ein gemultiplextes Signal eines Musiktons und eine menschliche Stimme erzeugen lassen, d.h. ein Instrument, das in der Lage ist, bei der Erzeugung von Musiktönen deren Namen auszusprechen. Mit diesem Instrument können jedoch keine den Klang bestimmende Parameter berücksichtigt werden, zu denen z.B. die Geschwindigkeit beim Anschlagen einer Abfolge von Noten oder die Notendauer gehören, wenn die Klänge einer Taste erzeugt werden, die von dem Spieler angeschlagen wurde. Mit der Lösung des US-Patents lassen sich außerdem keine Klänge erzeugen, die nicht von einer Abfolge von Tasten, die auf einem Instrument angeschlagen werden, sondern aus einer Datei stammen, auf die auch über ein Netzwerk zugegriffen werden könnte.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Es ist eine Aufgabe einiger Aspekte der vorliegenden Erfindung, verbesserte Einheiten und Verfahren für die Nutzung von Hardware zur Verarbeitung digitaler Musik bereitzustellen.
  • Es ist eine weitere Aufgabe einiger Aspekte der vorliegenden Erfindung, Einheiten und Verfahren für die Erzeugung menschlicher Stimmklänge mit Hardware für die Verarbeitung digitaler Musik bereitzustellen. Gemäß der Erfindung wird ein Verfahren für die elektronische Erzeugung von Klängen nach Anspruch 1 sowie eine Vorrichtung für die elektronische Erzeugung von Klängen nach Anspruch 13 bereitgestellt.
  • Bei bevorzugten Ausführungsformen der vorliegenden Erfindung erzeugt eine elektronische Musikeinheit als Reaktion auf unterschiedliche Musiknoten, die in die Einheit eingegeben werden, qualitativ verschiedenartige Klänge wie beispielsweise verschiedene gesprochene Wörter. Die Tonhöhe und/oder anderweitige Tonqualitäten der erzeugten Klänge werden dabei bevorzugt ebenfalls durch die Noten bestimmt. Die Einheit sollte vorzugsweise MIDI-fähig sein und eine eigens programmierte Klangbelegung auf einem nicht für Schlagzeuge vorgesehenen MIDI-Kanal verwenden, um die verschiedenartigen Klänge zu erzeugen. Die Eingabe der Musiknoten kann unter Verwendung eines beliebigen geeigneten Verfahrens, das in der Technik bekannt ist, erfolgen. So können die Noten beispielsweise aus einer Datei erhalten oder in Echtzeit auf einem MIDI-fähigen digitalen Musikinstrument erzeugt werden, das mit der Einheit verbunden ist.
  • Bei einigen bevorzugten Ausführungsformen der vorliegenden Erfindung umfassen die verschiedenartigen Klänge Repräsentationen einer menschlichen Stimme, die als Reaktion auf die entsprechenden von dem MIDI-Instrument erzeugten Noten vorzugsweise die Namen der Noten singt, z.B. „Do/Re/Mi/Fa/Sol/La/Si/Do" oder „C/D/E/F/G/A/B/C". Alternativ kann die Stimme auch andere Wörter, Satzteile, Nachrichten oder Klangeffekte sprechen, singen oder erzeugen, wobei diese jeweils als Reaktion auf die Auswahl einer bestimmten Musiknote erzeugt werden und dies bevorzugt durch das Anschlagen einer vorgegebenen Taste geschieht.
  • Zusätzlich oder alternativ hierzu werden ein oder mehrere Parameter wie beispielsweise Tastengeschwindigkeit, Anschlagstärke nach dem eigentlichen Anschlag, Notendauer, Betätigung des Haltepedals, Modulationseinstellungen usw. von einem Benutzer des MIDI-Instruments erzeugt oder ausgewählt und dazu verwendet, die betreffenden Qualitäten der verschiedenartigen Klänge zu steuern.
  • Ebenfalls zusätzlich oder alternativ hierzu kann Musiklernsoftware, die auf einem Personalcomputer oder Server ausgeführt wird, die qualitativ verschiedenartigen Klänge entweder als Reaktion auf die verschiedenen Tasten, die auf dem MIDI-Instrument angeschlagen werden, oder auf unterschiedliche Noten, die in einer MIDI-Datei gespeichert sind, erzeugen. Bei einigen dieser bevorzugten Ausführungsformen der vorliegenden Erfindung erfolgt der Zugriff auf die Software und/oder MIDI-Datei über ein Netzwerk wie z.B. das Internet und hier bevorzugt über eine Webseite. Die Musiklernsoftware ermöglicht es einem Lernenden vorzugsweise, Solfège (d.h. das System, bei dem die Silben „Do Re Mi..." für Musiknoten stehen) zu erlernen, indem er Noten auf einem MIDI-Instrument spielt und sie entsprechend ihrer jeweiligen Tonsilbe gesungen werden oder indem Lieder in einer MIDI-Datei wiedergegeben werden, wobei einer der Kanäle so eingestellt ist, dass er eine eigens programmierte Solfège-Belegungsnummer abspielt, wie weiter oben beschrieben wurde.
  • Bei einigen bevorzugten Ausführungsformen der vorliegenden Erfindung kann die elektronische Musikeinheit auch dann klar erkennbare Solfège-Klänge erzeugen, wenn die Tonhöhe der Solfège-Klänge mit einem Tonhöhenregler moduliert wird oder wenn der Benutzer in schneller Folge Noten auf der Einheit spielt. Bei fehlender Korrektur könnten beide Situationen die Solfège-Klänge verzerren oder dazu führen, dass sie nicht mehr erkennbar wären. Bei diesen bevorzugten Ausführungsformen werden die digitalisierten Klänge vorzugsweise so geändert, dass sie von einem Hörer auch dann erkannt werden können, wenn sie lediglich während eines sehr kurzen Zeitraums gespielt werden.
  • Gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung wird somit ein Verfahren für die elektronische Erzeugung von Klängen auf der Grundlage der Noten einer Tonleiter bereitgestellt, das Folgendes beinhaltet:
    Zuweisen der betreffenden Klänge zu den Noten, so dass jeder Klang von einem Hörer als qualitativ verschiedenartig von dem Klang empfunden wird, der einer benachbarten Note der Tonleiter zugewiesen ist;
    Empfangen einer Eingabe, die eine Abfolge von Musiknoten angibt, welche aus den Noten der Tonleiter ausgewählt wurden; und
    Erzeugen einer Ausgabe als Reaktion auf die Abfolge, bei der die qualitativ verschiedenartigen Klänge als Reaktion auf die betreffenden Noten in der Abfolge mit entsprechenden Tonhöhen erzeugt werden, die den betreffenden Noten zugewiesen sind.
  • Vorzugsweise beinhaltet mindestens einer der qualitativ verschiedenartigen Klänge eine Repräsentation einer menschlichen Stimme. Außerdem beinhalten die verschiedenartigen Klänge vorzugsweise Solfège-Tonsilben, die den betreffenden Noten zugewiesen sind.
  • Alternativ oder zusätzlich hierzu beinhaltet die Zuweisung das Erzeugen einer MIDI-Klangbelegung, welche die verschiedenartigen Klänge enthält.
  • Alternativ oder zusätzlich hierzu beinhaltet das Erzeugen der Klangbelegung ferner:
    das Erzeugen einer digitalen Repräsentation der Klänge durch die digitale Abtastung der verschiedenartigen Klänge; und
    das Speichern der Repräsentation in der Klangbelegung.
  • Bei einer bevorzugten Ausführungsform beinhaltet der Empfang der Eingabe das Abspielen der Abfolge von Musiknoten auf einem Musikinstrument, während bei einer anderen bevorzugten Ausführungsform der Empfang der Eingabe das Abrufen der Abfolge von Musiknoten aus einer Datei beinhaltet.
  • Vorzugsweise beinhaltet das Abrufen der Abfolge den Zugriff auf ein Netzwerk und das Herunterladen der Datei von einem entfernten Computer.
  • Vorzugsweise beinhaltet die Erzeugung der Ausgabe das Erzeugen der verschiedenartigen Klänge als Reaktion auf die betreffenden Parameter für die Geschwindigkeit und/oder die Dauer von Noten in der Abfolge von Noten.
  • Bei einigen bevorzugten Ausführungsformen beinhaltet die Erzeugung der Ausgabe das Beschleunigen der Ausgabe eines Teils der Klänge als Reaktion auf eine Eingabeaktion.
  • Weiterhin wird gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung ein Verfahren für die elektronische Erzeugung von Klängen auf der Grundlage der Noten einer Tonleiter bereitgestellt, das Folgendes beinhaltet:
    Zuweisen der betreffenden Klänge zu mindestens mehreren Noten, so dass jeder zugewiesene Klang von einem Hörer als qualitativ verschiedenartig von dem Klang empfunden wird, der einer benachbarten Note der Tonleiter zugewiesen ist;
    Speichern der zugewiesenen Klänge in einer Klangbelegung, die auf einem gemäß dem MIDI-Standard nicht für Schlagzeug vorgesehenen Kanal abgespielt wird;
    Empfangen einer ersten Eingabe, die eine Abfolge von Musiknoten angibt, welche aus den Noten der Tonleiter ausgewählt wurden;
    Empfangen einer zweiten Eingabe, die einen oder mehrere Tastenanschlagsparameter angibt, der/die einer oder mehreren der Noten in der Abfolge entspricht/entsprechen; und
    Erzeugen einer Ausgabe als Reaktion auf die Abfolge, bei der die qualitativ verschiedenartigen Klänge als Reaktion auf die erste und zweite Eingabe erzeugt werden.
  • Vorzugsweise beinhaltet die Zuweisung der Klänge das Zuweisen entsprechender Repräsentationen einer menschlichen Stimme, die ein oder mehrere Wörter ausspricht.
  • Gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung wird außerdem eine Vorrichtung für die elektronische Erzeugung von Klängen auf der Grundlage von Noten einer Tonleiter bereitgestellt, die Folgendes beinhaltet:
    eine elektronische Musikerzeugungseinheit, die einen Speicher beinhaltet, in dem Daten gespeichert werden, welche die betreffenden Klänge angeben, die den Noten zugewiesen sind, so dass jeder Klang von einem Hörer als qualitativ verschiedenartig von einer benachbarten Note der Tonleiter empfunden wird, und wobei die Einheit Folgendes empfängt: (a) eine erste Eingabe, die eine Abfolge von Musiknoten angibt, die aus den Noten der Tonleiter ausgewählt wurden; und (b) eine zweite Eingabe, die einen oder mehrere Tastenanschlagsparameter angibt, der/die einer oder mehreren der Noten in der Abfolge entspricht/entsprechen; und
    einen Lautsprecher, der von der Einheit angesteuert wird, um als Reaktion auf die Abfolge eine Ausgabe zu erzeugen, wobei die qualitativ verschiedenartigen Klänge, die den Noten der Tonleiter zugewiesen sind, als Reaktion auf die erste und zweite Eingabe erzeugt werden.
  • Vorzugsweise beinhaltet mindestens eine der qualitativ verschiedenartigen Klänge eine Repräsentation einer menschlichen Stimme. Außerdem beinhalten die verschiedenartigen Klänge entsprechende Solfège-Tonsilben.
  • Die Daten werden vorzugsweise in einer MIDI-Klangbelegung gespeichert. Außerdem werden die Klänge der vom Lautsprecher erzeugten Ausgabe vorzugsweise mit den betreffenden Tonhöhen gespielt, die den betreffenden Noten der Tonleiter zugewiesen sind.
  • Bei einer bevorzugten Ausführungsform der vorliegenden Erfindung beinhaltet ein System für die Musiklehre eine Vorrichtung, wie sie oben beschrieben wurde. Bei dieser Ausführungsform beinhalten die Klänge vorzugsweise Wörter, welche die Noten beschreiben.
  • Die vorliegende Erfindung lässt sich anhand der folgenden ausführlichen Beschreibung ihrer bevorzugten Ausführungsformen in Verbindung mit den Zeichnungen besser verstehen, bei denen:
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 eine schematische Darstellung eines Systems für die Erzeugung von Klängen gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung ist; und
  • 2 eine schematische Darstellung einer Datenstruktur ist, die von dem System aus 1 gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung verwendet wird.
  • AUSFÜHRLICHE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • 1 ist eine schematische Darstellung eines Systems 20 für die Erzeugung von Klängen, das gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung eine mit einem digitalen Musikinstrument 22 verbundene Verarbeitungseinheit 24, einen optionalen Verstärker 28, der vorzugsweise einen Lautsprecher beinhaltet, und einen optionalen Musikserver 40 umfasst. Allgemein gesprochen dienen die Verarbeitungseinheit 24 und das Instrument 22 bei dieser Ausführungsform als Musikerzeugungseinheiten. Die Verarbeitungseinheit 24 umfasst vorzugsweise einen Personal Computer, einen Sequenzer und/oder eine in der Technik bekannte Vorrichtung für die Verarbeitung von MIDI-Daten. Dabei ist dem Fachmann klar, dass die Grundgedanken der vorliegenden Erfindung, wie sie hier beschrieben sind, auch durch eine unabhängige Verwendung des Instruments 22 bzw. der Verarbeitungseinheit 24 umgesetzt werden können. Darüber hinaus werden im Folgenden bevorzugte Ausführungsformen der vorliegenden Erfindung mit Blick auf den MIDI-Standard beschrieben, um so bestimmte Aspekte der vorliegenden Erfindung darzulegen; dabei dürfte jedoch auch klar sein, dass diese Aspekte auch unter Verwendung anderer digitaler oder gemischter digitaler/analoger Protokolle umgesetzt werden könnten. Der Umfang der Erfindung wird dabei ausschließlich durch die beigefügten Ansprüche begrenzt.
  • Üblicherweise sind das Instrument 22 und die Verarbeitungseinheit 24 durch Standardkabel und Stecker mit dem Verstärker 28 verbunden, während ein MIDI-Kabel 32 dazu dient, einen MIDI-Anschluss 30 des Instruments 22 mit einem MIDI-Anschluss 34 der Verarbeitungseinheit 24 zu verbinden. Bei einigen Anwendungen der vorliegenden Erfindung, die weiter unten ausführlicher beschrieben werden, ist die Verarbeitungseinheit 24 mit einem Netzwerk 42 (z.B. dem Internet) verbunden, das der Verarbeitungseinheit 24 das Herunterladen von MIDI-Dateien von dem Musikserver 40 ermöglicht, der ebenfalls mit dem Netzwerk verbunden ist.
  • Bei einer bevorzugten Betriebsart dieser Ausführungsform der vorliegenden Erfindung ist das digitale Musikinstrument 22 MIDI-fähig. Anhand von weiter unten ausführlicher beschriebenen Verfahren spielt ein Benutzer 26 des Instruments 22 eine Reihe von Noten auf dem Instrument, z.B. die C-Dur-Tonleiter, und das Instrument veranlasst den Verstärker 28, als Reaktion darauf die Wörter „Do Re Mi Fa Sol La Si Do" zu erzeugen, wobei jedes Wort mit dem entsprechenden Ton „gesungen" bzw. angegeben wird. Vorzugsweise variiert das so erzeugte Solfège in Abhängigkeit von einigen oder allen Tastenanschlagsparametern oder sonstigen Parametern, die auch die meisten MIDI-Instrumentenbelegungen steuern, z.B. Tastengeschwindigkeit, Anschlagstärke nach dem eigentlichen Anschlag, Notendauer, Betätigung des Haltepedals, Modulationseinstellungen usw.
  • Alternativ oder zusätzlich hierzu lädt der Benutzer 26 eine Standard-MIDI-Datei vom Server 40 auf die Verarbeitungseinheit 24 herunter, die nicht notwendigerweise eigens für die Verwendung mit dieser Erfindung vorbereitet werden muss. So könnte der Benutzer bei der Suche im Internet beispielsweise eine Webseite zur amerikanischen Geschichte mit einer MIDI- Datei finden, die eine Einkanalversion von „Yankee Doodle" enthalten könnte, die ursprünglich unter Verwendung der GM-Belegungsnummer 73 (Piccoloflöte) gespielt und gespeichert wurde. (Dabei bedeutet „Einkanal", dass ein Instrument zu einem bestimmten Zeitpunkt jeweils nur einen einzigen Ton ausgibt.) Nach dem Herunterladen der Datei ändert die Verarbeitungseinheit 24 vorzugsweise die Auswahl der Belegungsnummer von 73 auf eine Klangbelegung, die eigens gemäß den Grundgedanken der vorliegenden Erfindung (und nicht gemäß dem GM-Standard) programmiert wurde. Als Ergebnis hört der Benutzer bei der Wiedergabe eine simulierte menschliche Stimme, die „Do Do Re Mi Do Mi Re..." singt und dabei vorzugsweise im Wesentlichen dieselbe Melodie, denselben Rhythmus und dieselben sonstigen MIDI-Parameter verwendet, die für das ursprüngliche digitale Piccoloflöten-Spiel gespeichert wurden. Wenn die heruntergeladene MIDI-Datei mehrstimmig gewesen wäre, z.B. Piccoloflöte (Belegungsnummer 73) auf Kanal 1 als Melodiestimme, Banjo (Belegungsnummer 106) auf Kanal 2 als Begleitstimme zur Piccoloflöte und Schlagzeug auf Kanal 10, hätte der Benutzer 26 zwischen dem Hören des Solfège auf Kanal 1 oder Kanal 2 wählen können, indem er angegeben hätte, dass die Noten und Daten von dem ausgewählten Kanal von einer Solfège-Klangbelegung gespielt werden sollten. Wenn der Benutzer in diesem Beispiel das Solfège auf Kanal 1 hören möchte, können Banjo und Schlagzeug immer noch gleichzeitig gehört werden und bleiben im Wesentlichen unbeeinflusst durch die Anwendung der vorliegenden Erfindung auf die MIDI-Datei.
  • Bei einigen Anwendungen der vorliegenden Erfindung wird eine Klangbelegung, die jede Taste auf der Tastatur in Beziehung zu einer zugehörigen Solfège-Tonsilbe (oder zu anderen Wörtern, Satzteilen, Klangeffekten usw.) setzt, vom Server 40 in einen Speicher 36 der Verarbeitungseinheit 24 heruntergeladen. Der Benutzer 26 verwendet die heruntergeladene Klangbelegung vorzugsweise in der Verarbeitungseinheit 24 und/oder überträgt die Klangbelegung wahlweise zum Instrument 22, wo sie üblicherweise in einem elektronischen Speicher 38 dieses Instruments abgelegt wird. Aus Sicht des Benutzers entspricht die Handhabung der Klangbelegung vorzugsweise im Wesentlichen derjenigen von anderen MIDI-Klangbelegungen, die in der Technik bekannt sind.
  • Bei einer bevorzugten Ausführungsform der vorliegenden Erfindung wird die weiter oben beschriebene eigens programmierte MIDI-Klangbelegung in Verbindung mit Lernsoftware verwendet, die Solfège und/oder die Verwendung von Solfège als Hilfsmittel für die Vermittlung anderer Aspekte der Musik lehrt, wie beispielsweise Tonhöhe, Dauer, Konsonanz und Dissonanz, Vom-Blatt-Singen usw. Bei einigen Anwendungen umfassen MIDI-fähige Webseite, die auf dem Server 40 gespeichert sind, Musiklernprogramme, welche die Klangbelegung verwenden und auf die Verarbeitungseinheit 24 heruntergeladen und/oder vom Benutzer 26 aus der Ferne ausgeführt werden können.
  • 2 ist eine schematische Darstellung einer Datenstruktur 50 zur Speicherung von Klängen gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung, die von dem System 20 aus 1 verwendet wird. Die Datenstruktur 50 ist vorzugsweise auf dieselbe Art und Weise aufgebaut wie die in der Technik bekannten MIDI-Klangbelegungen. Somit entspricht jeder Block 52 der Struktur 50 vorzugsweise einer bestimmten Taste des digitalen Musikinstruments 22 und enthält eine funktionsbezogene Repräsentation, die einen oder mehrere der verschiedenen MIDI-Eingabeparameter (z.B. MIDI-Note, Tastenanschlaggeschwindigkeit, Anschlagstärke nach dem eigentlichen Anschlag, Notendauer, Betätigung des Haltepedals, Modulationseinstellungen usw.) in Bezug zu einer Ausgabe setzt. Die Ausgabe besteht üblicherweise aus einem elektrischen Signal, das an den Verstärker 28 gesendet wird, um so einen gewünschten Klang zu erzeugen.
  • Im Gegensatz zu in der Technik bekannten Klangbelegungen umfasst die Struktur 50 jedoch qualitativ verschiedenartige Klänge für eine Gruppe von aufeinander folgenden MIDI-Noten. Eine Gruppe von „qualitativ verschiedenartigen Klängen" bezieht sich in der vorliegenden Patentanmeldung und den Ansprüchen auf eine Gruppe von Klängen, die sich für den Hörer am deutlichsten erkennbar durch ein Merkmal unterscheiden, das nicht durch die Tonhöhe der einzelnen Klänge der Gruppe bedingt wird. Erläuternde Beispiele von Gruppen qualitativ verschiedenartiger Klänge enthält Tabelle I. Dabei wird für jede Gruppe in der Tabelle einem jeden der verschiedenen Klänge eine andere MIDI-Note zugewiesen, und jeder Klang wird (sofern zutreffend) von dem Verstärker/Lautsprecher 28 mit der Tonhöhe der Note „gesungen", die derjenigen entspricht, mit der die Note gespielt wird.
  • TABELLE I
  • 1. (Menschliche Stimme):
    • {„Do", „Re", „Mi", „Fa", „Sol", „La", „Si"} – siehe Abbildung in 2
  • 2. (Menschliche Stimme):
    • {„C", „C#", „D", „D#", „E", „F", "F#, „G", „G#", „A", „A#", B"}
  • 3. (Menschliche Stimme):
    • {„1", „2", „3", „4", „5", „6", „7", „8", „9", „10", „11", „12", „13", „14", „15", „plus", „minus", „mal", „dividiert durch", „ist gleich", „Komma"}
  • 4. Klangeffekte:
    • {[Piepton], [zerspringendes Glas], [Niesen], [Autohupe], [Trillerpfeife]}
  • Somit unterscheidet sich eine MIDI-Klangbelegung gemäß den Grundgedanken der vorliegenden Erfindung von in der Technik bekannten MIDI-Klangbelegungen, bei denen die Tonhöhe das am deutlichsten erkennbare (und üblicherweise das einzige erkennbare) Merkmal darstellt, das die durch das Spielen verschiedener Noten und hier insbesondere mehrerer Noten innerhalb einer Oktave erzeugten Klänge wahrnehmbar voneinander unterscheidet. Dabei ist darauf zu verweisen, dass, obwohl die Datenstruktur 50 die Klänge „Do Re Mi..." enthält, ein beliebiger Eintrag der obigen Tabelle I oder beliebige andere Wörter, Teilsätze, Nachrichten und/oder Klangeffekte in der Datenstruktur 50 verwendet werden könnte(n) und innerhalb des Umfangs der vorliegenden Erfindung liegt/liegen.
  • Jeder Block 52 der Datenstruktur 50 umfasst vorzugsweise eine Vielzahl von Wellenformen, um die entsprechende MIDI-Note darzustellen. Wie in der Technik der Computermusik-Synthese bekannt ist, stellt die Wavetable-Synthese das bevorzugte Verfahren für die Erzeugung der Datenstruktur 50 dar.
  • Alternativ oder zusätzlich hierzu wird ein gegebener Block 52 der Struktur 50, z.B. „Fa", vorbereitet, indem eine menschliche Stimme, die mit einer Vielzahl von Lautstärken und mit unterschiedlicher Dauer „Fa" singt", digital abgetastet wird. Anhand der Interpolation der Werte zwischen den verschiedenen abgetasteten Datengruppen oder der Extrapolation aus den abgetasteten Datengruppen werden die korrekten Klänge für nicht abgetastete Eingaben erzeugt.
  • Alternativ oder zusätzlich hierzu wird außerdem lediglich eine Abtastung für jeden Eintrag der Struktur 50 vorgenommen, und seine Lautstärke oder sonstigen Wiedergabeparameter wird/werden wahlweise in Echtzeit geändert, um so ein Solfège auf der Grundlage der MIDI-Datei oder der angeschlagenen Tasten zu erzeugen. Bei einigen Ausführungsformen der vorliegenden Erfindung weisen Blöcke, die für genau eine Oktave auseinander liegende Noten stehen, im Wesentlichen dieselben Wellenformen auf. Im Allgemeinen entspricht die Vorbereitung der Struktur 50 zur Erzeugung einer Solfège-Klangbelegung der Vorbereitung einer beliebigen digital abgetasteten instrumentellen Klangbelegung, wie sie in der Technik bekannt ist (z.B. akustischer Flügel), mit der Ausnahme, dass – wie aus der obigen Beschreibung deutlich wird – zwischen zwei verhältnismäßig nahe beieinander liegenden MIDI-Noten in der Regel keine Interpolation durchgeführt wird, um die Klänge der dazwischen liegenden Noten zu ermitteln.
  • Bei einigen Anwendungen beinhaltet das Instrument 22 einen Tonhöhenregler, der in der Technik als ein Mittel für die stufenlose Modulation der Tonhöhe einer Note bekannt ist und üblicherweise dazu dient, dass der Benutzer 26 einen Übergang zwischen einem Solfège-Klang und einem darauf folgenden Solfège-Klang erzeugen kann. Bei einigen dieser Anwendungen sollten die Solfège-Klänge vorzugsweise in Bestandteile aufgeteilt werden, wie im Folgenden beschrieben wird, so dass es durch die Verwendung des Tonhöhenreglers nicht zu einer Verzerrung der Klänge kommt. Gesprochene Wörter verfügen in der Regel über einen „stimmhaften" Teil, der überwiegend vom Kehlkopf erzeugt wird, und einen „stimmlosen" Teil, der überwiegend von den Zähnen, der Zunge, dem Gaumen und den Lippen erzeugt wird. Üblicherweise kann der stimmhafte Teil der Sprache erhebliche Schwankungen der Tonhöhe aufweisen, während der stimmlose Teil von Modulationen der Tonhöhe eines gesprochenen Worts verhältnismäßig wenig verändert wird.
  • Aus diesem Grund ist bei einer bevorzugten Ausführungsform der vorliegenden Erfindung die Synthese der Klänge so gestaltet, dass die Fähigkeit eines Hörers, einen jeden Solfège-Klang bei seiner Ausgabe durch den Verstärker 28 deutlich zu wahrzunehmen, auch dann verbessert wird, wenn der Benutzer den Tonhöhenregler (der die Klänge verzerren kann) bedient oder Noten sehr schnell (z.B. schneller als etwa sechs Noten pro Sekunde) spielt. Um diese Aufgabe zu lösen, führt das Instrument 22 eine regelmäßige Prüfung auf schnelle Tastenanschläge oder die Verwendung des Tonhöhenreglers durch. Wenn es eine dieser Bedingungen erkennt, beschleunigt das Instrument 22 vorzugsweise den stimmhaften Teil des Solfège-Klangs und erzeugt dabei vorzugsweise einen erheblichen Bestandteil des stimmhaften Teils in weniger als 100 ms (üblicherweise in etwa 15 ms). Der stimmlose Teil wird in der Regel in diesen Fällen nicht geändert. Die Reaktion des Instruments 22 auf die Verwendung des Tonhöhenreglers wird vorzugsweise so lange verzögert, bis der beschleunigte Klang erzeugt wurde.
  • Die Aufteilung eines gesprochenen Klangs in seine stimmhaften und stimmlosen Teile, die wahlweise Änderung eines oder beider Teile und die darauf folgende erneute Zusammensetzung der Teile ist eine Methode, die in der Technik hinreichend bekannt ist. Unter Verwendung bekannter Methoden wird die Beschleunigung des stimmhaften Teils in der Regel so durchgeführt, dass die Tonhöhe des stimmhaften Teils durch die Beschleunigung seiner Wiedergabe nicht erhöht wird.
  • Alternativ werden die stimmhaften und stimmlosen Teile einer jeden Solfège-Note vor dem Spielen des Instruments 22 überprüft, wobei dies vorzugsweise zum Zeitpunkt der ursprünglichen Erzeugung der Datenstruktur 50 erfolgt. Im letzteren Fall wird sowohl die nicht geänderte digitale Repräsentation eines Solfège-Klangs als auch der eigens erzeugte „beschleunigte" Solfège-Klang üblicherweise in Block 52 gespeichert, und das Instrument 22 wählt unter Zugrundelegung vorbestimmter Auswahlparameter aus, ob der nicht geänderte oder der beschleunigte Solfège-Klang abgerufen werden soll.
  • Bei einigen Anwendungen der vorliegenden Erfindung wird die Beschleunigung des Solfège-Klangs (bei Verwendung des Tonhöhenreglers oder bei schnell aufeinander folgenden Tastenanschlägen) ohne Trennung in stimmhafte und stimmlose Teile durchgeführt. Stattdessen wird im Wesentlichen die gesamte Repräsentation des Solfège-Klangs beschleunigt, wobei dies vorzugsweise ohne eine Änderung der Tonhöhe des Klangs erfolgt, so dass der ausgewählte Solfège-Klang von einem Hörer deutlich wahrgenommen werden kann, bevor der Klang mit dem Tonhöhenregler geändert oder durch einen darauf folgenden Solfège-Klang ersetzt wird.
  • Alternativ wird lediglich der erste Teil eines Solfège-Klangs (z.B. das „D" in „Do") beschleunigt, so dass bei einer Betätigung des Tonhöhenreglers oder einem schnellen Tastenanschlag der am deutlichsten erkennbare Teil des Solfège-Klangs von einem Hörer gehört wird, bevor der Klang verzerrt oder eine darauf folgende Taste angeschlagen wird.
  • Grundsätzlich dürfte klar sein, dass die oben beschriebenen bevorzugten Ausführungsformen lediglich beispielhaft angeführt wurden und dass der vollständige Umfang der Erfindung ausschließlich durch die Ansprüche begrenzt wird.

Claims (18)

  1. Verfahren für die elektronische Erzeugung von Klängen auf der Grundlage der aufeinander folgenden Noten einer Tonleiter, wobei das Verfahren Folgendes umfasst: Zuweisen entsprechender Klänge zu mindestens einigen der aufeinander folgenden Noten, wobei sich die Klänge voneinander auf der Grundlage der Tonhöhe der Note und durch ein weiteres Merkmal unterscheiden, das nicht durch die Tonhöhe der einzelnen Klänge der Tonleiter bedingt wird; Speichern der zugewiesenen Klänge in einem Programm, das auf einem Computer ausgeführt wird, der über eine Hardwareschnittstelle mit einer Instrumententastatur verbunden ist, und Ermöglichen der Erfassung und Codierung von Parametern anhand einer Taste, die auf der Tastatur angeschlagen wird, und Übertragen zu dem Computer, der außerdem in der Lage ist, entsprechende Klänge zu decodieren und auf einem Verstärker zu erzeugen, wobei jede angeschlagene Taste einem erzeugen Klang entspricht, der sich von einem anderen unterscheiden kann; Empfangen einer ersten Eingabe, die eine Abfolge von Musiknoten angibt, welche aus den Noten der Tonleiter ausgewählt wurden; Empfangen einer zweiten Eingabe, die einen oder mehrere Tastenanschlagsparameter angibt, der/die einer oder mehreren der Noten in der Abfolge entspricht/entsprechen; und Erzeugen einer Ausgabe als Reaktion auf die Abfolge, bei der die verschiedenartigen Klänge als Reaktion auf die betreffenden Noten, die durch die erste Eingabe definiert wurden, in der Abfolge und mit den betreffenden Tonhöhen, die den betreffenden Noten zugewiesen sind, und als Reaktion auf die Tastenanschlagsparameter der zweiten Eingabe für die betreffenden Noten erzeugt werden.
  2. Verfahren nach Anspruch 1, wobei mindestens einer der verschiedenartigen Klänge eine Repräsentation einer menschlichen Stimme umfasst.
  3. Verfahren nach Anspruch 2, wobei die verschiedenartigen Klänge Solfège-Tonsilben umfassen, die jeweils den Noten zugewiesen sind.
  4. Verfahren nach einem beliebigen der vorangegangenen Ansprüche, wobei die Zuweisung das Erzeugen einer MIDI-Klangbelegung (Musical Instrument Digital Interface) (50) umfasst, welche die verschiedenartigen Klänge umfasst.
  5. Verfahren nach Anspruch 4, wobei die Erzeugung der Klangbelegung Folgendes umfasst: Erzeugen einer digitalen Repräsentation der Klänge durch das digitale Abtasten der verschiedenartigen Klänge; und Speichern der Repräsentation in der Klangbelegung.
  6. Verfahren nach einem beliebigen der vorangegangenen Ansprüche, wobei der Empfang der ersten und zweiten Eingaben das Abspielen der Abfolge von Musiknoten auf einem Musikinstrument (22) umfasst.
  7. Verfahren nach einem beliebigen der Ansprüche 1 bis 5, wobei der Empfang der ersten und zweiten Eingaben das Abrufen der Abfolge von Musiknoten aus einer Datei umfasst.
  8. Verfahren nach Anspruch 7, wobei der Empfang der ersten und zweiten Eingaben das Zugreifen auf ein Netzwerk (42) und das Herunterladen der Datei von einem entfernten Computer (40) umfasst.
  9. Verfahren nach einem beliebigen der vorangegangenen Ansprüche, wobei die Erzeugung der Ausgabe das Erzeugen der verschiedenartigen Klänge als Reaktion auf die betreffenden Notendauerparameter in der Abfolge von Noten umfasst.
  10. Verfahren nach einem beliebigen der vorangegangenen Ansprüche, wobei die Erzeugung der Ausgabe das Erzeugen der verschiedenartigen Klänge als Reaktion auf die betreffenden Notengeschwindigkeitsparameter in der Abfolge von Noten umfasst.
  11. Verfahren nach einem beliebigen der vorangegangenen Ansprüche, wobei die Erzeugung der Ausgabe das Beschleunigen der Ausgabe eines Teils der Klänge als Reaktion auf eine Eingabeaktion umfasst.
  12. Verfahren nach einem beliebigen der Ansprüche 1 bis 11, wobei die Zuweisung der Klänge das Zuweisen der betreffenden Repräsentationen einer menschlichen Stimme umfasst, die ein oder mehrere Wörter ausspricht.
  13. Vorrichtung (20) für die elektronische Erzeugung von Klängen auf der Grundlage von aufeinander folgenden Noten einer Tonleiter, die Folgendes umfasst: eine elektronische Musikerzeugungseinheit (22, 24), die einen Speicher (38, 36) umfasst, in dem Daten, welche die betreffenden Klänge angeben, die den aufeinander folgenden Noten zugewiesen sind, für ein Programm gespeichert sind, das auf einem Computer ausgeführt wird, der über eine Hardwareschnittstelle mit einer Instrumententastatur verbunden ist und die Erfassung und Codierung der Parameter für eine Taste, die auf der Tastatur von einem Instrumentenspieler angeschlagen wird, sowie die Übertragung an den Computer ermöglicht, der entsprechende Klänge decodieren und auf einem Verstärker erzeugen kann, wobei jede angeschlagene Taste einem erzeugten Klang entspricht, der von einem anderen Klang verschieden sein kann, auf der Grundlage der Tonhöhe der Note sowie durch ein weiteres Merkmal, das nicht durch die Tonhöhe der einzelnen Klänge der Tonleiter bedingt wird, und wobei die elektronische Musikerzeugungseinheit so ausgelegt ist, dass sie (a) eine erste Eingabe, die eine Abfolge von Musiknoten angibt, die aus den Noten der Tonleiter ausgewählt wurden, empfängt; und wobei die elektronische Musikerzeugungseinheit so ausgelegt ist, dass sie (b) eine zweite Eingabe, die einen oder mehrere Tastenanschlagsparameter angibt, der/die einer oder mehreren der Noten in der Abfolge entspricht/entsprechen, empfängt; und wobei die Vorrichtung ferner Folgendes umfasst: einen Lautsprecher (28), der von der elektronischen Musikerzeugungseinheit angesteuert wird, um als Reaktion auf die Abfolge eine Ausgabe zu erzeugen, wobei die elektronische Musikerzeugungseinheit so ausgelegt ist, dass sie als Reaktion auf die ersten und zweiten Eingaben verschiedenartige Klänge erzeugt, die den Noten der Tonleiter zugewiesen sind.
  14. Vorrichtung nach Anspruch 13, wobei mindestens einer der verschiedenartigen Klänge eine Repräsentation einer menschlichen Stimme umfasst.
  15. Vorrichtung nach Anspruch 14, wobei die verschiedenartigen Klänge entsprechende Solfège-Tonsilben umfassen.
  16. Vorrichtung nach einem beliebigen der Ansprüche 13 bis 16, wobei die Daten in einer MIDI-Klangbelegung (50) gespeichert werden.
  17. Vorrichtung nach einem beliebigen der Ansprüche 13 bis 16, wobei bei der vom Lautsprecher erzeugten Ausgabe die Klänge mit den betreffenden Tonhöhen abgespielt werden, die den betreffenden Noten der Tonleiter zugewiesen sind.
  18. System für die Musiklehre, das eine Vorrichtung nach Anspruch 17 umfasst, wobei die Klänge Wörter umfassen, welche die Noten beschreiben.
DE69932796T 1998-12-29 1999-11-25 MIDI-Schnittstelle mit Sprachfähigkeit Expired - Lifetime DE69932796T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP98480102 1998-12-29
EP98480102 1998-12-29

Publications (2)

Publication Number Publication Date
DE69932796D1 DE69932796D1 (de) 2006-09-28
DE69932796T2 true DE69932796T2 (de) 2007-08-23

Family

ID=8235790

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69932796T Expired - Lifetime DE69932796T2 (de) 1998-12-29 1999-11-25 MIDI-Schnittstelle mit Sprachfähigkeit

Country Status (4)

Country Link
US (2) US6104998A (de)
JP (1) JP2000194360A (de)
AT (1) ATE336773T1 (de)
DE (1) DE69932796T2 (de)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6477382B1 (en) * 2000-06-12 2002-11-05 Intel Corporation Flexible paging for packet data
US6819652B1 (en) * 2000-06-21 2004-11-16 Nortel Networks Limited Method and apparatus for processing control messages in a communications system
US7111163B1 (en) 2000-07-10 2006-09-19 Alterwan, Inc. Wide area network using internet with quality of service
US7225271B1 (en) * 2001-06-29 2007-05-29 Cisco Technology, Inc. System and method for recognizing application-specific flows and assigning them to queues
FR2831742B1 (fr) * 2001-10-25 2004-02-27 Cit Alcatel Procede de transmission de paquets par l'intermediaire d'un reseau de telecommunications utilisant le protocole ip
US6754203B2 (en) * 2001-11-27 2004-06-22 The Board Of Trustees Of The University Of Illinois Method and program product for organizing data into packets
US20040042444A1 (en) * 2002-08-27 2004-03-04 Sbc Properties, L.P. Voice over internet protocol service through broadband network
ITTO20021009A1 (it) * 2002-11-20 2004-05-21 Telecom Italia Lab Spa Procedimento, sistema e prodotto informatico per la
US7469282B2 (en) 2003-01-21 2008-12-23 At&T Intellectual Property I, L.P. Method and system for provisioning and maintaining a circuit in a data network
US7813273B2 (en) * 2003-05-14 2010-10-12 At&T Intellectual Property I, Lp Soft packet dropping during digital audio packet-switched communications
US20040228282A1 (en) * 2003-05-16 2004-11-18 Qi Bao Method and apparatus for determining a quality measure of a channel within a communication system
US7317727B2 (en) * 2003-05-21 2008-01-08 International Business Machines Corporation Method and systems for controlling ATM traffic using bandwidth allocation technology
US8223632B2 (en) 2003-12-23 2012-07-17 At&T Intellectual Property I, L.P. Method and system for prioritized rerouting of logical circuit data in a data network
US7646707B2 (en) * 2003-12-23 2010-01-12 At&T Intellectual Property I, L.P. Method and system for automatically renaming logical circuit identifiers for rerouted logical circuits in a data network
US7630302B2 (en) 2003-12-23 2009-12-08 At&T Intellectual Property I, L.P. Method and system for providing a failover circuit for rerouting logical circuit data in a data network
US7609623B2 (en) * 2003-12-23 2009-10-27 At&T Intellectual Property I, L.P. Method and system for automatically rerouting data from an overbalanced logical circuit in a data network
US8203933B2 (en) * 2003-12-23 2012-06-19 At&T Intellectual Property I, L.P. Method and system for automatically identifying a logical circuit failure in a data network
US7639623B2 (en) 2003-12-23 2009-12-29 At&T Intellectual Property I, L.P. Method and system for real time simultaneous monitoring of logical circuits in a data network
US8199638B2 (en) 2003-12-23 2012-06-12 At&T Intellectual Property I, L.P. Method and system for automatically rerouting logical circuit data in a data network
US7639606B2 (en) 2003-12-23 2009-12-29 At&T Intellectual Property I, L.P. Method and system for automatically rerouting logical circuit data in a virtual private network
US7487258B2 (en) * 2004-01-30 2009-02-03 International Business Machines Corporation Arbitration in a computing utility system
US7466646B2 (en) 2004-04-22 2008-12-16 At&T Intellectual Property I, L.P. Method and system for automatically rerouting logical circuit data from a logical circuit failure to dedicated backup circuit in a data network
US8339988B2 (en) 2004-04-22 2012-12-25 At&T Intellectual Property I, L.P. Method and system for provisioning logical circuits for intermittent use in a data network
US7460468B2 (en) 2004-04-22 2008-12-02 At&T Intellectual Property I, L.P. Method and system for automatically tracking the rerouting of logical circuit data in a data network
US7768904B2 (en) * 2004-04-22 2010-08-03 At&T Intellectual Property I, L.P. Method and system for fail-safe renaming of logical circuit identifiers for rerouted logical circuits in a data network
US7254383B2 (en) 2004-07-30 2007-08-07 At&T Knowledge Ventures, L.P. Voice over IP based biometric authentication
GB2421141A (en) * 2004-12-08 2006-06-14 Zarlink Semiconductor Ltd Adaptive clock recovery scheme
US7359409B2 (en) * 2005-02-02 2008-04-15 Texas Instruments Incorporated Packet loss concealment for voice over packet networks
KR100772868B1 (ko) * 2005-11-29 2007-11-02 삼성전자주식회사 복수 계층을 기반으로 하는 스케일러블 비디오 코딩 방법및 장치
US7979146B2 (en) * 2006-04-13 2011-07-12 Immersion Corporation System and method for automatically producing haptic events from a digital audio signal
US8000825B2 (en) 2006-04-13 2011-08-16 Immersion Corporation System and method for automatically producing haptic events from a digital audio file
US8378964B2 (en) 2006-04-13 2013-02-19 Immersion Corporation System and method for automatically producing haptic events from a digital audio signal
US8295162B2 (en) 2006-05-16 2012-10-23 At&T Intellectual Property I, L.P. System and method to achieve sub-second routing performance
US9093073B1 (en) * 2007-02-12 2015-07-28 West Corporation Automatic speech recognition tagging
CH700453A1 (fr) * 2009-02-26 2010-08-31 Guillaume Hastoy Procédé d'enregistrement de piano acoustique à distance et en différé.
US10403252B2 (en) * 2012-07-31 2019-09-03 Fender Musical Instruments Corporation System and method for connecting and controlling musical related instruments over communication network
US8921677B1 (en) * 2012-12-10 2014-12-30 Frank Michael Severino Technologies for aiding in music composition
US9620092B2 (en) * 2012-12-21 2017-04-11 The Hong Kong University Of Science And Technology Composition using correlation between melody and lyrics
US9601097B2 (en) * 2014-03-06 2017-03-21 Zivix, Llc Reliable real-time transmission of musical sound control data over wireless networks
US9997147B2 (en) * 2015-07-20 2018-06-12 Masaaki Kasahara Musical instrument digital interface with voice note identifications
EP3365883A4 (de) * 2015-10-25 2019-04-10 Commusicator Ltd. System und verfahren zur computergestützten anleitung einer musiksprache
US9536504B1 (en) 2015-11-30 2017-01-03 International Business Machines Corporation Automatic tuning floating bridge for electric stringed instruments
JP6695069B2 (ja) * 2016-05-31 2020-05-20 パナソニックIpマネジメント株式会社 電話装置
JP6497404B2 (ja) * 2017-03-23 2019-04-10 カシオ計算機株式会社 電子楽器、その電子楽器の制御方法及びその電子楽器用のプログラム
US10593312B1 (en) * 2018-03-07 2020-03-17 Masaaki Kasahara Digital musical synthesizer with voice note identifications

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3742145A (en) * 1972-04-17 1973-06-26 Itt Asynchronous time division multiplexer and demultiplexer
US4527274A (en) * 1983-09-26 1985-07-02 Gaynor Ronald E Voice synthesizer
US4733591A (en) 1984-05-30 1988-03-29 Nippon Gakki Seizo Kabushiki Kaisha Electronic musical instrument
US4763319A (en) * 1986-05-19 1988-08-09 Bell Communications Research, Inc. Multi-rate synchronous virtual circuit network for voice and data communications
EP0331858B1 (de) * 1988-03-08 1993-08-25 International Business Machines Corporation Verfahren und Einrichtung zur Sprachkodierung mit mehreren Datenraten
US5099738A (en) * 1989-01-03 1992-03-31 Hotz Instruments Technology, Inc. MIDI musical translator
JPH05341793A (ja) 1991-04-19 1993-12-24 Pioneer Electron Corp カラオケ演奏装置
US5313454A (en) * 1992-04-01 1994-05-17 Stratacom, Inc. Congestion control for cell networks
JP3381074B2 (ja) 1992-09-21 2003-02-24 ソニー株式会社 音響構成装置
GB9514956D0 (en) * 1995-07-21 1995-09-20 British Telecomm Transmission of digital signals
TW333644B (en) * 1995-10-30 1998-06-11 Victor Company Of Japan The method for recording musical data and its reproducing apparatus
US5751718A (en) * 1996-02-20 1998-05-12 Motorola, Inc. Simultaneous transfer of voice and data information using multi-rate vocoder and byte control protocol
US5915237A (en) 1996-12-13 1999-06-22 Intel Corporation Representing speech using MIDI
US6069310A (en) * 1998-03-11 2000-05-30 Prc Inc. Method of controlling remote equipment over the internet and a method of subscribing to a subscription service for controlling remote equipment over the internet

Also Published As

Publication number Publication date
US6104998A (en) 2000-08-15
US6191349B1 (en) 2001-02-20
JP2000194360A (ja) 2000-07-14
ATE336773T1 (de) 2006-09-15
DE69932796D1 (de) 2006-09-28

Similar Documents

Publication Publication Date Title
DE69932796T2 (de) MIDI-Schnittstelle mit Sprachfähigkeit
DE69909107T2 (de) Verfahren und vorrichtung zum automatischen komponieren
DE68913278T2 (de) Vorrichtung zur Wiedergabe von Musik und zur Anzeige von Worten.
Huron Tone and voice: A derivation of the rules of voice-leading from perceptual principles
Risset et al. Exploration of timbre by analysis and synthesis
DE3889051T2 (de) Vorrichtung zur Tonsignalerzeugung.
McAdams Spectral fusion and the creation of auditory images
US5880392A (en) Control structure for sound synthesis
Bresin Articulation rules for automatic music performance
DE10318149A1 (de) Pianoforteinstrument mit zusätzlicher Energieeinspeisung in den Resonanzboden und Verfahren zur Beeinflussung des Klanges eines Pianofortesinstrumentes
DE60318282T2 (de) Methoden und Vorrichtung zur Verarbeitung von Ausführungsdaten und zur Synthetisierung von Tonsignalen
DE112017008066B4 (de) Klangsignalerzeugungsvorrichtung, tasteninstrument und programm
Schneider Perception of timbre and sound color
EP1885156B1 (de) Hörhilfe mit einem Audiosignalerzeuger
Su et al. Multi-timbre chord classification using wavelet transform and self-organized map neural networks
DE112006002058B4 (de) Vorrichtung zur Speicherung von Klangfarben, Verfahren zur Speicherung von Klangfarben sowie Computerprogramm zur Speicherung von Klangfarben
DE60302333T2 (de) Optimierung der Wiedergabe einer MIDI-Datei
Goebl The role of timing and intensity in the production and perception of melody in expressive piano performance
AT410380B (de) Vorrichtung zur ton- bzw. klangsimulation von orchestermusik
AT508837B1 (de) Elektronische tonerzeugungsvorrichtung
JP2008275836A (ja) 読み上げ用ドキュメント処理方法及び装置
EP1017039B1 (de) MIDI Schnittstelle mit Sprachfähigkeit
Wishart Beyond notation
Westman On the problem of the tonality in Georgian polyphonic songs: The variability of pitch, intervals and timbre
Decroupet Timbre diversification in serial tape music and its consequence on form

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8320 Willingness to grant licences declared (paragraph 23)