DE60302420T2 - Musiksuchgerät und -verfahren - Google Patents

Musiksuchgerät und -verfahren Download PDF

Info

Publication number
DE60302420T2
DE60302420T2 DE60302420T DE60302420T DE60302420T2 DE 60302420 T2 DE60302420 T2 DE 60302420T2 DE 60302420 T DE60302420 T DE 60302420T DE 60302420 T DE60302420 T DE 60302420T DE 60302420 T2 DE60302420 T2 DE 60302420T2
Authority
DE
Germany
Prior art keywords
chord
music
pieces
data
music data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60302420T
Other languages
English (en)
Other versions
DE60302420D1 (de
Inventor
Shinichi Tsurugashima-shi Gayama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corp filed Critical Pioneer Corp
Application granted granted Critical
Publication of DE60302420D1 publication Critical patent/DE60302420D1/de
Publication of DE60302420T2 publication Critical patent/DE60302420T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/38Chord
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/432Query formulation
    • G06F16/433Query formulation using audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/632Query formulation
    • G06F16/634Query by example, e.g. query by humming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/571Chords; Chord sequences
    • G10H2210/576Chord progression
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
    • G10H2240/141Library retrieval matching, i.e. any of the steps of matching an inputted segment or phrase with musical database contents, e.g. query by humming, singing or playing; the steps may include, e.g. musical analysis of the input, musical feature extraction, query formulation, or details of the retrieval process

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Mathematical Physics (AREA)
  • Acoustics & Sound (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft eine Vorrichtung und ein Verfahren zum Suchen nach einem Musikstück entsprechend einer Musik für ein Suchobjekt.
  • 2 Beschreibung des in Beziehung stehenden technischen Hintergrunds
  • Es gibt Fälle, in denen ein Hörer den Titel oder Interpret eines Musikstücks oder eines Lieds, das im Fernsehen oder Radio ausgestrahlt wird, nicht kennt. Es ist notwendig, Musikinformationen über die gehörte Musik zu erlangen, um die Musik noch einmal persönlich anzuhören. Eine Musiksuchvorrichtung ist als eine Vorrichtung bekannt, die verwendet wird, um nach Musikinformationen wie beispielsweise dem Titel des Musikstücks zu suchen.
  • In einer herkömmlichen Musiksuchvorrichtung, wie sie in dem japanischen Patent Kokai Nr. H10-134549 und Nr. H06-290574 offenbart ist, werden charakteristische Musikparameter wie beispielsweise ein Tempo, ein Musikinstrumentenmuster, ein Intervall, ein Akkord für jeden Schlag, die Frequenz bestimmter Akkorde und ein Rhythmusmuster auf der Grundlage von Musikdaten von jedem Musikstück detektiert. Die Vorrichtung umfasst ein Speichermittel, das diese Parameterdaten mit ihren Indizes speichert, und es werden charakteristische Parameter für ein gewünschtes Musikstück detektiert und die Indizes für die detektierten Parameter werden als Extraktionsindizes verwendet. Dann werden die Extraktionsindizes und die gespeicherten Indizes miteinander verglichen, und Informationen für das gewünschte Musikstück werden auf der Grundlage des Vergleichsergebnisses angezeigt.
  • In der herkömmlichen Musiksuchvorrichtung müssen jedoch vorab verschiedene Arten von charakteristischen Parametern für jedes Musikstück extrahiert und in dem Speichermittel gespeichert werden, um genaue Informationen über das gewünschte Musikstück zu erhalten. Dies verkompliziert die Struktur der Vorrichtung notwendigerweise.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Es ist ein Ziel der vorliegenden Erfindung, eine Vorrichtung und ein Verfahren bereitzustellen, um nach einem gewünschten Musikstück auf eine einfache Art und Weise genau zu suchen.
  • Eine Musiksuchvorrichtung gemäß der vorliegenden Erfindung umfasst: ein Speichermittel zum Speichern von ersten Akkordabfolgemusikdaten für eine Vielzahl an Musikstücken, die chronologische Änderungen von Akkorden in den Musikstücken darstellen; ein Suchdatenerzeugungsmittel zum Erzeugen von zweiten Akkordabfolgemusikdaten, die chronologische Änderungen in mindestens einem Teil von Akkorden in einem Musikstück darstellen; ein Vergleichsmittel zum Vergleichen der zweiten Akkordabfolgemusikdaten mit den ersten Akkordabfolgemusikdaten für die Vielzahl an Musikstücken, die in dem Speichermittel gespeichert sind, auf der Grundlage eines Änderungsumfangs eines Grundtons eines Akkords bei einem Akkordwechsel und einer Eigenschaft des Akkords nach dem Wechsel, wobei ein Ähnlichkeitsgrad für jedes der Vielzahl an Musikstücken berechnet wird; und ein Ausgabemittel zum Erzeugen einer Such ausgabe entsprechend einem Ergebnis der Ähnlichkeitsgradberechnung für jedes der Vielzahl an Musikstücken durch das Vergleichsmittel.
  • Ein Musiksuchverfahren gemäß der vorliegenden Erfindung umfasst die Schritte: Speichern von ersten Akkordabfolgemusikdaten für eine Vielzahl an Musikstücken, die chronologische Änderungen von Akkorden in den Musikstücken darstellen; Erzeugen von zweiten Akkordabfolgemusikdaten, die chronologische Änderungen in mindestens einem Teil von Akkorden in einem Musikstück darstellen; Vergleichen der zweiten Akkordabfolgemusikdaten mit den ersten Akkordabfolgemusikdaten für die Vielzahl an Musikstücken, die in dem Speicherschritt gespeichert werden, auf der Grundlage eines Änderungsumfangs eines Grundtons eines Akkords bei einem Akkordwechsel und einer Eigenschaft des Akkords nach dem Wechsel, wobei ein Ähnlichkeitsgrad für jedes der Vielzahl an Musikstücken berechnet wird; und Erzeugen einer Suchausgabe entsprechend einem Ergebnis der Ähnlichkeitsgradberechnung für jedes der Vielzahl an Musikstücken durch den Vergleichsschritt.
  • Ein Computerprogrammprodukt gemäß der vorliegenden Erfindung, das ein Programm zum Suchen eines Musikstücks umfasst, wobei das Suchen die Schritte umfasst: Speichern von ersten Akkordabfolgemusikdaten für eine Vielzahl an Musikstücken, die chronologische Änderungen von Akkorden in den Musikstücken darstellen; Erzeugen von zweiten Akkordabfolgemusikdaten, die chronologische Änderungen in mindestens einem Teil von Akkorden in einem Musikstück darstellen; Vergleichen der zweiten Akkordabfolgemusikdaten mit den ersten Akkordabfolgemusikdaten für die Vielzahl an Musikstücken, die in dem Speicherschritt gespeichert werden, auf der Grundlage eines Änderungsumfangs eines Grundtons eines Akkords bei einem Akkordwechsel und einer Eigenschaft des Akkords nach dem Wechsel, wobei ein Ähnlichkeitsgrad für jedes der Viel zahl an Musikstücken berechnet wird; und Erzeugen einer Suchausgabe entsprechend dem Ergebnis der Ähnlichkeitsgradberechnung für jedes der Vielzahl an Musikstücken durch den Vergleichsschritt.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein Blockdiagramm der Ausgestaltung eines Musikverarbeitungssystems, auf das die Erfindung angewandt wird;
  • 2 ist ein Flussdiagramm, das die Operation einer Frequenzfehlerdetektion zeigt;
  • 3 ist eine Tabelle mit Verhältnissen der Frequenzen von zwölf Tönen und einem Ton A eine Oktave höher in Bezug auf den niedrigeren Ton A mit 1,0;
  • 4 ist ein Flussdiagramm, das einen Hauptprozess bei einer Akkordanalyseoperation zeigt;
  • 5 ist eine graphische Darstellung, die ein Beispiel der Intensitätsniveaus von Tonkomponenten in Banddaten zeigt;
  • 6 ist eine graphische Darstellung, die ein anderes Beispiel der Intensitätsniveaus von Tonkomponenten in Banddaten zeigt;
  • 7 zeigt, wie ein Akkord mit vier Tönen in einen Akkord mit drei Tönen transformiert wird;
  • 8 zeigt ein Aufzeichnungsformat in einen temporären Speicher;
  • 9A bis 9C zeigen ein Verfahren zum Ausdrücken von Fundamentaltönen von Akkorden, ihren Eigenschaften und einem Akkordkandidaten;
  • 10 ist ein Flussdiagramm, das einen Nach-Prozess bei einer Akkordanalyseoperation zeigt;
  • 11 zeigt chronologische Änderungen von ersten und zweiten Akkordkandidaten vor einem Glättungsprozess;
  • 12 zeigt chronologische Änderungen von ersten und zweiten Akkordkandidaten nach dem Glättungsprozess;
  • 13 zeigt chronologische Änderungen von ersten und zweiten Akkordkandidaten nach einem Austauschprozess;
  • 14A bis 14D zeigen, wie Akkordabfolgemusikdaten erzeugt werden, und ihr Format;
  • 15 ist ein Flussdiagramm, das einen Dateneingabeprozess bei einer Musiksuchoperation zeigt;
  • 16 ist ein Flussdiagramm, das die Weiterführung des Dateneingabeprozesses zeigt, der in 15 gezeigt ist;
  • 17 ist ein Flussdiagramm, das einen Such-/Wiedergabeprozess bei der Musiksuchoperation zeigt;
  • 18 zeigt einen Akkorddifferentialwert für einen Akkordwechsel und die Eigenschaft des Akkords nach dem Wechsel;
  • 19A bis 19C zeigen die Beziehung zwischen den C-ten Akkordabfolgemusikdaten und Akkordabfolgemusikdaten für ein Suchobjekt, Änderungen eines Korrelationskoeffizienten COR(t), Zeitdauern, für die Akkorde gehalten werden, Sprungprozesse und Tonverwandtschaftsprozesse; und
  • 20 ist ein Blockdiagramm der Ausgestaltung eines Musikverarbeitungssystems als eine andere Ausführungsform der Erfindung.
  • DETAILLIERTE BESCHREIBUNG DER ERFINDUNG
  • Im Folgenden werden Ausführungsformen der vorliegenden Erfindung ausführlich in Bezug auf die Zeichnungen beschrieben.
  • 1 zeigt ein Musikverarbeitungssystem, auf das die vorliegende Erfindung angewandt wird. Das Musikverarbeitungssystem umfasst eine Mikrofoneingabeeinrichtung 1, eine Leitungseingabeeinrichtung 2, eine Musikeingabeeinrichtung 3, eine Eingabeoperationseinrichtung 4, einen Eingabeauswahlschalter 5, einen Analog-Digital-Wandler 6, eine Akkordanalyseeinrichtung 7, Datenspeichereinrichtungen 8 und 9, einen temporären Speicher 10, eine Akkordabfolgevergleichseinrichtung 11, eine Anzeigeeinrichtung 12, eine Musikwiedergabeeinrichtung 13, einen Digital-Analog-Wandler 14 und einen Lautsprecher 15.
  • Die Mikrofoneingabeeinrichtung 1 kann einen Musikklang mit einem Mikrofon erfassen und gibt ein analoges Audiosignal aus, das den erfassten Musikklang darstellt. Die Leitungseingabeeinrichtung 2 ist z.B. mit einem Plattenspieler oder einem Tonbandgerät verbunden, so dass ein analoges Audiosignal, das einen Musikklang darstellt, eingegeben werden kann. Die Musikeingabeeinrichtung 3 ist z.B. ein CD-Spieler, der mit der Akkordanalyseeinrichtung 7 und der Datenspeichereinrichtung 8 verbunden ist, um ein digitalisiertes Audiosignal (wie beispielsweise PCM-Daten) wiederzugeben. Die Eingabeoperationseinrichtung 4 ist eine Einrichtung für einen Benutzer, um sie zu bedienen und somit Daten oder Befehle in das System einzugeben. Der Ausgang der Eingabeoperationseinrichtung 4 ist mit dem Eingabeauswahlschalter 5, der Akkordanalyseeinrichtung 7, der Akkordabfolgevergleichseinrichtung 11 und der Musikwiedergabeeinrichtung 13 verbunden.
  • Der Eingabeauswahlschalter 5 liefert dem Analog-Digital-Wandler 6 selektiv eines der Ausgangssignale von der Mikrofoneingabeeinrichtung 1 oder der Leitungseingabeeinrichtung 2. Der Eingabeauswahlschalter 5 wird in Ansprechen auf einen Befehl von der Eingabeoperationseinrichtung 4 betätigt.
  • Der Analog-Digital-Wandler 6 ist mit der Akkordanalyseeinrichtung 7 und der Datenspeichereinrichtung 8 verbunden, digitalisiert ein analoges Audiosignal und liefert das digitalisierte Audiosignal der Datenspeichereinrichtung 8 als Musikdaten. Die Datenspeichereinrichtung 8 speichert die Musikdaten (PCM-Daten), die von dem Analog-Digital-Wandler 6 und der Musikeingabeeinrichtung 3 geliefert werden, als Dateien.
  • Die Akkordanalyseeinrichtung 7 analysiert Akkorde gemäß den gelieferten Musikdaten durch Ausführen einer Akkordanalyseoperation, die beschrie ben wird. Die Akkorde der Musikdaten, die durch die Akkordanalyseeinrichtung 7 analysiert werden, werden temporär als erste und zweite Akkordkandidaten in dem temporären Speicher 10 gespeichert. Die Datenspeichereinrichtung 9 speichert Akkordabfolgemusikdaten (erste Akkordabfolgemusikdaten), die ein analysiertes Ergebnis von der Akkordanalyseeinrichtung 7 sind, als eine Datei für jedes Musikstück.
  • Die Akkordabfolgevergleichseinrichtung 11 vergleicht die Akkordabfolgemusikdaten (zweite Akkordabfolgemusikdaten) als ein Suchobjekt mit den Akkordabfolgemusikdaten, die in der Datenspeichereinrichtung 9 gespeichert sind, und Akkordabfolgemusikdaten mit großen Ähnlichkeiten zu den Akkordabfolgemusikdaten des Suchobjekts werden detektiert. Die Anzeigeeinrichtung 12 zeigt ein Ergebnis des Vergleichs durch die Akkordabfolgevergleichseinrichtung 11 als eine Liste von Musikstücken an.
  • Die Musikwiedergabeeinrichtung 13 liest die Datei des Musikstücks, das als die höchste Ähnlichkeit zeigend durch die Akkordabfolgevergleichseinrichtung 11 detektiert wird, aus der Datenspeichereinrichtung 8 aus, gibt die Daten wieder, und gibt sie als ein digitales Audiosignal aus. Der Digital-Analog-Wandler 14 wandelt das digitale Audiosignal, das durch die Musikwiedergabeeinrichtung 13 wiedergegeben wird, in ein analoges Audiosignal um.
  • Die Akkordanalyseeinrichtung 7, die Akkordabfolgevergleichseinrichtung 11 und die Musikwiedergabeeinrichtung 13 arbeiten jeweils in Ansprechen auf einen Befehl von der Eingabeoperationseinrichtung 4.
  • Die Operation des Musikverarbeitungssystems wird nachstehend ausführlich beschrieben.
  • Hier wird die Operation unter der Annahme, dass ein analoges Audiosignal, das einen Musikklang darstellt, von der Leitungseingabeeinrichtung 2 über den Eingabeauswahlschalter 5 zu dem Analog-Digital-Wandler 6 geliefert wird, und dann in ein digitales Signal zur Lieferung an die Akkordanalyseeinrichtung 7 umgewandelt wird, beschrieben.
  • Die Akkordanalyseoperation umfasst einen Vor-Prozess, einen Hauptprozess und einen Nach-Prozess. Die Akkordanalyseeinrichtung 7 führt eine Frequenzfehler-Detektionsoperation als den Vor-Prozess aus.
  • Bei der Frequenzfehler-Detektionsoperation werden, wie es in 2 gezeigt ist, eine Zeitvariable T und Banddaten F(N) jeweils auf Null initialisiert, und eine Variable N wird z.B. auf den Bereich von –3 bis 3 initialisiert (Schritt S1). Ein eingegebenes digitales Signal wird einer Frequenzumwandlung durch Fouriertransformation in Intervallen von 0,2 Sekunden unterzogen, und als ein Ergebnis der Frequenzumwandlung werden Frequenzinformationen f(T) erhalten (Schritt S2).
  • Die momentanen Informationen f(T), vorherige Informationen f(T – 1), und Informationen f(T – 2), die zwei Zeiten zuvor erhalten wurden, werden verwendet, um einen Prozess eines gleitenden Mittelwerts auszuführen (Schritt S3). In dem Prozess eines gleitenden Mittelwerts werden Frequenzinformationen, die bei zwei Operationen in der Vergangenheit erhalten wurden, auf der Annahme verwendet, dass sich ein Akkord innerhalb von 0,6 Sekunden kaum ändert. Der Prozess eines gleitenden Mittelwerts wird durch den folgenden Ausdruck ausgeführt: f(T) = (f(T) + f(T – 1)/2,0 + f(T – 2)/3,0)/3,0 (1)
  • Nach Schritt S3 wird die Variable N auf –3 gesetzt (Schritt S4), und es wird bestimmt, ob die Variable N kleiner als 4 ist oder nicht (Schritt S5). Wenn N < 4, werden nach dem Prozess eines gleitenden Mittelwerts Frequenzkomponenten f1(T) bis f5(T) aus den Frequenzinformationen f(T) extrahiert (Schritte S6 bis S10). Die Frequenzkomponenten f1(T) bis f5(T) liegen in temperierten Zwölfton-Tonleitern für fünf Oktaven auf der Grundlage von 110,0 + 2 × N Hz als die Fundamentalfrequenz. Die zwölf Töne sind A, A#, H, C, C#, D, D#, E, F, F#, G und G#. 3 zeigt Frequenzverhältnisse der zwölf Töne und von Ton A eine Oktave höher in Bezug auf den niedrigeren Ton A mit 1,0. Ton A liegt in Schritt S6 für f1(T) bei 110,0 + 2 × N Hz, in Schritt S7 für f2(T) bei 2 ×(110,0 + 2 × N) Hz, in Schritt S8 für f3(T) bei 4 ×(110,0 + 2 × N) Hz, in Schritt S9 für f4(T) bei 8 ×(110,0 + 2 × N) Hz und in Schritt 10 für f5(T) bei 16 ×(110,0 + 2 × N) Hz.
  • Nach den Schritten S6 bis S10 werden die Frequenzkomponenten f1(T) bis f5(T) in Banddaten F'(T) für eine Oktave umgewandelt (Schritt S11). Die Banddaten F'(T) werden wie folgt ausgedrückt: F'(T) = f1(T) × 5 + f2(T)× 4 + f3(T)× 3+ f4(T)× 2 + f5(T) (2)
  • Spezieller werden die Frequenzkomponenten f1(T) bis f5(T) jeweils gewichtet und dann zueinander addiert. Die Banddaten F'(T) für eine Oktave werden zu den Banddaten F(N) addiert (Schritt S12). Dann wird zu der Variablen N Eins addiert (Schritt S13), und Schritt S5 wird wieder ausgeführt.
  • Die Operationen in den Schritten S6 bis S13 werden so lange wiederholt, wie in Schritt S5 N < 4 steht, mit anderen Worten, so lange, wie N in dem Bereich von –3 bis +3 liegt. Folglich ist die Tonkomponente F(N) eine Fre quenzkomponente für eine Oktave einschließlich Tonintervallfehlern in dem Bereich von –3 bis +3.
  • Wenn in Schritt S5 N ≥ 4, wird bestimmt, ob die Variable T kleiner ist als ein vorbestimmter Wert M oder nicht (Schritt S14). Wenn T < M, wird zu der Variablen T Eins addiert (Schritt S15), und Schritt S2 wird wieder ausgeführt. Es werden durch M Frequenzumwandlungsoperationen für jede Variable N für Frequenzinformationen f(T) Banddaten F(N) erzeugt.
  • Wenn in Schritt S14 T ≥ M, wird in den Banddaten F(N) für eine Oktave für jede Variable N F(N) mit den Frequenzkomponenten, deren Gesamtbetrag maximal ist, detektiert, und in den detektierten F(N) wird N als ein Fehlerwert X gesetzt (Schritt S16).
  • In dem Fall, in dem eine bestimmte Differenz zwischen den Tonintervallen eines gesamten Musikklangs existiert, wie beispielsweise bei einem Klang einer Aufführung durch ein Orchester, können die Tonintervalle durch Erhalten des Fehlerwerts X durch den Prozess kompensiert werden, und der folgende Hauptprozess zum Analysieren von Akkorden kann demgemäß ausgeführt werden.
  • Sobald die Operation des Detektierens von Frequenzfehlern in dem Vor-Prozess endet, wird der Hauptprozess zum Analysieren von Akkorden ausgeführt. Es sei angemerkt, dass, wenn der Fehlerwert X vorab verfügbar ist, oder der Fehler unbedeutend genug ist, um ignoriert zu werden, der Vor-Prozess weggelassen werden kann. In dem Hauptprozess wird eine Akkordanalyse vom Beginn bis zum Ende für ein Musikstück ausgeführt, und deshalb wird der Akkordanalyseeinrichtung 7 ein eingegebenes digitales Signal von dem Startteil des Musikstücks an geliefert.
  • Wie es in 4 gezeigt ist, wird in dem Hauptprozess eine Frequenzumwandlung durch Fouriertransformation mit dem eingegebenen digitalen Signal in Intervallen von 0,2 Sekunden ausgeführt, und Frequenzinformationen f(T) werden erhalten (Schritt S21). Dieser Schritt S21 entspricht einem Frequenzumwandlungsmittel. Die momentanen Informationen f(T), die vorherigen Informationen f(T – 1), und die Informationen f(T – 2), die zwei Zeiten zuvor erhalten wurden, werden verwendet, um den Prozess eines gleitenden Mittelwerts auszuführen (Schritt S22). Die Schritte S21 und S22 werden auf die gleiche Weise wie die Schritte S2 und S3, wie es oben beschrieben ist, ausgeführt.
  • Nach Schritt S22 werden nach dem Prozess eines gleitenden Mittelwerts Frequenzkomponenten f1(T) bis f5(T) aus Frequenzinformationen f(T) extrahiert (Schritte S23 bis S27). Ähnlich den oben beschriebenen Schritten S6 bis S10 liegen die Frequenzkomponenten f1(T) bis f5(T) in den temperierten Zwölfton-Tonleitern für fünf Oktaven auf der Grundlage von 110,0 + 2 × N Hz als die Fundamentalfrequenz. Die zwölf Töne sind A, A#, H, C, C#, D, D#, E, F, F#, G und G#. Ton A liegt in Schritt S23 für f1(T) bei 110,0 + 2 × N Hz, in Schritt S24 für f2(T) bei 2 ×(110,0 + 2 × N) Hz, in Schritt S25 für f3(T) bei 4 ×(110,0 + 2 × N) Hz, in Schritt S26 für f4(T) bei 8 ×(110,0 + 2 × N) Hz und in Schritt 27 für f5(T) bei 16 ×(110,0 + 2 × N) Hz. Hier ist N das X, das in Schritt S16 gesetzt wurde.
  • Nach den Schritten S23 bis S27 werden die Frequenzkomponenten f1(T) bis f5(T) in Banddaten F'(T) für eine Oktave umgewandelt (Schritt S28). Die Operation in Schritt S28 wird unter Verwendung des Ausdrucks (2) auf die gleiche Art und Weise wie Schritt S11 ausgeführt, der oben beschrieben ist. Die Banddaten F'(T) umfassen Tonkomponenten. Diese Schritte S23 bis S28 entsprechen einem Komponentenextraktionsmittel.
  • Nach Schritt S28 werden die sechs Töne mit den größten Intensitätsniveaus unter den Tonkomponenten in den Banddaten F'(T) als Kandidaten ausgewählt (Schritt S29) und zwei Akkorde M1 und M2 der sechs Kandidaten werden erzeugt (Schritt S30). Einer der sechs Kandidatentöne wird als Grundton verwendet, um einen Akkord mit drei Tönen zu erzeugen. Spezieller werden 6C3-Akkorde betrachtet. Die Niveaus der drei Töne, die jeden Akkord bilden, werden addiert. Der Akkord, dessen Additionsergebniswert der Größte ist, wird als der erste Akkordkandidat M1 gesetzt, und der Akkord mit dem zweitgrößten Additionsergebnis wird als der zweite Akkordkandidat M2 gesetzt.
  • Wenn die Tonkomponenten der Banddaten F'(T) die Intensitätsniveaus für zwölf Töne zeigen, wie es in 5 gezeigt ist, werden in Schritt S29 sechs Töne A, E, C, G, H und D ausgewählt. Dreiklänge, die jeweils drei Töne von diesen sechs Tönen A, E, C, G, H und D aufweisen, sind Akkord Am (aus den Tönen A, C und E), Akkord C (aus den Tönen C, E und G), Akkord Ein (aus den Tönen E, H und G), Akkord G (aus den Tönen G, H und D), .... Die Gesamtintensitätsniveaus von Akkord Am (A, C, E), Akkord C (C, E, G), Akkord Ein (E, H, G) bzw. Akkord G (G, H, D) betragen 12, 9, 7 bzw. 4. Folglich wird in Schritt S30 Akkord Am, dessen Gesamtintensitätsniveau das Größte, d.h. 12 ist, als der erste Akkordkandidat M1 gesetzt. Akkord C, dessen Gesamtintensitätsniveau das Zweitgrößte, d.h. 7 ist, wird als der zweite Akkordkandidat M2 gesetzt.
  • Wenn die Tonkomponenten in den Banddaten F'(T) die Intensitätsniveaus für die zwölf Töne zeigen, wie es in 6 gezeigt ist, werden in Schritt S29 sechs Töne C, G, A, E, H und D ausgewählt. Dreiklänge, die aus drei Tönen erzeugt werden, die aus diesen sechs Tönen C, G, A, E, H und D ausgewählt sind, sind Akkord C (aus den Tönen C, E und G), Akkord Am (aus A, C und E), Akkord Ein (aus E, H und G), Akkord G (aus G, H und D), .... Die Gesamtintensitätsniveaus von Akkord C (C, E, G), Akkord Am (A, C, E), Akkord Ein (E, H, G), bzw. Akkord G (G, H, D) betragen 11, 10, 7 bzw. 6. Folglich wird Akkord C, dessen Gesamtintensitätsniveau das Größte, d.h. 11 ist, in Schritt S30 als der erste Akkordkandidat M1 gesetzt. Akkord Am, dessen Gesamtintensitätsniveau das Zweitgrößte, d.h. 10 ist, wird als der zweite Akkordkandidat M2 gesetzt.
  • Die Anzahl an Tönen, die einen Akkord bilden, muss nicht drei sein, und es gibt einen Akkord mit vier Tönen, wie beispielsweise eine Septime und eine verminderte Septime. Akkorde mit vier Tönen werden in zwei oder mehr Akkorde mit jeweils drei Tönen geteilt, wie es in 7 gezeigt ist. Deshalb können, ähnlich wie bei den obigen Akkorden mit drei Tönen, für diese Akkorde mit vier Tönen zwei Akkordkandidaten gemäß den Intensitätsniveaus der Tonkomponenten in den Banddaten F'(T) gesetzt werden.
  • Nach Schritt S30 wird bestimmt, ob es so viele Akkorde wie die Anzahl, die in Schritt S30 gesetzt wird, gibt oder nicht (Schritt S31). Wenn in Schritt 30 der Unterschied der Intensitätsniveaus nicht groß genug ist, um mindestens drei Töne auszuwählen, wird kein Akkordkandidat gesetzt. Deshalb wird Schritt S31 ausgeführt. Wenn die Anzahl an Akkordkandidaten > 0, wird dann bestimmt, ob die Anzahl an Akkordkandidaten größer als Eins ist (Schritt S32).
  • Wenn in Schritt S31 bestimmt wird, dass die Anzahl an Akkordkandidaten = 0, werden die Akkordkandidaten M1 und M2, die in dem vorherigen Hauptprozess bei T – 1 (etwa 0,2 Sekunden zuvor) gesetzt wurden, als die momentanen Akkordkandidaten M1 und M2 gesetzt (Schritt S33). Wenn in Schritt S32 die Anzahl an Akkordkandidaten = 1, bedeutet dies, dass nur der erste Kandidat M1 in dem momentanen Schritt S30 gesetzt wurde, und deshalb wird der zweite Akkordkandidat M2 als der gleiche Ak kord wie der erste Akkordkandidat M1 gesetzt (Schritt S34). Diese Schritte S29 bis S34 entsprechen einem Akkordkandidaten-Detektionsmittel.
  • Wenn in Schritt S32 bestimmt wird, dass die Anzahl an Akkordkandidaten > 1, bedeutet dies, dass sowohl der erste als auch der zweite Akkordkandidat M1 und M2 in dem momentanen Schritt S30 gesetzt werden, und deshalb werden die Zeit und die ersten und zweiten Akkordkandidaten M1 und M2 in dem temporären Speicher 10 gespeichert (Schritt S35). Die Zeit und die ersten und zweiten Akkordkandidaten M1 und M2 werden als ein Satz in dem temporären Speicher 10 gespeichert, wie es in 8 gezeigt ist. Die Zeit ist die Anzahl, wie viele Male der Hauptprozess ausgeführt wird, und wird durch T dargestellt, das alle 0,2 Sekunden inkrementiert wird. Die ersten und zweiten Akkordkandidaten M1 und M2 werden in der Ordnung von T gespeichert.
  • Spezieller wird eine Kombination aus einem Fundamentalton (Grundton) und seiner Eigenschaft verwendet, um jeden Akkordkandidaten auf einer 1-Byte-Basis in dem temporären Speicher 10 zu speichern, wie es in 8 gezeigt ist. Der Fundamentalton gibt einen der temperierten zwölf Töne an, und die Eigenschaft gibt einen Akkordtyp wie beispielsweise Dur {4, 3}, Moll {3, 4}, Septime-Kandidat {4, 6} und Kandidat einer verminderten Septime (dim7) {3, 3} an. Die Zahlen in den geschweiften Klammern { } stellen die Differenz zwischen drei Tönen dar, wenn ein Halbton 1 ist. Ein typischer Kandidat für eine Septime ist {4, 3, 3} und ein typischer Kandidat einer verminderten Septime (dim7) ist {3, 3, 3}, aber es wird der obige Ausdruck eingesetzt, um sie mit drei Tönen auszudrücken.
  • Wie es in 9A gezeigt ist, werden die 12 Fundamentaltöne jeweils auf einer 16-Bit-Basis (in hexadezimaler Darstellung) ausgedrückt. Wie es in 9B gezeigt ist, ist jede Eigenschaft, die einen Akkordtyp angibt, auf einer 16-Bit-Basis (in hexadezimaler Darstellung) dargestellt. Die vier Bits unterer Ordnung eines Fundamentaltons und die vier Bits unterer Ordnung seiner Eigenschaft werden in dieser Ordnung kombiniert und als ein Akkordkandidat in Form von acht Bits (ein Byte) verwendet, wie es in 9C gezeigt ist.
  • Schritt S35 wird ebenfalls sofort ausgeführt, nachdem Schritt S33 oder Schritt S34 ausgeführt wird.
  • Nachdem Schritt S35 ausgeführt wird, wird bestimmt, ob die Musik geendet hat (Schritt S36). Wenn es z.B. kein eingegebenes analoges Audiosignal mehr gibt, oder wenn es eine Eingabeoperation von der Eingabeoperationseinrichtung 4 gibt, die das Ende der Musik angibt, wird bestimmt, dass die Musik geendet hat. Dementsprechend endet der Hauptprozess.
  • Bis das Ende der Musik bestimmt wird, wird zu der Variablen T Eins addiert (Schritt S37), und Schritt S21 wird wieder ausgeführt. Schritt S21 wird in Intervallen von 0,2 Sekunden ausgeführt, mit anderen Worten wird der Prozess nach 0,2 Sekunden von der vorherigen Ausführung des Prozesses an wieder ausgeführt.
  • In dem Nach-Prozess werden, wie es in 10 gezeigt ist, alle ersten und zweiten Akkordkandidaten M1(0) bis M1(R) und M2(0) bis M2(R) aus dem temporären Speicher 10 ausgelesen (Schritt S41). Null stellt den Startpunkt dar, und die ersten und zweiten Akkordkandidaten beim Startpunkt sind M1(0) und M2(0). Der Buchstabe R stellt den Endpunkt dar, und die ersten und zweiten Akkordkandidaten beim Endpunkt sind M1(R) und M2(R). Diese ersten Akkordkandidaten M1(0) bis M1(R) und die zweiten Akkordkandidaten M2(0) bis M2(R), die somit ausgelesen werden, werden einer Glättung unterzogen (Schritt S42). Die Glättung wird ausge führt, um durch Rauschen verursachte Fehler auszugleichen, die in den Akkordkandidaten enthalten sind, wenn die Kandidaten in den Intervallen von 0,2 Sekunden detektiert werden, ungeachtet der Wechselstellen der Akkorde. Als ein spezifisches Glättungsverfahren wird bestimmt, ob eine Beziehung, die durch M1(t – 1) ≠ M1(t) und M1(t) ≠ M1(t + 1) dargestellt ist, für drei aufeinander folgende erste Akkordkandidaten M1(t – 1), M1(t) und M1(t + 1) gilt oder nicht. Wenn die Beziehung hergestellt ist, wird M1(t) auf M1(t + 1) angeglichen. Der Bestimmungsprozess wird für jeden der ersten Akkordkandidaten ausgeführt. Auf die gleiche Art und Weise wird für die zweiten Akkordkandidaten ein Glätten ausgeführt. Es sei angemerkt, dass, anstatt M1(t) auf M1(t + 1) anzugleichen, M1(t + 1) auf M1(t) angeglichen werden kann.
  • Nach dem Glätten werden die ersten und zweiten Akkordkandidaten ausgetauscht (Schritt S43). Es besteht kaum eine Möglichkeit, dass sich ein Akkord in einer Periode, die 0,6 Sekunden kurz ist, ändert. Die Frequenzcharakteristik der Signaleingangsstufe und ein Rauschen zu der Zeit einer Signaleingabe können jedoch bewirken, dass die Frequenz jeder Tonkomponente in den Banddaten F'(T) schwankt, so dass die ersten und zweiten Akkordkandidaten innerhalb 0,6 Sekunden ausgetauscht sein können. Schritt S43 wird als eine Abhilfemaßnahme für die Möglichkeit ausgeführt. Als ein spezifisches Verfahren zum Austauschen der ersten und zweiten Akkordkandidaten wird die folgende Bestimmung für fünf aufeinander folgende erste Akkordkandidaten M1(t – 2), M1(t – 1), M1(t), M1(t + 1) und M1(t + 2) und fünf zweite aufeinander folgende Akkordkandidaten M2(t – 2), M2(t – 1), M2(t), M2(t + 1) und M2(t + 2), die den ersten Akkordkandidaten entsprechen, ausgeführt. Spezieller wird bestimmt, ob eine Beziehung, die durch M1(t – 2) = M1(t + 2), M2(t – 2) = M2(t + 2), M1(t – 1) = M1(t) = M1(t + 1) = M2(t – 2) und M2(t – 1) = M2(t) = M2(t + 1) = M1(t – 2) dargestellt ist, hergestellt ist. Wenn die Beziehung hergestellt ist, werden M1(t – 1) = M1(t) = M1(t + 1) = M1(t – 2) und M2(t – 1) = M2(t) = M2(t + 1) = M2(t – 2) bestimmt, und die Akkorde zwischen M1(t – 2) und M2(t – 2) werden ausgetauscht. Es sei angemerkt, dass die Akkorde zwischen M1(t + 2) und M2(t + 2) anstatt zwischen M1(t – 2) und M2(t – 2) ausgetauscht werden können. Es wird auch bestimmt, ob eine Beziehung, die durch M1(t – 2) = M1(t + 1), M2(t – 2) = M2(t + 1), M1(t – 1) = M(t) = M1(t + 1) = M2(t – 2) und M2(t – 1) = M2(t) = M2(t + 1) = M1(t – 2) dargestellt ist, hergestellt ist oder nicht. Wenn die Beziehung hergestellt ist, werden M1(t – 1) = M(t) = M1(t – 2) und M2(t – 1) = M2(t) = M2(t – 2) bestimmt, und die Akkorde zwischen M1(t – 2) und M2(t – 2) werden ausgetauscht. Die Akkorde können zwischen M1(t + 1) und M2(t + 1) anstatt zwischen M1(t – 2) und M2(t – 2) ausgetauscht werden.
  • Die ersten Akkordkandidaten M1(0) bis M1(R) und die zweiten Akkordkandidaten M2(0) bis M2(R), die in Schritt S41 ausgelesen werden, ändern sich z.B. mit der Zeit, wie es in 11 gezeigt ist, wobei die Mittelwertbildung in Schritt S42 ausgeführt wird, um ein korrigiertes Ergebnis zu erhalten, wie es in 12 gezeigt ist. Zusätzlich korrigiert der Akkordaustausch in Schritt S43 die Schwankungen der ersten und zweiten Akkordkandidaten, wie es in 13 gezeigt ist. Es sei angemerkt, dass 11 bis 13 Änderungen der Akkorde durch einen Liniengraph zeigen, bei dem Positionen auf der vertikalen Linie den Arten von Akkorden entsprechen.
  • Nach dem Akkordaustausch in Schritt S43 werden der Kandidat M1(t) bei einer Akkordwechselstelle t der ersten Akkordkandidaten M1(0) bis M1(R) und M2(t) bei der Akkordwechselstelle t der zweiten Akkordkandidaten M2(0) bis M2(R) detektiert (Schritt S44), und die Detektionsstelle t (4 Bytes) und der Akkord (4 Bytes) werden für jeden der ersten und zweiten Akkordkandidaten in der Datenspeichereinrichtung 9 gespeichert (Schritt S45). Daten für ein Musikstück, die in Schritt S45 gespeichert werden, sind Akkordabfolgemusikdaten. Diese Schritte S41 bis S45 entsprechen einem Glättungsmittel).
  • Wenn die ersten und zweiten Akkordkandidaten M1(0) bis M1(R) und M2(0) bis M2(R) nach einem Austauschen der Akkorde in Schritt S43 mit der Zeit schwanken, wie es in 14A gezeigt ist, werden die Zeit und die Akkorde an Wechselstellen als Daten extrahiert. 14B zeigt den Inhalt von Daten an Wechselstellen zwischen den ersten Akkordkandidaten F, G, D, Hb(B) und F, die als hexadezimale Daten 0×08, 0×0A, 0×05, 0×01 und 0×08 ausgedrückt sind. Die Wechselstellen t sind T1(0), T1(1), T1(2), T1(3) und T1(4). 14C zeigt Dateninhalte an Wechselstellen zwischen den zweiten Akkordkandidaten C, Hb, F#m, Hb und C, die als hexadezimale Daten 0×03, 0×01, 0×29, 0×01 und 0×03 ausgedrückt sind. Die Wechselstellen t sind T2(0), T2(1), T2(2), T2(3) und T2(4). Die Dateninhalte, die in 14B und 14C gezeigt sind, werden in Schritt S45 zusammen mit den Identifikationsinformationen des Musikstücks in der Datenspeichereinrichtung 9 als eine Datei in der Form gespeichert, die in 14D gezeigt ist.
  • Die Akkordanalyseoperation, wie sie oben beschrieben ist, wird für Analog-Audiosignale, die verschiedene Musikklänge darstellen, wiederholt. Auf diese Weise werden Akkordabfolgemusikdaten in der Datenspeichereinrichtung 9 als eine Datei für jedes der Vielzahl an Musikstücken gespeichert. Die oben beschriebene Akkordanalyseoperation wird für ein digitales Audiosignal ausgeführt, das einen Musikklang darstellt, der von der Musikeingabeeinrichtung 3 geliefert wird, und Akkordabfolgemusikdaten werden in der Datenspeichereinrichtung 9 gespeichert. Es sei angemerkt, dass Musikdaten von PCM-Signalen, die den Akkordabfolgemusikdaten in der Datenspeichereinrichtung 9 entsprechen, in der Datenspeichereinrichtung 8 gespeichert werden.
  • In Schritt S44 werden ein erster Akkordkandidat an einer Akkordwechselstelle der ersten Akkordkandidaten und ein zweiter Akkordkandidat an einer Akkordwechselstelle der zweiten Akkordkandidaten detektiert. Dann bilden die detektierten Kandidaten Endakkordabfolgemusikdaten und deshalb kann die Kapazität pro Musikstück sogar im Vergleich zu Kompressionsdaten wie beispielsweise MP3 reduziert werden, und Daten können für jedes Musikstück mit hoher Geschwindigkeit verarbeitet werden.
  • Die Akkordabfolgemusikdaten, die in die Datenspeichereinrichtung 9 geschrieben werden, sind Akkorddaten, die temporär mit der tatsächlichen Musik synchron sind. Deshalb kann, wenn die Akkorde tatsächlich durch die Musikwiedergabeeinrichtung 13 unter Verwendung von nur dem ersten Akkordkandidaten oder der Ausgabe der logischen Summe von den ersten und zweiten Akkordkandidaten wiedergegeben werden, die Begleitung zu der Musik gespielt werden.
  • In der oben beschriebenen Ausführungsform wird ein analoges Audiosignal, das in die Leitungseingabeeinrichtung 2 eingegeben wird, in Akkordabfolgemusikdaten transformiert. Währenddessen kann ein digitales Audiosignal, das von der Musikeingabeeinrichtung 3 ausgegeben wird, oder Klang von einer Aufführung, der in die Mikrofoneingabeeinrichtung 1 eingegeben wird, auf die gleiche Weise wie in der obigen Ausführungsform in Akkordabfolgemusikdaten transformiert werden. Das digitale Audiosignal wie beispielsweise ein PCM-Signal kann ein Signal für eine komprimierte Datei wie beispielsweise MP3 zusätzlich zu dem PCM-Signal sein. Wenn Informationen für den Frequenzbereich verfügbar sind, der eine Frequenzauflösung, die der Stimmungsfrequenzbreite beim Decodieren einer komprimierten Datei entspricht, erlaubt, kann die Frequenztrans formationsoperation wie beispielsweise die Fouriertransformation weggelassen werden.
  • Es wird die Musiksuchoperation, um über die Datenspeichereinrichtung 9 Akkordabfolgemusikdaten (zweite Akkordabfolgemusikdaten), die einem als ein Suchobjekt in die Mikrofoneingabeeinrichtung 2 eingegebenen Musikklang entsprechen, beschrieben. Die Musiksuchoperation umfasst einen Dateneingabeprozess und einen Such-/Wiedergabeprozess. Bei dem Dateneingabeprozess werden zweite Akkordabfolgemusikdaten gemäß einem eingegebenem Musikklang erzeugt. Bei dem Such-/Wiedergabeprozess wird ein Musikstück für die Akkordabfolgemusikdaten, die von Interesse sind, gemäß den Akkordabfolgemusikdaten, die in der Datenspeichereinrichtung 9 gespeichert sind, gesucht, und der Klang des Musikstücks wird wiedergegeben. Der Dateneingabeprozess wird durch die Akkordanalyseeinrichtung 7 ausgeführt, und der Such-/Wiedergabeprozess wird durch die Akkordabfolgevergleichseinrichtung 11 und die Musikwiedergabeeinrichtung 13 ausgeführt.
  • Bei dem Dateneingabeprozess bei der Musiksuchoperation, der in 15 und 16 gezeigt ist, werden der Ausgang der Mikrofoneingabeeinrichtung 1 und der Analog-Digital-Wandler 6 durch den Eingabeauswahlschalter 5 verbunden (Schritt S51). Eine Ausgabe eines analogen Audiosignals von der Mikrofoneingabeeinrichtung 1 wird dem Analog-Digital-Wandler 6 über den Eingabeauswahlschalter 5 geliefert. Der Analog-Digital-Wandler 6 wandelt das analoge Audiosignal zur Lieferung an die Akkordanalyseeinrichtung 7 in ein digitales Audiosignal um. Die Operation in Schritt S51 ist nicht notwendig, wenn dem Analog-Digital-Wandler 6 von der Leitungseingabeeinrichtung 2 ein Audiosignal geliefert wird.
  • Die Gesamtakkordkandidatenanzahl h wird auf Null gesetzt (Schritt S52), und die Frequenzfehler-Detektionsoperation wird ausgeführt (Schritt S53). Die Frequenzfehler-Detektionsoperation ist die Operation in den Schritten S1 bis S16, die oben beschrieben sind.
  • Nach der Frequenzfehler-Detektionsoperation wird das eingegebene digitale Signal einer Frequenzumwandlung durch Fouriertransformation in Intervallen von 0,2 Sekunden unterzogen, so dass sich Frequenzinformationen f(T) ergeben (Schritt S54). Die momentanen Informationen f(T), die vorherigen Informationen f(T – 1) und die Informationen f(T – 2), die zwei Zeiten zuvor erhalten wurden, werden verwendet, um einen Prozess eines gleitenden Mittelwerts auszuführen (Schritt S55). Nach dem Prozess eines gleitenden Mittelwerts werden Frequenzkomponenten f1(T) bis f5(T) aus den Frequenzinformationen f(T) extrahiert (Schritte S56 bis S60). Die Frequenzkomponenten f1(T) bis f5(T) werden in Banddaten F'(T) für eine Oktave transformiert (Schritt S61). Die sechs Töne werden als Kandidaten unter den Tonkomponenten in den Banddaten F'(T) in absteigender Reihenfolge der Intensitätsniveaus ausgewählt (Schritt S62). Aus diesen sechs Tonkandidaten werden zwei Akkorde M1 und M2 erzeugt (Schritt S63). Es wird dann bestimmt, ob es so viele Akkordkandidaten gibt wie die in Schritt S63 gesetzte Anzahl oder nicht (Schritt S64). Wenn die Akkordkandidatenanzahl > 0, wird dann bestimmt, ob die Akkordkandidatenanzahl größer ist als Eins (Schritt S65). Wenn in Schritt S64 bestimmt wird, dass die Akkordkandidatenanzahl = 0, werden die bei dem vorherigen T – 1 (etwa 0,2 Sekunden zuvor) gesetzten Akkordkandidaten M1 und M2 als die momentanen Akkordkandidaten M1 und M2 gesetzt (Schritt S66).
  • Wenn bestimmt wird, dass die Akkordkandidatenanzahl = 1, was bedeutet, dass nur der erste Akkordkandidat M1 in dem momentanen Schritt S63 gesetzt wird, wird der zweite Akkordkandidat M2 auf den gleichen Akkord wie der erste Akkordkandidaten M1 gesetzt (Schritt S67). Wenn in Schritt S65 bestimmt wird, dass die Akkordkandidatenanzahl > 1, werden die Zeit und die ersten und zweiten Akkordkandidaten M1 und M2 in dem temporären Speicher 10 gespeichert (Schritt S68).
  • Schritt S68 wird auch sofort ausgeführt, nachdem die Schritte S66 und S67 ausgeführt werden.
  • Die Schritte S54 bis S68 sind die gleichen wie die Schritte S21 bis S35 in dem Hauptprozess bei der Akkordanalyseoperation.
  • Nach Schritt S68 wird bestimmt, ob die Akkordkandidaten-Gesamtanzahl h größer als eine vorbestimmte Anzahl H ist oder nicht (Schritt S69). Die vorbestimmte Anzahl H ist die Anzahl an Akkorden, die notwendig ist, um ein Musikstück zu suchen. Wenn h ≤ H, wird bestimmt, ob der erste Akkordkandidat M1 geändert wird (Schritt S70). Spezieller wird bestimmt, ob der vorherige Akkordkandidat M1(t – 1) und der momentane erste Akkordkandidat M1(t) verschieden sind. Wenn M1(t – 1) = M1(t), sind diese Akkorde die gleichen, deshalb wird zu der Variablen T Eins addiert (Schritt S71), und Schritt S54 wird wieder ausgeführt. Schritt S54 wird in Intervallen von 0,2 Sekunden ausgeführt, wie es oben beschrieben ist, und wird deshalb wieder nach 0,2 Sekunden von der vorherigen Ausführung an ausgeführt. Wenn M1(t – 1) ≠ M1(t), was bedeutet, dass der Akkord geändert wird, wird zu der Akkordkandidatgesamtanzahl h Eins addiert (Schritt S72), und dann wird Schritt S71 ausgeführt.
  • Wenn in Schritt S69 h > H, wird der Nach-Prozess bei der Akkordanalyseoperation ausgeführt (Schritt S73). Dieser Schritt S73 ist die gleiche Operation wie die Schritte S41 bis S45, die in 10 gezeigt sind. Die Schritte S51 bis S73 sind der Dateneingabeprozess. Folglich werden die Akkordab folgemusikdaten, die von Interesse sind, erzeugt. Die Daten umfassen so viele Akkorde wie die vorbestimmte Anzahl H und sind nicht die Daten für das gesamte Musikstück.
  • Der Dateneingabeprozess entspricht dem Suchdatenerzeugungsmittel.
  • Nach dem Dateneingabeprozess wird der Such-/Wiedergabeprozess bei der Musiksuchoperation ausgeführt. In dem Such-/Wiedergabeprozess werden, wie es in 17 gezeigt ist, erste Akkordkandidaten M1(0) bis M1(a – 1) und zweite Akkordkandidaten M2(0) bis M2(b – 1) für ein Audiosignal für den eingegebenen Musikklang aus der Datenspeichereinrichtung 9, die als das Speichermittel dient, ausgelesen (Schritt S81). Der Buchstabe a stellt die Gesamtanzahl der ersten Akkordkandidaten dar, und b stellt die Gesamtanzahl der zweiten Akkordkandidaten dar. Für die ausgelesenen ersten Akkordkandidaten M1(0) bis M1(a – 1) werden erste Akkorddifferentialwerte MR1(0) bis MR1(a – 2) berechnet (Schritt S82). Die ersten Akkorddifferentialwerte werden als MR1(0) = M1(1) – M1(0), MR1(1) = M1(2) – M1(1), ..., und MR1(a – 2) = M1(a – 1) – M1(a – 2) berechnet. Bei der Berechnung wird bestimmt, ob die ersten Akkorddifferentialwerte MR1(0) bis MR1(a – 2) jeweils kleiner als Null sind oder nicht, und zu den ersten Akkorddifferentialwerten, die kleiner als Null sind, wird 12 addiert. Akkordeigenschaften MA1(0) bis MA1(a – 2) nach Akkordwechseln werden jeweils zu den ersten Differentialwerten MR1(0) bis MR1(a – 2) addiert. Für die ausgelesenen zweiten Akkordkandidaten M2(0) bis M2(b – 1) werden die zweiten Akkorddifferentialwerte MR2(0) bis MR2(b – 2) berechnet (Schritt S83). Die zweiten Akkorddifferentialwerte werden als MR2(0) = M2(1) – M2(0), MR2(1) = M2(2) – M2(1), ..., MR2(b – 2) = M2(b – 1) – M2(b – 2) berechnet. Bei der Berechnung wird bestimmt, ob die zweiten Akkorddifferentialwerte MR2(0) bis MR2(b – 2) jeweils kleiner als Null sind oder nicht, und zu den zweiten Akkorddifferentialwerten, die kleiner als Null sind, wird 12 addiert. Akkordeigenschaf ten MA2(0) bis MA2(b – 2) nach dem Akkordwechsel werden jeweils zu den zweiten Differentialwerten MR2(0) bis MR2(b – 2) addiert. Es sei angemerkt, dass die Werte, die in 9B gezeigt sind, für die Akkordeigenschaften MA1(0) bis MA1(a – 2) und MA2(0) bis MA2(b – 2) verwendet werden.
  • 18 zeigt ein Beispiel der Operation in den Schritten S82 und S83. Spezieller sind, wenn sich die Akkordkandidaten in einer Reihe von Am7, Dm, C, F, Em, F und Hb# befinden, die Akkorddifferentialwerte 5, 10, 5, 11, 1 und 5, und die Akkordeigenschaften nach einem Wechsel sind 0×02, 0×00, 0×00, 0×02, 0×00 und 0×00. Es sei angemerkt, dass, wenn die Akkordeigenschaft nach einem Wechsel eine Septime ist, stattdessen Dur verwendet wird. Dies dient dem Zwecke des Reduzierens des Operationsumfangs, da die Verwendung einer Septime das Vergleichsergebnis kaum beeinflusst.
  • Nach Schritt S83 wird die Gesamtanzahl an Musikstücken, die in Form der Akkordabfolgemusikdaten in der Datenspeichereinrichtung 9 gespeichert sind, als Z erhalten (Schritt S84), und der Zählerwert C wird auf Null initialisiert (Schritt S85).
  • Die ersten bzw. zweiten Akkordkandidaten für die C-ten Akkordabfolgemusikdaten werden aus der Datenspeichereinrichtung 9 als U1(0) bis U1(ua – 1) bzw. U2(0) bis U2(ub-1) ausgelesen (Schritt S86). In dem Obigen stellt ua die Gesamtanzahl der ersten Akkordkandidaten für die C-ten Akkordabfolgemusikdaten dar, und ub ist die Gesamtanzahl der zweiten Akkordkandidaten für die C-ten Akkordabfolgemusikdaten.
  • Es werden erste Akkorddifferentialwerte UR1(0) bis UR1(ua-1) für die ausgelesenen ersten Akkordkandidaten U1(0) bis U1(ua – 1) berechnet (Schritt S87). Die ersten Akkorddifferentialwerte in Schritt S87 werden als UR1(0) = U1(1) – U1(0), UR1(1) = U1(2) – U1(1), ..., und UR1(ua – 2) = U1(ua – 1) – U1(ua – 2) berechnet. Bei der Berechnung wird bestimmt, ob die ersten Akkorddifferentialwerte UR1(0) bis UR1(ua – 2) jeweils kleiner als Null sind oder nicht, und zu den ersten Akkorddifferentialwerten, die kleiner als Null sind, wird 12 addiert. Akkordeigenschaften UA1(0) bis UA1(ua – 2) nach dem Akkordwechsel werden jeweils zu den ersten Akkorddifferentialwerten UR1(0) bis UR1(ua – 2) addiert. Für die ausgelesenen zweiten Akkordkandidaten U2(0) bis U2(ub – 1) werden jeweils die zweiten Akkorddifferentialwerte UR2(0) bis UR2(ub – 2) berechnet (Schritt S88). Die zweiten Akkorddifferentialwerte werden als UR2(0) = U2(1) – U2(0), UR2(1) = U2(2) – U2(1), ... und UR2(ub – 2) = U2(ub – 1) – U2(ub – 2) berechnet. Bei der Berechnung wird auch bestimmt, ob die zweiten Akkorddifferentialwerte UR2(0) bis UR2(ub – 2) jeweils kleiner als Null sind oder nicht, und zu den zweiten Akkorddifferentialwerten, die kleiner als Null sind, wird 12 addiert. Akkordeigenschaften UA2(0) bis UA2(ub – 2) nach einem Akkordwechsel werden jeweils zu den zweiten Akkorddifferentialwerten UR2(0) bis UR2(ub – 2) addiert.
  • Eine Kreuzkorrelationsoperation wird gemäß den ersten Akkorddifferentialwerten MR1(0) bis MR1(a – 2) und den Akkordeigenschaften MA1(0) bis MA1(a – 2), die in Schritt S82 erhalten werden, den zweiten Akkorddifferentialwerten MR2(0) bis MR2(b – 2) und den Akkordeigenschaften MA2(0) bis MA2(b – 2), die in Schritt S83 für den eingegebenen Musiklang erhalten werden, und den ersten Akkorddifferentialwerten UR1(0) bis UR1(ua – 2) und den Akkordeigenschaften UA1(0) bis UA1(ua – 2) für die gespeicherten C-ten Akkordabfolgemusikdaten, die in Schritt S87 erhalten werden, ausgeführt (Schritt S89). Bei der Kreuzkorrelationsoperation wird der Korrelationskoeffizient COR(t) aus dem folgenden Ausdruck (3) erzeugt. Je kleiner der Korrelationskoeffizient COR(t) ist, desto größer ist die Ähnlichkeit. COR(t) = Σ10(|UR1(t + n) – MR1(n')| + |UA1(t + n) – MA1(n)| + |WU1(t + n + 1)/WU1(t + n) – WM1(n' + 1)/WM1(n')|) + Σ10(|UR1(t + m) – MR2(m')| + |UA1(t + m) – MA2(m')| + |WU1(t + m + 1)/WU1(t + m) – WM2(m' + 1)/WM2(m')|) (3)wobei WU1( ), WM1( ), und WM2( ) Zeitdauern sind, für die Akkorde aufrecht erhalten werden, t = 0 bis ua – 2, und F-Operationen für n = 0 bis a – 2, n' = 0 bis a – 2, m = 0 bis b – 2 und m' = 0 bis b – 2 gelten.
  • Die Korrelationskoeffizienten COR(t) in Schritt S89 werden erzeugt, während t in dem Bereich von 0 bis ua – 2 liegt. Bei der Operation des Korrelationskoeffizienten COR(t) in Schritt S89 wird ein Sprungprozess ausgeführt. In dem Sprungprozess wird der Minimalwert für UR1(t + n + n1) – MR1(n' + n2) detektiert. Die Werte n1 und n2 sind jeweils ganze Zahlen in dem Bereich von 0 bis 2. Spezieller wird, während n1 und n2 in dem Bereich von 0 bis 2 geändert werden, die Stelle, an der UR1(t + n + n1) – MR1(n' + n2) minimal ist, detektiert. Der Wert n + n1 an der Stelle wird als ein neues n gesetzt, und n' + n2 wird als ein neues n' gesetzt. Der Minimalwert für UR1(t + m + m1) – MR2(m' + m2) wird detektiert. Die Werte m1 und m2 sind jeweils eine ganze Zahl in dem Bereich von 0 bis 2. Spezieller wird, während m1 und m2 in dem Bereich von 0 bis 2 geändert werden, die Stelle, an der UR1(t + m + m1) – MR2(m' + m2) minimal ist, detektiert. Der Wert m + m1 an der Stelle wird als ein neues m gesetzt, und m' + m2 wird als ein neues m' gesetzt. Dann wird ein Korrelationskoeffizient COR(t) gemäß dem Ausdruck (3) berechnet.
  • Wenn Akkorde nach jeweiligen Akkordwechseln an der gleichen Stelle bei sowohl den Akkordabfolgemusikdaten für ein Suchobjekt als auch den C- ten Akkordabfolgemusikdaten entweder C oder Am oder entweder Cm oder Eb (Es) sind, werden die Akkorde als gleich betrachtet. Mit anderen Worten, solange die Akkorde nach den Wechseln Akkorde einer verwandten Tonart sind, gilt in den obigen Ausdrücken |UR1(t + n) – MR1(n')| + |UA1(t + n) – MA1(n')| = 0 oder |UR1(t + m) – MR2(m')| + |UA1(t + m) – MA2(m')| = 0. Zum Beispiel werden die Transformation von Daten von Akkord F nach Dur durch eine Differenz von sieben Stufen und die Transformation der anderen Daten nach Moll durch eine Differenz von vier Stufen als die gleiche betrachtet. Ähnlich werden die Transformation von Daten von Akkord F nach Moll durch eine Differenz von sieben Stufen und die Transformation der anderen Daten nach Dur durch eine Differenz von zehn Stufen als die gleiche behandelt.
  • 19A zeigt die Beziehung zwischen den C-ten Akkordabfolgemusikdaten und den Akkordabfolgemusikdaten für das Suchobjekt. Bei den Akkordabfolgemusikdaten für das Suchobjekt ändert sich der Teil, der mit den C-ten Akkordabfolgemusikdaten verglichen werden sollen, wenn t voranschreitet. 19B zeigt Änderungen des Korrelationskoeffizienten COR(t).
  • 19C zeigt Zeitdauern WU(1) bis WU(5), während denen die Akkorde aufrecht erhalten bleiben, einen Sprungprozessabschnitt und einen Tonartverwandtschaftsabschnitt bei einer Kreuzkorrelationsoperation zwischen den C-ten Akkordabfolgemusikdaten und den Akkordabfolgemusikdaten für das Suchobjekt. Die Doppelpfeile zwischen den C-ten Akkordabfolgemusikdaten und den Akkordabfolgemusikdaten, die von Interesse sind, zeigen die gleichen Akkorde an. Die Akkorde, die durch die schrägen Pfeillinien zwischen ihnen verbunden sind, und nicht in der gleichen Zeitperiode vorliegen, stellen Akkorde dar, die durch den Sprungprozess detektiert werden. Die gestrichelten Doppelpfeile zeigen Akkorde verwandter Tonarten an.
  • Der Minimalwert der berechneten Korrelationskoeffizienten COR(0) bis COR(ua – 2) wird als MIN[COR(t)] detektiert und wird direkt als COR_MIN(C) gesetzt (Schritt S90).
  • Die Kreuzkorrelationsoperation wird gemäß den ersten Akkorddifferentialwerten MR1(0) bis MR1(a – 2) und den Akkordeigenschaften MA1(0) bis MA1(a – 2), die in Schritt S82 erhalten werden, und den zweiten Akkorddifferentialwerten MR2(0) bis MR2(b – 2) und den Akkordeigenschaften MA2(0) bis MA2(b – 2), die in Schritt S83 erhalten werden, und den zweiten Akkorddifferentialwerten UR2(0) bis UR2(ub – 2) und den Akkordeigenschaften UA2(0) bis UA2(ub – 2) für die gespeicherten C-ten Akkordabfolgemusikdaten, die in Schritt S88 erhalten werden, ausgeführt (Schritt S91). Bei der Kreuzkorrelationsoperation wird der Korrelationskoeffizient COR(t) durch den folgenden Ausdruck (4) berechnet: COR(t) = Σ10(|UR2(t + n) – MR1(n')| + |UA2(t + n) – MA1(n')| + |WU2(t + n + 1)/WU2(t + n) – WM1(n' + 1)/WM1(n')|) + Σ10(|UR2(t + m) – MR2(m')| + |UA2(t + m) – MA2(m')| + |WU2(t + m + 1)/WU2(t + m) – WM2(m' + 1)/WM2(m')|) (4)wobei WU2( ), WM1( ), und WM2( ) Zeitdauern sind, während denen Akkorde aufrecht erhalten werden, t = 0 bis ub – 2, F-Operationen für n = 0 bis a – 2, n' = 0 bis a – 2, m = 0 bis b – 2 und m' = 0 bis b – 2 gelten.
  • Der Korrelationskoeffizient COR(t) in Schritt S91 wird berechnet, während sich t in dem Bereich von 0 bis ub – 2 ändert. Bei der Operation des Korre lationskoeffizienten COR(t) in Schritt S91 wird der Minimalwert für UR2(t + n + n1) – MR1(n' + n2) detektiert. Die Werte n1 und n2 sind jeweils eine ganze Zahl von 0 bis 2. Spezieller werden n1 und n2 in dem Bereich von 0 bis 2 geändert, und wenn UR2(t + n + n1) – MR1(n' + n2) den Minimalwert einnimmt, wird n + n1 an der Stelle als ein neues n gesetzt, und n' + n2 wird als ein neues n' gesetzt. Der Minimalwert für UR2(t + m + m1) – MR2(m' + m2) wird detektiert. Die Werte m1 und m2 sind jeweils eine ganze Zahl von 0 bis 2. Spezieller werden m1 und m2 in dem Bereich von 0 bis 2 geändert, und wenn UR2(t + m + m1) – MR2(m' + m2) den Minimalwert einnimmt, wird m + m1 an der Stelle als ein neues m gesetzt, und m' + m2 wird als ein neues m' gesetzt. Dann wird der Korrelationskoeffizient COR(t) gemäß dem Ausdruck (4) berechnet.
  • Wenn Akkorde nach jeweiligen Akkordwechseln an der gleichen Stelle bei sowohl den Akkordabfolgemusikdaten für das Suchobjekt als auch den C-ten Akkordabfolgemusikdaten entweder C oder Am oder entweder Cm oder Eb sind, werden die Akkorde als gleich betrachtet. Spezieller, solange die Akkorde nach den Wechseln Akkorde einer verwandten Tonart sind, gilt in dem obigen Ausdruck |UR2(t + n) – MR1(n')| + |UA2(t + n) – MA1(n')| = 0 oder |UR2(t + m) – MR2(m')| + |UA2(t + m) – MA2(m')| = 0.
  • Der Minimalwert der berechneten Korrelationskoeffizienten COR(0) bis COR(ub – 2) wird als MIN[COR(t)] detektiert und zu COR_MIN(C) addiert (Schritt S92).
  • Nach Schritt S92 wird der Zählerwert C um 1 inkrementiert (Schritt S93), und es wird bestimmt, ob der Zählerwert C größer ist als Z-1 in Schritt S84 (Schritt S94). Wenn C ≤ Z-1, wurde der Korrelationskoeffizient COR(t) nicht für alle Musikstücke berechnet, die in der Datenspeichereinrichtung 9 als Akkordabfolgemusikdaten gespeichert sind. Deshalb springt die Steuerung zu Schritt S86 zurück, und die Operation in den Schritten S86 bis S94, die oben beschrieben ist, wird wiederholt.
  • Wenn C > Z-1, werden die minimalen Korrelationskoeffizientenwerte COR_MIN(0) bis COR_MIN(Z-1) für alle Musikstücke in aufsteigender Reihenfolge angeordnet, und Musikinformationen wie beispielsweise Musiktitel und Dateinamen werden in Form einer Liste an der Ergebnisanzeigeeinrichtung 12 angezeigt (Schritt 95). Die Musikdaten des ersten Musikstücks in der Liste werden aus der Datenspeichereinrichtung 8 ausgelesen und der Musikwiedergabeeinrichtung 13 geliefert (Schritt S96). Auf diese Weise gibt die Musikwiedergabeeinrichtung 13 sequentiell die gelieferten Musikdaten wieder, und die Daten werden dem Digital-Analog-Wandler 14 als ein digitales Signal geliefert. Das digitale Signal wird in dem Digital-Analog-Wandler 14 in ein analoges Audiosignal umgewandelt, und dann wird ein Klang, der gemäß den Daten erzeugt wird, von dem Lautsprecher 15 ausgegeben. Der wiedergegebene Klang ist der Musikklang der Akkordabfolgemusikdaten für das Suchobjekt mit der größten Wahrscheinlichkeit.
  • Der Such-/Wiedergabeprozess in den Schritten S81 bis S94 entspricht dem Vergleichsmittel zum Berechnen von Ähnlichkeiten (Korrelationskoeffizienten COR(t)), und die Schritte S95 und S96 entsprechen dem Ausgabemittel zum Erzeugen einer Suchausgabe.
  • Bei der Musiksuchoperation werden die Akkordabfolgemusikdaten für das Suchobjekt und gespeicherte Akkordabfolgemusikdaten für eine Vielzahl an Musikstücken auf den Grundtonänderungsumfang (Differentialwert) eines Akkords bei einem Wechsel und die Eigenschaft des Akkords nach dem Wechsel verglichen. Deshalb kann ein Musikstück wie beispielsweise eine Coverversion und eine BGM-(Backgroundmusic-)Version, das aus dem Original aufgebaut oder abgeändert wurde, korrekt durch die obige Suchoperation gefunden werden.
  • Musikinformationen wie beispielsweise der Titel oder Interpret eines Musikstücks, das in einem Fernsehfilm oder einem Werbespot verwendet wird, und die ein Zuschauer erhalten möchte, sind durch die oben beschriebene Suchoperation leicht verfügbar.
  • Des Weiteren werden die Akkordabfolgemusikdaten für das Suchobjekt und gespeicherte Akkordabfolgemusikdaten für eine Vielzahl von Musikstücken auf den Grundtonänderungsumfang eines Akkords bei einem Wechsel und die Eigenschaft des Akkords nach dem Wechsel sowie das Verhältnis der Zeitdauern des Akkords vor und nach dem Akkordwechsel verglichen. Auf diese Weise kann die gewünschte Musik genauer gesucht und gefunden werden. Der Grund dafür ist, dass das Gesamtverhältnis der Zeitdauern von Akkorden unverändert ist, sogar wenn die Geschwindigkeit der Musik als Ganzes durch eine Anordnung geändert wird, und die Musikstücke stimmen überein, solange sie ursprünglich von dem gleichen Musikstück stammen.
  • Der Sprungprozess und der Tonartverwandtschaftsprozess, die oben beschrieben sind, werden während der Operation des Differentialwerts vor und nach dem Akkordwechsel ausgeführt, um den Einfluss von Nebengeräuschen oder der Frequenzcharakteristik einer Eingabeeinrichtung, wenn ein eingegebener Musikklang von einem analogen Signal stammt, zu beseitigen. Ein eingegebener Musikklang, der von Musikstücken, die in der Datenspeichereinrichtung 9 gespeichert sind, verschieden aufgebaut ist, stimmt mit einem entsprechenden Musikstück bezüglich der Stelle von Akkorden und ihren Eigenschaften in den Akkordabfolgedaten trotz ihrer wesentlichen Übereinstimmung der Melodie nicht vollständig über ein. Deshalb werden der Sprungprozess und der Tonartverwandtschaftsprozess auch ausgeführt, um Abhilfemaßnahmen für die Situation zu schaffen. Spezieller können, wenn die Akkordabfolge temporär verschieden ist, Ähnlichkeiten der Tendenz einer Akkordabfolge innerhalb einer konstanten Zeitdauer detektiert werden, und deshalb kann genau bestimmt werden, ob die Musikstücke, die verschieden aufgebaut sind, ursprünglich von der gleichen Musik stammen. Des Weiteren können durch den Sprungprozess und den Tonartverwandtschaftsprozess bei Kreuzkorrelationsoperationen genaue Ähnlichkeiten für den Teil erhalten werden, der nicht der Teil ist, der diesen Prozessen unterzogen wird.
  • Es sei angemerkt, dass in der obigen Ausführungsform die Datenspeichereinrichtungen 8 und 9, die die Datenbank bilden, an der gleichen Stelle vorgesehen sind wie die Einrichtungen wie beispielsweise die Eingabeeinrichtungen 1 bis 4, die Akkordanalyseeinrichtung 7, die Akkordabfolgevergleichseinrichtung 11 und die Anzeigeeinrichtung 12. Die Datenspeichereinrichtungen 8 und 9 und die Akkordabfolgevergleichseinrichtung 11 können jedoch als Server an anderen Stellen wie die anderen Einrichtungen vorgesehen sein und können über ein Netzwerk mit einem Client verbunden sein, der die Einrichtungen wie beispielsweise die Eingabeeinrichtung 1 bis 4, die Akkordanalyseeinrichtung 7 und die Anzeigeeinrichtung 12 umfasst. In diesem Fall sind Akkordabfolgemusikdaten relativ kleine Daten, wie beispielsweise Daten von 5 Kbytes pro Musik, und deshalb kann eine Netzwerkleitung mit niedriger Geschwindigkeit verwendet werden, um für einen Musikklang, der auf der Client-Seite eingegeben wird, auf der Serverseite nach Musik zu suchen, und das Suchergebnis kann sofort auf der Client-Seite angezeigt werden. Der Server kann für den Teil, der einem Teil eines Musikklangs entspricht, der auf der Client-Seite eingegeben wird, aus der Musikdatenspeichereinrich tung 8 Musikdaten auslesen und die Daten zu dem Client übertragen, so dass das Suchergebnis auf der Client-Seite schnell erhalten werden kann.
  • Ein Audiosignal, das ein Musikstück für ein Suchobjekt darstellt, kann ein Signal sein, das ein Videosignal umfasst. Die Datenspeichereinrichtung 8 kann zusätzlich zu Musikdaten Daten speichern, die durch Digitalisieren des Videosignals erzeugt werden, und während ein Klang für die durch Suchen gefundene Musik wiedergegeben wird, kann ein Videobild entsprechend dem Klang angezeigt werden.
  • 20 zeigt eine andere Ausführungsform der Erfindung. In dem Musikverarbeitungssystem in 20 sind die Akkordanalyseeinrichtung 7, der temporäre Speicher 10 und die Akkordabfolge-Vergleichseinrichtung 11 in dem System in 1 durch einen Computer 21 gebildet. Der Computer führt die oben beschriebene Akkordanalyseoperation und Musiksuchoperation entsprechend Programmen aus, die in der Speichereinrichtung 22 gespeichert sind. Die Speichereinrichtung 22 muss keine Festplatte sein, und kann ein Laufwerk für ein Speichermedium sein. In dem Fall können Akkordabfolgemusikdaten in das Speichermedium geschrieben werden.
  • Laut des Vorangehenden können gemäß der Erfindung Informationen für ein Musikstück, das einer gewünschten Musik entspricht, aus einer Vielzahl an Musikstücken in einer einfachen Struktur genau gesucht und erhalten werden.

Claims (10)

  1. Musiksuchvorrichtung, umfassend: ein Speichermittel (9) zum Speichern von ersten Akkordabfolgemusikdaten für eine Vielzahl an Musikstücken, die chronologische Änderungen von Akkorden in den Musikstücken darstellen; ein Suchdatenerzeugungsmittel (7) zum Erzeugen von zweiten Akkordabfolgemusikdaten, die chronologische Änderungen in mindestens einem Teil von Akkorden in einem Musikstück darstellen; ein Vergleichsmittel (11) zum Vergleichen der zweiten Akkordabfolgemusikdaten mit den ersten Akkordabfolgemusikdaten für die Vielzahl an Musikstücken, die in dem Speichermittel gespeichert sind, auf der Grundlage eines Änderungsumfangs eines Grundtons eines Akkords bei einem Akkordwechsel und einer Eigenschaft des Akkords nach dem Wechsel, wobei ein Ähnlichkeitsgrad für jedes der Vielzahl an Musikstücken berechnet wird; und ein Ausgabemittel (12, 13) zum Erzeugen einer Suchausgabe entsprechend einem Ergebnis der Ähnlichkeitsgradberechnung für jedes der Vielzahl an Musikstücken durch das Vergleichsmittel.
  2. Musiksuchvorrichtung nach Anspruch 1, wobei das Vergleichsmittel sequentiell eine Position ändert, um einen Vergleich für die ersten Akkordabfolgemusikdaten für die Vielzahl an Musikstücken, die in dem Speichermittel gespeichert sind, zu beginnen und somit die ersten Akkordabfolgemusikdaten für die Vielzahl an Musikstücken und die zweiten Akkordabfolgemusikdaten zu vergleichen.
  3. Musiksuchvorrichtung nach Anspruch 1, wobei das Vergleichsmittel die zweiten Akkordabfolgemusikdaten mit den ersten Akkordabfolgemusikdaten für die Vielzahl an Musikstücken, die in dem Speichermittel gespeichert sind, auf der Grundlage eines Verhältnisses von Zeitlängen der Akkorde vor und nach dem Akkordwechsel sowie des Änderungsumfangs des Grundtons eines Akkords bei dem Wechsel und der Eigenschaft des Akkords nach dem Wechsel vergleicht, um den Ähnlichkeitsgrad für jedes der Vielzahl an Musikstücken zu berechnen.
  4. Musiksuchvorrichtung nach Anspruch 1, wobei das Vergleichsmittel die zweiten Akkordabfolgemusikdaten mit den ersten Akkordabfolgemusikdaten für die Vielzahl an Musikstücken, die in dem Speichermittel gespeichert sind, durch zeitliches Zurück- und Vorspringen vergleicht.
  5. Musiksuchvorrichtung nach Anspruch 1, wobei, wenn ein Akkord nach einem Wechsel, der durch die zweiten Akkordabfolgemusikdaten dargestellt ist, und ein Akkord nach einem Wechsel, der durch die ersten Akkordabfolgemusikdaten, die in dem Speichermittel gespeichert sind, dargestellt ist, eine verwandte Tonart aufweisen, das Vergleichsmittel diese Akkorde nach den Wechseln als den gleichem Akkord betrachtet.
  6. Musiksuchvorrichtung nach Anspruch 1, wobei die zweiten Akkordabfolgemusikdaten und die ersten Akkordabfolgemusikdaten für die Vielzahl an Musikstücken, die in dem Speichermittel gespeichert sind, jeweils zwei Akkorde als erste und zweite Akkordkandidaten für jede Wechselstelle aufweisen, und das Vergleichsmittel wechselseitig die ersten und zweiten Akkordkandidaten für die zweiten Akkordabfolgemusikdaten und erste und zweite Akkordkandidaten für die ersten Akkordabfolgemusikdaten für die Vielzahl an Musikstücken, die in dem Speichermittel gespeichert sind, vergleicht.
  7. Musiksuchvorrichtung nach Anspruch 6, des Weiteren umfassend: ein Frequenzumwandlungsmittel zum Umwandeln eines Eingangsaudiosignals, das ein Musikstück darstellt, in ein Frequenzsignal, das eine Ebene einer Frequenzkomponente in vorbestimmten Zeitintervallen darstellt, für jedes der Vielzahl an Musikstücken; ein Komponentenextraktionsmittel zum Extrahieren einer Frequenzkomponente entsprechend jedem temperierten Ton aus dem Frequenzsignal, das durch das Frequenzumwandlungsmittel in den vorbestimmten Zeitintervallen erhalten wird; ein Akkordkandidatendetektionsmittel zum Detektieren von zwei Akkorden, die jeweils durch einen Satz von drei Frequenzkomponenten gebildet sind, als die ersten und zweiten Akkordkandidaten, wobei die drei Frequenzkomponenten eine große Gesamtebene der Frequenzkomponenten entsprechend den Tönen, die durch das Komponentenextraktionsmittel extrahiert werden, aufweisen; und ein Glättungsmittel zum Glätten von Zügen der ersten und zweiten Akkordkandidaten, die durch das Akkordkandidatendetektionsmittel wiederholt detektiert werden, um die ersten Akkordabfolgemusikdaten, die in dem Speichermittel gespeichert werden sollen, zu erzeugen.
  8. Musiksuchvorrichtung nach Anspruch 6, wobei das Suchdatenerzeugungsmittel umfasst: ein Frequenzumwandlungsmittel zum Umwandeln eines Eingangsaudiosignals, das ein Musikstück darstellt, in ein Frequenzsignal, das eine Ebene einer Frequenzkomponente in vorbestimmten Zeitintervallen darstellt; ein Komponentenextraktionsmittel zum Extrahieren einer Frequenzkomponente entsprechend jedem temperierten Ton aus dem Frequenzsignal, das durch das Frequenzumwandlungsmittel in den vorbestimmten Zeitintervallen erhalten wird; ein Akkordkandidatendetektionsmittel zum Detektieren einer vorbestimmten Anzahl an Sätzen von zwei Akkorden als die ersten und zweiten Kandidaten, die jeweils durch einen Satz von drei Frequenzkomponenten gebildet sind, wobei die drei Frequenzkomponenten eine große Gesamtebene unter den Frequenzkomponenten entsprechend den Tönen, die durch das Frequenzumwandlungsmittel extrahiert werden, aufweisen; und ein Glättungsmittel zum Glätten von Zügen der ersten und zweiten Akkordkandidaten, die durch das Akkordkandidatendetektionsmittel wiederholt detektiert werden, um die zweiten Akkordabfolgemusikdaten zu erzeugen.
  9. Musiksuchverfahren mit den Schritten: Speichern von ersten Akkordabfolgemusikdaten für eine Vielzahl an Musikstücken, die chronologische Änderungen von Akkorden in den Musikstücken darstellen; Erzeugen von zweiten Akkordabfolgemusikdaten, die chronologische Änderungen in mindestens einem Teil von Akkorden in einem Musikstück darstellen; Vergleichen der zweiten Akkordabfolgemusikdaten mit den ersten Akkordabfolgemusikdaten für die Vielzahl an Musikstücken, die in dem Speicherschritt gespeichert werden, auf der Grundlage eines Änderungsumfangs eines Grundtons eines Akkords bei einem Akkordwechsel und einer Eigenschaft des Akkords nach dem Wechsel, wobei ein Ähnlichkeitsgrad für jedes der Vielzahl an Musikstücken berechnet wird; und Erzeugen einer Suchausgabe entsprechend einem Ergebnis der Ähnlichkeitsgradberechnung für jedes der Vielzahl an Musikstücken durch den Vergleichsschritt.
  10. Computerprogrammprodukt umfassend ein Programm zum Suchen eines Musikstücks, wobei das Suchen die Schritte umfasst: Speichern von ersten Akkordabfolgemusikdaten für eine Vielzahl an Musikstücken, die chronologische Änderungen von Akkorden in den Musikstücken darstellen; Erzeugen von zweiten Akkordabfolgemusikdaten, die chronologische Änderungen in mindestens einem Teil von Akkorden in einem Musikstück darstellen; Vergleichen der zweiten Akkordabfolgemusikdaten mit den ersten Akkordabfolgemusikdaten für die Vielzahl an Musikstücken, die in dem Speicherschritt gespeichert werden, auf der Grundlage eines Änderungsumfangs eines Grundtons eines Akkords bei einem Akkordwechsel und einer Eigenschaft des Akkords nach dem Wechsel, wobei ein Ähnlichkeitsgrad für jedes der Vielzahl an Musikstücken berechnet wird; und Erzeugen einer Suchausgabe entsprechend einem Ergebnis der Ähnlichkeitsgradberechnung für jedes der Vielzahl an Musikstücken durch den Vergleichsschritt.
DE60302420T 2002-12-04 2003-12-01 Musiksuchgerät und -verfahren Expired - Lifetime DE60302420T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002352864A JP4313563B2 (ja) 2002-12-04 2002-12-04 楽曲検索装置及び方法
JP2002352864 2002-12-04

Publications (2)

Publication Number Publication Date
DE60302420D1 DE60302420D1 (de) 2005-12-29
DE60302420T2 true DE60302420T2 (de) 2006-08-03

Family

ID=32310726

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60302420T Expired - Lifetime DE60302420T2 (de) 2002-12-04 2003-12-01 Musiksuchgerät und -verfahren

Country Status (4)

Country Link
US (1) US7288710B2 (de)
EP (1) EP1426921B1 (de)
JP (1) JP4313563B2 (de)
DE (1) DE60302420T2 (de)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4244133B2 (ja) * 2002-11-29 2009-03-25 パイオニア株式会社 楽曲データ作成装置及び方法
GB0230097D0 (en) * 2002-12-24 2003-01-29 Koninkl Philips Electronics Nv Method and system for augmenting an audio signal
JP2005173938A (ja) * 2003-12-10 2005-06-30 Pioneer Electronic Corp 曲検索装置、曲検索方法及び曲検索用プログラム並びに情報記録媒体
KR20060073100A (ko) * 2004-12-24 2006-06-28 삼성전자주식회사 특정 패턴 타입의 음원 미디어를 검색하는 음원 검색기 및그 동작방법
JP4650270B2 (ja) * 2006-01-06 2011-03-16 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP2007219178A (ja) * 2006-02-16 2007-08-30 Sony Corp 楽曲抽出プログラム、楽曲抽出装置及び楽曲抽出方法
US7705231B2 (en) * 2007-09-07 2010-04-27 Microsoft Corporation Automatic accompaniment for vocal melodies
JP4823804B2 (ja) * 2006-08-09 2011-11-24 株式会社河合楽器製作所 コード名検出装置及びコード名検出用プログラム
CN102610222B (zh) 2007-02-01 2014-08-20 缪斯亚米有限公司 音乐转录的方法,系统和装置
US7838755B2 (en) * 2007-02-14 2010-11-23 Museami, Inc. Music-based search engine
US7528317B2 (en) * 2007-02-21 2009-05-05 Joseph Patrick Samuel Harmonic analysis
JP4389950B2 (ja) * 2007-03-02 2009-12-24 ソニー株式会社 情報処理装置および方法、並びにプログラム
US8283546B2 (en) * 2007-03-28 2012-10-09 Van Os Jan L Melody encoding and searching system
US20080300702A1 (en) * 2007-05-29 2008-12-04 Universitat Pompeu Fabra Music similarity systems and methods using descriptors
JP5093806B2 (ja) * 2008-02-11 2012-12-12 株式会社イクシコム 類似音楽検索システム
US8494257B2 (en) 2008-02-13 2013-07-23 Museami, Inc. Music score deconstruction
JP5290822B2 (ja) * 2009-03-24 2013-09-18 株式会社エクシング カラオケ装置、カラオケ装置の制御方法、及びカラオケ装置の制御プログラム
JP5659648B2 (ja) * 2010-09-15 2015-01-28 ヤマハ株式会社 コード検出装置およびコード検出方法を実現するためのプログラム
JP5296813B2 (ja) * 2011-01-19 2013-09-25 ヤフー株式会社 楽曲レコメンド装置、方法及びプログラム
JP2012194653A (ja) * 2011-03-15 2012-10-11 Nec Corp データ処理装置、データ処理システム、データ処理方法およびプログラム
GB2490877B (en) * 2011-05-11 2018-07-18 British Broadcasting Corp Processing audio data for producing metadata
GB2560458B (en) * 2011-05-11 2019-01-30 British Broadcasting Corp Processing audio data for producing metadata
US20120304062A1 (en) * 2011-05-23 2012-11-29 Speakertext, Inc. Referencing content via text captions
JP5935503B2 (ja) * 2012-05-18 2016-06-15 ヤマハ株式会社 楽曲解析装置および楽曲解析方法
JP6500869B2 (ja) * 2016-09-28 2019-04-17 カシオ計算機株式会社 コード解析装置、方法、及びプログラム
JP6500870B2 (ja) * 2016-09-28 2019-04-17 カシオ計算機株式会社 コード解析装置、方法、及びプログラム
JP6950470B2 (ja) * 2017-11-07 2021-10-13 ヤマハ株式会社 音響装置および音響制御プログラム
KR102546902B1 (ko) * 2021-08-05 2023-06-23 이유 음악 코드 기반 시각적 문서 편집 기능을 제공하는 서비스 제공 장치 및 방법

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2624090B2 (ja) * 1992-07-27 1997-06-25 ヤマハ株式会社 自動演奏装置
US5440756A (en) * 1992-09-28 1995-08-08 Larson; Bruce E. Apparatus and method for real-time extraction and display of musical chord sequences from an audio signal
JP3433818B2 (ja) 1993-03-31 2003-08-04 日本ビクター株式会社 楽曲検索装置
US5521323A (en) * 1993-05-21 1996-05-28 Coda Music Technologies, Inc. Real-time performance score matching
US5760325A (en) * 1995-06-15 1998-06-02 Yamaha Corporation Chord detection method and apparatus for detecting a chord progression of an input melody
JP3196604B2 (ja) * 1995-09-27 2001-08-06 ヤマハ株式会社 和音分析装置
US5952597A (en) * 1996-10-25 1999-09-14 Timewarp Technologies, Ltd. Method and apparatus for real-time correlation of a performance to a musical score
JPH10134549A (ja) 1996-10-30 1998-05-22 Nippon Columbia Co Ltd 楽曲検索装置
US6166314A (en) * 1997-06-19 2000-12-26 Time Warp Technologies, Ltd. Method and apparatus for real-time correlation of a performance to a musical score
US5913259A (en) * 1997-09-23 1999-06-15 Carnegie Mellon University System and method for stochastic score following
US6057502A (en) * 1999-03-30 2000-05-02 Yamaha Corporation Apparatus and method for recognizing musical chords
JP4389330B2 (ja) * 2000-03-22 2009-12-24 ヤマハ株式会社 演奏位置検出方法および楽譜表示装置

Also Published As

Publication number Publication date
EP1426921A1 (de) 2004-06-09
JP2004185432A (ja) 2004-07-02
US7288710B2 (en) 2007-10-30
DE60302420D1 (de) 2005-12-29
EP1426921B1 (de) 2005-11-23
JP4313563B2 (ja) 2009-08-12
US20040144238A1 (en) 2004-07-29

Similar Documents

Publication Publication Date Title
DE60302420T2 (de) Musiksuchgerät und -verfahren
DE60303993T2 (de) Musikstrukturerkennungsgerät und -verfahren
DE60315880T2 (de) Datenerzeugungseinrichtung und verfahren für musikkompositionen
DE69908226T2 (de) Vorrichtung und Verfahren zum Wiederauffinden von Melodien
DE69637504T2 (de) Automatisches musikkomponierverfahren
DE102007034774A1 (de) Vorrichtung zur Bestimmung von Akkordnamen und Programm zur Bestimmung von Akkordnamen
DE69732311T2 (de) Verfahren zur Erzeugung von Musiktönen
DE60026189T2 (de) Verfahren und Vorrichtung zur Wellenformkomprimierung und Erzeugung
DE10157454B4 (de) Verfahren und Vorrichtung zum Erzeugen einer Kennung für ein Audiosignal, Verfahren und Vorrichtung zum Aufbauen einer Instrumentendatenbank und Verfahren und Vorrichtung zum Bestimmen der Art eines Instruments
WO2006039992A1 (de) Extraktion einer einem audiosignal zu grunde liegenden melodie
DE102004028693B4 (de) Vorrichtung und Verfahren zum Bestimmen eines Akkordtyps, der einem Testsignal zugrunde liegt
DE60033098T2 (de) Verfahren und Vorrichtung zur Aufnahme/Wiedergabe oder Erzeugung von Wellenformen mittels Zeitlageinformation
EP1758096A1 (de) Verfahren und Vorrichtung zur Mustererkennung in akustischen Aufnahmen
EP1377924B1 (de) VERFAHREN UND VORRICHTUNG ZUM EXTRAHIEREN EINER SIGNALKENNUNG, VERFAHREN UND VORRICHTUNG ZUM ERZEUGEN EINER DAZUGEHÖRIGEN DATABANK und Verfahren und Vorrichtung zum Referenzieren eines Such-Zeitsignals
JP4202964B2 (ja) 映像データへの楽曲データ付加装置
DE112020002116T5 (de) Informationsverarbeitungsvorrichtung und Verfahren und Programm
WO2005114650A1 (de) Vorrichtung und verfahren zum charakterisieren eines tonsignals
Hawkins Automating Music Production with Music Information Retrieval
DE4008872C2 (de) Verfahren zum Erzeugen von Klängen und elektronisches Musikinstrument
Osmanovic Classification of musical genres using audio waveform descriptors in MPEG-7
CN116631359A (zh) 乐曲的生成方法、装置、计算机可读介质及电子设备
DE19719041A1 (de) Elektronische Anlage zum Wechseln von jeder gegebenen Sängerstimme aus einem gegebenen Lied, gegen eine gewünschte Sängerstimme bei Erhaltung von Text und Musik
Engelmayer Automatic Identification of Musical Versions Using Harmonic Pitch Class Profiles
DE2818083A1 (de) Digitaler generator fuer musikalische toene
JPH0486793A (ja) 波形記録・再生法及び波形再生装置

Legal Events

Date Code Title Description
8320 Willingness to grant licences declared (paragraph 23)
8364 No opposition during term of opposition