DE602004011305T2 - Vorrichtung und Verfahren zur automatischen Klassifikation von musikalischen Kompositionen - Google Patents

Vorrichtung und Verfahren zur automatischen Klassifikation von musikalischen Kompositionen Download PDF

Info

Publication number
DE602004011305T2
DE602004011305T2 DE602004011305T DE602004011305T DE602004011305T2 DE 602004011305 T2 DE602004011305 T2 DE 602004011305T2 DE 602004011305 T DE602004011305 T DE 602004011305T DE 602004011305 T DE602004011305 T DE 602004011305T DE 602004011305 T2 DE602004011305 T2 DE 602004011305T2
Authority
DE
Germany
Prior art keywords
music
chord
chord progression
pieces
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE602004011305T
Other languages
English (en)
Other versions
DE602004011305D1 (de
Inventor
Shinichi Gayama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corp filed Critical Pioneer Corp
Publication of DE602004011305D1 publication Critical patent/DE602004011305D1/de
Application granted granted Critical
Publication of DE602004011305T2 publication Critical patent/DE602004011305T2/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/38Chord
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/571Chords; Chord sequences
    • G10H2210/576Chord progression

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft eine Einrichtung und ein Verfahren für eine automatische Musikstückklassifizierung zum automatischen Klassifizieren mehrerer Musikstücke.
  • 2. Beschreibung der verwandten Technik
  • Aufgrund der Popularisierung komprimierter Musikdaten und der erhöhten Kapazitäten von Speichereinrichtungen in den letzten Jahren konnten auch Einzelpersonen große Mengen von Musik speichern und genießen. Andererseits wurde es für Benutzer extrem schwierig, große Mengen von Musikstücken zu sortieren und das Musikstück zu finden, das sie hören möchten. Es besteht daher ein Bedarf an einem Verfahren für eine effektive Musikstückklassifizierung und -auswahl, um dieses Problem zu lösen.
  • Herkömmliche Musikstückklassifizierungsverfahren umfassen Verfahren, die Informationen verwenden, die in einer Bibliographie erscheinen, wie beispielsweise den Titel, den Sänger, den Namen des Genres, zu dem die Musik gehört, wie beispielsweise Rock- oder Popmusik, und das Tempo, um in großen Mengen gespeicherte Musikstücke als spezifische Arten von Musik zu klassifizieren, wie es in dem japanischen Patent Kokai Nr. 2001-297093 offenbart ist.
  • Die Verfahren umfassen auch ein Verfahren, das bei der Klassifizierung und Auswahl verwendet wird und das ein Wort oder einen Ausdruck, wie beispielsweise "Erhebend", zuordnet, der von einer Vielzahl von Personen gemeinsam genutzt werden kann, die die Musik im Hinblick auf Eigenschaftsumfänge, wie beispielsweise Takt- und Frequenzschwankungen, anhören, die aus einem Musikstücksignal extrahiert werden, wie es durch das japanische Patent Kokai Nr. 2002-278547 offenbart ist.
  • Ferner wurde ein Verfahren vorgeschlagen, das drei Musikelemente (Melodie, Rhythmus und Harmonie) aus einem Teil eines Musikstücksignals extrahiert, wie beispielsweise Rock oder "Enka" (moderne japanische Ballade), und diese drei Elemente mit einem Genreidentifikator in Verbindung bringt, sodass, wenn nachfolgend eine Musikquelle mit einer Mischung von Genres und der Name des Objektgenres bereitgestellt werden, nur die Musikquelle, die mit dem Genrenamen übereinstimmt, in einer separaten Einrichtung aufgezeichnet wird, wie es durch die offengelegte japanische Patentanmeldung Nr. 2000-268541 offenbart ist.
  • Ferner führt ein bekanntes herkömmliches Musikstückklassifizierungsverfahren eine automatische Klassifizierung in Form einer Matrix durch, indem als Musikeigenschaftsumfänge das Tempo, Dur- oder Molltonarten und Sopran- und Bassniveaus verwendet werden und dann eine Auswahl des Musikstücks vereinfacht wird, wie es durch das japanische Patent Kokai Nr. 2003-58147 offenbart ist.
  • Es gibt auch Verfahren, die akustische Parameter (Cepstrum und Energiemomente höherer Ordnung) aus einer Musik extrahieren, die einmal durch den Benutzer ausgewählt wurde, und dann nachfolgend Musik mit ähnlichen akustischen Parametern darstellen, wie es durch das japanische Patent Kokai Nr. 2002-41059 offenbart ist.
  • Das Verfahren zum Verwenden einer in einer Bibliographie angezeigten Information, wie beispielsweise des Liedtitels, des Genres und so weiter, das in dem japanischen Patent Kokai Nr. 2001-297093 dargestellt ist, begegnete jedoch Problemen, d. h., bei diesem Verfahren ist ein Arbeitsaufwand seitens der Person erforderlich, dieses Verfahren erlaubt keine Netzwerkverbindung und funktioniert überhaupt nicht, wenn eine Information für eine Klassifizierung schwer zu erhalten ist. Beispielsweise funktioniert dieses Verfahren überhaupt nicht, wenn eine Information für eine Klassifizierung schwer zu erhalten ist.
  • In dem Fall des Klassifizierungsverfahrens des japanischen Patents Kokai Nr. 2002-278547 ist das Hörerbild der Musik subjektiv, und da dieses Bild vage ist und sich sogar bei demselben Hörer ändert, sind keine kontinuierlichen Ergebnisse zu erwarten, wenn eine Klassifizierung unter Verwendung eines anderen Bilds als das der betreffenden Partei durchgeführt wird. Daher ist, um den Effekt einer subjektiven Bildsprache beizubehalten, eine kontinuierliche Rückmeldung von dem Hörer für die Klassifizierungsoperation erforderlich, was Probleme mit sich bringt, wie das Erzwingen einer arbeitsintensiven Operation auf Seiten des Hörers. Es besteht auch das Problem, dass die Klassifizierung einer Takt- oder einer anderen Rhythmusinformation durch die Zielmusik beschränkt ist.
  • Gemäß dem Klassifizierungsverfahren des japanischen Patents Kokai Nr. 2000-268541 findet eine Klassifizierung statt, indem mindestens eines von drei aus dem Musikstücksignal extrahierten Musikelementen verwendet wird. Das spezifische Inverbindungbringen zwischen jedem Eigenschaftsumfang und Genreidentifikator ist jedoch auf der Grundlage der offenbarten Technologie schwierig. Ferner ist es schwierig, einen großen Klassifizierungsschlüssel zum Ermitteln des Genres bei der Klassifizierung zu betrachten, der nur einige Takte der drei Musikelemente verwendet.
  • Die vorgeschlagene Kombination von Tempo und Tonalität und so weiter des Klassifizierungsverfahrens des japanischen Patents Kokai Nr. 2003-58147 ermöglicht, die Deutlichkeit und das Tempo der Musik grundlegend zu implementieren, was erwünscht ist, um die Melodie auszudrücken. Die Worte "Melodie" und "Melodien", die hier und nachfolgend verwendet wurden bzw. werden, stellen keine spezifischen Elemente, wie gesangliche oder instrumentale Teile der Musik, dar. Diese Worte sollen vielmehr eine ungefähre Stimmung der Musik darstellen, wie Ähnlichkeiten der Begleitungen oder Arrangements der Musik. Bei dem oben beschriebenen Klassifizierungsverfahren besteht jedoch das Problem, dass das Tempo, die Tonalität und so weiter des tatsächlichen Musikstücks eine sehr geringe Konsistenz aufweisen, und dass die Genauigkeit von Eigenschaftsumfängen, die ermöglichen, die Klassifizierung in Musikstückeinheiten durchzuführen, niedrig ist.
  • Ein anderes Verfahren in "Extraction of Structural Patterns in Popular Music" von E. Skovenborg und J. Arnspang, das beim CMMR im März 2003 offenbart wurde, beschreibt die Cluster-Bildung von Popmusik unter Verwendung von melodischen Abfolgen und Self Organizing Maps (SOM).
  • Ferner können mit den Verfahren der japanischen Patente Kokai Nr. 2001-297093 , 2002-278547 , 2000-268541 und 2003-58147 Musikauswahlen durchgeführt werden, indem eine statistisch definierte Sprache verwendet wird, wie beispielsweise Bildworte, Genrenamen und Dur- und Molltonarten, und da sich der Eindruck des Musikstücks in Abhängigkeit von der Stimmung ändert, besteht das Problem, dass die geeignete Musikstückauswahl nicht durchgeführt werden kann.
  • Obwohl das japanische Patent Kokai Nr. 2002-41059 die Tatsache beschreibt, dass mit den Vorlieben des Hörers in Übereinstimmung gebrachte Musikstücke bereitgestellt werden, wenn Musikstücke ausgewählt werden, können Veränderungen der Melodie des Musikstücks nicht ausgedrückt werden, da die Eigenschaftsumfänge, die tatsächlich verwendet werden, durch Umwandeln von aus dem gesamten oder einem Teil des Musiksignals extrahierten Ergebnissen in numerische Werte erzeugt werden. Es besteht daher das Problem, dass die Genauigkeit, die zum Klassifizieren von Musikstücken auf der Grundlage von Vorlieben angemessen ist, nicht sichergestellt werden kann.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Der obige Nachteil ist als ein Beispiel der Probleme aufgeführt, die die vorliegende Erfindung lösen soll, und ein Ziel der vorliegenden Erfindung ist, eine Einrichtung und ein Verfahren zur automatischen Musikstückklassifizierung bereitzustellen, die es ermöglichen, mehrere Musikstücke auf der Grundlage einer Melodieähnlichkeit automatisch zu klassifizieren.
  • Die automatische Musikstückklassifizierungseinrichtung gemäß einem ersten Aspekt der vorliegenden Erfindung ist eine automatische Musikstückklassifizierungseinrichtung, die die Merkmale nach Anspruch 1 umfasst.
  • Das automatische Musikstückklassifizierungsverfahren gemäß der vorliegenden Erfindung ist ein Verfahren, das die Merkmale nach Anspruch 14 umfasst.
  • Ein Programm gemäß einem anderen Aspekt der vorliegenden Erfindung ist ein von einem Computer lesbares Programm, das die Merkmale nach Anspruch 15 umfasst.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein Blockdiagramm, das eine Ausführungsform der vorliegenden Erfindung zeigt;
  • 2 ist ein Flussdiagramm, das eine Akkordeigenschaftsumfangs-Extraktionsverarbeitung zeigt;
  • 3 zeigt Frequenzverhältnisse zwischen jedem von zwölf Tönen und dem Ton einer Superoktave A in einem Fall, in dem der Ton A 1,0 beträgt;
  • 4 ist ein Flussdiagramm, das die Hauptverarbeitung einer Akkordanalyseoperation zeigt;
  • 5 zeigt Umwandlungen von Akkorden, die aus vier Tönen bestehen, in Akkorde, die aus drei Tönen bestehen;
  • 6 zeigt das Aufzeichnungsformat;
  • 7A bis 7C zeigen ein Verfahren zum Darstellen von Fundamentaltönen und Akkordattributen und ein Verfahren zum Darstellen von Akkordkandidaten;
  • 8 ist ein Flussdiagramm, das eine der Akkordanalyseoperation folgende Verarbeitung zeigt;
  • 9 zeigt die zeitliche Variation von ersten und zweiten Akkordkandidaten vor einer Glättung;
  • 10 zeigt die zeitliche Variation von ersten und zweiten Akkordkandidaten nach einer Glättung;
  • 11 zeigt die zeitliche Variation von ersten und zweiten Akkordkandidaten nach einem Austausch;
  • 12A bis 12D zeigen ein Verfahren zum Erzeugen von Akkordabfolgemusterdaten und das Format dieser Daten;
  • 13A und 13B zeigen Histogramme von Akkorden in einem Musikstück;
  • 14 zeigt das Format, wenn die Akkordabfolgevariations-Eigenschaftsumfänge gespeichert werden;
  • 15 ist ein Flussdiagramm, das eine Berechnung einer Frequenz einer relativen Akkordabfolge zeigt;
  • 16 zeigt das Verfahren zum Finden von Daten einer relativen Akkordabfolge;
  • 17 zeigt mehrere Akkordvariationsmuster für einen Fall, in dem es drei Akkordvariationen gibt;
  • 18 ist ein Flussdiagramm, das eine Akkordabfolgeeigenschaftsvektor-Erzeugungsverarbeitung zeigt;
  • 19 zeigt eine charakteristische Kurve für einen Frequenzanpassungsgewichtungskoeffizienten G(i);
  • 20 zeigt die Ergebnisse einer Akkordabfolgeeigenschaftsvektor-Erzeugungsverarbeitung;
  • 21 ist ein Flussdiagramm, das eine Musikklassifizierungsverarbeitung und eine Klassifizierungsergebnis-Anzeigeverarbeitung zeigt;
  • 22 zeigt Klassifizierungsergebnisse und ein Cluster-Anzeigebeispiel;
  • 23 zeigt optionale Cluster-Anzeigeabbildungen;
  • 24 zeigt andere optionale Cluster-Anzeigeabbildungen;
  • 25 ist ein Flussdiagramm, das eine Musik-Cluster-Auswahl- und Wiedergabeverarbeitung zeigt;
  • 26 zeigt eine Musikstücklistenanzeigeabbildung;
  • 27 ist ein Blockdiagramm, das eine andere Ausführungsform der vorliegenden Erfindung zeigt;
  • 28 ist ein Flussdiagramm, das ein Beispiel der Operation der Einrichtung in 27 zeigt;
  • 29 ist ein Flussdiagramm, das ein weiteres Beispiel der Operation der Einrichtung in 27 zeigt;
  • 30 ist ein Flussdiagramm, das ein weiteres Beispiel der Operation der Einrichtung in 27 zeigt; und
  • 31 ist ein Flussdiagramm, das ein weiteres Beispiel der Operation der Einrichtung in 27 zeigt.
  • DETAILLIERTE BESCHREIBUNG DER ERFINDUNG
  • Die Ausführungsform der vorliegenden Erfindung wird nachstehend in Bezug auf die Zeichnungen ausführlich beschrieben.
  • 1 zeigt die automatische Musikstückklassifizierungseinrichtung gemäß der vorliegenden Erfindung. Die automatische Musikstückklassifizierungseinrichtung umfasst eine Musikinformations-Eingabeeinrichtung 1, einen Akkordabfolgemuster-Extraktionsteil 2, einen Akkordhistogrammabweichungs- und Akkordvariationsratenprozessor 3, eine Akkordeigenschaftsumfangs-Speichereinrichtung 4, eine Musikstück-Speichereinrichtung 5, einen Prozessor 6 für eine Frequenz einer relativen Akkordabfolge, einen Akkordabfolgeeigenschaftsvektor-Erzeugungsteil 7, einen Musik-Cluster-Erzeugungsteil 8, eine Klassifizierungs-Cluster-Speichereinrichtung 9, eine Musik-Cluster-Einheit-Anzeigeeinrichtung 10, eine Musik-Cluster-Auswahleinrichtung 11, einen Modellstück-Extraktionsteil 12, einen Musikstücklisten-Extraktionsteil 13, eine Musikstücklisten-Anzeigeeinrichtung 14, eine Musikstücklisten-Auswahleinrichtung 15 und eine Musikwiedergabeeinrichtung 16.
  • Die Musikinformations-Eingabeeinrichtung 1 gibt vorab als Musikklangdaten digitale Musikstücksignale (Audiosignale) mehrerer Musikstücke ein, die klassifiziert werden sollen, und gibt beispielsweise Wiedergabemusikstücksignale von einem CD-ROM-Laufwerk, einem CD-Spieler oder dergleichen oder Signale ein, die durch Decodieren von komprimierten Musikstückklangdaten erzeugt werden. Da ein Musikstücksignal eingegeben werden kann, können Musikstückdaten durch Digitalisieren eines Audiosignals einer analogen Aufzeichnung erzeugt werden, für die eine externe Eingabe oder dergleichen eingesetzt wird. Ferner kann eine Musikstück-Identifikationsinformation zusammen mit den Musikstückklangdaten eingegeben werden. Die Musikstück-Identifikationsinformation kann beispielsweise den Liedtitel, den Namen des Sängers, den Namen des Genres und einen Dateinamen umfassen. Es ist jedoch auch eine Information akzeptabel, die ein Musikstück mittels eines einzelnen Elements oder mehrerer Typen von Elementen spezifizieren kann.
  • Der Ausgang der Musikinformations-Eingabeeinrichtung 1 ist mit dem Akkordabfolgemuster-Extraktionsteil 2, der Akkordeigenschaftsumfangs-Speichereinrichtung 4 und der Musikstück-Speichereinrichtung 5 verbunden.
  • Der Akkordabfolgemuster-Extraktionsteil 2 extrahiert Akkorddaten aus einem Musiksignal, das über die Musikinformations-Eingabeeinrichtung 1 eingegeben wurde, und erzeugt somit eine Akkordabfolgesequenz (ein Akkordabfolgemuster) für das Musikstück.
  • Der Akkordhistogrammabweichungs- und Akkordvariationsratenprozessor 3 erzeugt ein Histogramm aus den verwendeten Akkordtypen und der Frequenz hiervon gemäß dem Akkordabfolgemuster, das durch den Akkordabfolgemuster-Extraktionsteil 2 erzeugt wird, und berechnet dann die Ab weichung als den Variationsgrad der Melodie. Der Akkordhistogrammabweichungs- und Akkordvariationsratenprozessor 3 berechnet auch die Akkordvariationsrate pro Minute, die bei der Klassifizierung des Musiktempos verwendet wird.
  • Die Akkordeigenschaftsumfangs-Speichereinrichtung 4 speichert die Akkordabfolge, die durch den Akkordabfolgemuster-Extraktionsteil 2 für jedes Musikstück erhalten wird, die Akkordhistogrammabweichung und die Akkordvariationsrate, die durch den Musterakkordhistogrammabweichungs- und Akkordvariationsratenprozessor 3 erhalten werden, und die Musikstück-Identifikationsinformation, die durch die Musikinformations-Eingabeeinrichtung 1 erhalten wird, als die Akkordabfolgevariations-Eigenschaftsumfänge. Während dieses Speicherprozesses wird die Musikstück-Identifikationsinformation als Identifikationsinformation verwendet, die es ermöglicht, jedes mehrerer Musikstücke, die klassifiziert wurden, zu identifizieren.
  • Die Musikstück-Speichereinrichtung 5 bringt die Musikstückklangdaten und die Musikstück-Identifikationsinformationen, die durch die Musikinformations-Eingabeeinrichtung 1 eingegeben wurden, in Verbindung und speichert diese.
  • Der Prozessor 6 für eine Frequenz einer relativen Akkordabfolge berechnet die Frequenz des Akkordabfolgemusters, das Musikstücken gemein ist, deren Musikstückklangdaten in der Musikstück-Speichereinrichtung 5 gespeichert wurden, und extrahiert dann das bei der Klassifizierung verwendete charakteristische Akkordabfolgemuster.
  • Der Akkordabfolgeeigenschaftsvektor-Erzeugungsteil 7 erzeugt, als einen mehrdimensionalen Vektor, ein Verhältnis, das ein charakteristisches Ak kordabfolgemuster umfasst, das als ein Ergebnis mehrerer Musikstücke erzeugt wird, die klassifiziert werden sollen, und durch den Prozessor 6 für eine Frequenz einer relativen Akkordabfolge verarbeitet wird.
  • Der Musikstück-Cluster-Erzeugungsteil 8 erzeugt ein Cluster ähnlicher Musikstücke gemäß einem Akkordabfolgeeigenschaftsvektor mehrerer Musikstücke für eine Klassifizierung, der durch den Akkordabfolgeeigenschaftsvektor-Erzeugungsteil 7 erzeugt wird.
  • Die Klassifizierungs-Cluster-Speichereinrichtung 9 bringt Cluster, die durch den Musikstück-Cluster-Erzeugungsteil 8 erzeugt werden, mit Musikstück-Identifikationsinformationen in Verbindung, die den Musikstücken entsprechen, die zu den Clustern gehören, und speichert diese. Die Musik-Cluster-Einheit-Anzeigeeinrichtung 10 zeigt jedes der in der Klassifizierungs-Cluster-Speichereinrichtung 9 gespeicherten Musikstück-Cluster in der Reihenfolge der Melodieähnlichkeit und derart an, dass die Menge der Musikstücke, die zu dem Musikstück-Cluster gehören, deutlich ist.
  • Die Musik-Cluster-Auswahleinrichtung 11 dient dem Auswählen eines Musik-Clusters, das durch die Musik-Cluster-Einheit-Anzeigeeinrichtung 10 angezeigt wird. Der Modellstück-Extraktionsteil 12 extrahiert das Musikstück, das die meisten Eigenschaften des Clusters erhält, aus den Musikstücken, die zu dem durch die Musik-Cluster-Auswahleinrichtung 11 ausgewählten Cluster gehören.
  • Der Musikstücklisten-Extraktionsteil 13 extrahiert eine Musikstück-Identifikationsinformation über jedes Musikstück, das zu dem durch die Musik-Cluster-Auswahleinrichtung 11 ausgewählten Cluster gehört, aus der Klassifizierungs-Cluster-Speichereinrichtung 9. Die Musikstücklisten- Anzeigeeinrichtung 14 zeigt den Inhalt der durch den Musikstücklisten-Extraktionsteil 13 extrahierten Musikstück-Identifikationsinformation als eine Liste an.
  • Die Musikstücklisten-Auswahleinrichtung 15 wählt gemäß einer Benutzeroperation ein beliebiges Musikstück aus der durch die Musikstücklisten-Anzeigeeinrichtung 14 angezeigten Musikstückliste aus. Die Musikwiedergabeeinrichtung 16 wählt die tatsächlichen Musikstückklangdaten aus der Musikstück-Speichereinrichtung 5 aus und gibt diese Klangdaten als akustischen Ausgang gemäß der Musikstück-Identifikationsinformation für das Musikstück wieder, das durch den Modellstück-Extraktionsteil 12 oder die Musikstücklisten-Auswahleinrichtung 15 extrahiert bzw. ausgewählt wurde.
  • Die automatische Musikstückklassifizierungseinrichtung der vorliegenden Erfindung führt bei dieser Ausgestaltung eine Akkordeigenschaftsumfangs-Extraktionsverarbeitung durch. Die Akkordeigenschaftsumfangs-Extraktionsverarbeitung ist eine Verarbeitung, bei der für mehrere Musikstücke, die klassifiziert werden sollen, Musikstückklangdaten und Musikstück-Identifikationsinformationen, die über die Musikinformations-Eingabeeinrichtung 1 eingegeben werden, in der Musikstück-Speichereinrichtung 5 gespeichert werden, und gleichzeitig die Akkordabfolgevariationseigenschaftsumfänge in dem Musikstückklang, der durch die Musikstückklangdaten dargestellt ist, als Daten extrahiert und dann in der Akkordeigenschaftsumfangs-Speichereinrichtung 4 gespeichert werden.
  • Beim spezifischen Beschreiben der Akkordeigenschaftsumfangs-Extraktionsverarbeitung wird angenommen, dass die Menge von zu verarbeitenden Musikstücken Q ist und der Zählwert zum Zählen der Menge von Mu sikstücken N ist. Zu Beginn der Akkordabfolgeeigenschaftsumfangs-Extraktionsverarbeitung wird der Zählwert N vorab auf 0 gesetzt.
  • Bei der in 2 gezeigten Akkordeigenschaftsumfangs-Extraktionsverarbeitung wird zuerst mit dem Eingeben der N-ten Musikdaten und der Musikstück-Identifikationsinformation über die Musikinformations-Eingabeeinrichtung 1 begonnen (Schritt S1). Danach werden die N-ten Musikdaten an den Akkordabfolgemuster-Extraktionsteil 2 geliefert und werden die N-ten Musikstückklangdaten und die Musikstück-Identifikationsinformation in Verbindung gebracht und in der Musikstück-Speichereinrichtung 5 gespeichert (Schritt S2). Mit dem Speichern der N-ten Musikdaten von Schritt S2 wird fortgefahren, bis in dem nächsten Schritt S3 beurteilt wird, dass das Eingeben der N-ten Musikdaten beendet ist.
  • Wenn das Eingeben der N-ten Musikdaten beendet ist, werden die Akkordabfolgemuster-Extraktionsergebnisse von dem Akkordabfolgemuster-Extraktionsteil 2 erhalten (Schritt S4).
  • Hier werden Akkorde für zwölf Töne einer gleichstufig temperierten Tonleiter entsprechend fünf Oktaven extrahiert. Die zwölf Töne der gleichstufig temperierten Tonleiter sind A, A#, H, C, C#, D, D#, E, F, F#, G und G#. 3 zeigt Frequenzverhältnisse für jeden der zwölf Töne und einen Superoktaven-Ton A für einen Fall, dass der Ton A 1,0 ist.
  • In der Akkordabfolgemuster-Extraktionsverarbeitung des Akkordabfolgemuster-Extraktionsteils 2 wird eine Frequenzinformation f(T) erhalten, indem mittels einer Fouriertransformation eine Frequenzumwandlung an einem digitalen Eingangssignal in Intervallen von 0,2 Sekunden durchgeführt wird, wie es in 4 gezeigt ist (Schritt S21). Ferner wird durch Ver wenden der momentanen f(T), der vorherigen f(T – 1) und der f(T – 2), die f(T – 1) vorausgeht, eine Migrationsmittelwertbildung durchgeführt (Schritt S22). Bei dieser Migrationsmittelwertbildung werden Frequenzinformationen für die beiden vorherigen Ereignisse auf der Grundlage der Annahme eingesetzt, dass in einem Intervall von 0,6 Sekunden nur eine sehr geringe Variation in einem Akkord auftritt. Die Migrationsmittelwertbildung wird mittels der folgenden Gleichung berechnet: f(T) = (f(T) + f(T – 1)/2,0 + f(T – 2)/3,0)/3,0 (1)
  • Nach der Ausführung von Schritt S22 werden die Frequenzkomponenten f1(T) bis f5(T) jeweils aus der Frequenzinformation extrahiert, die der Migrationsmittelwertbildung f(T) unterzogen wurde (Schritte S23 bis S27). Wie in den Schritten S6 bis S10 oben sind die Frequenzkomponenten f1(T) bis f5(T) zwölf Töne A, A#, H, C, C#, D, D#, E, F, F#, G und G# der gleichstufig temperierten Tonleiter, die fünf Oktaven entsprechen, deren Fundamentalfrequenz (110,0 + 2 × N) Hz ist. Für f1(T) von Schritt S23 beträgt der Ton A (110,0 + 2 × N) Hz, für f2(T) von Schritt S24 beträgt der Ton A 2 × (110,0 + 2 × N) Hz, für f3(T) von Schritt S25 beträgt der Ton A 4 × (110,0 + 2 × N) Hz, für f4(T) von Schritt S26 beträgt der Ton A 8 × (110,0 + 2 × N) Hz und für f5(T) von Schritt S27 beträgt der Ton A 16 × (110,0 + 2 × N) Hz. Hier ist N der Differenzwert für die Frequenz der gleichstufig temperierten Tonleiter und wird auf einen Wert zwischen –3 und 3 gesetzt, kann jedoch 0 sein, wenn er ignoriert werden kann.
  • Nach der Ausführung der Schritte S23 bis S27 werden die Frequenzkomponenten f1(T) bis f5(T) in Zonendaten F'(T) einer Oktave umgewandelt (Schritt S28). Die Zonendaten F'(T) können ausgedrückt werden durch: F'(T) = f1(T) × 5 + f2(T) × 4 + f3(T) × 3 + f4(T) × 2 + f5(T) (2)
  • Das heißt, nachdem jede der Frequenzkomponenten f1(T) bis f5(T) individuell gewichtet wurde, werden sie addiert. Die Zonendaten F'(T) enthalten dann jede Klangkomponente.
  • Nach der Ausführung von Schritt S28 ist das Intensitätsniveau jeder Klangkomponente der Zonendaten F'(T) groß, und daher werden sechs Töne als Kandidaten ausgewählt (Schritt S29), und werden aus diesen sechs Klangkandidaten zwei Akkorde M1 und M2 erzeugt (Schritt S30). Es wird ein Akkord erzeugt, der aus drei Tönen besteht, wobei einer der sechs Kandidatentöne als der Grundton des Akkords dient. Das heißt, es können Akkorde aus 6C3 verschiedenen Kombinationen betrachtet werden. Die Niveaus der drei Töne, die jeden Akkord bilden, werden addiert, und der Akkord, für den der Wert, der sich aus dieser Addition ergibt, am größten ist, ist der erste Akkordkandidat M1, während der Akkord, für den der Wert, der sich aus dieser Addition ergibt, am zweitgrößten ist, der zweite Akkordkandidat M2 ist.
  • Die Töne, die die Akkorde bilden, sind nicht auf drei beschränkt. Es sind auch vier Töne möglich, wie in dem Fall einer Septime oder einer verminderten Septime. Akkorde, die aus vier Tönen bestehen, können als zwei oder mehrere Akkorde klassifiziert werden, die aus drei Tönen bestehen, wie es in 5 gezeigt ist. Demgemäß können, da aus vier Tönen bestehende Akkorde Akkorde sein können, die aus drei Tönen bestehen, gemäß dem Intensitätsniveau jeder Klangkomponente der Zonendaten F'(T) zwei Akkordkandidaten gesetzt werden.
  • Nach der Ausführung von Schritt S30 wird beurteilt, ob die Anzahl von in Schritt S30 gesetzten Akkordkandidaten existiert (Schritt S31). Da in Fäl len keine Akkordkandidaten gesetzt werden, in denen es keine Differenz bei dem Intensitätsniveau gibt, die nur durch Auswählen von mindestens drei Tönen in Schritt S30 erzeugt wird, wird die Beurteilung von Schritt S31 durchgeführt. In Fällen, in denen die Anzahl von Akkordkandidaten > 0, wird auch beurteilt, ob die Anzahl von Akkordkandidaten größer als 1 ist (Schritt S32).
  • In Fällen, in denen in Schritt S31 beurteilt wird, dass die Anzahl von Akkordkandidaten = 0, werden die Akkordkandidaten M1 und M2, die in der Hauptverarbeitung T – 1 (ungefähr 0,2 Sekunden zuvor) gesetzt wurden, als die momentanen Akkordkandidaten M1 und M2 gesetzt (Schritt S33). In Fällen, in denen in Schritt S32 beurteilt wird, dass die Anzahl von Akkordkandidaten = 1, wird nur der erste Akkordkandidat M1 in der momentanen Ausführung von Schritt S30 gesetzt. Daher wird der zweite Akkordkandidat M2 als derselbe Akkord wie der erste Akkordkandidat M1 gesetzt (Schritt S34).
  • Wenn in Schritt S32 beurteilt wird, dass die Anzahl von Akkordkandidaten > 1, werden in der momentanen Ausführung von Schritt S30 sowohl der erste Akkordkandidat M1 als auch der zweite Akkordkandidat M2 gesetzt, und werden die Zeit und die ersten und zweiten Akkordkandidaten M1 bzw. M2 dann in einem Speicher (nicht gezeigt) in dem Akkordabfolgemuster-Extraktionsteil 2 gespeichert (Schritt S35). Die Zeit und die ersten und zweiten Akkordkandidaten M1 bzw. M2 werden als ein Satz in den Speicher gespeichert. Die Zeit ist die Anzahl von Malen, wie oft die Hauptverarbeitung durchgeführt wird, wird mit T ausgedrückt und erhöht sich alle 0,2 Sekunden. Die ersten und zweiten Akkordkandidaten M1 bzw. M2 werden in der Reihenfolge von T gespeichert.
  • Spezieller kann eine Kombination aus Fundamentaltönen (Grundtönen) und Attributen verwendet werden, um jeden der Akkordkandidaten mittels eines Byte in den Speicher zu speichern, wie es in 6 gezeigt ist. Es werden zwölf Töne einer gleichstufig temperierten Tonleiter als die Fundamentaltöne verwendet, und die Akkordtypen Dur {4, 3}, Moll {3, 4}, Septime-Kandidaten {4, 6} und Kandidaten einer verminderten Septime (dim7) {3, 3} können für die Attribute verwendet werden. Die Zahlen in den {} stellen die Differenz der drei Töne dar, wenn ein Halbton 1 ist. Ursprünglich ist der Septime-Kandidat {4, 3, 3} und ist der Kandidat einer verminderten Septime (dim7) {3, 3, 3}. Dies wird jedoch wie oben erläutert unter Verwendung von drei Tönen dargestellt.
  • Die zwölf Fundamentaltöne werden durch sechzehn Bit (Hexadezimalform) wie in 7A gezeigt dargestellt, und die Attributakkordtypen werden durch sechzehn Bit (Hexadezimalform) wie in 7B gezeigt dargestellt. Die unteren vier Bit der Fundamentaltöne und die unteren vier Bit der Attribute werden in dieser Reihenfolge verbunden und als Akkordkandidaten mit 8 Bit (ein Byte) verwendet, wie es in 7C gezeigt ist.
  • Wenn Schritt S33 oder S34 ausgeführt wird, wird Schritt S35 unmittelbar nachfolgend ausgeführt.
  • Nach der Ausführung von Schritt S35 wird beurteilt, ob das Musikstück geendet hat (Schritt S36). Wenn es beispielsweise keinen Eingang eines analogen Audioeingangsignals gibt, oder in dem Fall einer Operationseingabe, die das Ende des Musikstücks angibt, von der Operationseingabeeinrichtung 4, wird beurteilt, dass das Musikstück geendet hat.
  • Ein Wert 1 wird zu der Variable T addiert, bis beurteilt wird, dass das Musikstück geendet hat (Schritt S37), und Schritt S21 wird erneut ausge führt. Schritt S21 wird wie zuvor erwähnt in Intervallen von 0,2 Sekunden ausgeführt und wird erneut ausgeführt, wenn seit dem Zeitpunkt der vorherigen Ausführung 0,2 Sekunden verstrichen sind.
  • Wie es in 8 gezeigt ist, werden nach der Beurteilung, dass das Musikstück geendet hat, alle ersten und zweiten Akkordkandidaten aus dem Speicher als M1(0) bis M1(R) und M2(0) bis M2(R) ausgelesen (Schritt S41). 0 ist der Startzeitpunkt, und somit sind die ersten und zweiten Akkordkandidaten zum Startzeitpunkt M1(0) bzw. M2(0). R ist der Endzeitpunkt, und somit sind die ersten und zweiten Akkordkandidaten zum Endzeitpunkt M1(R) bzw. M2(R). Dann wird ein Glätten an den ersten Akkordkandidaten M1(0) bis M1(R) und den zweiten Akkordkandidaten M2(0) bis M2(R) vorgenommen, die somit ausgelesen werden (Schritt S42). Das Glätten wird durchgeführt, um jegliche Fehler zu entfernen, die durch Rauschen verursacht werden, das in den Akkordkandidaten als ein Ergebnis des Detektierens der Akkordkandidaten in Intervallen von 0,2 Sekunden ungeachtet des Akkordvariationszeitpunkts enthalten ist. Bei dem spezifischen Glättungsverfahren wird beurteilt, ob die Relationen M1(t – 1) ≠ M1(t) und M1(t) ≠ M1(t + 1) für drei aufeinander folgende erste Akkordkandidaten M1(t – 1), M1(t) und M1(t + 1) erfüllt sind. In Fällen, in denen die Relationen erfüllt sind, wird M1(t) gleich M1(t + 1) gesetzt. Die Beurteilung wird für jeden der ersten Akkordkandidaten durchgeführt. Das Glätten wird mittels des gleichen Verfahrens an den zweiten Akkordkandidaten durchgeführt. Ferner kann M1(t + 1) gleich M1(t) gesetzt werden, anstatt M1(t) gleich M1(t + 1) zu setzen.
  • Nach dem Durchführen des Glättens wird eine Verarbeitung zum Austausch der ersten und zweiten Akkordkandidaten durchgeführt (Schritt S43). Im Allgemeinen ist die Wahrscheinlichkeit, dass sich der Akkord in einem kurzen Intervall, wie beispielsweise 0,6 Sekunden, ändert, gering.
  • Jedoch findet manchmal aufgrund von Schwankungen der Frequenz jeder Klangkomponente in den Zonendaten F'(T), die aus der Signaleingangsstufenfrequenzcharakteristik und aus Rauschen während einer Signaleingabe resultieren, ein Austausch der ersten und zweiten Akkordkandidaten innerhalb von 0,6 Sekunden statt. Schritt S43 wird ausgeführt, um diesem Austausch entgegenzuwirken. Für das spezifische Verfahren des Austauschs der ersten und zweiten Akkordkandidaten wird eine Beurteilung (wie nachfolgend beschrieben) für fünf aufeinanderfolgende erste Akkordkandidaten M1(t – 2), M1(t – 1), M1(t), M1(t + 1) und M1(t + 2) und fünf aufeinanderfolgende zweite Akkordkandidaten M2(t – 2), M2(t – 1), M2(t), M2(t + 1) und M2(t + 2), die den ersten Akkordkandidaten entsprechen, durchgeführt. Das heißt, es wird beurteilt, ob die Relationen M1(t – 2) = M1(t + 2), M2(t – 2) = M2(t + 2), M1(t – 1) = M1(t) = M1(t + 1) = M2(t – 2) und M2(t – 1) = M2(t) = M2(t + 1) = M1(t – 2) erfüllt sind. Wenn die Relationen erfüllt sind, wird festgelegt, dass M1(t – 1) = M1(t) = M1(t + 1) = M1(t – 2) und M2(t – 1) = M2 (t) = M2(t + 1) = M2(t – 2), und wird ein Akkordaustausch zwischen M1(t – 2) und M2(t – 2) realisiert. Ferner kann ein Akkordaustausch zwischen M1(t + 2) und M2(t + 2) statt des Akkordaustauschs zwischen M1(t – 2) und M2(t – 2) durchgeführt werden. Es wird auch beurteilt, ob die Relationen M1(t – 2) = M1(t + 1), M2(t – 2) = M2(t + 1), M1(t – 1) = M1(t) = M1(t + 1) = M2(t – 2) und M2(t – 1) = M2(t) = M2(t + 1) = M1(t – 2) erfüllt sind. Wenn diese Relationen erfüllt sind, wird festgelegt, dass M1(t – 1) = M1(t) = M1(t – 2) und M2(t – 1) = M2(t) = M2(t – 2), und es wird ein Akkordaustausch zwischen M1(t – 2) und M2(t – 2) durchgeführt. Ferner kann auch ein Akkordaustausch zwischen M1(t + 1) und M2(t + 1) statt des Akkordaustauschs zwischen M1(t – 2) und M2(t – 2) durchgeführt werden.
  • Wenn alle Akkorde der ersten Akkordkandidaten M1(0) bis M1(R) und der zweiten Akkordkandidaten M2(0) bis M2(R), die in Schritt S41 gelesen werden, variieren, wenn die Zeit verstreicht, wie in 9 gezeigt, werden die Akkorde beispielsweise wie in 10 gezeigt durch Durchführen der Mittelwertbildung von S42 korrigiert. Zusätzlich wird die Akkordvariation der ersten und zweiten Akkordkandidaten wie in 11 gezeigt korrigiert, indem der Akkordaustausch von Schritt S43 durchgeführt wird. 9 bis 11 zeigen die Variation des Akkords mit der Zeit als einen Liniengraph, wobei Positionen, die Akkordtypen entsprechen, an der vertikalen Achse dargestellt sind.
  • Es wird M1(t) zu dem Zeitpunkt t detektiert, zu dem sich ein Akkord aus den ersten Akkordkandidaten M1(0) bis M1(R) geändert hat, die dem Akkordaustausch von Schritt S43 unterzogen wurden (Schritt S44), und die Gesamtanzahl von Akkordvariationen M der ersten Akkordkandidaten, die somit detektiert wurden, und die kontinuierliche Akkordzeit (vier Bytes), die die Differenz zu der Änderungszeit t bildet, und die Akkorde (vier Bytes) werden ausgegeben (Schritt S45). Die Daten eines Musikstücks, die in Schritt S45 ausgegeben werden, stellen Akkordabfolgemusterdaten dar.
  • In Fällen, in denen die Akkorde der ersten Akkordkandidaten M1(0) bis M1(R) und der zweiten Akkordkandidaten M2(0) bis M2(R), die dem Akkordaustausch von Schritt S43 folgen, variieren, wenn die Zeit verstreicht, wie es in 12A gezeigt ist, werden der Zeitpunkt einer Variationszeit und der Akkord als Daten extrahiert. 12B stellt den Dateninhalt zum Zeitpunkt der Variation der ersten Akkordkandidaten dar, und F, G, D, B und F sind die Akkorde, die als Hexadezimaldaten durch 0 × 08, 0 × 0A, 0 × 05, 0 × 01 und 0 × 08 ausgedrückt werden. Die Zeitpunkte der Variationszeit t sind T1(0), T1(1), T1(2), T1(3) und T1(4). Ferner stellt 12C den Dateninhalt der Variationszeit der zweiten Akkordkandidaten dar, und sind C, B, F#m, B und C Akkorde, die als Hexadezimaldaten durch 0 × 03, 0 × 01, 0 × 29, 0 × 01 und 0 × 03 ausgedrückt werden. Die Zeitpunkte der Variationszeit t sind T2(0), T2(1), T2(2), T2(3) und T2(4). Der in 12B und 12C gezeigte Dateninhalt wird in Schritt S45 zusammen mit der Musikstück-Identifikationsinformation als Akkordabfolgemusterdaten in dem in 12D gezeigten Format ausgegeben. Die kontinuierlichen Akkordzeiten der ausgegebenen Akkordabfolgemusterdaten sind T(0) = T1(1) – T1(0) und T(1) = T1(2) – T1(1) und so weiter.
  • Die kontinuierlichen Zeiten werden zu jedem der Dur-, Moll- und verminderten Akkorde A bis G# hinzugefügt, deren Grundtöne die zwölf Töne der in Schritt S4 extrahierten Akkordabfolgemusterdaten sind, und die Histogrammwerte werden durch Normieren des Maximalwerts derart berechnet, dass dieser 100 beträgt (Schritt S5).
  • Die Histogrammwerte können mittels der folgenden Gleichungen (3) und (4) berechnet werden: h'(i + k × 12) = ΣT'(j) (3) h(i + k × 12) = h'(i + k × 12) × 100/max(h'(i + k × 12)) (4)
  • In diesen Gleichungen (3) und (4) entspricht i den Grundtönen (zwölf Töne) der Akkorde A bis G#, sodass i = 0 bis 11 in dieser Reihenfolge ist. k entspricht einem Dur-Akkord (k = 0), einem Moll-Akkord (k = 1) bzw. einem verminderten Akkord (k = 2). J ist die Reihenfolge der Akkorde, und für j = 0 bis M – 1 wird eine Σ-Berechnung durchgeführt. h'(i + k × 12) in Gleichung (3) ist die Gesamtzeit der tatsächlichen kontinuierlichen Akkordzeit T'(j), und entspricht h'(0) bis h'(35). h(i + k × 12) in Gleichung (4) ist der Histogrammwert und wird als h(0) bis h(35) erhalten. Die kontinuierliche Akkordzeit T(j) ist T'(j), wenn der Grundton des j-ten Akkords der Akkordabfolgemusterdaten i ist und das Attribut k ist. Wenn beispielsweise der 0-te Akkord ein C-Dur-Akkord ist, wird wegen i = 3 und k = 0 die 0-te konti nuierliche Akkordzeit T(0) zu h'(3) addiert. Das heißt, die kontinuierliche Akkordzeit T(j) wird zu jedem Akkord mit demselben Grundton und Attribut als T'(j) addiert, und das Ergebnis ist h'(i + k × 12). max(h'(i + k × 12)) ist h'(i + k × 12), das heißt, der Maximalwert aus h'(0) bis h'(35).
  • 13A und 13B zeigen die Ergebnisse des Berechnens der Histogrammwerte für die Dur-Akkorde (A bis G#), die Moll-Akkorde (A bis G#) und die verminderten Akkorde (A bis G#) der Akkorde jedes Musikstücks. Der Fall in 13A zeigt ein Musikstück, in dem Akkorde über einem breiten Bereich erscheinen, und eine Melodie, die zahlreiche Variationen aufweist, wobei eine Vielzahl von Akkorden mit sehr geringer Streuung verwendet wird. Der Fall in 13B zeigt ein Musikstück, in dem spezifische Akkorde markant zu sehen sind und eine kleine Anzahl von Akkorden mit großer Streuung wiederholt wird, und das eine gerade Melodie mit sehr geringer Akkordvariation aufweist.
  • Nach der Berechnung von Histogrammwerten auf diese Weise wird eine Akkordhistogrammabweichung berechnet (Schritt S6). Wenn eine Histogrammabweichung berechnet wird, wird zuerst ein Mittelwert X der Histogrammwerte h(0) bis h(35) mittels Gleichung (5) berechnet. X = (Σh(i))/36 (5)
  • In Gleichung (5) liegt i zwischen 0 und 35. Das heißt, Σh(i) = h(0) + h(1) + h(2) + ... + h(35) (6)
  • Die Abweichung σ des Histogrammwerts X wird mittels Gleichung (7) berechnet. i liegt hier auch zwischen 0 und 35. σ = (Σ(h(i) – X)2)1/2/36 (7)
  • Es wird auch die Akkordvariationsrate R berechnet (Schritt S7).
  • Die Akkordvariationsrate R wird mittels Gleichung (8) berechnet. R = M × 60 × Δt/(ΣT(j)) (8)
  • In Gleichung (8) ist M die Gesamtanzahl von Akkordvariationen, ist Δt die Häufigkeit, wie oft ein Akkord über einem Intervall von einer Sekunde detektiert wird, und wird die Berechnung von ΣT(j) für j = 0 bis M – 1 ausgeführt.
  • Die Musikstück-Identifikationsinformation, die von der Musikinformations-Eingabeeinrichtung 1 erhalten wird, die Akkordabfolgemusterdaten, die in Schritt S4 extrahiert werden, die Histogrammabweichung σ, die in Schritt S6 berechnet wird und die Akkordvariationsrate R, die in Schritt S7 berechnet wird, werden in der Akkordeigenschaftsumfangs-Speichereinrichtung 4 als Akkordabfolgevariations-Eigenschaftsumfänge gespeichert (Schritt S8). Das Format, das verwendet wird, wenn der Variationseigenschaftsumfang gespeichert wird, ist in 14 gezeigt.
  • Der Ausführung von Schritt S8 folgend wird 1 zu dem Zählwert N addiert (Schritt S9), und es wird dann beurteilt, ob der Zählwert N die zu verarbeitende Musikstückmenge Q erreicht hat (Schritt S10). Wenn N < Q, wird die Operation der obigen Schritte S1 bis S10 wiederholt. Andererseits wird, da wenn N = Q, das Speichern des Akkordabfolgevariations-Eigenschaftsumfangs für die gesamte zu verarbeitende Musikstückmenge Q be endet ist, der Identifikator ID(i) der Musikstück-Identifikationsinformation jedes Musikstücks der Musikstückmenge Q hinzugefügt und gespeichert (Schritt S11).
  • Als Nächstes wird die Berechnung einer Frequenz einer relativen Akkordabfolge, die durch den Prozessor 6 für eine Frequenz einer relativen Akkordabfolge durchgeführt wird, beschrieben. Bei der Berechnung der Frequenz einer relativen Akkordabfolge wird die Frequenz eines Akkordabfolgeteils, die sich mindestens zweimal ändert und in den Akkordabfolgemusterdaten enthalten ist, die in der Akkordeigenschaftsumfangs-Speichereinrichtung 4 gespeichert sind, berechnet, und wird eine Gruppe eines charakteristischen Akkordabfolgemusters, die in einer Gruppe von zu klassifizierenden Musikstücken enthalten ist, detektiert.
  • Während eine Akkordabfolge eine absolute Akkordsequenz ist, wird eine relative Akkordabfolge als ein Array von Frequenzdifferenzen zwischen jedem der Akkorde (Grundtondifferenz; es wird 12 addiert, wenn diese negativ ist), die die Akkordabfolge bilden, und Attributen von geänderten Dur- und Moll-Akkorden und so weiter ausgedrückt. Durch Verwenden von relativen Akkordabfolgen kann eine Tonalitätsverschiebung abgefangen werden, und kann die Melodieähnlichkeit sogar dann leicht berechnet werden, wenn sich das Arrangement, das Tempo und so weiter unterscheiden.
  • Ferner ist, obwohl die Anzahl von für den Akkordabfolgeteil ausgewählten Akkordvariationen optional ist, etwa drei geeignet. Daher wird die Verwendung einer Akkordabfolge mit drei Variationen beschrieben.
  • Bei der Berechnung der Frequenz einer relativen Akkordabfolge wird der Frequenzzählwert C(i) zu Beginn auf 0 gesetzt (Schritt S51), wie es in 15 gezeigt ist. In Schritt S51 ist i = 0 bis 21295, und daher werden Einstellungen derart vorgenommen, dass C(0) bis C(21295) = 0. Der Zählwert N wird zu Beginn auch auf 0 gesetzt (Schritt S52), und der Zählwert A wird zu Beginn auf 0 gesetzt (Schritt S53).
  • Die Daten HP(k) einer relativen Akkordabfolge des N-ten Musikstücks, das durch die Musikstück-Identifikationsinformation ID(N) bezeichnet ist, werden berechnet (Schritt S54). k der Daten HP(k) einer relativen Akkordabfolge liegt zwischen 0 und M – 2. Die Daten HP(k) einer relativen Akkordabfolge werden als [Frequenzdifferenzwert, Migrationszielattribut] geschrieben und sind Spaltendaten, die den Frequenzdifferenzwert und das Migrationszielattribut zum Zeitpunkt einer Akkordvariation darstellen. Der Frequenzdifferenzwert und das Migrationszielattribut werden gemäß den Akkordabfolgemusterdaten des N-ten Musikstücks erhalten. Unter der Annahme, dass die Akkordvariation der Akkordabfolgemusterdaten mit dem Verstreichen der Zeit Am7, dann Dm, C, F, Em, F, B-7 lautet, wie es beispielsweise in 16 gezeigt ist, wobei die Hexadezimaldaten 0 × 30, 0 × 25, 0 × 03, 0 × 08, 0 × 27, 0 × 08, 0 × 11, ... lauten, sind die Frequenzdifferenzwerte dann 5, 10, 5, 11, 1, 5, ..., und sind die Migrationszielattribute 0 × 02, 0 × 00, 0 × 00, 0 × 02, 0 × 00, 0 × 00, .... Ferner wird, wenn ein Halbton 1 ist und der Wert des Grundtons (Fundamentaltons) am Migrationsziel negativer ist als der vor der Migration, der Frequenzdifferenzwert durch Addieren von 12 zu dem Migrationsziel gefunden, sodass das Migrationsziel positiver ist als vor der Migration. Ferner werden Septime und Vermindert als Akkordattribute ignoriert.
  • Der Ausführung von Schritt S54 folgend wird die Variable i zu Beginn auf 0 gesetzt (Schritt S55) und wird beurteilt, ob die Daten HP(A), HP(A + 1) und HP(A + 2) einer relativen Akkordabfolge mit den Mustern P(i, 0), P(i, 1) bzw. P(i, 2) einer relativen Akkordabfolge übereinstimmen (Schritt S56).
  • Das Muster einer relativen Akkordabfolge wird als [Frequenzdifferenzwert, Migrationszielattribut] für die Daten einer relativen Akkordabfolge geschrieben. Als Muster einer relativen Akkordabfolge wird die Akkordabfolge durch Dur- und Moll-Akkorde gebildet, was bedeutet, dass es in dem Fall von drei Akkordvariationen 2 × 22 × 22 × 22 = 21296 Muster gibt. Das heißt, wie in 17 gezeigt, gibt es bei der ersten Akkordvariation zweiundzwanzig Muster, die aus einer Dur-Akkordmigration um einen Ton nach oben, einer Dur-Akkordmigration um zwei Töne nach oben, ..., einer Dur-Akkordmigration um elf Töne nach oben, einer Moll-Akkordmigration um einen Ton nach oben, einer Moll-Akkordmigration um zwei Töne nach oben, ... und einer Moll-Akkordmigration um elf Töne nach oben bestehen. Bei den nachfolgenden zweiten und dritten Akkordvariationen gibt es auch zweiundzwanzig Muster. Das Muster P(i, 0) einer relativen Akkordabfolge ist die erste Akkordvariation, das Muster P(i, 1) ist die zweite Akkordvariation und das Muster P(i, 2) ist das dritte Akkordvariationsmuster, wobei diese Muster vorab in dem (nicht gezeigten) Speicher des Prozessors 6 für eine Frequenz einer relativen Akkordabfolge in Form einer Datentabelle bereitgestellt werden.
  • Für den Fall, dass es eine Übereinstimmung zwischen HP(A), HP(A + 1), HP(A + 2) und P(i, 0), P(i, 1) bzw. P(i, 2) gibt, das heißt, wenn HP(A) = P(i, 0), HP(A + 1) = P(i, 1) und HP(A + 2) = P(i, 2), wird 1 zu dem Zählwert C(i) addiert (Schritt S57). Danach wird beurteilt, ob die Variable i 21296 erreicht hat (Schritt S58). Wenn i < 21296, wird 1 zu i addiert (Schritt S59), und Schritt S56 wird nochmals ausgeführt. Wenn i = 21296, wird 1 zu dem Zählwert A addiert (Schritt S60), und es wird beurteilt, ob der Zählwert A M – 4 erreicht hat (Schritt S61). Wenn es keine Übereinstimmung zwischen HP(A), HP(A + 1), HP(A + 2) und P(i, 0), P(i, 1) bzw. P(i, 2) gibt, wird Schritt S57 übersprungen und wird sofort Schritt S58 ausgeführt.
  • Wenn das Beurteilungsergebnis von Schritt S61 A < M – 4 lautet, kehrt die Verarbeitung zu Schritt S55 zurück, und die obige Übereinstimmungsbeurteilungsoperation wird wiederholt. In Fällen, in denen A = M – 4, wird 1 zu dem Zählwert N addiert (Schritt S62), und es wird beurteilt, ob N die Musikstückmenge Q erreicht hat (Schritt S63). Wenn N < Q, kehrt die Verarbeitung zu Schritt S53 zurück, und die frühere Berechnung der Frequenz einer relativen Akkordabfolge wird an einem weiteren Musikstück durchgeführt. Wenn N = Q, endet die Berechnung der Frequenz einer relativen Akkordabfolge.
  • Als ein Ergebnis der Berechnung der Frequenz einer relativen Akkordabfolge werden die Frequenzen für die Akkordabfolgeteile (P(i, 0), P(i, 1), P(i, 2): i = 0 bis 21295) von 21296 Mustern, die drei Variationen umfassen, die in einer Musikstückgruppe der Musikstückmenge Q enthalten sind, als die Zählwerte C(0) bis C(21295) erhalten.
  • Der Akkordabfolgeeigenschaftsvektor, der durch den Akkordabfolgeeigenschaftsvektor-Erzeugungsteil 7 erzeugt wird, wird durch einen Wert in Abhängigkeit von x(n, i) erzeugt, und alle zu klassifizierenden Musikstücke sind mehrdimensionale Vektoren, die Messungen darstellen und Gruppen charakteristischer Akkordabfolgemuster enthalten, die durch C(i) und P(i, 0), P(i, 1) und P(i, 2) dargestellt sind. n in x(n, i) liegt zwischen 0 und Q – 1 und gibt die Nummer des Musikstücks an.
  • Wie es in 18 gezeigt ist, werden bei der Akkordabfolgeeigenschaftsvektor-Erzeugungsverarbeitung durch den Akkordabfolgeeigenschaftsvektor-Erzeugungsteil 7 die i Werte von W Zählern C(i) zuerst in der Reihenfolge extrahiert, die mit dem größten Wert der Frequenzen beginnt, wobei sie durch die Zählwerte C(0) bis C(21295) angegeben sind (Schritt S71). Das heißt, TB(j) = TB(0) bis TB(W – 1), was den Wert i darstellt, wird erhalten.
  • Die Frequenz, die durch den Zählwert C(TB(0)) angegeben wird, wobei der Wert i durch TB(0) angegeben wird, ist der Maximalwert. Die Frequenz, die durch den Zählwert C(TB(W – 1)) angegeben wird, wobei der Wert i durch TB(W – 1) dargestellt wird, ist ein großer Wert für den W-ten Zählwert. W reicht beispielsweise von 80 bis 100.
  • Nach der Ausführung von Schritt S71 wird der Wert des Akkordabfolgeeigenschaftsvektors x(n, i) entsprechend jedem Musikstück, das klassifiziert werden soll, gelöscht (Schritt S72). Hier ist n = 0 bis Q – 1 und ist i = 0 bis W + 1. Das heißt, x(0, 0) bis x(0, W + 1), ... x(Q – 1, 0) bis x(Q – 1, W + 1) und x'(0, 0) bis x'(0, W + 1), ... x'(Q – 1,0) bis x'(Q – 1, W + 1) sind alle 0. Ferner wird, wie bei den Schritten S52 bis S54 der Berechnung der Frequenz einer relativen Akkordabfolge der Zählwert N zu Beginn auf 0 gesetzt (Schritt S73) und wird der Zählwert A zu Beginn auf 0 gesetzt (Schritt S74). Die Daten HP(k) einer relativen Akkordabfolge des N-ten Musikstücks werden dann berechnet (Schritt S75). k der Daten HP(k) einer relativen Akkordabfolge liegt zwischen 0 und M – 2.
  • Nach der Ausführung von Schritt S75 wird der Zählwert B zu Beginn auf 0 gesetzt (Schritt S76), und es wird beurteilt, ob eine Übereinstimmung zwischen den Daten HP(B), HP(B + 1), HP(B + 2) einer relativen Akkordabfolge und den Mustern P(TB(A), 0), P(TB(A), 1) bzw. P(TB(A), 2) einer relativen Akkordabfolge vorliegt (Schritt S77). Die Schritte S76 und S77 werden gemäß den Schritten S55 und S56 der Berechnung der Frequenz einer relativen Akkordabfolge ausgeführt.
  • Wenn eine Übereinstimmung zwischen HP(B), HP(B + 1), HP(B + 2) und P(TB(A), 0), P(TB(A), 1) bzw. P(TB(A), 2) vorliegt, das heißt, wenn HP(B) = P(TB(A), 0), HP(B + 1) = P(TB(A), 1) und HP(B + 2) = P(TB(A), 2), wird 1 zu dem Vektorwert x(N, A) addiert (Schritt S78). Danach wird 1 zu dem Zählwert B addiert (Schritt S79), und es wird beurteilt, ob der Zählwert B M – 4 erreicht hat (Schritt S80). Wenn keine Übereinstimmung zwischen HP(B), HP(B + 1), HP(B + 2) und P(TB(A), 0), P(TB(A), 1) bzw. P(TB(A), 2) vorliegt, wird Schritt S78 übersprungen und wird sofort Schritt S79 ausgeführt.
  • In Fällen, in denen das Beurteilungsergebnis von Schritt S80 B < M – 4 ist, kehrt die Verarbeitung zu Schritt S77 zurück, und wird die Übereinstimmungsbeurteilungsoperation wiederholt. Wenn B = M – 4, wird 1 zu dem Zählwert A addiert (Schritt S81), und es wird beurteilt, ob A einen vorbestimmten Wert W erreicht hat (Schritt S82). Wenn A < W, kehrt die Verarbeitung zu Schritt S76 zurück, und die Übereinstimmungsbeurteilungsoperation von Schritt S77 wird an den Mustern einer relativen Akkordabfolge mit der nächst größeren Frequenz durchgeführt. Wenn A = W, wird die Histogrammabweichung σ des N-ten Musikstücks als der Vektorwert x(N, W) zugeordnet (Schritt S83), und die Akkordvariationsrate R des N-ten Musikstücks wird als der Vektorwert x(N, W + 1) zugeordnet (Schritt S84).
  • Der Ausführung von Schritt S84 folgend werden die Akkordabfolgeeigenschaftsvektoren x(N, 0) bis x(N, W + 1) durch Verwenden des Frequenzanpassungsgewichtungskoeffizienten G(i) = G(0) bis G(W – 1) gewichtet, und werden die korrigierten Akkordabfolgeeigenschaftsvektoren x'(N, 0) bis x'(N, W + 1) erzeugt (Schritt S85). Allgemein enthält Musik, die dem Fluss von Westernmusik folgt, einen größeren Umfang an Bewegung (hierin nachfolgend als "Fundamentalakkordabfolge" bezeichnet), in der Toniken, Dominanten und Subdominanten kombiniert sind, als die Akkordabfolge zum Identifizieren der Musikmelodie, die der Fokus der vorliegenden Erfindung ist. Es wird eine Frequenzanpassung durchgeführt, um eine Dominanz der Frequenz dieser Fundamentalakkordabfolge zu verhindern. Der Frequenzanpassungsgewichtungskoeffizient G(i) ist G(i) = (0,5/m)i + 0,5 und ist für i = 0 bis m – 1 ein Wert, der kleiner als 1 ist, wie in 19 gezeigt, und ist 1 für i = m bis W – 1. Das heißt, die Frequenz wird durch Ausführen von Schritt S85 in Bezug auf die oberen m – 1 Muster mit einer extrem hohen Frequenz angepasst. Die Anzahl von Mustern m, die als Fundamentalakkordabfolgen betrachtet werden, liegt geeigneterweise in der Größenordnung von 10 bis 20.
  • Zu dem Zählwert N wird 1 addiert (Schritt S86), und es wird beurteilt, ob N das Musikstück Q erreicht hat (Schritt S87). Wenn N < Q kehrt die Verarbeitung zu Schritt S72 zurück, und die Akkordabfolgeeigenschaftsvektor-Erzeugungsverarbeitung wird für ein anderes Musikstück durchgeführt. Wenn N = Q endet die Akkordabfolgeeigenschaftsvektor-Erzeugungsverarbeitung.
  • Demgemäß werden, wie in 20 gezeigt, wenn die Akkordabfolgeeigenschaftsvektor-Erzeugungsverarbeitung abgeschlossen ist, die Akkordabfolgeeigenschaftsvektoren x(0, 0) bis x(0, W + 1), x(Q – 1, 0) bis x(Q – 1, W + 1) und x'(0, 0) bis x'(0, W + 1), ... x'(Q – 1, 0) bis x'(Q – 1, W + 1) erzeugt. Ferner sind die Vektoren x(N, W) bzw. x(N, W + 1) und x'(N, W) bzw. x'(N, W + 1) die gleichen.
  • Als Nächstes verwenden die Musikklassifizierungsverarbeitung und die Klassifizierungsergebnis-Anzeigeverarbeitung, die durch den Musikstück-Cluster-Erzeugungsteil 8 durchgeführt werden, durch die Akkordabfolgeeigenschaftsvektor-Erzeugungsverarbeitung erzeugte Akkordabfolgeeigenschaftsvektorgruppen, um ein Cluster von Vektoren mit kurzer Distanz zwischen ihnen zu bilden. Wenn die Anzahl von Klassifizierungsendergebnissen nicht vorab festgelegt wird, kann jedes Cluster-Bildungsverfahren verwendet werden. Beispielsweise kann Self-Organized Mapping oder ähnliches verwendet werden. Self-Organized Mapping wandelt eine Gruppe von mehrdimensionalen Daten in ein eindimensionales Cluster niedriger Ordnung mit ähnlichen Eigenschaften um. Ferner ist Self-Organized Mapping als ein Verfahren zum effizienten Detektieren der endgültigen Anzahl von Klassifizierungs-Clustern wirksam, wenn das Cluster-Klassifizierungsverfahren, das in Terashima et al. "Teacherless clustering classification using data density histogram an self-organized characteristic map, IEEE Communications Magazine, D-II, Band J79-D-11, Nr. 7, 1996" gezeigt ist, eingesetzt wird. Bei diesem Beispiel wird eine Cluster-Bildung durch Verwenden der selbstorganisierten Karte (Self-Organized Map) durchgeführt.
  • Wie es in 21 gezeigt ist, wird bei der Musikklassifizierungsverarbeitung und der Klassifizierungsergebnis-Anzeigeverarbeitung zu Beginn ein Zählwert A auf 0 gesetzt (Schritt S91) und werden Klassifizierungs-Cluster detektiert, indem Self-Organized Mapping bei den Akkordabfolgeeigenschaftsvektorgruppen x'(n, i) = x'(0, 0) bis x'(0, W + 1), ... x'(Q – 1, 0) bis x'(Q – 1, W + 1) der Q betreffenden Musikstücke verwendet wird (Schritt S92). Bei Self-Organized Mapping werden K Neuronen m(i, j, t) mit der gleichen Anzahl von Dimensionen wie die Eingangsdaten x'(n, i) mit Zufallswerten initialisiert, und wird ein Neuron m(i, j, t), für das die Distanz der Eingabedaten x'(n, i) die kleinste ist, unter den K Neuronen gefunden, und kann die Wichtigkeit der Neuronen in der Nähe von m(i, j, t) (innerhalb eines vorbestimmten Radius hiervon) geändert werden. Das heißt, die Neuronen m(i, j, t) werden mittels Gleichung (9) erzeugt. m(i, j, t + 1) = m(i, j, t) + hc(t)[x'(n, i) – m(i, j, t)] (9)
  • In Gleichung (9) gilt t = 0 bis T, n = 0 bis Q – 1, i = 0 bis K – 1 und j = 0 bis W + 1. hc(t) ist ein Zeitdämpfungskoeffizient, sodass sich die Größe der Nähe und der Änderungsgrad über der Zeit verringern. T ist die Anzahl von Lernzeitpunkten, Q ist die Gesamtanzahl von Musikstücken und K ist die Gesamtanzahl von Neuronen.
  • Nach der Ausführung von Schritt S92 wird 1 zu dem Zählwert A addiert (Schritt S93), und es wird beurteilt, ob der Zählwert A, das heißt, die Anzahl von Lernzeitpunkten A, eine vorbestimmte Anzahl von Lernzeitpunkten G erreicht hat (Schritt S94). Wenn A < G, werden in Schritt S92 unter den K Neuronen die Neuronen m(i, j, t) gefunden, für die die Distanz der Eingangsdaten x'(n, i) am kleinsten ist, und die Operation zum Ändern der Wichtigkeit der Neuronen in der Nähe von m(i, j, t) wird wiederholt. Wenn A = G, ist die Anzahl von Klassifizierungen, die als ein Ergebnis der Berechnungsoperation von Schritt S92 erhalten wird, U (Schritt S95).
  • Als Nächstes wird X(n, i), das der Musikstück-Identifikationsinformation ID(i) entspricht, die zu den somit erhaltenen U Clustern gehört, in der Reihenfolge der Nähe zu dem Neuron m(i, j, T), das die Kerneigenschaft in dem Cluster darstellt, ausgetauscht, und als eine neue Musikstück-Identifikationsinformation FID(i) gespeichert (Schritt S96). Die Musikstück-Identifikationsinformation FID(i), die zu U Clustern gehört, wird dann in der Klassifizierungs-Cluster-Speichereinrichtung 9 gespeichert (Schritt S97). Außerdem werden jeweilige Cluster-Positionsbeziehungen und ein Auswahlbildschirm, der der Anzahl von Musikstücken entspricht, die zu den Clustern gehören, und die Auswahlbildschirmdaten an die Musik-Cluster-Einheit-Anzeigeeinrichtung 10 ausgegeben (Schritt S98).
  • 22 zeigt ein Beispiel einer Cluster-Anzeige, in der Klassifizierungsergebnisse eines Self-Organized Mapping durch die Musik-Cluster-Einheit-Anzeigeeinrichtung 10 angezeigt werden. In 22 werden die Cluster A bis I durch einen Rahmen angezeigt, wobei die Höhe jedes Rahmens das Volumen von zu jedem Cluster gehörenden Musikstücken darstellt. Die Höhe jedes Rahmens hat keine absolute Bedeutung, solange die Differenz der Anzahl von Musikstücken, die zu jedem Cluster gehören, relativ iden tifiziert werden kann. Bezüglich der Positionsbeziehungen jedes Clusters drücken benachbarte Cluster Gruppen von Musikstücken mit ähnlichen Melodien aus.
  • 23 zeigt eine tatsächliche Schnittstellenabbildung einer Cluster-Anzeige. Ferner ist, obwohl 23 das Self-Organized Mapping dieser beispielhaften Ausführungsform eindimensional zeigt, ein zweidimensionales Self-Organized Mapping weithin bekannt.
  • In Fällen, in denen die Klassifizierungsverarbeitung der vorliegenden Erfindung mittels zweidimensionalem Self-Organized Mapping realisiert ist, ist die Verwendung einer Schnittstellenabbildung wie in 24 gezeigt machbar. Jede Galaxie in 23 stellt ein Cluster dar, und jeder Planet in 24 stellt ein Cluster dar. Der Teil mit Rahmen ist das ausgewählte Cluster. Ferner sind auf der rechten Seite der Anzeigeabbildung in 23 und 24 eine in dem ausgewählten Cluster enthaltene Musikstückliste und ein Wiedergabe-/Beendigungsmittel mit Operationsknöpfen angezeigt.
  • Als ein Ergebnis der jeweiligen obigen Verarbeitung ist die automatische Klassifizierungsverarbeitung unter Verwendung von Akkordabfolgeeigenschaftsvektoren für alle zu klassifizierenden Musikstücke abgeschlossen und ist die Anzeige, die ermöglicht, dass optionale Cluster ausgewählt werden, abgeschlossen.
  • Eine Auswahl- und Wiedergabeverarbeitung für die klassifizierten Musik-Cluster wird durch die Musik-Cluster-Einheit-Anzeigeeinrichtung 10 und die Musik-Cluster-Auswahleinrichtung 11 durchgeführt.
  • Wie es in 25 gezeigt ist, wird in der Musik-Cluster-Auswahl- und Wiedergabeverarbeitung beurteilt, ob die Auswahl eines Clusters aus den klassifizierten Musik-Clustern (beispielsweise den in 22 gezeigten Clustern A bis I) durchgeführt wurde (Schritt S101). Wenn die Auswahl eines Clusters bestätigt wurde, wird beurteilt, ob momentan eine Musikstückklangwiedergabe stattfindet (Schritt S102). Wenn bestätigt wurde, dass eine Musikstückklangwiedergabe stattfindet, wird die Wiedergabe gestoppt (Schritt S103).
  • In Fällen, in denen keine Musikstückklangwiedergabe stattfindet, oder wenn eine Wiedergabe in Schritt S103 gestoppt wird, wird eine Musikstück-Identifikationsinformation, die zu dem ausgewählten Cluster gehört, aus der Klassifizierungs-Cluster-Speichereinrichtung 8 extrahiert, und die extrahierte Information wird dann in FID(i) = FID(0) bis FID(FQ – 1) gespeichert (Schritt S104). FQ ist die Musikstück-Identifikationsinformation, die zu dem obigen Cluster gehört, das heißt, die Musikstückmenge. Die Musikstück-Identifikationsinformation wird an die Musikstücklisten-Anzeigeeinrichtung 14 in einer Reihenfolge ausgegeben, die mit dem Start von FID(i) beginnt (Schritt S105). Die Musikstücklisten-Anzeigeeinrichtung 14 zeigt die Namen jedes der Musikstücke, die in den Musikstück-Identifikationsinformationen enthaltenen sind, entsprechend dem ausgewählten Cluster an, sodass diese Namen durch eine Schnittstellenabbildung, wie beispielsweise die in 26 gezeigte, bekannt sind.
  • Das Musikstück, das FID(0) zu Beginn von FID(i) entspricht, wird durch den Modellstück-Extraktionsteil 12 automatisch ausgewählt, und die Musikstückklangdaten, die FID(0) entsprechen, werden dann aus der Musikstück-Speichereinrichtung 5 ausgelesen und an die Musikwiedergabeeinrichtung 16 geliefert. Der Musikstückklang wird gemäß den durch die Musikwiedergabeeinrichtung 16 gelieferten Musikstückklangdaten wiedergegeben (Schritt S106).
  • Ferner werden anstatt der Wiedergabe des Musikstückklangs, der FID(0) entspricht, mehrere Musikstücke gemäß FID(i) an der Musikstücklisten-Anzeigeeinrichtung 14 angezeigt. In einem Fall, in dem ein Musikstück über die Musikstücklisten-Auswahleinrichtung 15 aus den mehreren Musikstücken ausgewählt wird, werden die Musikstückklangdaten, die diesem Musikstück entsprechen, aus der Musikstück-Speichereinrichtung 5 ausgelesen und dann an die Musikwiedergabeeinrichtung 16 geliefert. Die Musikwiedergabeeinrichtung 16 kann dann den Musikstückklang des einen Musikstücks wiedergeben und ausgeben.
  • 27 zeigt eine automatische Musikstückklassifizierungseinrichtung einer anderen beispielhaften Ausführungsform der vorliegenden Erfindung. Die automatische Musikstückklassifizierungseinrichtung in 27 umfasst zusätzlich zu den Einrichtungen (Teilen) 1 bis 16, die in der automatischen Musikstückklassifizierungseinrichtung in 1 gezeigt sind, eine herkömmliche Musikstück-Auswahleinrichtung 17, eine Hörverlauf-Speichereinrichtung 18, einen Zielmusikstückauswahlteil 19 und eine Reklassifizierungsmusik-Cluster-Einheit-Auswahleinrichtung 20.
  • Die automatische Musikstückklassifizierungseinrichtung in 27 entspricht einem Fall, in dem nicht nur alle Musikstücke klassifiziert sind, die als Musikstückklangdaten in der Musikstück-Speichereinrichtung 5 gespeichert wurden, sondern auch eine Klassifizierung jener Musikstücke durchgeführt wird, die durch vorbestimmte Bedingungen beschränkt wurden.
  • Die herkömmliche Musikstück-Auswahleinrichtung 17 ist eine typische Einrichtung des Standes der Technik zum Auswählen von in der Musikstück-Speichereinrichtung 5 gespeicherten Musikstücken, wobei die Musikstück-Identifikationsinformation verwendet wird, die es ermöglicht, ein Musikstück, wie beispielsweise den Titel, den Namen des Sängers und das Genre, zu spezifizieren. Das somit ausgewählte Musikstück wird dann durch die Musikwiedergabeeinrichtung 16 wiedergegeben.
  • Die Hörverlauf-Speichereinrichtung 18 ist eine Einrichtung zum Speichern einer Musikstück-Identifikationsinformation für ein Musikstück, das ein oder mehrere Male durch die Musikwiedergabeeinrichtung 16 wiedergegeben wurde.
  • Das Reklassifizierungsmusik-Cluster-Auswahlmittel 20 ist eine Einrichtung zum Auswählen des gewünschten Klassifizierungsergebnisses durch Verwenden der durch die Musik-Cluster-Einheit-Anzeigeeinrichtung 10 angezeigten Musikklassifizierungsergebnisse.
  • Der Zielmusikstückauswahlteil 19 ist eine Einrichtung, die dem Prozessor 6 für eine Frequenz einer relativen Akkordabfolge und dem Akkordabfolgeeigenschaftsvektor-Erzeugungsteil 7 alle Musikstück-Identifikationsinformationen, die in der Musikstück-Speichereinrichtung 5 gespeichert sind, oder die Akkordabfolgevariations-Eigenschaftsumfänge liefert, die der Musikstück-Identifikationsinformation entsprechen, die für das Klassifizierungszielmusikstück durch die herkömmliche Musikstück-Auswahleinrichtung 17 und das Reklassifizierungsmusik-Cluster-Einheit-Auswahlmittel 20 ausgewählt wurde.
  • Zuerst werden in Fällen, in denen nur mehrere mit relativen Vorlieben in Übereinstimmung gebrachte Musikstücke, die der Benutzer bis zu diesem Zeitpunkt angehört hat, gemäß der Melodie klassifiziert werden, Musikstückidentifikationen aus der Hörverlauf-Speichereinrichtung 18 ausgelesen, wird die Gesamtanzahl der Musikstücke in dem Verlauf als die Musikstückmenge Q zugeordnet, und werden die Musikstück-Identifikations informationen, die der Gesamtanzahl von Stücken in dem Verlauf entsprechen, als ID(i) = ID(0) bis ID(Q – 1) zugeordnet (Schritt S111), woraufhin die oben erwähnte Berechnung der Frequenz einer relativen Akkordabfolge, die Akkordabfolgeeigenschaftsvektor-Erzeugungsverarbeitung, die Musikklassifizierungsverarbeitung und Klassifizierungsergebnis-Anzeigeverarbeitung und die Musik-Cluster-Auswahl- und Wiedergabeverarbeitung in dieser Reihenfolge ausgeführt werden (Schritt S112), wie es in 28 gezeigt ist.
  • Als Nächstes werden in Fällen, in denen mehrere in der Musikstück-Speichereinrichtung 5 gespeicherte Musikstücke gemäß der Melodie klassifiziert werden, indem mehrere mit relativen Vorlieben in Übereinstimmung gebrachte Musikstücke verwendet werden, die der Benutzer bis zu diesem Zeitpunkt angehört hat, wie in Schritt S111, die Musikstück-Identifikationsinformationen aus der Hörverlauf-Speichereinrichtung 18 ausgelesen, wird die Gesamtanzahl von Stücken in dem Verlauf als die Musikstückmenge Q zugeordnet, werden die Musikstück-Identifikationsinformationen, die der Gesamtanzahl von Stücken in dem Verlauf entsprechen, als ID(i) = ID(0) bis ID(Q – 1) (Schritt S121) zugeordnet, und wird die Berechnung der Frequenz einer relativen Akkordabfolge gemäß den Ergebnissen der Ausführung von Schritt S121 ausgeführt (Schritt S122), wie es in 29 gezeigt ist. Danach werden die Musikstück-Identifikationsinformationen aus der Akkordeigenschaftsumfangs-Speichereinrichtung 4 ausgelesen, wird die Gesamtanzahl von gespeicherten Musikstücken als die Musikstückmenge Q zugeordnet und werden die Musikstück-Identifikationsinformationen, die der Gesamtanzahl von Stücken entsprechen, als ID(i) = ID(0) bis ID(Q – 1) zugeordnet (Schritt S123). Die Akkordabfolgeeigenschaftsvektor-Erzeugungsverarbeitung, die Musikklassifizierungsverarbeitung und Klassifizierungsergebnis-Anzeigeverarbeitung und die Musik-Cluster-Auswahl- und Wiedergabeverarbeitung werden in dieser Reihenfolge ausgeführt (Schritt S124).
  • Ferner wird, wenn eine spezifizierte Gruppe von Musikstücken oder eine spezifizierte Gruppe von Musikstücken, die zu einem bezeichneten Cluster gehören, und die auf der Grundlage des Namens des Sängers, des Genres oder dergleichen ausgewählt wird, verwendet wird, und nur diese Gruppe von Musikstücken auf der Grundlage der Melodie klassifiziert wird, die Gesamtanzahl von optionalen Musikstücken aus der herkömmlichen Musikstück-Auswahleinrichtung 17 oder der Reklassifizierungsmusik-Cluster-Auswahleinrichtung 20 als Q der Berechnung der Frequenz einer relativen Akkordabfolge zugeordnet, und wird die Musikstück-Identifikationsinformationsgruppe als ID(i) zugeordnet (Schritt S131). Danach werden die Berechnung der Frequenz einer relativen Akkordabfolge, die Akkordabfolgeeigenschaftsvektor-Erzeugungsverarbeitung, die Musikklassifizierungsverarbeitung und Klassifizierungsergebnis-Anzeigeverarbeitung und die Musik-Cluster-Auswahl- und Wiedergabeverarbeitung in dieser Reihenfolge ausgeführt (Schritt S132), wie es in 30 gezeigt ist.
  • Zusätzlich wird, wenn alle Musikstückgruppen der Musikstück-Speichereinrichtung 5 auf der Grundlage der Melodie klassifiziert sind, indem eine spezifizierte Mehrzahl von Musikstücken, die auf der Grundlage des Namens des Sängers, des Genres und so weiter ausgewählt werden, oder eine spezifizierte Gruppe von Musikstücken verwendet wird, die zu einem bezeichneten Cluster gehört, die Gesamtanzahl von optionalen Musikstücken von der herkömmlichen Musikstück-Auswahleinrichtung 17 oder der Reklassifizierungsmusik-Cluster-Auswahleinrichtung 20 als Q der Berechnung der Frequenz einer relativen Akkordabfolge zugeordnet, und wird eine Musikstück-Identifikationsinformationsgruppe als ID(i) zugeordnet (Schritt S141), bevor die Berechnung der Frequenz einer relativen Ak kordabfolge durchgeführt wird (Schritt S142), wie es in 31 gezeigt ist. Danach wird die Gesamtanzahl von Elementen von Musikstück-Identifikationsinformationen, die in der Akkordinformationsumfangs-Speichereinrichtung 4 gespeichert ist, in der Akkordabfolgeeigenschaftsvektor-Erzeugungsverarbeitung als Q zugeordnet, und wird die Musikstück-Identifikationsinformationsgruppe als ID(i) zugeordnet (Schritt S143). Danach werden die Akkordabfolgeeigenschaftsvektor-Erzeugungsverarbeitung, die Musikklassifizierungsverarbeitung und Klassifizierungsergebnis-Anzeigeverarbeitung und die Musik-Cluster-Auswahl- und Wiedergabeverarbeitung in dieser Reihenfolge ausgeführt (Schritt S144).
  • Die vorliegende Erfindung umfasst ein Akkordabfolgedatenspeichermittel zum Speichern von Akkordabfolgemusterdaten, die eine Akkordabfolgesequenz mehrerer Musikstücke darstellen, ein Eigenschaftsumfangsextraktionsmittel zum Extrahieren eines Akkordabfolgevariations-Eigenschaftsumfangs für jedes mehrerer Musikstücke gemäß den Akkordabfolgemusterdaten und ein Cluster-Erzeugungsmittel zum Gruppieren mehrerer Musikstücke gemäß der durch die Akkordabfolgemusterdaten jedes der mehreren Musikstücke dargestellten Akkordabfolgesequenz und gemäß Akkordabfolgevariations-Eigenschaftsumfängen. Daher können als eine Leitlinie für eine Musikstückklassifizierung Änderungen der Melodie, das heißt, einer Akkordabfolge, was ein wichtiger Eigenschaftsumfang ist, der die sogenannte Tonalität der Musik ausdrückt, verwendet werden, um eine automatische Klassifizierung der Musikstücke zu realisieren. Daher können die folgenden Ergebnisse realisiert werden.
    • (1) Musikstücke mit ähnlichen Melodien können leicht ohne das Einbeziehen von bibliographischen Informationen, wie beispielsweise des Liedtitels oder des Genres, und ohne Beschränken des Hörerbilds der Musik mittels einer statistisch definierten Sprache, wie beispielsweise "Erhebend", aus gewählt werden, wodurch es möglich ist, Musik zu hören, die direkt dem Empfindungsvermögen entspricht.
    • (2) Cluster, die an benachbarten Positionen angezeigt werden, bestehen, während sie zu verschiedenen Clustern von Musikstücken gehören, aus Melodien, die ähnlicher als jene anderer Cluster sind. Daher können, auch wenn das Hörerbild der Musik sich auf gewisse Weise als ein Ergebnis solch einer Auswahl unterscheidet, Musikstücke mit ähnlichen Melodien leicht ausgewählt werden.
    • (3) Daher beruft man sich ungeachtet der Existenz einer Melodie und eines Tempounterschieds und anstatt aller Eigenschaften, wie beispielsweise die Tonalität und das Register, das Arrangement oder dergleichen, auf die signifikanten Eigenschaften der Musik, wie beispielsweise eine Bewegung in der Melodie, wodurch Musikstücke einer großen Anzahl von Typen klassifiziert und ausgewählt werden können.
    • (4) Musikstücke können gemäß dem eindeutigen Stil eines Komponisten, einer genrespezifischen Melodie und Melodien klassifiziert werden, die in der Periode vorherrschen. Diese Tatsache kann ausgeglichen werden mit der Extraktion von Vorlieben und Themen, wenn die Musik nicht unter Verwendung von Sprache ausgedrückt werden kann, und macht es möglich, neue Wege zum Genießen der Musik zu schaffen.
    • (5) Die vorliegende Erfindung kann auch auf Musik angewandt werden, die durch spezifizierte Bedingungen beschränkt ist, und kompliziertere Melodien können für Musikstückgruppen, die auf der Grundlage eines Namens des Sängers, des Genres oder dergleichen ausgewählt werden, und für Musikstückgruppen klassifiziert werden, die für die relativen Vorlieben eines gewohnheitsmäßigen Hörens geeignet sind. Daher kann, so bald Musikstückgruppen, die ursprünglich nicht von Interesse waren, vorab von den Klassifizierungszielen ausgeschlossen worden sind, ein Verfahren zum Genießen der Musik bereitgestellt werden, das individuellen Vorlieben nachkommt.
  • Figurenlegende
  • Fig. 1
    1 Musikinformations-Eingabeeinrichtung
    10 Musik-Cluster-Einheit-Anzeigeeinrichtung
    11 Musik-Cluster-Einheit-Auswahleinrichtung
    14 Musikstücklisten-Anzeigeeinrichtung
    15 Musikstücklisten-Auswahleinrichtung
    16 Musikwiedergabeeinrichtung
    2 Akkordabfolgemuster-Extraktionsteil
    3 Akkordhistogrammabweichungs- und Akkordvariationsratenprozessor
    9 Klassifizierungs-Cluster-Speichereinrichtung
    13 Musikstücklisten-Extraktionseinheit
    4 Akkordeigenschaftsumfangs-Speichereinrichtung
    6 Prozessor für eine Frequenz einer relativen Akkordabfolge
    7 Akkordabfolgeeigenschaftsvektor-Erzeugungsteil
    8 Akkord-Cluster-Erzeugungsteil
    12 Modellstück-Extraktionsteil
    5 Musikstück-Speichereinrichtung
  • 2
    • Yes = Ja
    • No = Nein
    Akkordeigenschaftsumfangs-Extraktionsverarbeitung
    S1 Starte Eingabe von N-ten Musikstückklangdaten und Musikstück-Identifikationsinformation
    S2 Liefere Musikstückklangdaten an Akkordabfolgemuster-Extraktionseinheit und speichere Musikstückdaten und Musikstück-Identifikationsinformation in Musikstück-Speichereinrichtung
    S3 Musikstückdateneingabe beendet?
    S4 Erhalte Ergebnisse von Akkordabfolgemusterextraktion
    S5 Berechne Akkordhistogrammwerte
    S6 Berechne Akkordhistogrammabweichung
    S7 Berechne Akkordvariationsrate
    S8 Speichere Musikstück-Identifikationsinformation, Akkordabfolgemusterdaten, Histogrammabweichung und Akkordvariationsrate in der Akkordeigenschaftsumfangs-Speichereinrichtung
    S11 Füge ID(1) bis ID(Q – 1) zu Musikstück-Identifikationsinformation hinzu
    End Ende
  • 3
    • B = H
    • . = ,
  • 4
    • Yes = Ja
    • No = Nein
    Hauptverarbeitung von Akkordanalyseoperation
    S21 Erhalte Frequenzinformation f durch Durchführen von Frequenzumwandlung
    S22 Führe Migrationsglättung f(T) = (f(T) + f(T – 1)/2,0 + f(T – 2)/3,0)/3,0 durch
    S23 Extrahiere Frequenzkomponente f1(T) aus zwölf Tönen von gleichstufig temperierter Tonleiter, wobei der Ton A (110,0 + 2·N) Hz beträgt
    S24 Extrahiere Frequenzkomponente f2(T) aus zwölf Tönen von gleichstufig temperierter Tonleiter, wobei der Ton A 2(110,0 + 2·N) Hz beträgt
    S25 Extrahiere Frequenzkomponente f3(T) aus zwölf Tönen von gleichstufig temperierter Tonleiter, wobei der Ton A 4(110,0 + 2·N) Hz beträgt
    S26 Extrahiere Frequenzkomponente f4(T) aus zwölf Tönen von gleichstufig temperierter Tonleiter, wobei der Ton A 8(110,0 + 2·N) Hz beträgt
    S27 Extrahiere Frequenzkomponente f5(T) aus zwölf Tönen von gleichstufig temperierter Tonleiter, wobei der Ton A 16(110,0 + 2·N) Hz beträgt
    S28 Berechne Zonendaten entsprechend Oktave
    S29 Wähle sechs Töne mit einem großen Helligkeitsniveau aus den Klangkomponenten in F'(T) der Zonendaten aus
    S30 Finde ersten Akkordkandidaten M1 und zweiten Akkordkandidaten M2 in der Reihenfolge, die mit dem Akkordkandidaten beginnt, für den der Gesamtbetrag der Intensitätsniveaus für die drei Töne am größten ist
    S31 Anzahl von Akkordkandidaten?
    S32 Anzahl von Akkordkandidaten > 1?
    S33 Verwende hier auch die ersten und zweiten Akkordkandidaten M1 bzw. M2, die bei T – 1 gesetzt wurden
    S34 Mache den zweiten Akkordkandidaten M2 dem ersten Akkordkandidaten M1 gleich
    S35 Speichere die Zeit und die ersten und zweiten Akkordkandidaten in den temporären Speicher
    S36 Ist Musikstück abgeschlossen?
    End Ende
  • 5
    • Candidate = -Kandidat
    • B = H
  • 6
    • Zeit (4 Bytes) erste Akkordkandidaten (1 Byte) zweite Akkordkandidaten (1 Byte)
    • Zeit (4 Bytes) erste Akkordkandidaten (1 Byte) zweite Akkordkandidaten (1 Byte)
    • .
    • .
    • .
    • Zeit (4 Bytes) erste Akkordkandidaten (1 Byte) zweite Akkordkandidaten (1 Byte)
  • 7A
    • Fundamental Tone = Fundamentalton
    • B = H
  • 7B
    • Attribute = Attribut
    • Major = Dur
    • Minor = Moll
    • Seven Candidate = Septime-Kandidat
    • Dim7 Candidate = Dim7-Kandidat
  • 7C
    • Attribut (untere $ Bits) + Fundamentalton (untere 4 Bits)
    Fig. 8
    Verarbeitung nach Akkordanalyseoperation
    S41 Lies erste Akkordkandidaten M1(0) bis M1(R) und zweite Akkordkandidaten M2(0) bis M2(R) aus temporärem Speicher
    S42 Führe Glättung an ersten und zweiten Akkordkandidaten M1(0) bis M1(R) und zweiten Akkordkandidaten M2(0) bis M2(R) durch
    S43 Führe Austausch an ersten Akkordkandidaten M1(0) bis M1(R) und zweiten Akkordkandidaten M2(0) bis M2(R) durch
    S44 Detektiere Akkord M1(1) zum Zeitpunkt t, für den sich der Akkord geändert hat, in den ersten Akkordkandidaten M1(0) bis M1(R) und Akkord M2(1) zum Zeitpunkt t, für den sich der Akkord geändert hat, in den zweiten Akkordkandidaten M(0) bis M2(R)
    S45 Speichere Zeitpunkt t und in allen der ersten und zweiten Akkordkandidaten detektierte Akkorde in der Datenspeichereinrichtung
    End Ende
  • 9
    • Chord = Akkord
    • First Chord Candidate = Erster Akkordkandidat
    • Second Chord Candidate = Zweiter Akkordkandidat
    • Time = Zeit
  • 10
    • Chord = Akkord
    • First Chord Candidate = Erster Akkordkandidat
    • Second Chord Candidate = Zweiter Akkordkandidat
    • Time = Zeit
  • 11
    • Chord = Akkord
    • First Chord Candidate = Erster Akkordkandidat
    • Second Chord Candidate = Zweiter Akkordkandidat
    • Time = Zeit
  • 12A
    • Chord = Akkord
    • First Chord Candidate = Erster Akkordkandidat
    • Second Chord Candidate = Zweiter Akkordkandidat
    • Time = Zeit
  • 12B
    • Variation Transition of First Chord Candidates = Variationsübergang von ersten Akkordkandidaten
    • Time = Zeitpunkt
    • Bb = B
  • 12C
    • Variation Transition of Second Chord Candidates = Variationsübergang von zweiten Akkordkandidaten
    • Time = Zeitpunkt
    • Bb = B
  • 12D
    • Chord Progression Pattern Data = Akkordabfolgemusterdaten
    • Transition Time = Übergangszeit
    • Bb = B
  • 13A
    • Histogram Values = Histogrammwerte
    • Major = Dur
    • Minor = Moll
    • Diminished = Vermindert
  • 13B
    • Histogram Values = Histogrammwerte
    • Major = Dur
    • Minor = Moll
    • Diminished = Vermindert
  • 14
    • Musikidentifikationsinformation (andere als Dateiname)
    • [Akkordvariation M] [Übergangszeit T(0)] [Akkord0 × 08], [Übergangszeit T(1)]
    • [Akkord0 × 0A] [T(2)] [0 × 05] [T(3)] [0 × 01] [T(4)] [0 × 28] ...
  • 15
    • Yes = Ja
    • No = Nein
    Berechnung der Frequenz einer relativen Akkordabfolge
    S51 Setze Frequenzzählwert C(0) bis C(21295) auf 0
    S54 Berechne Daten HP(k) einer relativen Akkordabfolge von N-tem Musikstück = HP(0) bis HP(M – 2)
    S56 Stimmen HP(A), HP(A + 1), HP(A + 2) mit P(i, 0), P(i, 1), P(i, 2) überein?
    S58 Ist i = 21295?
    S61 Ist A = M – 4?
    S63 Ist N = Q?
    End Ende
  • 16
    • Chord Data = Akkorddaten
    • Time = Zeit
    • Bb = B
  • 17
    • Number of Chord Variation = Nummer von Akkordvariation
    • First = Erste
    • Second = Zweite
    • Third = Dritte
    • Patterns = Muster
  • Figure 00520001
  • 18
    • Yes = Ja
    • No = Nein
    Akkordabfolgeeigenschaftsvektorberechnung
    S71 Erhalte TB(0) bis TB(W – 1) durch Extrahieren von i von W Zählwerten C(i) in der Reihenfolge, die mit der größten der Frequenzen beginnt, wobei sie durch die Zählwerte C(0) bis C(21295) angegeben sind
    S72 Setze Akkordabfolgeeigenschaftsvektor x(n, i) auf 0, n ist 0 bis Q – 1 und i ist 0 bis W + 1
    S75 Berechne Daten einer relativen Akkordabfolge HP(k) = HP(0) bis HP(M – 2) von N-tem Musikstück
    S77 Stimmen HP(B), HP(B + 1), HP(B + 2) mit P(TB(A), 0), P(TB(A + 1), 1) und P(TB(A + 2), 2) überein
    S80 Ist B = M – 4?
    S82 Ist A = W?
    S83 Ordne Histogrammabweichung σ von N-tem Musikstück x(N, W) zu
    S84 Ordne Akkordvariationsrate von N-tem Musikstück x(n, W + 1) zu
    S85 Erzeuge x'(N, 0) bis x'(N, W + 1) durch Gewichten von x(N, 0) bis x(N, W + 1) durch Verwenden des Frequenzanpassungsgewichtungskoeffizienten G(i) = G(0) bis G(W – 1)
    S87 Ist N = Q?
    End Ende
  • 19
    • . = ,
  • 20
    • Chord progression characteristic vector = Akkordabfolgeeigenschaftsvektor
    • Frequency Adjustment = Frequenzanpassung
    • Corrected chord progression characteristic vector = Korrigierter Akkordabfolgeeigenschaftsvektor
  • 21
    • Yes = Ja
    • No = Nein
    Musikklassifizierungsverarbeitung und Klassifizierungsergebnis-Anzeigeverarbeitung
    S92 Detektiere Klassifizierungs-Cluster durch Verwenden von Self-Organized Mapping an Akkordabfolgeeigenschaftsvektorgruppe x'(n, i) für Q betreffende Musikstücke
    S94 Ist A = G?
    S95 Setze U gleich der Anzahl von erhaltenen Klassifizierungen
    S96 Tausche das X(n, i), das der Musikstück-Identifikationsinformation ID(i) entspricht, die zu den U Clustern gehört, in der Reihenfolge der Nähe zu dem Neuron (i, j, T) aus, das die Kerneigenschaft des Clusters darstellt, und speichere dies als neue Musikstück-Identifikationsinformation FID(i)
    S97 Speichere Musikstück-Identifikationsinformation FID(i), die zu U Clustern gehört, in der Klassifizierungs-Cluster-Speichereinrichtung
    S98 Erzeuge jeweilige Cluster-Positionsrelationen und Auswahlbildschirm entsprechend Menge von zugehörigen Musikstücken
    End Ende
  • 22
    • Classification Result = Klassifizierungsergebnis
    • Cluster Display = Cluster-Anzeige
    • 1: Musikstück-Identifikationsinformation für ersten Kandidat
    • N: Musikstück-Identifikationsinformation für n-ten Kandidat
    • Play = Wiedergabe
    • Stop = Stopp
  • 23
    • Number of compositions/model composition = Anzahl von Stücken/Modellstück
    • List of musical compositions contained in cluster = Liste von im Cluster enthaltenen Musikstücken
    • Playback/Stop means = Wiedergabe-/Stopp-Mittel
  • 24
    • Number of compositions/model composition = Anzahl von Stücken/Modellstück
    • List of musical compositions contained in cluster = Liste von im Cluster enthaltenen Musikstücken
    • Playback/Stop means = Wiedergabe-/Stopp-Mittel
  • 25
    • Yes = Ja
    • No = Nein
    Musik-Cluster-Auswahl- und Wiedergabeverarbeitung
    S101 Wurde ein Cluster aus den Musik-Clustern ausgewählt?
    S102 Findet Musikstückklangwiedergabe statt?
    S103 Stoppe Wiedergabe
    S104 Erhalte Musikstück-Identifikationsinformation, die zu einem Cluster gehört, aus Klassifizierungs-Cluster-Speichereinrichtung und speichere die somit erhaltene Information als FID(i) = FID(0) bis FID(FQ – 1)
    S105 Gib Musikstück-Identifikationsinformation in der Reihenfolge von dem Beginn von FID(i) an Musikstücklisten-Anzeigeeinrichtung aus
    S106 Gib Musikstückklang gemäß Musikstückklangdaten wieder
    End Ende
  • 26
    • Musical composition title (selection/playback in progress) = Musikstücktitel (Auswahl/Wiedergabe findet statt)
    • Musical composition title = Musikstücktitel
    • List of musical compositions contained in cluster = Liste von im Cluster enthaltenen Musikstücken
    • Playback/Stop means = Wiedergabe-/Stopp-Mittel
    Fig. 27
    1 Musikinformations-Eingabeeinrichtung
    20 Reklassifizierungsmusik-Cluster-Einheit-Auswahleinrichtung
    17 Herkömmliche Musikstück-Auswahleinrichtung
    18 Hörverlauf-Speichereinrichtung
    10 Musik-Cluster-Einheit-Anzeigeeinrichtung
    11 Musik-Cluster-Einheit-Auswahleinrichtung
    14 Musikstücklisten-Anzeigeeinrichtung
    15 Musikstücklisten-Auswahleinrichtung
    16 Musikwiedergabeeinrichtung
    2 Akkordabfolgemuster-Extraktionsteil
    3 Akkordhistogrammabweichungs- und Akkordvariationsratenprozessor
    9 Klassifizierungs-Cluster-Speichereinrichtung
    13 Musikstücklisten-Extraktionseinheit
    4 Akkordeigenschaftsumfangs-Speichereinrichtung
    6 Prozessor für Frequenz einer relativen Akkordabfolge
    7 Akkordabfolgeeigenschaftsvektor-Erzeugungsteil
    8 Akkord-Cluster-Erzeugungsteil
    12 Modellstück-Extraktionsteil
    5 Musikstück-Speichereinrichtung
    Fig. 28
    Start Start
    S111 Lies Musikstück-Identifikationsinformation aus Hörverlauf-Speichereinrichtung aus, ordne Gesamtanzahl von Stücken im Verlauf Musikstückmenge Q zu und ordne Musikstück-Identifikationsinformation entsprechend Gesamtanzahl von Liedern im Verlauf ID(0) bis ID(Q – 1) zu
    S112 Führe Berechnung der Frequenz einer relativen Akkordabfolge, Akkordabfolgeeigenschaftsvektor-Erzeugungsverarbeitung, Musikklassifizierungsverarbeitung und Klassifizierungsergebnis-Anzeigeverarbeitung und Musik-Cluster-Auswahl- und Wiedergabeverarbeitung in dieser Reihenfolge durch
    End Ende
    Fig. 29
    Start Start
    S121 Lies Musikstück-Identifikationsinformation aus Hörverlauf-Speichereinrichtung aus, ordne Gesamtanzahl von Stücken im Verlauf Musikstückmenge Q zu und ordne Musikstück-Identifikationsinformation entsprechend Gesamtanzahl von Musikstücken im Verlauf ID(0) bis ID(Q – 1) zu
    S122 Führe Berechnung der Frequenz einer relativen Akkordabfolge durch
    S123 Lies Musikstück-Identifikationsinformation aus Akkordeigenschaftsumfangs-Speichereinrichtung aus, ordne Anzahl von gespeicherten Musikstücken Musikstückmenge Q zu und ordne Musikstück-Identifikationsinformation entsprechend Gesamtanzahl von Musikstücken ID(0) bis ID(Q – 1) zu
    S124 Führe Akkordabfolgeeigenschaftsvektor-Erzeugungsverarbeitung, Musikklassifizierungsverarbeitung und Klassifizierungsergebnis-Anzeigeverarbeitung und Musik-Cluster-Auswahl- und Wiedergabeverarbeitung in dieser Reihenfolge durch
    End Ende
    Fig. 30
    Start Start
    S131 Ordne Gesamtanzahl von optischen Musikstücken von herkömmlicher Musikstück-Auswahleinrichtung und Reklassifizierungsmusik-Cluster-Auswahleinrichtung Q in dem Stück der Frequenz einer relativen Akkordabfolge zu und ordne Musikstück-Identifikationsinformation ID(i) zu
    S132 Führe Berechnung der Frequenz einer relativen Akkordabfolge, Akkordabfolgeeigenschaftsvektor-Erzeugungsverarbeitung, Musikklassifizierungsverarbeitung und Klassifizierungsergebnis-Anzeigeverarbeitung und Musik-Cluster-Auswahl- und Wiedergabeverarbeitung in dieser Reihenfolge durch
    End Ende
    Fig. 31
    Start Start
    S141 Ordne Gesamtanzahl von optischen Musikstücken von herkömmlicher Musikstück-Auswahleinrichtung und Reklassifizierungsmusik-Cluster-Auswahleinrichtung Q in dem Stück der Frequenz einer relativen Akkordabfolge zu und ordne Musikstück-Identifikationsinformation ID(i) zu
    S142 Führe Berechnung der Frequenz einer relativen Akkordabfolge durch
    S143 Lies Musikstück-Identifikationsinformation aus Akkordeigenschaftsumfangs-Speichereinrichtung aus, ordne Gesamtanzahl von gespeicherten Musikstücken Musikstückmenge Q zu und ordne Musikstück-Identifikationsinformation entsprechend Anzahl von Stücken ID(0) bis ID(Q – 1) zu
    S144 Führe Akkordabfolgeeigenschaftsvektor-Erzeugungsverarbeitung, Musikklassifizierungsverarbeitung und Klassifizierungsergebnis-Anzeigeverarbeitung und Musik-Cluster-Auswahl- und Wiedergabeverarbeitung in dieser Reihenfolge durch
    End Ende

Claims (15)

  1. Automatische Musikstückklassifizierungseinrichtung, die geeignet ist, um mehrere Musikstücke automatisch zu klassifizieren, umfassend: einen Akkordabfolgedaten-Erzeugungsteil, der geeignet ist, um ein Audioeingangssignal (1) aufzuweisen, das jedes der in diesen eingegebenen mehreren Musikstücke darstellt, und um Akkordabfolgemusterdaten zu erzeugen, die eine Akkordabfolgesequenz darstellen; einen Akkordabfolgedaten-Speicherteil (4) der geeignet ist, um die Akkordabfolgemusterdaten für jedes der mehreren Musikstücke zu speichern; einen Eigenschaftsumfangs-Extraktionsteil (7), der geeignet ist, um Akkordabfolgevariations-Eigenschaftsumfänge für jedes der mehreren Musikstücke gemäß den Akkordabfolgemusterdaten zu extrahieren; und einen Cluster-Erzeugungsteil (8) der geeignet ist, um die mehreren Musikstücke gemäß der durch die Akkordabfolgemusterdaten jedes der mehreren Musikstücke dargestellten Akkordabfolgesequenz und den Akkordabfolgevariations-Eigenschaftsumfängen jedes der mehreren Musikstücke zu gruppieren; wobei der Akkordabfolgedaten-Erzeugungsteil umfasst: einen Frequenzumwandlungsteil, der geeignet ist, um ein Audioeingangssignal, das jedes der mehreren Musikstücke darstellt, in vorbestimmten Intervallen in ein Frequenzsignal umzuwandeln, das die Größe der Frequenzkomponente darstellt; einen Komponentenextraktionsteil, der geeignet ist, um in den vorbestimmten Intervallen eine Frequenzkomponente, die jedem Ton einer gleichstufig temperierten Tonleiter entspricht, aus dem durch den Frequenzumwandlungsteil erhaltenen Frequenzsignal zu extrahieren; einen Akkordkandidatendetektionsteil, der geeignet ist, um als einen ersten und einen zweiten Akkordkandidaten zwei Akkorde zu detektieren, die jeweils durch einen Satz von drei Frequenzkomponenten mit einem großen Niveaugesamtbetrag aus den Frequenzkomponenten gebildet sind, die jedem Ton entsprechen, der durch den Komponentenextraktionsteil extrahiert wird; und einen Glättungsteil, der geeignet ist, um die Akkordabfolgemusterdaten durch Glätten einer Reihe von jeweiligen ersten und zweiten Akkordkandidaten zu erzeugen, die durch den Akkordkandidatendetektionsteil wiederholt detektiert werden.
  2. Automatische Musikstückklassifizierungseinrichtung nach Anspruch 1, wobei der Eigenschaftsumfangs-Extraktionsteil umfasst: einen Akkordhistogrammprozessor, der geeignet ist, um als jeden von Histogrammwerten einen Gesamtbetrag von Dauern eines jeden von Akkorden, die in dem Musikstück vorhanden sind, gemäß den Akkordabfolgemusterdaten für jedes der mehreren Musikstücke zu berechnen; einen Histogrammabweichungsprozessor, der geeignet ist, um die Histogrammabweichung gemäß den Histogrammwerten der jeweiligen Akkorde für jedes der mehreren Musikstücke zu berechnen; und einen Akkordvariationsratenprozessor, der geeignet ist, um die Akkordvariationsrate gemäß den Akkordabfolgemusterdaten für jedes der mehreren Musikstücke zu berechnen; und wobei die Histogrammabweichung und die Akkordvariationsrate jedes der mehreren Musikstücke die Variationseigenschaftsumfänge jedes der mehreren Musikstücke sind.
  3. Automatische Musikstückklassifizierungseinrichtung nach Anspruch 1, wobei der Cluster-Erzeugungsteil umfasst: einen Prozessor für eine Frequenz einer relativen Akkordabfolge, der geeignet ist, um Akkordabfolgeteile einer vorbestimmten Anzahl von Typen in absteigender Reihenfolge der Frequenz des Auftretens aus allen von mindestens zwei aufeinanderfolgenden Akkordabfolgeteilen, die in einer Akkordabfolgesequenz enthalten sind, die durch die Akkordabfolgemusterdaten aller vorbestimmten Musikstücke dargestellt ist, zu detektieren; einen Akkordabfolgeeigenschaftsvektorprozessor, der geeignet ist, um die Frequenz des Auftretens jedes der Akkordvariationsteile der vorbestimmten Anzahl von Typen in der durch die Akkordabfolgemusterdaten für jedes der mehreren Musikstücke dargestellten Akkordabfolgesequenz zu detektieren und die detektierte Frequenz und die Akkordabfolgevariations-Eigenschaftsumfänge als Akkordabfolgeeigenschaftsvektorwerte zu speichern; und einen Klassifizierungsteil, der geeignet ist, um die mehreren Musikstücke in Cluster mit ähnlichen Melodien durch Ausführen einer Selbstorganisierungsverarbeitung für die Akkordabfolgeeigenschaftsvektorwerte jedes der mehreren Musikstücke zu klassifizieren.
  4. Automatische Musikstückklassifizierungseinrichtung nach Anspruch 3, wobei der Prozessor für eine Frequenz einer relativen Akkordabfolge umfasst: einen Erzeugungsteil für Daten einer relativen Akkordabfolge, der geeignet ist, um für alle Akkorde in einem Musikstück gemäß den Akkordabfolgemusterdaten jedes der mehreren Musikstücke Daten einer relativen Akkordabfolge, die einen Differenzwert des Grundtons vor und nach einem Akkordwechsel und den Typ des geänderten Akkords darstellen, zu erzeugen; einen Erzeugungsteil für Daten einer relativen Referenzakkordabfolge, der geeignet ist, um Daten einer relativen Referenzakkordabfolge zu erzeugen, die alle Akkordvariationsmuster darstellen, die aus den mindestens zwei aufeinanderfolgenden Akkordabfolgeteilen erhalten werden; und einen Vergleichsteil, der geeignet ist, um eine Übereinstimmung zwischen allen der mindestens zwei aufeinanderfolgenden Akkordabfolgeteile in den Daten einer relativen Akkordabfolge, die durch den Erzeugungsteil für Daten einer relativen Akkordabfolge erzeugt werden, und den Daten einer relativen Referenzakkordabfolge zu detektieren, die alle Akkordvariationsmuster darstellen, und um die Frequenz des Auftretens aller der mindestens zwei aufeinanderfolgenden Akkordabfolgeteile zu zählen.
  5. Automatische Musikstückklassifizierungseinrichtung nach Anspruch 3, wobei der Akkordabfolgeeigenschaftsvektorprozessor umfasst: einen Erzeugungsteil für Daten einer relativen Akkordabfolge, der geeignet ist, um Daten einer relativen Akkordabfolge zu erzeugen, die einen Differenzwert des Grundtons vor und nach einem Akkordwechsel und den Typ des geänderten Akkords gemäß den Akkordabfolgemusterdaten jedes der mehreren Musikstücke darstellen; einen Erzeugungsteil für Daten einer relativen Referenzakkordabfolge, der geeignet ist, um die Daten einer relativen Referenzakkordab folge zu erzeugen, die jeden der Akkordvariationsteile der vorbestimmten Anzahl von Typen darstellen; und einen Vergleichsteil, der geeignet ist, um eine Übereinstimmung zwischen allen der mindestens zwei aufeinanderfolgenden Akkordabfolgeteile in den Daten einer relativen Akkordabfolge, die durch den Erzeugungsteil für Daten einer relativen Akkordabfolge erzeugt werden, und den Daten einer relativen Referenzakkordabfolge zu detektieren, die jeden der Akkordvariationsteile der vorbestimmten Anzahl von Typen darstellen, und um die Frequenz des Auftretens jedes der Akkordvariationsteile der vorbestimmten Anzahl von Typen für jedes der mehreren Musikstücke zu zählen.
  6. Automatische Musikstückklassifizierungseinrichtung nach Anspruch 5, wobei das Akkordabfolgeeigenschaftsvektorberechnungsmittel ferner umfasst: ein Gewichtungsmittel, das geeignet ist, um die endgültige Frequenz jedes der mehreren Musikstücke durch Multiplizieren der Frequenz jedes der mehreren Musikstücke jedes der Akkordvariationsteile der vorbestimmten Anzahl von Typen, die durch das Vergleichsmittel erhalten werden, mit einem Gewichtungskoeffizienten zu berechnen.
  7. Automatische Musikstückklassifizierungseinrichtung nach Anspruch 2, umfassend: ein Cluster-Anzeigemittel, das geeignet ist, um mehrere durch das Klassifizierungsmittel klassifizierte Cluster anzuzeigen; ein Auswahlmittel, das geeignet ist, um jedes der mehreren durch das Cluster-Anzeigemittel angezeigten Cluster gemäß einer Operation auszuwählen; ein Musikstücklistenanzeigemittel, das geeignet ist, um eine Liste von Musikstücken anzuzeigen, die zu dem einen Cluster gehören; und ein Wiedergabemittel, das geeignet ist, um den Musikstückklang jedes der Musikstücke, die zu dem einen Cluster gehören, selektiv wiederzugeben.
  8. Automatische Musikstückklassifizierungseinrichtung nach Anspruch 7, wobei das Wiedergabemittel eine Musikstückspeichereinrichtung umfasst, die geeignet ist, um Musikstückklangdaten zu speichern, die den Klang der mehreren Musikstücke darstellen.
  9. Automatische Musikstückklassifizierungseinrichtung nach Anspruch 7, wobei das Wiedergabemittel geeignet ist, um den Klang eines Modellmusikstücks aus den Musikstücken wiederzugeben, die zu dem einen Cluster gehören.
  10. Automatische Musikstückklassifizierungseinrichtung nach Anspruch 1, wobei das Akkordabfolgedatenspeichermittel geeignet ist, um die Akkordabfolgemusterdaten in Verbindung mit der Musikstückidentifikationsinformation zum Identifizieren jedes der mehreren Musikstücke zu speichern.
  11. Automatische Musikstückklassifizierungseinrichtung nach Anspruch 3, wobei das vorbestimmte Musikstück die mehreren Musikstücke darstellt.
  12. Automatische Musikstückklassifizierungseinrichtung nach Anspruch 3, wobei das vorbestimmte Musikstück ein Musikstück mit einem Hörverlauf ist.
  13. Automatische Musikstückklassifizierungseinrichtung nach Anspruch 3, wobei das vorbestimmte Musikstück ein Musikstück ist, das gemäß einer Operation ausgewählt wird.
  14. Automatisches Musikstückklassifizierungsverfahren, das mehrere Musikstücke automatisch klassifiziert und die Schritte umfasst, dass Akkordabfolgemusterdaten erzeugt werden, die eine Akkordabfolgesequenz eines eingegebenen Audioeingangssignals darstellen, das jedes der mehreren Musikstücke darstellt; die Akkordabfolgemusterdaten für jedes der mehreren Musikstücke gespeichert werden; ein Akkordabfolgevariations-Eigenschaftsumfang für jedes der mehreren Musikstücke gemäß den Akkordabfolgemusterdaten extrahiert wird; die mehreren Musikstücke gemäß der durch die Akkordabfolgemusterdaten jedes der mehreren Musikstücke dargestellten Akkordabfolgesequenz und den Akkordabfolgevariations-Eigenschaftsumfängen jedes der mehreren Musikstücke gruppiert werden; ein Audioeingangssignal, das jedes der mehreren Musikstücke darstellt, in vorbestimmten Intervallen in ein Frequenzsignal umgewandelt wird, das die Größe der Frequenzkomponente darstellt; in den vorbestimmten Intervallen eine Frequenzkomponente, die jedem Ton einer gleichstufig temperierten Tonleiter entspricht, aus dem Frequenzsignal extrahiert wird, das während der Frequenzumwandlung erhalten wird; als erster und zweiter Akkordkandidat zwei Akkorde detektiert werden, die jeweils durch einen Satz von drei Frequenzkomponenten mit einem großen Niveaugesamtbetrag aus den Frequenzkomponenten gebildet sind, die jedem Ton entsprechen, der während der Extraktion der Frequenzkomponente extrahiert wird; und die Akkordabfolgemusterdaten durch Glätten einer Reihe von jeweiligen ersten und zweiten Akkordkandidaten erzeugt werden, die während der Detektion der zwei Akkorde wiederholt detektiert werden.
  15. Von einem Computer lesbares Programm, das ein automatisches Musikstückklassifizierungsverfahren ausführt, das mehrere Musikstücke automatisch klassifiziert, und umfasst: einen Akkordabfolgedatenerzeugungsschritt zum Erzeugen von Akkordabfolgemusterdaten, die eine Akkordabfolgesequenz eines eingegebenen Audioeingangssignals darstellen, das jedes der mehreren Musikstücke darstellt; einen Akkordabfolgedatenspeicherschritt zum Speichern der Akkordabfolgemusterdaten für jedes der mehreren Musikstücke; einen Eigenschaftsumfangs-Extraktionsschritt zum Extrahieren eines Akkordabfolgevariations-Eigenschaftsumfangs für jedes der mehreren Musikstücke gemäß den Akkordabfolgemusterdaten; einen Cluster-Erzeugungsschritt zum Gruppieren der mehreren Musikstücke gemäß der Akkordabfolgesequenz, die durch die Akkordabfolgemusterdaten für jedes der mehreren Musikstücke dargestellt wird, und den Akkordabfolgevariations-Eigenschaftsumfängen jedes der mehreren Musikstücke; einen Frequenzumwandlungsschritt zum Umwandeln eines Audioeingangssignals, das jedes der mehreren Musikstücke darstellt, in ein Frequenzsignal, das die Größe der Frequenzkomponente darstellt, in vorbestimmten Intervallen; einen Komponentenextraktionsschritt zum Extrahieren einer Frequenzkomponente, die jedem Ton einer gleichstufig temperierten Tonleiter entspricht, in vorbestimmten Intervallen aus dem während des Frequenzumwandlungsschritts erhaltenen Frequenzsignals; einen Akkordkandidatendetektionsschritt zum Detektieren zweier Akkorde als ersten und zweiten Kandidaten, die jeweils durch einen Satz von drei Frequenzkomponenten mit einem großen Niveaugesamtbetrag aus den Frequenzkomponenten gebildet sind, die jedem während des Komponentenextraktionsschritts extrahierten Ton entsprechen; und einen Glättungsschritt zum Erzeugen der Akkordabfolgemusterdaten durch Glätten einer Reihe jeweiliger erster und zweiter Akkordkandidaten, die während des Akkordkandidatendetektionsschritts wiederholt detektiert werden.
DE602004011305T 2003-11-21 2004-11-15 Vorrichtung und Verfahren zur automatischen Klassifikation von musikalischen Kompositionen Active DE602004011305T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003392292A JP4199097B2 (ja) 2003-11-21 2003-11-21 楽曲自動分類装置及び方法
JP2003392292 2003-11-21

Publications (2)

Publication Number Publication Date
DE602004011305D1 DE602004011305D1 (de) 2008-03-06
DE602004011305T2 true DE602004011305T2 (de) 2009-01-08

Family

ID=34431627

Family Applications (1)

Application Number Title Priority Date Filing Date
DE602004011305T Active DE602004011305T2 (de) 2003-11-21 2004-11-15 Vorrichtung und Verfahren zur automatischen Klassifikation von musikalischen Kompositionen

Country Status (5)

Country Link
US (1) US7250567B2 (de)
EP (1) EP1533786B1 (de)
JP (1) JP4199097B2 (de)
CN (1) CN1619640A (de)
DE (1) DE602004011305T2 (de)

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10232916B4 (de) * 2002-07-19 2008-08-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Charakterisieren eines Informationssignals
JP4244133B2 (ja) * 2002-11-29 2009-03-25 パイオニア株式会社 楽曲データ作成装置及び方法
US20070280270A1 (en) * 2004-03-11 2007-12-06 Pauli Laine Autonomous Musical Output Using a Mutually Inhibited Neuronal Network
US20060272486A1 (en) * 2005-06-02 2006-12-07 Mediatek Incorporation Music editing method and related devices
KR100715949B1 (ko) * 2005-11-11 2007-05-08 삼성전자주식회사 고속 음악 무드 분류 방법 및 그 장치
JP4321518B2 (ja) * 2005-12-27 2009-08-26 三菱電機株式会社 楽曲区間検出方法、及びその装置、並びにデータ記録方法、及びその装置
JP4650270B2 (ja) * 2006-01-06 2011-03-16 ソニー株式会社 情報処理装置および方法、並びにプログラム
KR100749045B1 (ko) * 2006-01-26 2007-08-13 삼성전자주식회사 음악 내용 요약본을 이용한 유사곡 검색 방법 및 그 장치
KR100717387B1 (ko) * 2006-01-26 2007-05-11 삼성전자주식회사 유사곡 검색 방법 및 그 장치
DE102006008260B3 (de) * 2006-02-22 2007-07-05 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Analyse eines Audiodatums
DE102006008298B4 (de) 2006-02-22 2010-01-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen eines Notensignals
KR100822376B1 (ko) * 2006-02-23 2008-04-17 삼성전자주식회사 곡명을 이용한 음악 주제 분류 방법 및 시스템
JP4665836B2 (ja) 2006-05-31 2011-04-06 日本ビクター株式会社 楽曲分類装置、楽曲分類方法、及び楽曲分類プログラム
US8101844B2 (en) 2006-08-07 2012-01-24 Silpor Music Ltd. Automatic analysis and performance of music
JP5007563B2 (ja) * 2006-12-28 2012-08-22 ソニー株式会社 音楽編集装置および方法、並びに、プログラム
US7873634B2 (en) * 2007-03-12 2011-01-18 Hitlab Ulc. Method and a system for automatic evaluation of digital files
JP4613924B2 (ja) * 2007-03-30 2011-01-19 ヤマハ株式会社 曲編集装置およびプログラム
JP5135930B2 (ja) * 2007-07-17 2013-02-06 ヤマハ株式会社 楽曲加工装置およびプログラム
US8058544B2 (en) * 2007-09-21 2011-11-15 The University Of Western Ontario Flexible music composition engine
JP4983506B2 (ja) * 2007-09-25 2012-07-25 ヤマハ株式会社 楽曲加工装置およびプログラム
JP5135982B2 (ja) * 2007-10-09 2013-02-06 ヤマハ株式会社 楽曲加工装置およびプログラム
JP5104709B2 (ja) 2008-10-10 2012-12-19 ソニー株式会社 情報処理装置、プログラム、および情報処理方法
JP5463655B2 (ja) * 2008-11-21 2014-04-09 ソニー株式会社 情報処理装置、音声解析方法、及びプログラム
TWI417804B (zh) * 2010-03-23 2013-12-01 Univ Nat Chiao Tung 樂曲分類方法及樂曲分類系統
JP5659648B2 (ja) * 2010-09-15 2015-01-28 ヤマハ株式会社 コード検出装置およびコード検出方法を実現するためのプログラム
JP5296813B2 (ja) * 2011-01-19 2013-09-25 ヤフー株式会社 楽曲レコメンド装置、方法及びプログラム
US8965766B1 (en) * 2012-03-15 2015-02-24 Google Inc. Systems and methods for identifying music in a noisy environment
US10623480B2 (en) 2013-03-14 2020-04-14 Aperture Investments, Llc Music categorization using rhythm, texture and pitch
US10242097B2 (en) * 2013-03-14 2019-03-26 Aperture Investments, Llc Music selection and organization using rhythm, texture and pitch
US10061476B2 (en) 2013-03-14 2018-08-28 Aperture Investments, Llc Systems and methods for identifying, searching, organizing, selecting and distributing content based on mood
US11271993B2 (en) 2013-03-14 2022-03-08 Aperture Investments, Llc Streaming music categorization using rhythm, texture and pitch
US10225328B2 (en) 2013-03-14 2019-03-05 Aperture Investments, Llc Music selection and organization using audio fingerprints
US20220147562A1 (en) 2014-03-27 2022-05-12 Aperture Investments, Llc Music streaming, playlist creation and streaming architecture
US9263013B2 (en) * 2014-04-30 2016-02-16 Skiptune, LLC Systems and methods for analyzing melodies
CN104951485A (zh) * 2014-09-02 2015-09-30 腾讯科技(深圳)有限公司 音乐文件的数据处理方法和装置
CN104281682A (zh) * 2014-09-30 2015-01-14 圆刚科技股份有限公司 文件分类系统及方法
US9734810B2 (en) * 2015-09-23 2017-08-15 The Melodic Progression Institute LLC Automatic harmony generation system
US9721551B2 (en) * 2015-09-29 2017-08-01 Amper Music, Inc. Machines, systems, processes for automated music composition and generation employing linguistic and/or graphical icon based musical experience descriptions
US10854180B2 (en) * 2015-09-29 2020-12-01 Amper Music, Inc. Method of and system for controlling the qualities of musical energy embodied in and expressed by digital music to be automatically composed and generated by an automated music composition and generation engine
JP6500869B2 (ja) * 2016-09-28 2019-04-17 カシオ計算機株式会社 コード解析装置、方法、及びプログラム
JP6500870B2 (ja) * 2016-09-28 2019-04-17 カシオ計算機株式会社 コード解析装置、方法、及びプログラム
CN107220281B (zh) * 2017-04-19 2020-02-21 北京协同创新研究院 一种音乐分类方法及装置
US10424280B1 (en) * 2018-03-15 2019-09-24 Score Music Productions Limited Method and system for generating an audio or midi output file using a harmonic chord map
CN108597535B (zh) * 2018-03-29 2021-10-26 华南理工大学 一种融合伴奏的midi钢琴曲风格分类方法
CN109935222B (zh) * 2018-11-23 2021-05-04 咪咕文化科技有限公司 一种构建和弦转换向量的方法、装置及计算机可读存储介质
CN110472097A (zh) * 2019-07-03 2019-11-19 平安科技(深圳)有限公司 乐曲自动分类方法、装置、计算机设备和存储介质
US10964299B1 (en) 2019-10-15 2021-03-30 Shutterstock, Inc. Method of and system for automatically generating digital performances of music compositions using notes selected from virtual musical instruments based on the music-theoretic states of the music compositions
US11024275B2 (en) 2019-10-15 2021-06-01 Shutterstock, Inc. Method of digitally performing a music composition using virtual musical instruments having performance logic executing within a virtual musical instrument (VMI) library management system
US11037538B2 (en) 2019-10-15 2021-06-15 Shutterstock, Inc. Method of and system for automated musical arrangement and musical instrument performance style transformation supported within an automated music performance system
CN111081209B (zh) * 2019-12-19 2022-06-07 中国地质大学(武汉) 基于模板匹配的中国民族音乐调式识别方法
US11763787B2 (en) * 2020-05-11 2023-09-19 Avid Technology, Inc. Data exchange for music creation applications
CN117037837B (zh) * 2023-10-09 2023-12-12 广州伏羲智能科技有限公司 基于音轨分离技术的噪声分离方法和装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6026091U (ja) * 1983-07-29 1985-02-22 ヤマハ株式会社 和音表示装置
US4951544A (en) * 1988-04-06 1990-08-28 Cadio Computer Co., Ltd. Apparatus for producing a chord progression available for a melody
US5179241A (en) * 1990-04-09 1993-01-12 Casio Computer Co., Ltd. Apparatus for determining tonality for chord progression
JP2876861B2 (ja) * 1991-12-25 1999-03-31 ブラザー工業株式会社 自動採譜装置
US5451709A (en) * 1991-12-30 1995-09-19 Casio Computer Co., Ltd. Automatic composer for composing a melody in real time
US5510572A (en) * 1992-01-12 1996-04-23 Casio Computer Co., Ltd. Apparatus for analyzing and harmonizing melody using results of melody analysis
JP3433818B2 (ja) * 1993-03-31 2003-08-04 日本ビクター株式会社 楽曲検索装置
JP3001353B2 (ja) * 1993-07-27 2000-01-24 日本電気株式会社 自動採譜装置
JPH10161654A (ja) * 1996-11-27 1998-06-19 Sanyo Electric Co Ltd 音楽ジャンル判定装置
JP2000268541A (ja) * 1999-03-16 2000-09-29 Sony Corp 音楽ソフト自動分類装置
JP2001297093A (ja) 2000-04-14 2001-10-26 Alpine Electronics Inc 音楽配給システムおよびサーバ装置
AU2001271384A1 (en) * 2000-06-23 2002-01-08 Music Buddha, Inc. System for characterizing pieces of music
JP2002041527A (ja) * 2000-07-24 2002-02-08 Alpine Electronics Inc 音楽情報管理方法及び音楽情報管理装置
JP2002041059A (ja) 2000-07-28 2002-02-08 Nippon Telegraph & Telephone East Corp 音楽コンテンツ配信装置およびその方法
JP2002091433A (ja) * 2000-09-19 2002-03-27 Fujitsu Ltd メロディー情報の抽出方法その装置
JP3829632B2 (ja) * 2001-02-20 2006-10-04 ヤマハ株式会社 演奏情報選択装置
JP4027051B2 (ja) 2001-03-22 2007-12-26 松下電器産業株式会社 楽曲登録装置、楽曲登録方法、及びそのプログラムと記録媒体
JP2003058147A (ja) * 2001-08-10 2003-02-28 Sony Corp 音楽コンテンツ自動分類装置及び自動分類方法
JP2003084774A (ja) * 2001-09-07 2003-03-19 Alpine Electronics Inc 楽曲の選択方法及び装置

Also Published As

Publication number Publication date
DE602004011305D1 (de) 2008-03-06
JP4199097B2 (ja) 2008-12-17
EP1533786B1 (de) 2008-01-16
JP2005156713A (ja) 2005-06-16
EP1533786A1 (de) 2005-05-25
CN1619640A (zh) 2005-05-25
US20050109194A1 (en) 2005-05-26
US7250567B2 (en) 2007-07-31

Similar Documents

Publication Publication Date Title
DE602004011305T2 (de) Vorrichtung und Verfahren zur automatischen Klassifikation von musikalischen Kompositionen
DE69637504T2 (de) Automatisches musikkomponierverfahren
DE69909107T2 (de) Verfahren und vorrichtung zum automatischen komponieren
DE60302420T2 (de) Musiksuchgerät und -verfahren
DE69908226T2 (de) Vorrichtung und Verfahren zum Wiederauffinden von Melodien
DE69724919T2 (de) Verfahren zur Erzeugung von Musiktönen
DE112013005807T5 (de) Vorrichtung und Verfahren zur Erzeugung einer Echtzeitmusikbegleitung
DE60303993T2 (de) Musikstrukturerkennungsgerät und -verfahren
EP1336173B1 (de) Anordnung bzw. anlage zum komponieren
DE102007034774A1 (de) Vorrichtung zur Bestimmung von Akkordnamen und Programm zur Bestimmung von Akkordnamen
CN108268530B (zh) 一种歌词的配乐生成方法和相关装置
DE60215750T2 (de) Vorrichtung und Verfahren zum Anzeigen von Akkorden
DE60038535T2 (de) Verfahren und vorrichtung, speicherverfahren und - vorrichtung zur informationsbeschaffung und verarbeitung
DE60315880T2 (de) Datenerzeugungseinrichtung und verfahren für musikkompositionen
CN106991163A (zh) 一种基于演唱者声音特质的歌曲推荐方法
DE60026189T2 (de) Verfahren und Vorrichtung zur Wellenformkomprimierung und Erzeugung
DE3436645A1 (de) Elektronisches musikinstrument
Kirchhoff et al. Evaluation of features for audio-to-audio alignment
WO2006005567A1 (de) Verfahren und vorrichtung zur erzeugung einer polyphonen melodie
DE60318282T2 (de) Methoden und Vorrichtung zur Verarbeitung von Ausführungsdaten und zur Synthetisierung von Tonsignalen
DE112018001506T5 (de) Transponiervorrichtung, Transponierverfahren und Programm
DE3047801A1 (de) Elektronisches musikinstrument mit tastenfeld
EP1377924B1 (de) VERFAHREN UND VORRICHTUNG ZUM EXTRAHIEREN EINER SIGNALKENNUNG, VERFAHREN UND VORRICHTUNG ZUM ERZEUGEN EINER DAZUGEHÖRIGEN DATABANK und Verfahren und Vorrichtung zum Referenzieren eines Such-Zeitsignals
DE112017008021T5 (de) Musikalische klangdaten wiedergabevorrichtung und musikalisches klangdaten wiedergabeverfahren
EP1671315B1 (de) Vorrichtung und verfahren zum charakterisieren eines tonsignals

Legal Events

Date Code Title Description
8320 Willingness to grant licences declared (paragraph 23)
8364 No opposition during term of opposition