JP2005156713A - 楽曲自動分類装置及び方法 - Google Patents

楽曲自動分類装置及び方法 Download PDF

Info

Publication number
JP2005156713A
JP2005156713A JP2003392292A JP2003392292A JP2005156713A JP 2005156713 A JP2005156713 A JP 2005156713A JP 2003392292 A JP2003392292 A JP 2003392292A JP 2003392292 A JP2003392292 A JP 2003392292A JP 2005156713 A JP2005156713 A JP 2005156713A
Authority
JP
Japan
Prior art keywords
music
chord
chord progression
progression
pieces
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003392292A
Other languages
English (en)
Other versions
JP4199097B2 (ja
Inventor
Shinichi Gazan
真一 莪山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2003392292A priority Critical patent/JP4199097B2/ja
Priority to DE602004011305T priority patent/DE602004011305T2/de
Priority to EP04027094A priority patent/EP1533786B1/en
Priority to US10/988,535 priority patent/US7250567B2/en
Priority to CN200410095250.4A priority patent/CN1619640A/zh
Publication of JP2005156713A publication Critical patent/JP2005156713A/ja
Application granted granted Critical
Publication of JP4199097B2 publication Critical patent/JP4199097B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/38Chord
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/571Chords; Chord sequences
    • G10H2210/576Chord progression

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

【課題】 複数の楽曲を曲調の類似性にて自動分類することができる楽曲自動分類装置及び方法を提供する。
【解決手段】 複数の楽曲各々の和音進行順列を示す和音進行パターンデータを保存し、複数の楽曲毎に和音進行の変化特徴量を和音進行パターンデータに応じて抽出し、複数の楽曲各々の和音進行パターンデータによって示される和音進行順列と和音進行の変化特徴量とに応じて複数の楽曲を集合分けする。
【選択図】 図1

Description

本発明は、複数の楽曲を自動分類する楽曲自動分類装置及び方法に関する。
近年、圧縮音楽の普及と蓄積装置の大容量化により、個人でも大量の楽曲を保存し、楽しむことができるようになってきた。一方、利用者が大量の楽曲を自ら整理し、聴きたい楽曲を探し出すことは非常に困難になってきており、それを解決するための有効な楽曲分類および選択方法が求められている。
従来の楽曲分類方法としては、大量に蓄積されている楽曲を、特定の種類に分類するために、曲名、歌手名や、ロック、ポップスといった音楽が属するジャンル名、テンポといった書誌に示された情報を用いる方法がある(特許文献1参照)。
また、楽曲信号から抽出したビートや周波数変動といった特徴量に対して、多数の被験者間で共有できた「躍動感のある」といったイメージ用語を割り当て、分類選択に用いる方法がある(特許文献2参照)。
更に、ロック、演歌等の楽曲信号の一部から音楽三要素(メロディ、リズム、和声)を抽出し、そのジャンル識別子と対応付けておき、その後、ジャンル混合の音楽ソースと目的のジャンル名を与えると、そのジャンル名に合った曲の音楽ソースだけを別の装置に録音する方法が提案されている(特許文献3参照)。
また、従来の楽曲分類方法としては、音楽特徴量として、テンポ、長調短調、高音、低音の量を用いてマトリクス状に自動分類し、楽曲の選択を容易にする方法が知られている(特許文献4参照)。
更に、利用者が一度選択した音楽の音響パラメータ(ケプストラム、パワーの高次モーメント)を抽出し、次回からはそれに類似する音響パラメータを有する音楽を提示する方法もある(特許文献5参照)。
特開2001−297093号公報 特開2002−278547号公報 特開2000−268541号公報 特開2003−58147号公報 特開2002−41059号公報
しかしながら、上記の特許文献1に示された曲名やジャンルといった書誌に示された情報を用いる方法は、必ず人による作業が必要になり、ネットワークに接続できる方法ではなく、分類のための情報が入手困難な場合にはまったく機能しないという問題があった。
特許文献2の分類方法では、音楽に対するイメージは主観的であり、また同一視聴者においても、曖昧かつ変動するものであるために、当事者以外のイメージによる分類であった場合に、継続的な効果は期待できない。従って、主観的なイメージ用語の効果を維持するためには、分類動作に対する視聴者からの継続的なフィードバックが必須であり、これは視聴者に多大な労力を強いるといった問題がある。また、ビート等のリズム情報による分類は、対象音楽が限定されるという問題がある。
特許文献3の分類方法では、楽音信号から抽出した音楽三要素の少なくとも一つを用いて分類するが、各特長量とジャンル識別子との具体的な関連付けが開示技術からでは困難である。また、音楽三要素は数小節分だけを用いる分類では、ジャンルを決定する大きな分類キーとなるとは考え難い。
特許文献4の分類方法では、提案されているテンポや調性などの組み合わせは、音楽の明るさや早さを原理的に表現できるものであり、曲調を表現するに有望なものであるが、実際の楽曲においてテンポや調性が終始一貫しているものは少なく、楽曲単位で分類する特徴量としては、精度が緩慢であるといった問題がある。
また、これらの特許文献1〜4の方法では、イメージ用語、ジャンル名或いは長調短調等の静的に確定した用語を用いて選曲するため、気分によって楽曲に対する印象も変化するので、適切な選曲ができないという問題があった。
特許文献5には、楽曲を選択するほどに、嗜好に合った楽曲が提供されるとあるが、実際に用いる特徴量は、音楽信号の一部或いは全体から抽出した結果を数値化したものであるため、楽曲中の曲調の変化までを表現することはできない。したがって、嗜好で楽曲を分類するに適した精度が確保できないという問題があった。
本発明が解決しようとする課題には、上記の欠点が一例として挙げられ、複数の楽曲を曲調の類似性にて自動分類することができる楽曲自動分類装置及び方法を提供することが本発明の目的である。
請求項1に係る発明の楽曲自動分類装置は、複数の楽曲を自動分類する楽曲自動分類装置であって、前記複数の楽曲各々の和音進行順列を示す和音進行パターンデータを保存する和音進行データ蓄積手段と、前記複数の楽曲毎に和音進行の変化特徴量を前記和音進行パターンデータに応じて抽出する特徴量抽出手段と、前記複数の楽曲各々の前記和音進行パターンデータによって示される和音進行順列と前記和音進行の変化特徴量とに応じて前記複数の楽曲を集合分けする集合作成手段と、を備えたことを特徴としている。
請求項16に係る発明の楽曲自動分類方法は、複数の楽曲を自動分類する楽曲自動分類方法であって、前記複数の楽曲各々の和音進行順列を示す和音進行パターンデータを保存し、前記複数の楽曲毎に和音進行の変化特徴量を前記和音進行パターンデータに応じて抽出し、前記複数の楽曲各々の前記和音進行パターンデータによって示される和音進行順列と前記和音進行の変化特徴量とに応じて前記複数の楽曲を集合分けすることを特徴としている。
更に、請求項17に係る発明のプログラムは、複数の楽曲を自動分類する楽曲自動分類方法を実行するコンピュータ読取可能なプログラムであって、前記複数の楽曲各々の和音進行順列を示す和音進行パターンデータを保存する和音進行データ蓄積ステップと、前記複数の楽曲毎に和音進行の変化特徴量を前記和音進行パターンデータに応じて抽出する特徴量抽出ステップと、前記複数の楽曲各々の前記和音進行パターンデータによって示される和音進行順列と前記和音進行の変化特徴量とに応じて前記複数の楽曲を集合分けする集合作成ステップと、を備えたことを特徴としている。
以下、本発明の実施例を図面を参照しつつ詳細に説明する。
図1は本発明による楽曲自動分類装置を示している。この楽曲自動分類装置は、音楽情報入力装置1、和音進行パターン抽出部2、和音ヒストグラム偏差及び和音変化率演算部3、和音特徴量蓄積装置4、楽曲蓄積装置5、相対和音進行出現頻度演算部6、和音進行特徴ベクトル作成部7、音楽集合作成部8、分類集合蓄積装置9、音楽集合単位表示装置10、音楽集合選択装置11、代表曲抽出部12、楽曲リスト抽出部13、楽曲リスト表示装置14、楽曲リスト選択装置15及び音楽再生装置16を備えている。
音楽情報入力装置1は、分類対象となる複数の楽曲のディジタル楽曲信号(オーディオ信号)を楽曲音データとして予め入力するものであり、例えば、CD−ROMドライブやCDプレーヤからの再生楽曲信号、或いは圧縮済みの楽曲音データを復号化したものを入力する。楽曲信号であれば入力可能であるため、外部入力などを用いたアナログ録音のオーディオ信号をディジタル化して楽音データとしても良い。また、その楽曲音データには楽曲識別情報も併せて入力される。楽曲識別情報としては例えば、曲名、歌手名、ジャンル名、ファイル名等が含まれるが、その情報は単数或いは複数の種類の項目で楽曲を特定することが可能なものであれば良い。
音楽情報入力装置1の出力は、和音進行パターン抽出部2、和音特徴量蓄積装置4及び楽曲蓄積装置5に接続されている。
和音進行パターン抽出部2は、音楽情報入力装置1を介して入力された楽音信号中から和音データを抽出して、楽曲の和音進行順列(和音進行パターン)を生成する。
和音ヒストグラム偏差及び和音変化率演算部3は、和音進行パターン抽出部2によって生成された和音進行パターンに応じて、用いられている和音の種類とその頻度からヒストグラムを生成し、曲調の変化度合としてその偏差を演算する。また、1分あたりの和音の変化率を演算し、音楽のテンポの度合として分類に用いる。
和音特徴量蓄積装置4は、楽曲毎に和音進行パターン抽出部2にて得られた和音進行と、パターン和音ヒストグラム偏差及び和音変化率演算部3にて得られた和音ヒストグラム偏差及び和音変化率と、音楽情報入力装置1にて得られた楽曲識別情報とを和音進行の変化特徴量として保存する。その保存の際には楽曲識別情報は分類処理される複数の楽曲各々を識別可能にする識別情報として用いられる。
楽曲蓄積装置5は、音楽情報入力装置1で入力された楽曲音データと楽曲識別情報とを関連付けて保存するものである。
相対和音進行出現頻度演算部6は、楽曲蓄積装置5に楽曲音データが蓄積された楽曲が共有する和音進行パターンの出現頻度を演算し、分類に用いる特徴的な和音進行パターンを抽出する。
和音進行特徴ベクトル作成部7は、分類対象とする複数の楽曲が、相対和音進行出現頻度演算部6によって演算した特徴的な和音進行パターンを含む割合を多次元ベクトルとして生成する。
音楽集合作成部8は、和音進行特徴ベクトル作成部7によって生成された分類対象とする複数の楽曲の和音進行特徴ベクトルに応じて類似する集合を作成する。
分類集合蓄積装置9は、音楽集合作成部8において生成された集合と、集合に属する楽曲に対応する楽曲識別情報とを関連付けて保存するものである。音楽集合単位表示装置10は、分類集合蓄積装置9に蓄積された各楽曲集合を、曲調の類似度の順にかつそれに属する楽曲の量が分かるように表示するものである。
音楽集合選択装置11は、音楽集合単位表示装置10で表示した音楽集合を選択するためのものである。代表曲抽出部12は、音楽集合選択装置11によって選択された集合に属する楽曲のうち、その集合の特徴を最も含む楽曲を抽出する。
楽曲リスト抽出部13は、音楽集合選択装置11によって選択された集合に属する各楽曲の楽曲識別情報を分類集合蓄積装置9から抽出する。楽曲リスト表示装置14は、楽曲リスト抽出部13によって抽出された楽曲識別情報の内容をリストとして表示する。
楽曲リスト選択装置15は、楽曲リスト表示装置14で表示した楽曲リスト中のうちのいずれかの楽曲をユーザの操作に応じて選択するものである。音楽再生装置16は、代表曲抽出部12又は楽曲リスト選択装置15によって抽出又は選択された楽曲についての楽曲識別情報に応じて、実際の楽曲音データを楽曲蓄積装置5から選択し音響出力として再生するものである。
かかる構成の本発明による楽曲自動分類装置においては、和音特徴量抽出処理が行われる。この和音特徴量抽出処理は、分類対象の複数の楽曲について、音楽情報入力装置1を介して入力される楽曲音データと楽曲識別情報とを楽曲蓄積装置5に保存すると同時に、その楽曲音データが示す楽曲音中の和音進行の変化特徴量をデータとして抽出して和音特徴量蓄積装置4に保存する処理である。
和音特徴量抽出処理を具体的に説明するに当たって、処理対象の楽曲の楽曲数をQとし、楽曲数を計数するカウンタ値をNとする。和音特徴量抽出処理の開始時にはカウンタ値Nは初期値0に予めされているとする。
和音特徴量抽出処理においては、図2に示すように、先ず、N番目の楽音データ及び楽曲識別情報の音楽情報入力装置1を介した入力が開始され(ステップS1)、N番目の楽音データは和音進行パターン抽出部2に供給されると共にN番目の楽曲音データ及び楽曲識別情報は対応関係を付けて楽曲蓄積装置5に保存される(ステップS2)。N番目の楽音データの入力が終了したことを次のステップS3にて判別されるまでステップS2のN番目の楽音データの保存は続けられる。
N番目の楽音データの入力が終了したならば、和音進行パターン抽出結果を和音進行パターン抽出部2から得ることが行われる(ステップS4)。
ここで、和音は5オクターブ分の平均律の12音について検出される。平均律の12音はA,A#,B,C,C#,D,D#,E,F,F#,G,G#である。図3はA音を1.0とした場合の12音及び1オクターブ高いA音各々の周波数比を示している。
和音進行パターン抽出部2の和音進行パターン抽出処理においては、図4に示すように、入力ディジタル信号に対してフーリエ変換によって周波数変換を0.2秒間隔で行うことによって周波数情報f(T)が得られる(ステップS21)。そして、今回のf(T)、前回のf(T−1)及び前々回のf(T−2)を用いて移動平均処理が行われる(ステップS22)。この移動平均処理では、0.6秒以内では和音が変化することが少ないという仮定で過去2回分の周波数情報が用いられる。移動平均処理は次式によって演算される。
f(T)=(f(T)+f(T−1)/2.0+f(T−2)/3.0)/3.0
……(1)
ステップS22の実行後、移動平均処理後の周波数情報f(T)から周波数成分f1(T)〜f5(T)が各々抽出される(ステップS23〜S27)。上記したステップS6〜S10と同様に、周波数成分f1(T)〜f5(T)は、(110.0+2×N)Hzを基本周波数とした5オクターブ分の平均律の12音A,A#,B,C,C#,D,D#,E,F,F#,G,G#である。ステップS23のf1(T)はA音を(110.0+2×N)Hzとし、ステップS24のf2(T)はA音を2×(110.0+2×N)Hzとし、ステップS25のf3(T)はA音を4×(110.0+2×N)Hzとし、ステップS26のf4(T)はA音を8×(110.0+2×N)Hzとし、ステップS27のf5(T)はA音を16×(110.0+2×N)Hzとしている。ここで、Nは平均律の周波数に対する誤差値であり、−3〜3の範囲内の値に設定されるが、無視できる程度ならば、0としても良い。
ステップS23〜S27の実行後、周波数成分f1(T)〜f5(T)は1オクターブ分の帯域データF'(T)に変換される(ステップS28)。帯域データF'(T)は、
F'(T)=f1(T)×5+f2(T)×4+f3(T)×3+f4(T)×2+f5(T)
……(2)
の如く表される。すなわち、周波数成分f1(T)〜f5(T)各々は個別に重み付けされた後、加算される。帯域データF'(T)は各音成分を含むことになる。
ステップS28の実行後、帯域データF'(T)中の各音成分のうちの強度レベルが大きいものから6音が候補として選択され(ステップS29)、その6音候補から2つの和音M1,M2が作成される(ステップS30)。候補の6音のうちから1つの音を根音(ルート)として3音からなる和音が作成される。すなわち63通りの組み合わせの和音が考慮される。各和音を構成する3音のレベルが加算され、その加算結果の値が最大となった和音が第1和音候補M1とされ、加算結果の値が2番目に大きい和音が第2和音候補M2とされる。
和音を構成する音は3音に限らず、セブンスやディミニッシュセブンス等の4音もある。4音からなる和音に対しては図5に示すように3音からなる2つ以上の和音に分類されるとしている。よって、4音からなる和音に対しても3音からなる和音と同様に、帯域データF'(T)の各音成分の強度レベルに応じて2つの和音候補を設定することができる。
ステップS30の実行後、ステップS30において設定された和音候補数があるか否かが判別される(ステップS31)。ステップS30では少なくとも3つの音を選択するだけの強度レベルに差がない場合には和音候補が全く設定されないことになるので、ステップS31の判別が行われる。和音候補数>0である場合には、更に、その和音候補数が1より大であるか否かが判別される(ステップS32)。
ステップS31において和音候補数=0と判別された場合には前回T−1(約0.2秒前)の本処理において設定された和音候補M1,M2が今回の和音候補M1,M2として設定される(ステップS33)。ステップS32において和音候補数=1と判別された場合には今回のステップS30の実行では第1和音候補M1だけが設定されたので、第2和音候補M2は第1和音候補M1と同一の和音に設定される(ステップS34)。
ステップS32において和音候補数>1と判別された場合には今回のステップS30の実行では第1及び第2和音候補M1,M2の両方が設定されたので、時刻、第1及び第2和音候補M1,M2が和音進行パターン抽出部2内のメモリ(図示せず)に記憶される(ステップS35)。そのメモリには時刻、第1和音候補M1、第2和音候補M2が1組となって記憶される。時刻は0.2秒毎に増加するTで表される本処理実行回数である。そのTの順に第1及び第2和音候補M1,M2が記憶される。
具体的には、上記のメモリに各和音候補を図6に示したように1バイトで記憶させるために、基本音とその属性との組み合わせが用いられる。基本音には平均律の12音が用いられ、属性にはメジャー{4,3}、マイナー{3,4}、セブンス候補{4,6}及びディミニッシュセブンス(dim7)候補{3,3}の和音の種類が用いられる。{ }内は半音を1とした場合の3音の差である。本来、セブンス候補は{4,3,3}及びディミニッシュセブンス(dim7)候補{3,3,3}であるが、3音で示すために上記のように表示している。
基本音の12音は図7(a)に示すように16ビット(16進表記)で表され、属性の和音の種類は同様に図7(b)に示すように16ビット(16進表記)で表される。その基本音の下位4ビットと属性の下位4ビットがその順に連結されて図7(c)に示すように8ビット(1バイト)として和音候補として用いられる。
ステップS35はステップS33又はS34を実行した場合にもその直後に実行される。
ステップS35の実行後、楽曲が終了したか否かが判別される(ステップS36)。例えば、入力アナログオーディオ信号の入力がなくなった場合、或いは操作入力装置4からの楽曲の終了を示す操作入力があった場合には楽曲が終了したと判断される。
楽曲の終了が判断されるまでは変数Tに1が加算され(ステップS37)、ステップS21が再度実行される。ステップS21は上記したように0.2秒間隔で実行され、前回の実行時から0.2秒が経過して再度実行される。
楽曲の終了判別後、図8に示すように、メモリから全ての第1及び第2和音候補がM1(0)〜M1(R)及びM2(0)〜M2(R)として読み出される(ステップS41)。0は開始時刻であり、開始時刻の第1及び第2和音候補がM1(0)及びM2(0)である。Rは最終時刻であり、最終時刻の第1及び第2和音候補がM1(R)及びM2(R)である。読み出された第1和音候補M1(0)〜M1(R)及び第2和音候補M2(0)〜M2(R)について平滑化が行われる(ステップS42)。この平滑化は和音の変化時点とは関係なく0.2秒間隔で和音候補を検出したことにより和音候補に含まれるノイズによる誤差を除去するために行われる。平滑化の具体的方法としては、3つの連続する第1和音候補M1(t−1),M1(t),M1(t+1)についてM1(t−1)≠M1(t)かつM1(t)≠M1(t+1)の関係が成立するか否かが判別され、その関係が成立する場合には、M1(t+1)にM1(t)は等しくされる。この判別は第1和音候補毎に行われる。第2和音候補についても同様の方法により平滑化は行われる。なお、M1(t+1)にM1(t)を等しくするのではなく、逆に、M1(t+1)をM1(t)に等しくしても良い。
平滑化後、第1及び第2和音候補の入れ替え処理が行われる(ステップS43)。一般的に0.6秒のような短い期間には和音が変化する可能性は低い。しかしながら、信号入力段の周波数特性及び信号入力時のノイズによって帯域データF'(T)中の各音成分の周波数が変動することによって第1及び第2和音候補が0.6秒以内に入れ替わることが起きることがあり、これに対処するためにステップS43は行われる。第1及び第2和音候補が入れ替えの具体的方法としては、5つの連続する第1和音候補M1(t−2),M1(t−1),M1(t),M1(t+1),M1(t+2)及びそれに対応する5つの連続する第2和音候補M2(t−2),M2(t−1),M2(t),M2(t+1),M2(t+2)についての次の如き判別が実行される。すなわち、M1(t−2)=M1(t+2),M2(t−2)=M2(t+2),M1(t−1)=M1(t)=M1(t+1)=M2(t−2)及びM2(t−1)=M2(t)=M2(t+1)=M1(t−2)の関係が成立するか否かが判別される。この関係が成立する場合には、M1(t−1)=M1(t)=M1(t+1)=M1(t−2)及びM2(t−1)=M2(t)=M2(t+1)=M2(t−2)が定められ、M1(t−2)とM2(t−2)と間で和音の入れ替えが行われる。なお、M1(t−2)とM2(t−2)との間で和音の入れ替えに代えてM1(t+2)とM2(t+2)との間で和音の入れ替えを行っても良い。また、M1(t−2)=M1(t+1),M2(t−2)=M2(t+1),M1(t−1)=M1(t)=M1(t+1)=M2(t−2)及びM2(t−1)=M2(t)=M2(t+1)=M1(t−2)の関係が成立するか否かが判別される。この関係が成立する場合には、M1(t−1)=M1(t)=M1(t−2)及びM2(t−1)=M2(t)=M2(t−2)が定められ、M1(t−2)とM2(t−2)との間で和音の入れ替えが行われる。なお、M1(t−2)とM2(t−2)との間で和音の入れ替えに代えてM1(t+1)とM2(t+1)との間で和音の入れ替えを行っても良い。
ステップS41において読み出された第1和音候補M1(0)〜M1(R)及び第2和音候補M2(0)〜M2(R)の各和音が、例えば、図9に示すように時間経過と共に変化する場合には、ステップS42の平均化を行うことによって図10に示すように修正される。更に、ステップS43の和音の入れ替えを行うことによって第1及び第2和音候補の和音の変化は図11に示すように修正される。なお、図9〜図11は和音の時間変化を折れ線グラフとして示しており、縦軸は和音の種類に対応した位置となっている。
ステップS43の和音の入れ替え後の第1和音候補M1(0)〜M1(R)のうちの和音が変化した時点tのM1(t)が検出され(ステップS44)、その検出された第1和音候補の和音変化総数Mと、変化時点t間の差である和音継続時間(4バイト)及び和音(4バイト)が出力される(ステップS45)。ステップS45で出力される1楽曲分のデータが和音進行パターンデータである。
ステップS43の和音の入れ替え後の第1和音候補M1(0)〜M1(R)及び第2和音候補M2(0)〜M2(R)の和音が図12(a)に示すように時間経過と共に変化する場合には、変化時点の時刻と和音とがデータとして抽出される。図12(b)が第1和音候補の変化時点のデータ内容であり、F,G,D,B♭,Fが和音であり、それらは16進データとして0x08,0x0A,0x05,0x01,0x08と表される。変化時点tの時刻はT1(0),T1(1),T1(2),T1(3),T1(4)である。また、図12(c)が第2和音候補の変化時点のデータ内容であり、C,B♭,F#m,B♭,Cが和音であり、それらは16進データとして0x03,0x01,0x29,0x01,0x03と表される。変化時点tの時刻はT2(0),T2(1),T2(2),T2(3),T2(4)である。図12(b)及び図12(c)に示したデータ内容は楽曲識別情報と共にステップS45において図12(d)に示すような形式で和音進行パターンデータとして出力される。出力される和音進行パターンデータの和音継続時間はT(0)=T1(1)−T1(0),T(1)=T1(2)−T1(1),……である。
ステップS4において抽出された和音進行パターンデータについて12音の根音各々メジャー、マイナー及びDiminish(ディミニッシュ)の各和音A〜G#に対して、継続時間を加算し、最大値が100となるように正規化してヒストグラム値を算出することが行われる(ステップS5)。
ヒストグラム値は次の式(3),(4)によって算出される。
h'(i+k×12)=ΣT'(j) ……(3)
h(i+k×12)=h'(i+k×12)×100/max(h'(i+k×12)) ……(4)
これら式(3),(4)では、iはA〜G#の和音の根音(12音)に対応し、その順にi=0〜11である。kは和音のメジャー(k=0)、マイナー(k=1)及びディミニッシュ(k=2)に対応する。Jは和音の順番であり、Σ演算はj=0〜M−1について行われる。式(3)のh'(i+k×12)は実際の和音継続時間T'(j)の合計時間であり、h'(0)〜h'(35)である。式(4)のh(i+k×12)はヒストグラム値であり、h(0)〜h(35)として得られる。和音進行パターンデータのj番目の和音の根音がi、属性がkであるときの和音継続時間T(j)がT'(j)とされる。例えば、0番目の和音がメジャーのCならば、i=3,k=0であるので、0番目の和音継続時間T(0)はh'(3)に合算される。すなわち、根音と属性とが同一の和音毎に和音継続時間T(j)がT'(j)として加算され、その結果がh'(i+k×12)である。max(h'(i+k×12))はh'(i+k×12)、すなわちh'(0)〜h'(35)のうちの最大値である。
図13(a)及び(b)は楽曲毎の和音のメジャー(A〜G#)、マイナー(A〜G#)及びディミニッシュ(A〜G#)に対するヒストグラム値の算出結果を示している。図13(a)の場合には、和音が広く出現する楽曲であり、分散が少ないさまざまな和音が使用された変化に富む曲調を示している。図13(b)の場合には、特定の和音が突出して出現する楽曲であり、分散が大きい数少ない和音の繰り返しか、和音変化の少ないストレートな曲調を示している。
このようにヒストグラム値の算出後、和音ヒストグラム偏差が算出される(ステップS6)。ヒストグラム偏差を算出するに当たって、先ず、ヒストグラム値h(0)〜h(35)についての平均値Xが、式(5)によって算出される。
X=(Σh(i))/36 ……(5)
この式(5)では、iは0〜35である。すなわち、
Σh(i)=h(0)+h(1)+h(2)+……+h(35) ……(6)
そのヒストグラム値Xの偏差σは、式(7)によって算出される。ここでもiは0〜35である。
σ=(Σ(h(i)−X)2)1/2/36 ……(7)
更に、和音変化率Rが算出される(ステップS7)。和音変化率Rは、式(8)によって算出される。
R=M×60×Δt/(ΣT(j)) ……(8)
この式(8)では、Mは和音変化総数、Δtは1秒間に行う和音検出の回数、ΣT(j)の演算はj=0〜M−1について行われる。
音楽情報入力装置1から得られた楽曲識別情報と、ステップS4で抽出された和音進行パターンデータと、ステップS6で算出されたヒストグラム偏差σと、ステップS7で算出された和音変化率Rとは和音進行の変化特徴量として和音特徴量蓄積装置4に保存される(ステップS8)。その変化特徴量の保存の際のフォーマットは図14に示す通りである。
ステップS8の実行後、カウンタ値Nに1が加算され(ステップS9)、そのカウンタ値Nが処理対象の楽曲数Qに達したか否かが判別される(ステップS10)。N<Qならば、上記したステップS1〜S10の動作が繰り返される。一方、N=Qのため処理対象の楽曲数Q全てについて和音進行の変化特徴量の保存が終了したならば、その楽曲数Qの各楽曲の楽曲識別情報に識別子ID(i)が付加されて保存される(ステップS11)。
次に、相対和音進行出現頻度演算部6にて行われる相対和音進行出現頻度演算処理について説明する。相対和音進行出現頻度演算処理では、和音特徴量蓄積装置4に保存された和音進行パターンデータに含まれる、少なくとも2回以上変化する和音進行部分の出現頻度が演算され、分類対象となる楽曲群に含まれる特徴的な和音進行パターン群が検出される。
相対和音進行とは、和音進行が絶対和音の系列であるのに対して、和音進行を構成する各和間の度数差(根音の差。負の場合には12を加算する。)と、変化後のメジャー、マイナー等の属性の系列として表現するものである。相対和音進行を用いることによって、調性のオフセットを吸収し、編曲やテンポが異なっていても、曲調の類似度合いを容易に演算することができる。
なお、和音進行部分として選択する和音の変化数は任意であるが、3回程度が適当であるので、3回変化する和音進行を用いるものとして説明する。
相対和音進行出現頻度演算処理においては、図15に示すように、出現頻度カウンタ値C(i)が0に初期設定される(ステップS51)。このステップS51では、i=0〜21295であるので、C(0)〜C(21295)=0と設定される。また、カウンタ値Nが0に初期設定され(ステップS52)、カウンタ値Aが0に初期設定される(ステップS53)。
楽曲識別情報ID(N)で指定されるN番目の楽曲の相対和音進行データHP(k)が演算される(ステップS54)。相対和音進行データHP(k)のkは0〜M−2である。相対和音進行データHP(k)は[度数差分値,移行先属性]と表され、和音の変化の際の度数差分値と移行先属性とを示す列データである。度数差分値と移行先属性とはN番目の楽曲の和音進行パターンデータに応じて得られる。その和音進行パターンデータでは和音が例えば、図16に示すように、時間経過と共にAm7,Dm,C,F,Em,F,B♭7,…の如く変化する場合には、16進データとして0x30,0x25,0x03,0x08,0x27,0x08,0x11,…と表されているとすると、度数差分値は5,10,5,11,1,5,…となり、移行先属性は0x02,0x00,0x00,0x02,0x00,0x00,…となる。なお、半音を1とし、根音(基本音)の値が移行先が移行前よりマイナスの場合には移行先に12を加えて移行先が移行前よりプラスになるようにしてから度数差分値は求められる。また、和音の属性としてセブンス及びディミニッシュは無視される。
ステップS54の実行後、変数iが0に初期設定され(ステップS55)、相対和音進行データHP(A),HP(A+1),HP(A+2)が相対和音進行パターンP(i,0),P(i,1),P(i,2)と一致するか否かが判別される(ステップS56)。相対和音進行パターンは相対和音進行データと同様に、[度数差分値,移行先属性]と表される。相対和音進行パターンとしては、和音進行がメジャーコードとマイナーコードとで構成されるとし、3回の和音変化があるとした場合に2×22×22×22=21296パターンがある。すなわち、図17に示すように、1回目の和音変化では、メジャーコード及びマイナーコード各々について1度アップメジャーコードへの移行,2度アップメジャーコードへの移行,……,11度アップメジャーコードへの移行と1度アップマイナーコードへの移行,2度アップマイナーコードへの移行,……,11度アップマイナードへの移行とからなる22パターンの変化がある。その後の2回目の和音変化及び3回目の和音変化でも各々22パターンである。相対和音進行パターンのP(i,0)は1回目の和音変化、P(i,1)は2回目の和音変化、P(i,2)は3回目の和音変化のパターンであり、相対和音進行出現頻度演算部6内のメモリ(図示せず)にデータテーブルとして予め備えられている。
HP(A),HP(A+1),HP(A+2)とP(i,0),P(i,1),P(i,2)とが一致する場合、すなわちHP(A)=P(i,0),HP(A+1)=P(i,1),HP(A+2)=P(i,2)である場合には、カウンタ値C(i)に1が加算される(ステップS57)。その後、変数iが21296に達したか否かが判別される(ステップS58)。i<21296ならば、iに1が加算され(ステップS59)、ステップS56が再度実行される。i=21296ならば、カウンタ値Aに1が加算され(ステップS60)、カウンタ値AがM−4に達したか否かが判別される(ステップS61)。HP(A),HP(A+1),HP(A+2)とP(i,0),P(i,1),P(i,2)とが不一致である場合には、ステップS57を迂回してステップS58が直ちに実行される。
ステップS61の判別結果がA<M−4である場合には、ステップS55に戻って上記の一致判別動作が繰り返される。A=M−4である場合には、カウンタ値Nに1が加算され(ステップS62)、そのNが楽曲数Qに達したか否かが判別される(ステップS63)。N<Qならば、ステップS53に戻って別の楽曲について上記の相対和音進行出現頻度演算が実行される。N=Qならば、相対和音進行出現頻度演算処理は終了である。
この相対和音進行出現頻度演算処理の結果、楽曲数Qの楽曲群に含まれる3回の変化を含む21296パターンの和音進行部分(P(i,0),P(i,1),P(i,2):i=0〜21295)についての出現頻度がカウンタ値C(0)〜C(21295)に得られる。
和音進行特徴ベクトル作成部7にて作成される和音進行特徴ベクトルは、x(n, i)によって値で表され、分類対象となる各楽曲が、C(i)及びP(i,0),P(i,1),P(i,2)で示される特徴的な和音進行パターン群を含む程度を示す多次元ベクトルである。x(n, i)のnは0〜Q−1であり、曲番を示す。
和音進行特徴ベクトル作成部7による和音進行特徴ベクトル作成処理においては、図18に示すように、先ず、カウンタ値C(0)〜C(21295)が示す出現頻度のうちの大きい値から順にW個のカウンタ値C(i)のiの値を抽出する(ステップS71)。すなわち、iの値を示すTB(j)=TB(0)〜TB(W-1)が得られる。TB(0)が示すi値のカウンタ値C(TB(0))によって示される出現頻度が最大値である。TB(W-1)が示すi値のカウンタ値C(TB(W-1))によって示される出現頻度がW番目に大きい値である。Wは例えば、80〜100である。
ステップS71の実行後、分類対象の各楽曲に対応する和音進行特徴ベクトルx(n, i)の値がクリアされる(ステップS72)。ここで、nは0〜Q−1、iは0〜W+1である。すなわち、x(0,0)〜x(0,W+1),…x(Q-1,0)〜x(Q-1,W+1)及びx'(0,0)〜x'(0,W+1),…x'(Q-1,0)〜x'(Q-1,W+1)の全てが0とされる。そして、相対和音進行出現頻度演算処理のステップS52〜S54と同様に、カウンタ値Nが0に初期設定され(ステップS73)、カウンタ値Aが0に初期設定される(ステップS74)。そして、N番目の楽曲の相対和音進行データHP(k)が演算される(ステップS75)。相対和音進行データHP(k)のkは0〜M−2である。
ステップS75の実行後、カウンタ値Bが0に初期設定され(ステップS76)、相対和音進行データHP(B),HP(B+1),HP(B+2)が相対和音進行パターンP(TB(A),0),P(TB(A),1),P(TB(A),2)と一致するか否かが判別される(ステップS77)。このステップS76及びS77についても相対和音進行出現頻度演算処理のステップS55及びS56と同様に行われる。
HP(B),HP(B+1),HP(B+2)とP(TB(A),0),P(TB(A),1),P(TB(A),2)とが一致する場合、すなわちHP(B)=P(TB(A),0),HP(B+1)=P(TB(A),1),HP(B+2)=P(TB(A),2)である場合には、ベクトル値x(N,TB(A))に1が加算される(ステップS78)。その後、カウンタ値Bに1が加算され(ステップS79)、カウンタ値BがM−4に達したか否かが判別される(ステップS80)。HP(B),HP(B+1),HP(B+2)とP(TB(A),0),P(TB(A),1),P(TB(A),2)とが不一致である場合には、ステップS78を迂回してステップS79が直ちに実行される。
ステップS80の判別結果がB<M−4である場合には、ステップS77に戻って上記の一致判別動作が繰り返される。B=M−4である場合には、カウンタ値Aに1が加算され(ステップS81)、そのAが所定値Wに達したか否かが判別される(ステップS82)。A<Wならば、ステップS76に戻って出現頻度が次に大きい相対和音進行パターンについて上記のステップS77の上記の一致判別動作が実行される。A=Wならば、ベクトル値x(N,W)にN番目の楽曲のヒストグラム偏差σが代入され(ステップS83)、ベクトル値x(N,W+1)にN番目の楽曲の和音変化率Rが代入される(ステップS84)。
ステップS84の実行後、出現頻度調整用重み付け係数G(i)=G(0)〜G(W−1)を用いて和音進行特徴ベクトルx(N,0)〜x(N,W+1)に対して重み付けを行い、修正後の和音進行特徴ベクトルx'(N,0)〜x'(N,W+1)が生成される(ステップS85)。一般に、西洋音楽の流れに沿う音楽は、本発明が注目する音楽の曲調を識別する和音進行よりも、トニック、ドミナントおよびサブドミナントを組み合わせた動き(以降、基本和音進行と呼ぶ)を多く含む。それらの基本和音進行の出現頻度が支配的になることを防ぐために出現頻度調整が行われる。出現頻度調整用重み付け係数G(i)はG(i)=(0.5/m)×i+0.5であり、図19に示すようにi=0〜m−1では1より小なる値となり、i=m〜W−1では1とされている。すなわち、極めて出現頻度の高い上位m−1個のパターンに対してステップS85の実行により出現頻度が調整される。基本和音進行とみなすパターンの数mとしては、10〜20程度が適当である。
カウンタ値Nに1が加算され(ステップS86)、そのNが楽曲数Qに達したか否かが判別される(ステップS87)。N<Qならば、ステップS72に戻って別の楽曲について上記の和音進行特徴ベクトル作成処理が実行される。N=Qならば、和音進行特徴ベクトル作成処理は終了である。
よって、和音進行特徴ベクトル作成処理が終了すると、図20に示すように、和音進行特徴ベクトルx(0,0)〜x(0,W+1),…x(Q-1,0)〜x(Q-1,W+1)及びx'(0,0)〜x'(0,W+1),…x'(Q-1,0)〜x'(Q-1,W+1)が作成される。なお、ベクトルx(N,W)及びx(N,W+1)と、x'(N,W)及びx'(N,W+1)とは同じである。
次に、音楽集合作成部8で行われる音楽分類処理及び分類結果表示処理は、和音進行特徴ベクトル作成処理によって生成された和音進行特徴ベクトル群を用いて、ベクトル間の距離が近いものを集合化する。最終分類結果数を予め固定するものでなければその集合化方法は問わない。例えば、自己組織化マップ法などを用いることができる。自己組織化マップ法は、多次元のデータ群を、類似する特徴をもつ1次元等の低次元の集合(クラスタ)に変換するものである。なお、自己組織化マップ法に対して、最終的な分類クラスタ数を効率的に検出する方法として、非特許文献1に示されたクラスタ分類法を用いると効果的である。本実施例では、自己組織化マップ法を用いて、集合化を行うものとする。
寺島他「自己組織化特徴マップ上のデータ密度ヒストグラムを用いた教師なしクラスタ分類法、電子情報通信学会論文誌、D-II、Vol.J79-D-II, No.7, 1996」
音楽分類処理及び分類結果表示処理においては、図21に示すように、先ず、カウンタ値Aが0に初期設定され(ステップS91)、対象とするQ個の楽曲に関する和音進行特徴ベクトル群x'(n, i)=x'(0,0)〜x'(0,W+1),…x'(Q-1,0)〜x'(Q-1,W+1)を、自己組織化マップ法を用いて分類クラスタを検出することが行われる(ステップS92)。自己組織化マップ法では、入力データx'(n, i)と同じ次元数をもつK個のニューロンm(i,j,t)をランダム値で初期化し、K個のニューロンの中で入力データx'(n, i)の距離が最小となるニューロンm(i,j,t)を求め、m(i,j,t)の近傍(所定の半径内)のニューロンの重みを変更することが行われる。すなわち、ニューロンm(i,j,t)は式(9)で表される。
m(i, j, t+1)=m(i, j, t)+hc(t)[x'(n, i)−m(i, j, t)] ……(9)
式(9)において、t=0〜T、n=0〜Q−1、i=0〜K−1、j=0〜W+1である。hc(t)は時間減衰関数であり、近傍の大きさと、変更の度合いは時間減少する。Tは学習回数、Qは楽曲総数、Kはニューロンの総数である。
ステップS92の実行後、カウンタ値Aに1が加算され(ステップS93)、カウンタ値A、すなわち学習回数Aが所定の学習回数Gに達したか否かが判別される(ステップS94)。A<Gならば、ステップS92において、上記したK個のニューロンの中で入力データx'(n, i)の距離が最小となるニューロンm(i,j,t)を求め、m(i,j,t)の近傍のニューロンの重みを変更する動作が繰り返される。A=Gならば、ステップS92の演算動作の結果、得られた分類数がUとされる(ステップS95)。
次に、得られたU個のクラスタに属する楽曲識別情報ID(i)に対応するX(n,i)が、集合の中心的な特徴を表すニューロンm(i,j,T)に近い順に並び換えられ、新たな楽曲識別情報FID(i)に保存される(ステップS96)。そして、U個のクラスタに属する楽曲識別情報FID(i)が分類集合蓄積装置9に保存される(ステップS97)。更に、各クラスタ位置関係と属する楽曲数に対応した選択画面が作成され、その選択画面データが音楽集合単位表示装置10に出力される(ステップS98)。
図22は自己組織化マップによる分類結果と音楽集合単位表示装置10によって表示される集合表示例を示している。図22においては、各集合A〜Iは一つの枠で表現されており、各枠の高さは各集合に属する楽曲の量を表している。各枠の高さに絶対的な意味はなく、相対的に各集合に属する楽曲数の違いを認識することができれば良い。各集合の位置関係として、隣り合う集合は近似している曲調の楽曲群を表すものとなる。
図23は集合表示として実際のインターフェース画像を示している。また、本実施例の自己組織化マップ処理は1次元のものを示したが、2次元の自己組織化マップ処理も広く知られている。本発明における分類処理を2次元自己組織化マップ法で行った場合は、図24に示す如きインターフェース画像を用いることが可能である。図23においては、各銀河系が1つの集合を示し、図24においては各惑星が1つの集合を示している。枠で囲まれた部分が選択された集合である。また、図23及び図24において表示画像中の右側には選択された集合に含まれる楽曲リストと操作ボタンを含む再生/停止手段とが表示される。
以上の各処理によって、分類対象となるすべての楽曲に対して、和音進行特徴ベクトルによる自動分類処理が完了し、任意の集合を選択できる表示が終了したことになる。
分類された音楽集合の選択及び再生処理が音楽集合単位表示装置10及び音楽集合選択装置11において行われる。
音楽集合の選択及び再生処理においては、図25に示すように、分類された音楽集合(例えば、図22に示した集合A〜I)のうちの1の集合の選択が行われたか否かが判別される(ステップS101)。1の集合の選択が確認されると、現在、楽曲音再生中か否かが判別される(ステップS102)。楽曲音再生中が確認されると、その再生が停止される(ステップS103)。
楽曲音再生中ではない場合には、或いはステップS103にて再生が停止された場合には、選択された1の集合に属する楽曲識別情報が分類集合蓄積装置8から抽出され、その抽出情報がFID(i)=FID(0)〜FID(FQ-1)に保存される(ステップS104)。FQは上記の1の集合に属する楽曲識別情報、すなわち楽曲数である。そのFID(i)の先頭から順に楽曲識別情報が楽曲リスト表示装置14に出力される(ステップS105)。楽曲リスト表示装置14では、選択された1の集合に対応した楽曲識別情報に含まれる各楽曲名が例えば、図26に示すようなインターフェース画像によって、分かるように表示しても良い。
FID(i)の先頭のFID(0)に対応する楽曲が代表曲抽出部12において自動的に選択され、FID(0)に対応する楽曲音データが楽曲蓄積装置5から読み出されて音楽再生装置16に供給され、音楽再生装置16では供給された楽曲音データに応じて楽曲音が再生出力される(ステップS106)。
なお、FID(0)に対応する楽曲音を再生するのではなく、楽曲リスト表示装置14にはFID(i)に応じて複数の楽曲が表示され、その複数の楽曲から1の楽曲が楽曲リスト選択装置15を介して選択された場合には、その1の楽曲に対応する楽曲音データが楽曲蓄積装置5から読み出されて音楽再生装置16に供給され、音楽再生装置16ではその1の楽曲の楽曲音を再生出力するようにしても良い。
図27は本発明の他の実施例として楽曲自動分類装置を示している。図27の楽曲自動分類装置は、図1の楽曲自動分類装置に示した装置(部)1〜16の他に従来型楽曲選択装置17、視聴履歴保存装置18、対象楽曲選択部19及び再分類用音楽集合単位選択装置20が備えられている。
図27の楽曲自動分類装置は、楽曲蓄積装置5に楽曲音データとして保存された楽曲全てに対する分類だけでなく、所定の条件によって限定された楽曲に対する分類を行う場合に対応している。
従来型楽曲選択装置17は、従来から一般的である、曲名、歌手名およびジャンル等の楽曲を特定することができる楽曲識別情報を用いて、楽曲蓄積装置5に保存されている楽曲を選択するための装置である。選択された楽曲は、音楽再生装置16によって再生される。
視聴履歴蓄積装置18は、音楽再生装置16によって一回以上再生が行われた楽曲についての楽曲識別情報を蓄積する装置である。
再分類用音楽集合選択手段20は、音楽集合単位表示装置10によって表示された音楽分類結果を用いて所望の分類結果を選択するための装置である。
対象楽曲選択部19は、楽曲蓄積装置5に保存されている全ての楽曲識別情報、或いは従来型楽曲選択装置17及び再分類用音楽集合選択手段20によって分類対象楽曲として選択された楽曲識別情報に対応する和音進行の変化特徴量を、相対和音進行出現頻度演算部6及び和音進行特徴ベクトル作成部7に提供する装置である。
先ず、ユーザがその時点までに聴取した比較的嗜好に合う複数の楽曲のみを曲調で分類する場合には、図28に示すように、視聴履歴蓄積装置18から楽曲識別情報が読み出され、履歴の総曲数が楽曲数Qに代入され、履歴の総曲数分の楽曲識別情報がID(i)=ID(0)〜ID(Q-1)に代入され(ステップS111)、その後、上記の相対和音進行出現頻度演算処理、和音進行特徴ベクトル作成処理、音楽分類処理及び分類結果表示処理、並びに音楽集合の選択及び再生処理が順に実行される(ステップS112)。
次に、ユーザがその時点までに聴取した比較的嗜好に合う複数の楽曲を用いて、楽曲蓄積装置5に保存されている複数の楽曲を曲調で分類する場合には、図29に示すように、上記のステップS111と同様に、視聴履歴蓄積装置18から楽曲識別情報を読み出し、履歴の総曲数を楽曲数Qに、履歴の総曲数分の楽曲識別情報をID(i)=ID(0)〜ID(Q-1)に代入し(ステップS121)、そして、ステップS121の実行結果に応じて上記の相対和音進行出現頻度演算処理が行われる(ステップS122)。その後、和音特徴量蓄積装置4から楽曲識別情報が読み出され、蓄積総曲数が楽曲数Qに代入され、また総曲数分の楽曲識別情報がID(i)=ID(0)〜ID(Q-1)に代入され(ステップS123)、和音進行特徴ベクトル作成処理、音楽分類処理及び分類結果表示処理、並びに音楽集合の選択及び再生処理が順に実行される(ステップS124)。
また、歌手名やジャンルなどをもとに選択された、特定の楽曲群や、指定した集合に属する特定の楽曲群を用いて、その楽曲群のみを曲調で分類する場合は、図30に示すように、従来型楽曲選択装置17又は再分類用音楽集合選択装置20から選択楽曲の総数が上記の相対和音進行出現頻度演算処理におけるQに代入され、楽曲識別情報群がID(i)に代入され(ステップS131)、その後、相対和音進行出現頻度演算処理、和音進行特徴ベクトル作成処理、音楽分類処理及び分類結果表示処理、並びに音楽集合の選択及び再生処理が順に実行される(ステップS132)。
更に、歌手名やジャンルなどをもとに選択された特定の複数の楽曲や、指定した集合に属する特定の楽曲群を用いて、楽曲蓄積装置5のすべての楽曲群を曲調で分類する場合には、図31に示すように、従来型楽曲選択装置17又は再分類用音楽集合選択装置20から選択楽曲の総数を上記の相対和音進行出現頻度演算処理におけるQに、楽曲識別情報群をID(i)に代入し(ステップS141)、その後、相対和音進行出現頻度演算処理が実行される(ステップS142)。次いで、和音情報蓄積装置4に保存されている楽曲識別情報の総数が上記の和音進行特徴ベクトル作成処理におけるQに代入され、楽曲識別情報群がID(i)に代入され(ステップS143)、その後、和音進行特徴ベクトル作成処理、音楽分類処理及び分類結果表示処理、並びに音楽集合の選択及び再生処理が順に実行される(ステップS144)。
かかる本発明においては、複数の楽曲各々の和音進行順列を示す和音進行パターンデータを保存する和音進行データ蓄積手段と、複数の楽曲毎に和音進行の変化特徴量を和音進行パターンデータに応じて抽出する特徴量抽出手段と、複数の楽曲各々の和音進行パターンデータによって示される和音進行順列と和音進行の変化特徴量とに応じて複数の楽曲を集合分けする集合作成手段と、が備えられているので、楽曲の分類指針として曲調の動き、いわゆる音楽の個性を表現する重要な特徴量である和音進行を用いて楽曲の自動分類を実現することができる。よって、次のような効果を奏することができる。
(1)曲名やジャンルといった書誌情報を介さず、また"躍動感のある"といった静的に確定した用語によって音楽に対するイメージを限定することなく、類似する曲調を有する楽曲を容易に選択し、直接感性に合致する音楽を聴くことができる。
(2)異なる楽曲楽集合に属しつつも、隣接する位置に表示する集合は、他の集合よりも類似した曲調から成っているため、選択の結果、若干イメージが異なっていた場合でも、容易に類似の曲調の楽曲を選択することができる。
(3)旋律の有無、テンポや編曲の違いに依存せず、また調性、音域といった全体的な特徴ではなく、曲調の動きという音楽として有意義な特徴を生かし、多くの種類の楽曲を分類、選択することができる。
(4)作曲家独自の作風や、ジャンル特有の曲調、ならびに時代毎に流行する曲調で楽曲を分類することができる。このことは、音楽に対する言葉で表現できない嗜好やテーマを抽出することに等しく、新たな音楽の楽しみ方を創出することができる。
(5)特定の条件で限定された音楽にも適用することが可能であり、歌手名やジャンルなどをもとに選択された楽曲群や、普段視聴している比較的嗜好に合う楽曲群に対して、更に細かい曲調の分類を行うことができるため、本来興味のない楽曲群を予め分類対象から排除した上で、個人の嗜好を満足させる音楽の楽しみ方を提供することができる。
本発明の実施例を示すブロック図である。 和音特徴量抽出処理を示すフローチャートである。 A音を1.0とした場合の12音及び1オクターブ高いA音各々の周波数比を示す図である。 和音解析動作の本処理を示すフローチャートである。 4音からなる和音に対する3音からなる和音への変換を示す図である。 記録フォーマットを示す図である。 基本音及び和音の属性の表記方法、並びに和音候補の表記方法を示す図である。 和音解析動作の後処理を示すフローチャートである。 平滑化処理前の第1及び第2和音候補の時間変化を示す図である。 平滑化処理後の第1及び第2和音候補の時間変化を示す図である。 入れ替え処理後の第1及び第2和音候補の時間変化を示す図である。 和音進行パターンデータの作成方法及びそのフォーマットを示す図である。 2つの楽曲中の和音のヒストグラムを示す図である。 和音進行の変化特徴量の保存の際のフォーマットを示す図である。 相対和音進行出現頻度演算処理を示すフローチャートである。 相対和音進行データの求め方を示す図である。 3回の和音変化がある場合の複数の和音変化パターンを示す図である。 和音進行特徴ベクトル作成処理を示すフローチャートである。 出現頻度調整用重み付け係数G(i)の特性を示す図である。 和音進行特徴ベクトル作成処理の結果を示す図である。 音楽分類処理及び分類結果表示処理を示すフローチャートである。 分類結果及び集合表示例を示す図である。 選択用の集合表示画像を示す図である。 別の選択用の集合表示画像を示す図である。 音楽集合の選択及び再生処理を示すフローチャートである。 楽曲リスト表示画像を示す図である。 本発明の他の実施例を示すブロック図である。 図27の装置の動作例を示すフローチャートである。 図27の装置の別の動作例を示すフローチャートである。 図27の装置の別の動作例を示すフローチャートである。 図27の装置の別の動作例を示すフローチャートである。
符号の説明
1 音楽情報入力装置
2 和音進行パターン抽出部
3 和音ヒストグラム偏差及び和音変化率演算部
4 和音特徴量蓄積装置
6 相対和音進行出現頻度演算部
7 和音進行特徴ベクトル作成部
8 音楽集合作成部
10 音楽集合単位表示装置
11 音楽集合選択装置
12 代表曲抽出部
13 楽曲リスト抽出部
14 楽曲リスト表示装置
15 楽曲リスト選択装置
16 音楽再生装置

Claims (17)

  1. 複数の楽曲を自動分類する楽曲自動分類装置であって、
    前記複数の楽曲各々の和音進行順列を示す和音進行パターンデータを保存する和音進行データ蓄積手段と、
    前記複数の楽曲毎に和音進行の変化特徴量を前記和音進行パターンデータに応じて抽出する特徴量抽出手段と、
    前記複数の楽曲各々の前記和音進行パターンデータによって示される和音進行順列と前記和音進行の変化特徴量とに応じて前記複数の楽曲を集合分けする集合作成手段と、を備えたことを特徴とする楽曲自動分類装置。
  2. 前記特徴量抽出手段は、前記複数の楽曲毎に前記和音進行パターンデータに応じて存在する和音各々の継続時間の合計をヒストグラム値として算出する和音ヒストグラム演算手段と、
    前記複数の楽曲毎に和音各々の前記ヒストグラム値に応じてヒストグラム偏差を算出するヒストグラム偏差演算手段と、
    前記複数の楽曲毎に前記和音進行パターンデータに応じて和音変化率を算出する和音変化率演算手段と、を備え
    前記複数の楽曲毎の前記ヒストグラム偏差と前記和音変化率とを前記変化特徴量とすることを特徴とする請求項1記載の楽曲自動分類装置。
  3. 前記集合作成手段は、所定の楽曲全ての前記和音進行パターンデータによって示される和音進行順列に含まれる少なくとも2回の連続した和音進行部分の全てのうちの出現頻度が大なる順に所定数種類の和音進行部分を検出する相対和音進行出現頻度演算手段と、
    前記複数の楽曲毎に前記和音進行パターンデータによって示される和音進行順列中における前記所定数種類の和音変化部分各々についての出現頻度を検出し、その検出した出現頻度と前記和音進行の変化特徴量と和音進行特徴ベクトル値として保存する和音進行特徴ベクトル演算手段と、
    前記複数の楽曲各々の前記和音進行特徴ベクトル値について自己組織化処理を施して前記複数の楽曲を類似の曲調毎の集合に分類する分類手段と、を備えたことを特徴とする請求項1記載の楽曲自動分類装置。
  4. 前記相対和音進行出現頻度演算手段は、前記複数の楽曲各々の前記和音進行パターンデータに応じて楽曲中の全ての和音の変化前及び変化後の根音差分値と、その変化後の和音の種類とを示す相対和音進行データを生成する相対和音進行データ生成手段と、
    前記少なくとも2回の連続した和音進行部分が取り得るの全和音変化パターン各々を示す基準相対和音進行データを生成する基準相対和音進行データ生成手段と、
    前記相対和音進行データ生成手段によって生成された前記相対和音進行データのうちの全ての前記少なくとも2回の連続した和音進行部分と前記全和音変化パターン各々を示す基準相対和音進行データとの一致を検出してその全ての前記少なくとも2回の連続した和音進行部分各々の出現頻度を計数する比較手段と、を備えたことを特徴とする請求項3記載の楽曲自動分類装置。
  5. 前記和音進行特徴ベクトル演算手段は、前記複数の楽曲各々の前記和音進行パターンデータに応じて和音変化前及び変化後の根音差分値と、変化後の和音の種類とを示す相対和音進行データを生成する相対和音進行データ生成手段と、
    前記所定数種類の和音変化部分各々を示す基準相対和音進行データを生成する基準相対和音進行データ生成手段と、
    前記相対和音進行データ生成手段によって生成された前記相対和音進行データのうちの全ての前記少なくとも2回の連続した和音進行部分と前記所定数種類の和音変化部分各々を示す基準相対和音進行データとの一致を検出して前記所定数種類の和音変化部分各々の前記複数の楽曲毎の出現頻度を計数する比較手段と、を備えたことを特徴とする請求項3記載の楽曲自動分類装置。
  6. 前記和音進行特徴ベクトル演算手段は、前記比較手段によって得られた前記所定数種類の和音変化部分各々の前記複数の楽曲毎の出現頻度に対して重み付け係数を乗算して最終的な前記複数の楽曲毎の出現頻度を算出する重み付け手段を更に有することを特徴とする請求項5記載の楽曲自動分類装置。
  7. 前記分類手段によって分類された複数の集合を表示する集合表示手段と、
    前記集合表示手段によって表示された複数の集合のうちのいずれか1の集合を操作に応じて選択する選択手段と、
    前記1の集合に属する楽曲のリストを表示する楽曲リスト表示手段と、
    前記1の集合に属する楽曲各々の楽曲音を選択的に再生する再生手段と、を備えたことを特徴とする請求項2記載の楽曲自動分類装置。
  8. 前記再生手段は、前記複数の楽曲の楽曲音を示す楽曲音データを蓄積する楽曲蓄積装置を有することを特徴とする請求項7記載の楽曲自動分類装置。
  9. 前記再生手段は、前記1の集合に属する楽曲のうちの代表曲の楽曲音を再生することを特徴とする請求項7記載の楽曲自動分類装置。
  10. 前記和音進行データ蓄積手段は、前記複数の楽曲各々を識別するための楽曲識別情報に対応させて前記和音進行パターンデータを保存することを特徴とする請求項1記載の楽曲自動分類装置。
  11. 前記複数の楽曲各々を示す入力オーディオ信号を入力して前記和音進行データを作成する和音進行データ作成手段を含むことを特徴とする請求項1記載の楽曲自動分類装置。
  12. 前記和音進行データ作成手段は、前記複数の楽曲各々を示す入力オーディオ信号を所定の時間毎に周波数成分の大きさを示す周波数信号に変換する周波数変換手段と、
    前記周波数変換手段によって得られた周波数信号から平均律の各音に対応した周波数成分を前記所定の時間毎に抽出する成分抽出手段と、
    前記成分抽出手段によって抽出された各音に対応した周波数成分のうちのレベル合計が大となる3つの周波数成分の組によって各々形成される2つの和音を第1及び第2和音候補として検出する和音候補検出手段と、
    前記和音候補検出手段によって繰り返し検出された第1及び第2和音候補各々の列を平滑化処理して前記和音進行パターンデータを生成する平滑化手段と、を備えたことを特徴とする請求項11記載の楽曲自動分類装置。
  13. 前記所定の楽曲は前記複数の楽曲であることを特徴とする請求項3記載の楽曲自動分類装置。
  14. 前記所定の楽曲は視聴履歴がある楽曲であることを特徴とする請求項3記載の楽曲自動分類装置。
  15. 前記所定の楽曲は操作に応じて選択された楽曲であることを特徴とする請求項3記載の楽曲自動分類装置。
  16. 複数の楽曲を自動分類する楽曲自動分類方法であって、
    前記複数の楽曲各々の和音進行順列を示す和音進行パターンデータを保存し、
    前記複数の楽曲毎に和音進行の変化特徴量を前記和音進行パターンデータに応じて抽出し、
    前記複数の楽曲各々の前記和音進行パターンデータによって示される和音進行順列と前記和音進行の変化特徴量とに応じて前記複数の楽曲を集合分けすることを特徴とする楽曲自動分類方法。
  17. 複数の楽曲を自動分類する楽曲自動分類方法を実行するコンピュータ読取可能なプログラムであって、
    前記複数の楽曲各々の和音進行順列を示す和音進行パターンデータを保存する和音進行データ蓄積ステップと、
    前記複数の楽曲毎に和音進行の変化特徴量を前記和音進行パターンデータに応じて抽出する特徴量抽出ステップと、
    前記複数の楽曲各々の前記和音進行パターンデータによって示される和音進行順列と前記和音進行の変化特徴量とに応じて前記複数の楽曲を集合分けする集合作成ステップと、を備えたことを特徴とするプログラム。


JP2003392292A 2003-11-21 2003-11-21 楽曲自動分類装置及び方法 Expired - Fee Related JP4199097B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2003392292A JP4199097B2 (ja) 2003-11-21 2003-11-21 楽曲自動分類装置及び方法
DE602004011305T DE602004011305T2 (de) 2003-11-21 2004-11-15 Vorrichtung und Verfahren zur automatischen Klassifikation von musikalischen Kompositionen
EP04027094A EP1533786B1 (en) 2003-11-21 2004-11-15 Automatic musical composition classification device and method
US10/988,535 US7250567B2 (en) 2003-11-21 2004-11-16 Automatic musical composition classification device and method
CN200410095250.4A CN1619640A (zh) 2003-11-21 2004-11-22 自动乐曲分类设备与方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003392292A JP4199097B2 (ja) 2003-11-21 2003-11-21 楽曲自動分類装置及び方法

Publications (2)

Publication Number Publication Date
JP2005156713A true JP2005156713A (ja) 2005-06-16
JP4199097B2 JP4199097B2 (ja) 2008-12-17

Family

ID=34431627

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003392292A Expired - Fee Related JP4199097B2 (ja) 2003-11-21 2003-11-21 楽曲自動分類装置及び方法

Country Status (5)

Country Link
US (1) US7250567B2 (ja)
EP (1) EP1533786B1 (ja)
JP (1) JP4199097B2 (ja)
CN (1) CN1619640A (ja)
DE (1) DE602004011305T2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007077993A1 (ja) * 2006-01-06 2007-07-12 Sony Corporation 情報処理装置および方法、並びに記録媒体
JP2008164932A (ja) * 2006-12-28 2008-07-17 Sony Corp 音楽編集装置および方法、並びに、プログラム
JP2008250047A (ja) * 2007-03-30 2008-10-16 Yamaha Corp 曲編集装置およびプログラム
JP2009025402A (ja) * 2007-07-17 2009-02-05 Yamaha Corp 楽曲加工装置およびプログラム
JP2009075495A (ja) * 2007-09-25 2009-04-09 Yamaha Corp 楽曲加工装置およびプログラム
JP2009092926A (ja) * 2007-10-09 2009-04-30 Yamaha Corp 楽曲加工装置およびプログラム
JP2012150244A (ja) * 2011-01-19 2012-08-09 Yahoo Japan Corp 楽曲レコメンド装置、方法及びプログラム

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10232916B4 (de) * 2002-07-19 2008-08-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Charakterisieren eines Informationssignals
JP4244133B2 (ja) * 2002-11-29 2009-03-25 パイオニア株式会社 楽曲データ作成装置及び方法
US20070280270A1 (en) * 2004-03-11 2007-12-06 Pauli Laine Autonomous Musical Output Using a Mutually Inhibited Neuronal Network
US20060272486A1 (en) * 2005-06-02 2006-12-07 Mediatek Incorporation Music editing method and related devices
KR100715949B1 (ko) * 2005-11-11 2007-05-08 삼성전자주식회사 고속 음악 무드 분류 방법 및 그 장치
JP4321518B2 (ja) * 2005-12-27 2009-08-26 三菱電機株式会社 楽曲区間検出方法、及びその装置、並びにデータ記録方法、及びその装置
KR100749045B1 (ko) * 2006-01-26 2007-08-13 삼성전자주식회사 음악 내용 요약본을 이용한 유사곡 검색 방법 및 그 장치
KR100717387B1 (ko) * 2006-01-26 2007-05-11 삼성전자주식회사 유사곡 검색 방법 및 그 장치
DE102006008298B4 (de) 2006-02-22 2010-01-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen eines Notensignals
DE102006008260B3 (de) * 2006-02-22 2007-07-05 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Analyse eines Audiodatums
KR100822376B1 (ko) * 2006-02-23 2008-04-17 삼성전자주식회사 곡명을 이용한 음악 주제 분류 방법 및 시스템
JP4665836B2 (ja) * 2006-05-31 2011-04-06 日本ビクター株式会社 楽曲分類装置、楽曲分類方法、及び楽曲分類プログラム
WO2008018056A2 (en) 2006-08-07 2008-02-14 Silpor Music Ltd. Automatic analasis and performance of music
US7873634B2 (en) * 2007-03-12 2011-01-18 Hitlab Ulc. Method and a system for automatic evaluation of digital files
US8058544B2 (en) * 2007-09-21 2011-11-15 The University Of Western Ontario Flexible music composition engine
JP5104709B2 (ja) * 2008-10-10 2012-12-19 ソニー株式会社 情報処理装置、プログラム、および情報処理方法
JP5463655B2 (ja) * 2008-11-21 2014-04-09 ソニー株式会社 情報処理装置、音声解析方法、及びプログラム
TWI417804B (zh) * 2010-03-23 2013-12-01 Univ Nat Chiao Tung 樂曲分類方法及樂曲分類系統
JP5659648B2 (ja) * 2010-09-15 2015-01-28 ヤマハ株式会社 コード検出装置およびコード検出方法を実現するためのプログラム
US8965766B1 (en) * 2012-03-15 2015-02-24 Google Inc. Systems and methods for identifying music in a noisy environment
US10242097B2 (en) * 2013-03-14 2019-03-26 Aperture Investments, Llc Music selection and organization using rhythm, texture and pitch
US11271993B2 (en) 2013-03-14 2022-03-08 Aperture Investments, Llc Streaming music categorization using rhythm, texture and pitch
US10623480B2 (en) 2013-03-14 2020-04-14 Aperture Investments, Llc Music categorization using rhythm, texture and pitch
US10061476B2 (en) 2013-03-14 2018-08-28 Aperture Investments, Llc Systems and methods for identifying, searching, organizing, selecting and distributing content based on mood
US10225328B2 (en) 2013-03-14 2019-03-05 Aperture Investments, Llc Music selection and organization using audio fingerprints
US20220147562A1 (en) 2014-03-27 2022-05-12 Aperture Investments, Llc Music streaming, playlist creation and streaming architecture
US9263013B2 (en) * 2014-04-30 2016-02-16 Skiptune, LLC Systems and methods for analyzing melodies
CN104951485A (zh) * 2014-09-02 2015-09-30 腾讯科技(深圳)有限公司 音乐文件的数据处理方法和装置
CN104281682A (zh) * 2014-09-30 2015-01-14 圆刚科技股份有限公司 文件分类系统及方法
US9734810B2 (en) * 2015-09-23 2017-08-15 The Melodic Progression Institute LLC Automatic harmony generation system
US10854180B2 (en) 2015-09-29 2020-12-01 Amper Music, Inc. Method of and system for controlling the qualities of musical energy embodied in and expressed by digital music to be automatically composed and generated by an automated music composition and generation engine
US9721551B2 (en) * 2015-09-29 2017-08-01 Amper Music, Inc. Machines, systems, processes for automated music composition and generation employing linguistic and/or graphical icon based musical experience descriptions
JP6500869B2 (ja) * 2016-09-28 2019-04-17 カシオ計算機株式会社 コード解析装置、方法、及びプログラム
JP6500870B2 (ja) * 2016-09-28 2019-04-17 カシオ計算機株式会社 コード解析装置、方法、及びプログラム
CN107220281B (zh) * 2017-04-19 2020-02-21 北京协同创新研究院 一种音乐分类方法及装置
US10424280B1 (en) 2018-03-15 2019-09-24 Score Music Productions Limited Method and system for generating an audio or midi output file using a harmonic chord map
CN108597535B (zh) * 2018-03-29 2021-10-26 华南理工大学 一种融合伴奏的midi钢琴曲风格分类方法
CN109935222B (zh) * 2018-11-23 2021-05-04 咪咕文化科技有限公司 一种构建和弦转换向量的方法、装置及计算机可读存储介质
CN110472097A (zh) * 2019-07-03 2019-11-19 平安科技(深圳)有限公司 乐曲自动分类方法、装置、计算机设备和存储介质
US10964299B1 (en) 2019-10-15 2021-03-30 Shutterstock, Inc. Method of and system for automatically generating digital performances of music compositions using notes selected from virtual musical instruments based on the music-theoretic states of the music compositions
US11037538B2 (en) 2019-10-15 2021-06-15 Shutterstock, Inc. Method of and system for automated musical arrangement and musical instrument performance style transformation supported within an automated music performance system
US11024275B2 (en) 2019-10-15 2021-06-01 Shutterstock, Inc. Method of digitally performing a music composition using virtual musical instruments having performance logic executing within a virtual musical instrument (VMI) library management system
CN111081209B (zh) * 2019-12-19 2022-06-07 中国地质大学(武汉) 基于模板匹配的中国民族音乐调式识别方法
US11763787B2 (en) * 2020-05-11 2023-09-19 Avid Technology, Inc. Data exchange for music creation applications
CN117037837B (zh) * 2023-10-09 2023-12-12 广州伏羲智能科技有限公司 基于音轨分离技术的噪声分离方法和装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6026091U (ja) * 1983-07-29 1985-02-22 ヤマハ株式会社 和音表示装置
JPH05173557A (ja) * 1991-12-25 1993-07-13 Brother Ind Ltd 自動採譜装置
JPH06290574A (ja) * 1993-03-31 1994-10-18 Victor Co Of Japan Ltd 楽曲検索装置
JPH0744163A (ja) * 1993-07-27 1995-02-14 Nec Corp 自動採譜装置
JPH10161654A (ja) * 1996-11-27 1998-06-19 Sanyo Electric Co Ltd 音楽ジャンル判定装置
JP2000268541A (ja) * 1999-03-16 2000-09-29 Sony Corp 音楽ソフト自動分類装置
JP2002041527A (ja) * 2000-07-24 2002-02-08 Alpine Electronics Inc 音楽情報管理方法及び音楽情報管理装置
JP2002091433A (ja) * 2000-09-19 2002-03-27 Fujitsu Ltd メロディー情報の抽出方法その装置
JP2003058147A (ja) * 2001-08-10 2003-02-28 Sony Corp 音楽コンテンツ自動分類装置及び自動分類方法
JP2003084774A (ja) * 2001-09-07 2003-03-19 Alpine Electronics Inc 楽曲の選択方法及び装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4951544A (en) * 1988-04-06 1990-08-28 Cadio Computer Co., Ltd. Apparatus for producing a chord progression available for a melody
US5179241A (en) * 1990-04-09 1993-01-12 Casio Computer Co., Ltd. Apparatus for determining tonality for chord progression
US5451709A (en) * 1991-12-30 1995-09-19 Casio Computer Co., Ltd. Automatic composer for composing a melody in real time
US5510572A (en) * 1992-01-12 1996-04-23 Casio Computer Co., Ltd. Apparatus for analyzing and harmonizing melody using results of melody analysis
JP2001297093A (ja) 2000-04-14 2001-10-26 Alpine Electronics Inc 音楽配給システムおよびサーバ装置
WO2002001548A1 (en) * 2000-06-23 2002-01-03 Music Buddha, Inc. System for characterizing pieces of music
JP2002041059A (ja) 2000-07-28 2002-02-08 Nippon Telegraph & Telephone East Corp 音楽コンテンツ配信装置およびその方法
JP3829632B2 (ja) * 2001-02-20 2006-10-04 ヤマハ株式会社 演奏情報選択装置
JP4027051B2 (ja) 2001-03-22 2007-12-26 松下電器産業株式会社 楽曲登録装置、楽曲登録方法、及びそのプログラムと記録媒体

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6026091U (ja) * 1983-07-29 1985-02-22 ヤマハ株式会社 和音表示装置
JPH05173557A (ja) * 1991-12-25 1993-07-13 Brother Ind Ltd 自動採譜装置
JPH06290574A (ja) * 1993-03-31 1994-10-18 Victor Co Of Japan Ltd 楽曲検索装置
JPH0744163A (ja) * 1993-07-27 1995-02-14 Nec Corp 自動採譜装置
JPH10161654A (ja) * 1996-11-27 1998-06-19 Sanyo Electric Co Ltd 音楽ジャンル判定装置
JP2000268541A (ja) * 1999-03-16 2000-09-29 Sony Corp 音楽ソフト自動分類装置
JP2002041527A (ja) * 2000-07-24 2002-02-08 Alpine Electronics Inc 音楽情報管理方法及び音楽情報管理装置
JP2002091433A (ja) * 2000-09-19 2002-03-27 Fujitsu Ltd メロディー情報の抽出方法その装置
JP2003058147A (ja) * 2001-08-10 2003-02-28 Sony Corp 音楽コンテンツ自動分類装置及び自動分類方法
JP2003084774A (ja) * 2001-09-07 2003-03-19 Alpine Electronics Inc 楽曲の選択方法及び装置

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007077993A1 (ja) * 2006-01-06 2007-07-12 Sony Corporation 情報処理装置および方法、並びに記録媒体
JP2007183417A (ja) * 2006-01-06 2007-07-19 Sony Corp 情報処理装置および方法、並びにプログラム
JP4650270B2 (ja) * 2006-01-06 2011-03-16 ソニー株式会社 情報処理装置および方法、並びにプログラム
US8008568B2 (en) 2006-01-06 2011-08-30 Sony Corporation Information processing device and method, and recording medium
CN101366071B (zh) * 2006-01-06 2013-05-15 索尼株式会社 信息处理设备和方法、以及记录介质
JP2008164932A (ja) * 2006-12-28 2008-07-17 Sony Corp 音楽編集装置および方法、並びに、プログラム
JP2008250047A (ja) * 2007-03-30 2008-10-16 Yamaha Corp 曲編集装置およびプログラム
JP4613924B2 (ja) * 2007-03-30 2011-01-19 ヤマハ株式会社 曲編集装置およびプログラム
JP2009025402A (ja) * 2007-07-17 2009-02-05 Yamaha Corp 楽曲加工装置およびプログラム
JP2009075495A (ja) * 2007-09-25 2009-04-09 Yamaha Corp 楽曲加工装置およびプログラム
JP2009092926A (ja) * 2007-10-09 2009-04-30 Yamaha Corp 楽曲加工装置およびプログラム
JP2012150244A (ja) * 2011-01-19 2012-08-09 Yahoo Japan Corp 楽曲レコメンド装置、方法及びプログラム

Also Published As

Publication number Publication date
EP1533786B1 (en) 2008-01-16
DE602004011305T2 (de) 2009-01-08
EP1533786A1 (en) 2005-05-25
US7250567B2 (en) 2007-07-31
DE602004011305D1 (de) 2008-03-06
JP4199097B2 (ja) 2008-12-17
US20050109194A1 (en) 2005-05-26
CN1619640A (zh) 2005-05-25

Similar Documents

Publication Publication Date Title
JP4199097B2 (ja) 楽曲自動分類装置及び方法
US8642872B2 (en) Music steering with automatically detected musical attributes
Lidy et al. On the suitability of state-of-the-art music information retrieval methods for analyzing, categorizing and accessing non-western and ethnic music collections
US9875304B2 (en) Music selection and organization using audio fingerprints
CN102760426B (zh) 使用表示乐音生成模式的演奏数据搜索
US20170300567A1 (en) Media content items sequencing
US10225328B2 (en) Music selection and organization using audio fingerprints
JP4313563B2 (ja) 楽曲検索装置及び方法
US20150220633A1 (en) Music selection and organization using rhythm, texture and pitch
TW200818116A (en) Taste profile production apparatus, taste profile production method and computer readable medium storing profile production programs
US20210335333A1 (en) Computing orders of modeled expectation across features of media
JP3484986B2 (ja) 自動作曲装置、自動作曲方法および記憶媒体
CN112382257B (zh) 一种音频处理方法、装置、设备及介质
CN113836344A (zh) 个性化歌曲文件生成方法和装置、音乐演唱设备
JP2008197678A (ja) オンライン作曲のためのシステム、方法及びコンピュータ読取り可能な記録媒体
JP2008216486A (ja) 音楽再生システム
JP6288197B2 (ja) 評価装置及びプログラム
CN110134823B (zh) 基于归一化音符显马尔可夫模型的midi音乐流派分类方法
JP6102076B2 (ja) 評価装置
JP2007256619A (ja) 評価装置、制御方法及びプログラム
JP2007156187A (ja) 楽曲処理装置
JP2005321460A (ja) 映像データへの楽曲データ付加装置
JP6611633B2 (ja) カラオケシステム用サーバ
JP3775249B2 (ja) 自動作曲装置及び自動作曲プログラム
KR102490769B1 (ko) 음악적 요소를 이용한 인공지능 기반의 발레동작 평가 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080624

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080930

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081002

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111010

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111010

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121010

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121010

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131010

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees