JP2005077865A - 音楽検索システムおよび方法、情報処理装置および方法、プログラム、並びに記録媒体 - Google Patents
音楽検索システムおよび方法、情報処理装置および方法、プログラム、並びに記録媒体 Download PDFInfo
- Publication number
- JP2005077865A JP2005077865A JP2003309482A JP2003309482A JP2005077865A JP 2005077865 A JP2005077865 A JP 2005077865A JP 2003309482 A JP2003309482 A JP 2003309482A JP 2003309482 A JP2003309482 A JP 2003309482A JP 2005077865 A JP2005077865 A JP 2005077865A
- Authority
- JP
- Japan
- Prior art keywords
- search
- data
- music
- information
- sound data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】 所望の音楽をより迅速かつ確実に検索できるようにする。
【解決手段】 検索装置から送信されたクエリの音片を周波数変換部581で周波数スペクトルに分解し、検索候補絞込み部584が、検索対象候補となる音楽データを絞り込む。類似検索データ作成部104は、音楽DB103の音楽データを予め自己組織化マップにより、カテゴリ列に分類しており、クエリの音片と同じカテゴリ列の音楽データの情報を検索対象候補として検索候補絞り込み部584に提供する。パターンマッチング部582は、検索対象候補の音楽データとクエリの音片との類似度を表す評価値を演算し、スコアソート部583で検索結果を出力する。本発明は音楽の曲名を検索する装置に適用することができる。
【選択図】 図23
【解決手段】 検索装置から送信されたクエリの音片を周波数変換部581で周波数スペクトルに分解し、検索候補絞込み部584が、検索対象候補となる音楽データを絞り込む。類似検索データ作成部104は、音楽DB103の音楽データを予め自己組織化マップにより、カテゴリ列に分類しており、クエリの音片と同じカテゴリ列の音楽データの情報を検索対象候補として検索候補絞り込み部584に提供する。パターンマッチング部582は、検索対象候補の音楽データとクエリの音片との類似度を表す評価値を演算し、スコアソート部583で検索結果を出力する。本発明は音楽の曲名を検索する装置に適用することができる。
【選択図】 図23
Description
本発明は、音楽検索システムおよび方法、情報処理装置および方法、プログラム、並びに記録媒体に関し、特に所望の音楽をより迅速かつ確実に検索できるようにする音楽検索システムおよび方法、情報処理装置および方法、プログラム、並びに記録媒体に関する。
近年、コンテンツとして音楽が放送された場合、放送された音楽の曲名、アーティスト名などの情報を取得するニーズが高まってきている。この場合、ユーザは、音楽が放送された放送局などを調べて音楽の情報を取得する必要があり、情報の取得(検索)に手間がかかる。
そこで、本出願人は、音声で入力されたメロディに基づいて、そのメロディを有する可能性のある音楽を検索し、その情報をユーザに提供する技術を先に提案した(例えば、特許文献1参照)。
しかしながら、特許文献1の技術では、検索したい音楽のメロディをユーザが発声して入力し、入力されたメロディに対応する音楽を膨大な量の音楽データの中から検索しなければならず、また、入力されたメロディは検索対象の音楽のどの部分なのか特定できないため、検索の対象となるデータ量が多く、検索に時間がかかるという課題があった。
本発明はこのような状況に鑑みてなされたものであり、所望の音楽をより迅速かつ確実に検索できるようにするものである。
本発明の音楽検索システムは、ネットワークを介して相互に接続される第1の情報処理装置と第2の情報処理装置からなる音楽検索システムであって、第1の情報処理装置は、第1の情報処理装置の周囲の音のデータであって、予め設定された時間分の最新の音データを記録する記録手段と、検索すべきデータの生成を指令する指令手段と、指令手段により検索すべきデータの生成が指令された場合、記録手段により記録されている音データから検索データを生成する生成手段と、生成手段により生成された検索データを、第2の情報処理装置にネットワークを介して送信する送信手段とを備え、第2の情報処理装置は、複数の音楽の周波数スペクトルの特徴量を記憶する記憶手段と、第1の情報処理装置から送信された検索データの音データの周波数スペクトルの特徴量と、記憶手段により記憶されている周波数スペクトルの特徴量を比較して、検索データの音データと類似度が高い音楽の情報を検索する検索手段と検索手段により検索された音楽の情報を提供する提供手段とを備えることを特徴とする。
本発明の音楽検索方法は、ネットワークを介して相互に接続される第1の情報処理装置と第2の情報処理装置からなる音楽検索システムの音楽検索方法であって、第1の情報処理装置は、第1の情報処理装置の周囲の音のデータであって、予め設定された時間分の最新の音データを記録し、検索すべきデータの生成が指令されたか否かを判定し、検索すべきデータの生成が指令された場合、記録されている音データから検索データを生成し、生成された検索データを、第2の情報処理装置にネットワークを介して送信し、第2の情報処理装置は、複数の音楽の周波数スペクトルの特徴量を記憶し、第1の情報処理装置から送信された検索データの音データの周波数スペクトルの特徴量と、記憶されている周波数スペクトルの特徴量を比較して、検索データの音データと類似度が高い音楽の情報を検索し、検索された音楽の情報を提供することを特徴とする。
本発明の音楽検索システムおよび方法においては、第1の情報処理装置により、第1の情報処理装置の周囲の音のデータであって、予め設定された時間分の最新の音データを記録され、検索すべきデータの生成が指令されたか否かが判定され、検索すべきデータの生成が指令された場合、記録されている音データから検索データを生成され、生成された検索データが、第2の情報処理装置にネットワークを介して送信される。また、第2の情報処理装置により、複数の音楽の周波数スペクトルの特徴量が記憶され、第1の情報処理装置から送信された検索データの音データの周波数スペクトルの特徴量と、記憶されている周波数スペクトルの特徴量が比較され、検索データの音データと類似度が高い音楽の情報を検索され、検索された音楽の情報が提供される。
本発明の情報処理装置は、複数の音楽の周波数スペクトルの特徴量を記憶する記憶手段と、入力された検索データの音データの周波数スペクトルの特徴量と、記憶手段に記憶されている周波数スペクトルの特徴量を比較して、検索データの音データと類似度が高い音楽の情報を検索する検索手段と、検索手段により検索された音楽の情報を提供する提供手段とを備えることを特徴とする。
複数の音楽の音データを取得し、音データの周波数に基づいて、複数のベクトルを生成するベクトル生成手段と、ベクトル生成手段により生成された複数のベクトルをニューラルネットワークの自己組織化マップに入力し、自己組織化マップの出力層のクラスタ情報に基づいて、音楽の音データのクラスタ列を生成するクラスタ生成手段とを備え、クラスタ列を周波数スペクトルの特徴量として、記憶手段に記憶するようにすることができる。
前記クラスタ生成手段は、自己組織化マップ内のニューロン間の距離に基づいて、自己組織化マップの出力層を複数のクラスタに分割するようにすることができる。
前記クラスタ生成手段により生成されたクラスタ列に基づいて、木構造のインデックス情報を生成するインデックス生成手段をさらに備え、インデックス情報に基づいて、音楽の情報が特定されるようにすることができる。
前記検索手段は、検索データの音データに基づいて周波数スペクトルを生成するスペクトル生成手段と、スペクトル生成手段に生成された周波数スペクトルに基づいて、複数のベクトルを生成し、検索する対象となる音楽の音データを生成する検索対象データ生成手段とを備えるようにすることができる。
前記検索対象データ生成手段は、複数のベクトルのクラスタ列に基づくインデックス情報を求め、求めたインデックス情報に基づいて、音楽の情報を取得し、取得した音楽の情報に基づいて、検索する対象となる音データを生成するようにすることができる。
前記検索手段は、検索データの音データと、検索対象データ生成手段により生成された音データを比較して、検索データの音データと、検索対象データ生成手段により生成された音データの類似度を表す評価値を演算する演算手段と、演算手段により演算された評価値が予め設定された基準を満足する前記音データを選択する選択手段とをさらに備えるようにすることができる。
前記検索対象データ生成手段は、演算手段により演算された評価値が予め設定された基準を満足する音データがない場合、インデックス情報に基づいて、新たな音楽の情報を取得し、取得された音楽の情報に基づいて、新たに検索する対象となる音楽の音データを生成するようにすることができる。
本発明の情報処理方法は、ネットワークを介して他の情報処理装置と接続され、複数の音楽の情報を記憶する情報処理装置の情報処理方法であって、記憶されている音楽の情報に基づいて、周波数スペクトルの特徴量を生成して記憶する記憶ステップと、入力された検索データの音データの周波数スペクトルの特徴量と、記憶ステップの処理により記憶された周波数スペクトルの特徴量を比較して、検索データの音データと類似度が高い音楽の情報を検索する検索ステップと、検索ステップの処理により検索された音楽の情報を出力する出力ステップとを含むことを特徴とする。
本発明のプログラムは、ネットワークを介して他の情報処理装置と接続され、複数の音楽の情報を記憶する情報処理装置のプログラムであって、記憶されている音楽の情報に基づいて、周波数スペクトルの特徴量を生成して記憶するように制御する記憶制御ステップと、入力された検索データの音データの周波数スペクトルの特徴量と、記憶制御ステップの処理により記憶された周波数スペクトルの特徴量を比較して、検索データの音データと類似度が高い音楽の情報を検索するように制御する検索制御ステップと、検索制御ステップの処理により検索された音楽の情報の出力を制御する出力制御ステップとをコンピュータに実行させることを特徴とする。
本発明の記録媒体は、ネットワークを介して他の情報処理装置と接続され、複数の音楽の情報を記憶する情報処理装置のプログラムが記録される記録媒体であって、記憶されている音楽の情報に基づいて、周波数スペクトルの特徴量を生成して記憶するように制御する記憶制御ステップと、入力された検索データの音データの周波数スペクトルの特徴量と、記憶制御ステップの処理により記憶された周波数スペクトルの特徴量を比較して、検索データの音データと類似度が高い音楽の情報を検索するように制御する検索制御ステップと、検索制御ステップの処理により検索された音楽の情報の出力を制御する出力制御ステップとをコンピュータに実行させるプログラムが記録されることを特徴とする。
本発明の情報処理装置および方法、並びにプログラムにおいては、記憶されている音楽の情報に基づいて、周波数スペクトルの特徴量が生成されて記憶され、入力された検索データの音データの周波数スペクトルの特徴量と、記憶された周波数スペクトルの特徴量が比較されて、検索データの音データと類似度が高い音楽の情報が検索され、検索された音楽の情報が出力される。
本発明によれば、音楽を検索することができる。特に、所望の音楽を迅速かつ確実に検索することができる。
以下に本発明の実施の形態を説明するが、本明細書に記載した発明と、発明の実施の形態との対応関係を例示すると、次のようになる。この記載は、本明細書に記載されている発明をサポートする実施の形態が明細書に記載されていることを確認するためのものである。従って、明細書には記載されているが、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その発明に対応するものではないことを意味するものではない。逆に、実施の形態が発明に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その発明以外の発明には対応しないものであることを意味するものでもない。
さらに、この記載は、明細書に記載されている発明が、全て請求されていることを意味するものではない。換言すれば、この記載は、明細書に記載されている発明であって、この出願では請求されていない発明の存在、すなわち、将来、分割出願されたり、補正により出願、または追加される発明の存在を否定するものではない。
本発明により音楽検索システムが提供される。この音楽検索システムは、ネットワークを介して相互に接続される第1の情報処理装置(例えば、図1の検索装置1)と第2の情報処理装置(例えば、図1のサーバ3)からなる音楽検索システムであって、前記第1の情報処理装置は、前記第1の情報処理装置の周囲の音のデータであって、予め設定された時間分の最新の音データを記録する記録手段(例えば、図2の音バッファ62)と、検索すべきデータの生成を指令する指令手段(例えば、図1の検索ボタン41)と、前記指令手段により検索すべきデータの生成が指令された場合、前記記録手段により記録されている音データから検索データを生成する生成手段(例えば、図3のクエリ作成部91)と、前記生成手段により生成された前記検索データを、前記第2の情報処理装置に前記ネットワークを介して送信する送信手段(例えば、図3の検索実行部92)とを備え、前記第2の情報処理装置は、複数の音楽の周波数スペクトルの特徴量を記憶する記憶手段(例えば、図4の音楽DB103)と、前記第1の情報処理装置から送信された検索データの音データの周波数スペクトルの特徴量と、前記記憶手段により記憶されている周波数スペクトルの特徴量を比較して、前記検索データの音データと類似度が高い音楽の情報を検索する検索手段(例えば、図4の検索部102)と前記検索手段により検索された音楽の情報を提供する提供手段(例えば、図4の通信部110)とを備える。
本発明により音楽検索方法が提供される。この音楽検索方法は、ネットワークを介して相互に接続される第1の情報処理装置(例えば、図1の検索装置1)と第2の情報処理装置(例えば、図1のサーバ3)からなる音楽検索システムの音楽検索方法であって、前記第1の情報処理装置は、前記第1の情報処理装置の周囲の音のデータであって、予め設定された時間分の最新の音データを記録し、検索すべきデータの生成が指令されたか否かを判定し(例えば、図21のステップS101)、検索すべきデータの生成が指令された場合、記録されている前記音データから検索データを生成し(例えば、図21のステップS103)、生成された前記検索データを、前記第2の情報処理装置に前記ネットワークを介して送信し(例えば、図22のステップS123)、前記第2の情報処理装置は、複数の音楽の周波数スペクトルの特徴量を記憶し(例えば、図6の類似検索データ作成処理)、前記第1の情報処理装置から送信された検索データの音データの周波数スペクトルの特徴量と、記憶されている周波数スペクトルの特徴量を比較して、前記検索データの音データと類似度が高い音楽の情報を検索し(例えば、図24のステップS143)、検索された音楽の情報を提供する。
本発明により情報処理装置が提供される。この情報処理装置は、複数の音楽の周波数スペクトルの特徴量を記憶する記憶手段(例えば、図5のツリーインデックスDB134)と、入力された検索データの音データの周波数スペクトルの特徴量と、前記記憶手段に記憶されている周波数スペクトルの特徴量を比較して、前記検索データの音データと類似度が高い音楽の情報を検索する検索手段(例えば、図4の検索部102)と、前記検索手段により検索された音楽の情報を提供する提供手段(例えば、図4の通信部110)とを備える。
この情報処理装置は、複数の音楽の音データを取得し、前記音データの周波数に基づいて、複数のベクトル(例えば、図9のベクトル列201)を生成するベクトル生成手段(例えば、図5のベクトル生成部131)と、前記ベクトル生成手段により生成された複数のベクトルをニューラルネットワークの自己組織化マップに入力し、自己組織化マップの出力層のクラスタ情報に基づいて、前記音楽の音データのクラスタ列(例えば、図19のクラスタ列421)を生成するクラスタ生成手段(例えば、図5の分類部132)とを備え、前記クラスタ列を前記周波数スペクトルの特徴量として、前記記憶手段に記憶するようにすることができる。
この情報処理装置は、前記クラスタ生成手段が、前記自己組織化マップ内のニューロン間の距離(例えば、図15の距離272−2と272−3)に基づいて、前記自己組織化マップの出力層(例えば、図18の出力層371)を複数のクラスタ(例えば、図18のクラスタ391乃至393)に分割するようにすることができる。
この情報処理装置は、前記クラスタ生成手段により生成されたクラスタ列に基づいて、木構造のインデックス情報を生成するインデックス生成手段(例えば、図5のインデックスデータ制御部133)をさらに備え、前記インデックス情報に基づいて、前記音楽の情報が特定されるようにすることができる。
この情報処理装置は、前記検索手段が、前記検索データの音データに基づいて周波数スペクトルを生成するスペクトル生成手段(例えば、図23の周波数変換部581)と、前記スペクトル生成手段に生成された周波数スペクトルに基づいて、複数のベクトルを生成し、検索する対象となる音楽の音データ(例えば、図27の検索対象候補データ621−1と621−2)を生成する検索対象データ生成手段(例えば、図23の検索候補絞り込み部584)とを備えるようにすることができる。
この情報処理装置は、前記検索対象データ生成手段が、前記複数のベクトルのクラスタ列に基づくインデックス情報を求め、求めたインデックス情報に基づいて、前記音楽の情報(例えば、図27のスタックの情報メモリ504に記憶される情報)を取得し、取得した音楽の情報に基づいて、前記検索する対象となる音データを生成するようにすることができる。
この情報処理装置は、前記検索手段が、前記検索データの音データと、前記検索対象データ生成手段により生成された音データを比較して、前記検索データの音データと、前記検索対象データ生成手段により生成された音データの類似度を表す評価値を演算する演算手段(例えば、図23のパターンマッチング部582)と、前記演算手段により演算された評価値が予め設定された基準を満足する前記音データを選択する選択手段(例えば、図23のスコアソート部583)とをさらに備えるようにすることができる。
この情報処理装置は、前記検索対象データ生成手段が、前記演算手段により演算された評価値が予め設定された基準を満足する前記音データがない場合、前記インデックス情報に基づいて、新たな音楽の情報(例えば、図27のスタックのポインタメモリ505に記憶されるポインタ)を取得し、取得された音楽の情報に基づいて、新たに検索する対象となる音楽の音データを生成する(例えば、図28のステップS187の処理)ようにすることができる。
本発明により情報処理方法が提供される。この情報処理方法は、ネットワークを介して他の情報処理装置と接続され、複数の音楽の情報を記憶する情報処理装置(例えば、図1のサーバ3)の情報処理方法であって、記憶されている音楽の情報に基づいて、周波数スペクトルの特徴量を生成して記憶する記憶ステップ(例えば、図6の類似データ作成処理)と、入力された検索データの音データの周波数スペクトルの特徴量と、前記記憶ステップの処理により記憶された周波数スペクトルの特徴量を比較して、前記検索データの音データと類似度が高い音楽の情報を検索する検索ステップ(例えば、図24のステップS143)と、前記検索ステップの処理により検索された音楽の情報を出力する出力ステップ(例えば、図24のステップS145)とを含む。
本発明によりプログラムが提供される。このプログラムは、ネットワークを介して他の情報処理装置と接続され、複数の音楽の情報を記憶する情報処理装置(例えば、図1のサーバ3)のプログラムであって、記憶されている音楽の情報に基づいて、周波数スペクトルの特徴量を生成して記憶するように制御する記憶制御ステップ(例えば、図6の類似データ作成処理)と、入力された検索データの音データの周波数スペクトルの特徴量と、前記記憶制御ステップの処理により記憶された周波数スペクトルの特徴量を比較して、前記検索データの音データと類似度が高い音楽の情報を検索するように制御する検索制御ステップ(例えば、図24のステップS143)と、前記検索制御ステップの処理により検索された音楽の情報の出力を制御する出力制御ステップ(例えば、図24のステップS145)とをコンピュータに実行させる。
本発明により記録媒体が提供される。この記録媒体には、ネットワークを介して他の情報処理装置と接続され、複数の音楽の情報を記憶する情報処理装置(例えば、図1のサーバ3)のプログラムが記録される記録媒体であって、記憶されている音楽の情報に基づいて、周波数スペクトルの特徴量を生成して記憶するように制御する記憶制御ステップ(例えば、図6の類似データ作成処理)と、入力された検索データの音データの周波数スペクトルの特徴量と、前記記憶制御ステップの処理により記憶された周波数スペクトルの特徴量を比較して、前記検索データの音データと類似度が高い音楽の情報を検索するように制御する検索制御ステップ(例えば、図24のステップS143)と、前記検索制御ステップの処理により検索された音楽の情報の出力を制御する出力制御ステップ(例えば、図24のステップS145)とをコンピュータに実行させるプログラムが記録される。
以下、図面を参照して、本発明の実施の形態について説明する。図1は、本発明を適用した音楽検索システムの構成例を示す図である。この構成例においては、インターネットなどに代表されるネットワーク4を介して、サーバ3と基地局2が接続されている。基地局2と検索装置1とは、無線により接続されており、検索装置1は、基地局2とネットワーク4を介してサーバ3と通信を行う。
例えば、PDA(Personal Digital Assistants)で構成される検索装置1の上部には、基地局2と無線による通信を行う通信アンテナ21、および検索装置1の周辺の音を入力(収音)するマイクロフォン22が設けられている。マイクロフォン22は、必要に応じて検索装置1から取り外せるように構成されている。
検索装置1の右下には、操作パネルなどにより構成される入力インタフェース23が設けられ、その左側には、音声信号に基づいて音を発生するスピーカ24が設けられている。入力インタフェース24には、音楽の検索を行うとき操作される検索ボタン41が設けられている。
入力インタフェース23の上方には、例えば、LCD(Liquid Crystal Display)により構成される表示部25が設けられている。ユーザが入力インタフェース23を操作して音楽の検索を指令すると、検索結果が表示部25に表示される。また、表示部25には必要に応じてGUI(Graphical User Interface)が表示され、ユーザは、GUIに基づいて入力インタフェース23を操作し、必要に応じて、表示部25に音楽の情報を表示し、スピーカ24から音を出力させる。
図2は、検索装置1の構成例を示すブロック図である。マイクロフォン22は、検索装置1の周囲の音を収集し、その音のデータを音バッファ62により入力する。音バッファ62は、マイクロフォン22から入力された音データを予め設定された時間分だけ蓄積する。入力部61は、音バッファ62を制御して、音データを読み出し、バス63を介して各部に出力する。出力部64は、スピーカ24または表示部25へのデータの出力を制御する。クエリバッファ65は、検索を行うとき必要な音データなどで構成されるクエリを蓄積し、CPU(Central Processing Unit)66の制御に基づいて、クエリを各部に出力する。
CPU66は、バス63を介して各部を制御し、必要に応じて、RAM(Random Access Memory)67にデータを一時的に記憶する。ROM(Read Only Memory)68には、検索装置1を動作させるために必要なプログラム、初期値などのデータが記憶される。通信部80は、通信アンテナ21と接続されており、CPU66の制御に基づいて、データの送受信を行う。
図3は、図2のCPU66の機能的構成例を示すブロック図である。クエリ作成部91は、音楽を検索するとき必要なデータであるクエリを作成する。クエリは、検索ボタン41が押下されたときの時刻を表す情報、音バッファ62に記憶されている音データ、検索装置1を特定するID情報などにより構成される。検索実行部92は、クエリをサーバ3に送信し、サーバ3により検索された音楽の情報を取得する。
図4は、サーバ3の構成例を示すブロック図である。入力部101は、キーボード、マウスなどにより構成され、ユーザの操作入力を受け付ける。検索部102は、検索装置1から送信されたクエリに基づいて、音楽情報の検索を行う。音楽DB(データベース)103には、各種の音楽がA/D変換されディジタルデータとして記憶されており、音楽DB103に記憶されたデータは、バス106を介して各部へ提供される。
類似検索データ作成部104は、クエリに基づいて、音楽データを検索するとき、検索される音楽データを絞り込むためのデータ(類似検索データ)の作成を行う部分であり、音楽DB103に記憶される音楽データを、予め周波数ベクトルに変換し、その周波数ベクトルに基づいて、SOM(Self Organization Maps:自己組織化マップ)を生成する。そして、自己組織化マップに基づいて、音楽データをクラスタ列に分類し、クラスタ列に対応するツリーインデックスデータベースを類似検索データとして作成する。なお、ツリーインデックスデータベースについては後述する。
また、クエリに基づいて、音楽データの検索を行う場合、類似検索データ作成部104は、検索部102から供給されるクエリの周波数ベクトルに基づいて、ツリーインデックスデータベースを検索し、ツリーインデックスに対応するスタックに記憶される情報を検索部102に提供する。
CPU(Central Processing Unit)107は、ROM(Read Only Memory)109に記憶されているプログラム、または図示せぬハードディスクなどの記憶部からRAM(Random Access Memory)108にロードされたプログラムに従って各種の処理を実行する。RAM108にはまた、CPU107が各種の処理を実行する上において必要なデータなども適宜記憶される。通信部110は、ネットワーク4を介しての通信処理を行う。
図5は、類似検索データ作成部104の機能的構成例を示すブロック図である。ベクトル生成部131は、入力された音楽データを周波数ベクトルに変換し、分類部132に供給する。
分類部132は、入力された周波数ベクトルに基づいて自己組織化マップ(SOM)を生成する。上述したように、本発明においては、SOMを用いて、音楽データを分類する。SOMは、ニューラルネットワークにより構成され、入力層において入力されたベクトルに対応して、出力層の状態を変化させるアルゴリズムであり、その詳細については、例えば、「自己組織化マップ」、T.コホネン 著、徳高平蔵/岸田悟/藤村喜久郎 訳、シュプリンガーフェアラーク東京出版、「自己組織化マップの応用−多次元情報の2次元可視化」、徳高平蔵/岸田悟/藤村喜久郎 著、海文堂などに記載されている。また、分類部132は、生成されたSOMをクラスタに分類し、分類されたクラスタを特定する情報をインデックスデータ制御部133に供給する。
インデックスデータ制御部133は、その音楽データの周波数ベクトルに基づくクラスタ列を生成し、クラスタ列をツリー状のインデックスデータとして、ツリーインデックスDB(データベース)134に記憶する。また、インデックスデータ制御部133は、音楽データの検索を行う場合、検索部102から供給されるクエリに基づいて、ツリーインデックスを検索し、検索結果を検索部102に提供する。
次に、図6を参照して、類似検索データ生成処理について説明する。この処理は、サーバ3において、所定の周期(例えば、1日毎)で実行されるようにしてもよいし、サーバ3のユーザ(管理者)からの指令に基づいて実行されるようにしてもよい。
ステップS1において、ベクトル生成部131は、図7を参照して後述するベクトル生成処理を実行する。これにより、音楽データに基づいて、周波数ベクトルが生成される。ステップS2において、分類部132は、図10を参照して後述するクラスタ分類処理を実行する。これにより、周波数ベクトルに基づいてクラスタが特定される。ステップS3において、インデックスデータ制御部133は、ステップS3で特定されたクラスタに基づいて、図17を参照して後述するクラスタインデックスツリー作成処理を実行する。これにより、その音楽データのクラスタ列が求められ、クラスタ列に対応するツリーインデックスが作成される。
次に、図7を参照して、図6のステップS1のベクトル生成処理の詳細について説明する。ステップS21において、ベクトル生成部131は、音楽DB103に記憶されている音楽データを周波数スペクトルに変換する。ステップS22において、ベクトル生成部131は、ステップS21で得られた周波数スペクトルに基づいて、ベクトルを生成する。
図8と図9を参照して、さらに詳しく説明する。いま、ステップS21で変換される音楽データは、図8に示されるような波形をもつものとする。同図においては、横軸を時間、縦軸を振幅として音楽データの波形が示されている。この波形が所定の長さの単位としての時間区分(t1,t2,・・・,tn)で分割され、周波数スペクトルが生成される。
図9は、図8の波形の中の時間区分t1の部分から生成された周波数スペクトルを示す図である。同図においては、横軸を周波数、縦軸を出力(レベル)とし、周波数スペクトルが示されている。そして、ステップS22において、周波数スペクトルが所定の周波数単位(例えば、f1,f2,・・・fm)でサンプリング、量子化され、ベクトル201が生成される。この例では、時間区分t1のベクトル201は、周波数f1,f2,・・・fmの出力値(大きさ)により構成されるm次元のベクトルとなる。同様に、図8の波形の中の時間区分t2,t3,・・・tnの部分からも周波数スペクトルが生成され、その周波数スペクトルに基づいてn個のベクトルが生成される。
このようにして、音楽データに基づいて、ベクトル(周波数のベクトル)が生成される。
次に、図10を参照して、図6のステップS2のクラスタ分類処理について説明する。ステップS41において、分類部132は、ベクトル生成部131により生成されたベクトルを初期状態のマップ(ニューラルネットワーク)に入力する。図11に初期状態のマップの例を示す。ここで、マップは、複数のニューロンにより構成され、図中、矢印を円で囲んだ図形がそれぞれニューロンを表し、各ニューロンは、ベクトル生成部131により生成されたベクトルと同じ次元(いまの場合、m次元)のベクトルを保持する。初期状態のマップにおいては、各ニューロンのベクトルが、できるだけばらばらになるように(ベクトル間の距離が遠くなるように)構成される。
ステップS42において、分類部132は、自己組織化マップ(SOM)を生成する。このとき、SOMの生成は、次のようにして行われる。図12Aにおいては、ステップS41において入力されるベクトルが、ニューロンと同様に、矢印を円で囲んだ図形として表示されている。図12Bには、初期状態のマップの中で、図12Aに示される入力ベクトルと距離が最も近いベクトルを有するニューロン231が、図中中央付近に示されている。この例では、図中矢印の向きが、入力ベクトルの矢印の向きに最も近い方向を示しているニューロンのベクトルが、もっとも距離が近いベクトルとする。なお、実際には、ベクトル間の距離は、ユークリッド距離により表される。
そして、分類部132は、ニューロン231(入力ベクトルと最も距離が近いベクトルを有するニューロン)およびその周辺のニューロンを抽出し、それらのニューロンの各ベクトルに対して、予め設定された所定の修正率を掛けて、ニューロン231およびその周辺のニューロンの各ベクトルと、入力ベクトル231との距離が近くなるようにベクトル(ニューロン)の修正を行う。図12Cにおいては、ニューロン231を中央に含む図中六角形でしめされた領域251内のニューロンが、周辺のニューロンとして選択され、領域251内のニューロンのベクトル(図中の矢印の向き)が入力ベクトルと距離が近くなるように修正されている。
この例では、領域251には、ニューロン231の周辺の6個のニューロンが含まれているが、実際には、もっと多くのニューロンを含む領域が抽出され、その領域内のニューロンが修正される。このように、ニューロンの修正が複数回行われる(学習される)ことにより、SOMが生成される。
例えば、ニューロンの修正が3回行われる場合、図13に示されるように、第1回目の修正では、ニューロン231を中心とした六角形の領域251−1が抽出され、領域251−1内のニューロンが修正される。第2回目の修正では、ニューロン231を中心として、領域251−1より小さい領域251−2が抽出され、領域251−1内のニューロンが修正され、第3回目の修正では、ニューロン231を中心とする、領域251−2より小さい領域251−3内のニューロンが修正される。このように、修正回数(図13下のグラフの横軸)が増える毎に、抽出される領域の範囲(図13下のグラフの縦軸)は小さくなる。
また、ニューロン231およびその周辺のニューロン対して、用いられる修正率も、やはり、修正回数に対応して(修正回数が多くなるにつれて)小さくなるように設定されている。なお、修正率の値が大きいほどベクトルは大きく修正される。図14は、修正回数と、修正率の関係の例を示す図である。同図においては、縦軸を修正率、横軸を修正回数として、修正率の変化が示されており、修正回数が増えるのに従って、修正率は小さくなるように変化している。
以上の処理が、各時間区分t1乃至tnの各ベクトルについて行われる。各区分のベクトルをどの位置のセルに対応付けるかは、予め決められている。
図10に戻って、ステップS43において、分類部132は、SOM内のニューロンを分析し、ステップS44において、SOMをクラスタに分ける。クラスタは、閾値以下の距離の任意の数のニューロンにより構成される。
図15と図16を参照してさらに詳しく説明する。図15は、ステップS42の処理により生成されたSOMの別の例を示す図である。この例では、図11または図12の場合と異なり、図中、点線により区切られた六角形の領域が、1つのニューロンを表し、各ニューロンのベクトル間の距離は、六角形の領域の中心にある丸印間の距離により表される。ステップS43においては、隣接する各ニューロン(ベクトル)間の距離が分析される。そして、ニューロン間の距離が予め設定された閾値より大きい場合、ニューロン間に境界線分が作成される。
例えば、図15において、ニューロン271−1とそれに隣接する6個のニューロン271−2乃至271−7との距離うち、ニューロン271−2とニューロン271−1との距離272−2と、ニューロン271−3とニューロン271−1との距離272−3が閾値より大きい場合、ニューロン271−1とニューロン271−2との間、およびニューロン271−1とニューロン271−3との間に、図中太い線で示されるように境界線分291が作成される。ニューロン271−1とニューロン271−4乃至271−7の距離272−4乃至272−7は、閾値以下であるので、それらの間には境界線分は作成されない。
図16は、図15を参照して上述したようにして、各ニューロン間の距離が分析され、境界線分が作成されたSOMの例を示す図である。同図においては、図中太い線で境界線分311が示されている。そして、境界線分311に基づいて、4つのクラスタが設定される。すなわち、図中、境界線分311で囲まれた領域がクラスタ331とされ、図中、境界線分311の右上の領域がクラスタ333とされ、境界線分311の左の領域がクラスタ332とされ、境界線分311の下の領域がクラスタ334とされる。ステップS44においては、このように、SOMが複数のクラスタに分けられる。
次に、図17を参照して、図6のステップS3のクラスタ列インデックスツリー作成処理について説明する。ステップS61において、インデックスデータ制御部133は、ベクトルに対応するクラスタ列を求める。図8と図9を参照して上述したように、音楽データは、所定の時間区分(t1,t2,・・・tn)に分割され、各時間区分に対応する複数の周波数ベクトルが生成されている。ステップS61においては、この複数の周波数ベクトルが、図10を参照して上述したクラスタ分類処理により、クラスタ分類されたSOMに入力される。
いま、図18に示されるように、例えば、最初の時間区分t1に対応する周波数ベクトル351と最も距離が近いベクトルをもつニューロンが、ニューロン372である場合、SOMの入力層において、ベクトル351(x1,x2,・・・xm)が入力されると、出力層371において、ニューロン372が発火する。この例では、出力層371は、クラスタ391乃至393の3つのクラスタに分類されており、発火したニューロン372は、クラスタ391に含まれている。このとき、クラスタ391に対応するクラスタID(例えば、C1)が取される。なお、クラスタIDは、各クラスタに対して予め設定されたユニークなIDである。
次に、第2番目の時間区分t2に対応する周波数ベクトルが入力された場合、ニューロン373が発火するものとすると、ニューロン373は、クラスタ392に含まれているので、クラスタ392に対応するクラスタID(例えば、C2)が取得される。このようにして、各時間区分のベクトルに対応するクラスタIDが取得される。同様の処理が繰り返されることにより図19にしめされるように、時間区分t1,t2,・・・,tnに対応する周波数ベクトルのベクトル列411に対応して、クラスタ列421(C1,C2,・・・Cn)が求められる。
図17に戻って、ステップS62において、インデックスデータ制御部133は、ステップS61で求められたクラスタ列をツリーに入力する。ここで、ツリーインデックスDB134には、クラスタ列の組み合わせの分だけ、木構造のインデックスデータ(ツリー)が予め生成されているものとする。例えば、クラスタの数がk個、入力ベクトルの数がn個である場合、横方向にk個、縦方向にn個の木構造のインデックスデータが予め生成されている。ステップS63において、インデックスデータ制御部133は、ツリーに対応するスタックに音楽データに関する情報を入力する。
図20を参照して、さらに詳しく説明する。いま、ステップS61の処理により、音楽データ501に基づいて、周波数ベクトルのベクトル列が生成され、そのベクトル列に対応するクラスタ列502が求められているものとする。クラスタ列502は、n個のクラスタID(c1,c2,・・・c2)により構成されている。クラスタ列502がツリー503に入力されると、クラスタIDに基づいて、ツリー503が、図中斜線で示されるように、C1,C2,・・・C2と辿られる。そして、最後のクラスタIDC2(図中縦方向にn番目のクラスタID)に対応してスタックが設けられている。すなわち、ツリーは、上述したように、横方向にk個、縦方向にn個の木構造のインデックスデータなので、kのn乗のインデックスデータが存在し、そのインデックスに対応してスタックが特定される。
いま、クラスタ列502のクラスタIDに基づいて、ツリー503が、C1,C2,・・・C2と辿られたインデックスを、第i番目のインデックスとすると、第i番目のインデックスに対応するスタックSiの情報メモリ504に、音楽データ501の情報Pbが入力される。情報Pbは、音楽データ501において、その開始位置から、クラスタ列502の先頭位置までの距離(時間)pdと、音楽データ501の楽曲IDが含まれている。また、情報Pbに、音楽データ501のアドレス(音楽DB103上のアドレス)、曲名などが必要に応じて入力されるようにしてもよい。
このように、音楽データ501の中で、その開始位置から、クラスタ列の先頭位置までの距離(時間)pdを少しずつずらし、それぞれクラスタ列が求められる。そして各クラスタ列のクラスタIDに基づいて、ツリー503が辿られて、n番目のクラスタIDに対応付けられた番号がインデックスとされ、そのインデックスのスタックに音楽データ501の情報が入力される。すなわち、音楽データ501の中の任意の部分(時刻)を開始点とするクラスタ列が全て求められ、クラスタ列に対応するインデックスのスタックに音楽データ501の情報(音楽データ501の開始位置から、そのクラスタ列の先頭位置までの距離、楽曲IDなど)が入力される。
数多くの音楽データのクラスタ列が求められ、クラスタ列に対応するインデックスのスタックにその音楽データの情報が入力される。
このようにして、多くの音楽のインデックスとそのインデックスに対応するスタックの情報が、ツリーインデックスDB134に記憶される。このように、音楽データを予めクラスタ列に分類しておくことで、所望の音楽データを検索するとき、検索候補を絞り込んで、迅速に検索することができる。また、ツリーインデックスDB134には、音楽データの中の任意の部分(時刻)を開始点として求められたクラスタ列に対応するように、音楽データの情報が記憶されているので、所望の音楽を検索するとき、例えば、その音楽を検索するためのクエリの音データ(音片)が、音楽の途中の部分から始まっている場合でも、簡単に検索候補を絞り込むことができる。
また、スタックSiのポインタメモリ505には、ツリー503が、C1,C2,・・・C2と辿られた場合と、その要素が1つだけ異なるスタックへのポインタが記憶される。
スタックSiと、その要素が1つだけ異なるスタックの例としては、例えば、図20のツリー503が、最後のクラスタID(要素)だけが異なるように、C1,C2,・・・C1と辿られたインデックスのスタックであるスタックSi-1がある。ポインタメモリ505の中には、スタックSi-1のように、スタックSiと、その要素(クラスタID)が1つだけ異なる複数のスタックのポインタが記憶される。このようにポインタを記憶することにより、インデックスデータ制御部133は、スタックの情報を読み出すとき、その都度クラスタ列をツリーに入力しなくても、例えば、スタックSiのポインタメモリ505のポインタに基づいて、スタックSi-1に記憶される情報を読み出すことができ、その結果、図24を参照して後述する音楽データ検索処理において、音楽データを迅速に検索することができる。
以上の処理は、サーバ3において、サービスの開始前に、事前に行われる処理である。
次に、図21を参照して、検索装置1によるクエリ作成処理について説明する。この処理は、例えば、ユーザが街中で検索したい音楽を聴いたとき、検索装置1の入力インタフェース24を操作することにより実行される。
ユーザは、街中で検索したい音楽を聴いたとき、検索ボタン41を押下する。そこで、ステップS101において、クエリ作成部91は、検索ボタン41が押下されたか否かを判定し、検索ボタン41が押下されたと判定されるまで待機する。検索ボタン41が押下されたと判定されたと判定された場合、ステップS102において、クエリ作成部91は、音バッファ62から所定の時間分の音データを抽出し、ステップS103において、検索ボタン41が押下された時刻(日時)を表す情報、検索装置1を特定するID情報など付与してクエリを作成し、作成したクエリをクエリバッファ65に格納する。ここで、作成されるクエリは、上述したクラスタ列と、時間的に同じ長さの音データとする。例えば、図19において、クラスタ列421は、ベクトル411に基づいて作成されるので、その時間的な長さは、t1+t2+・・・,+tnとなる。
なお、音バッファ62は、マイクロフォン22から入力された音をA/D変換し、音データとして常に記憶する動作を繰り返している。その結果、音バッファ62は、直近の所定の時間分の音データを常に保持している。あるいはまた、所定の時間間隔でサンプリングが行われ、所定の時間分の音データを記憶する処理が繰り返される。
このようにして、ユーザが検索ボタン41を操作すると、音楽を検索するために必要なデータであるクエリが作成される。
次に、図22を参照して、検索装置1による検索実行処理について説明する。この処理は、クエリバッファ65にクエリが所定の数(例えば5個)だけ蓄えられたとき、実行されるようにしてもよいし、ユーザが、入力インタフェース23を操作したとき実行されるようにしてもよい。
ステップS121において、検索実行部92は、サーバ3との通信が可能であるか否かを判定し、サーバ3との通信が可能であると判定されるまで待機する。ステップS121において、サーバ3との通信が可能であると判定された場合、ステップS122に進み、検索実行部92は、クエリバッファ65の中にクエリがあるか否かを判定する。
ステップS122において、クエリバッファ65の中にクエリがないと判定された場合、処理は、ステップS121に戻る。ステップS122において、クエリバッファ65の中にクエリがあると判定された場合、ステップS123に進み、検索実行部92は、バッファ65内のクエリを、ネットワーク4を介して、サーバ3に送信する。その結果、図24を参照して後述するようにサーバ3において、ステップS123で送信されたクエリに基づいて、音楽の検索が行われる。
ステップS124において、検索実行部92は、ネットワーク4を介して、サーバ3にアクセスし、サーバ3に検索結果があるか否か(サーバ3が検索結果を出力したか否か)を判定し、検索結果があると判定されるまで(すなわち、サーバ3で音楽の検索が終了するまで)待機する。ステップS124において、検索結果があると判定された場合、ステップS125に進み、検索実行部92は、検索結果をサーバ3から取得し、ステップS126において、取得済の検索結果をサーバ3のデータから削除する。そして、ステップS127において、検索実行部92は、ステップS125で取得された検索結果を表示部25に表示する。その後、処理はステップS121に戻り、それ以降の処理が繰り返される。
このようにして、音楽の検索が行われる。その結果、ユーザは、例えば、街中で偶然音楽を聞いた場合、検索ボタン41を操作するだけで、その音楽の情報(曲名、アーティスト名など)を取得することができる。
次に、サーバ3における音楽情報の検索について説明する。図24は、図4の検索部102の機能的構成例を示すブロック図である。検索装置1から送信されたクエリは、ネットワーク4を介してサーバ3で受信され、クエリ取得部580が、クエリの中の音データである音片を取得する。音片は周波数変換部581に入力され、周波数スペクトルに変換され、検索候補絞り込み部584とパターンマッチング部582に出力される。
検索候補絞り込み部584は、周波数変換部581から供給された周波数スペクトルに基づいて、類似データ作成部104から検索候補データを取得する。すなわち、検索候補絞り込み部584は、音楽DB103に記憶されている音楽データの中から、パターンマッチング部582に、マッチングを行わせるデータを絞り込む(検索対象候補データを生成する)。
パターンマッチング部582は、検索候補絞込み部584から検索すべきデータ(検索対象候補データ)を取得し、周波数スペクトルに基づいて、マッチングを行い、クエリの音片と検索候補絞込み部584から取得した検索対象候補データのマッチングを行い、類似度を表す評価値を演算し、演算した結果をスコアソート部583に出力する。なお、この例の場合、評価値は、類似度が高いほど小さい値とされる。
スコアソート部583は、パターンマッチング部582から取得した検索対象候補データの評価値をソートして、閾値以下となった検索対象候補データを出力する。
勿論、評価値は、類似度が高いほど大きい値とすることもできる。この場合は、閾値以上のものが出力される。すなわち、所定の基準が満足されたもの(類似度が高いもの)が選択され、出力される。
次に、図24を参照して、サーバ3による音楽データ検索処理について説明する。この処理は、検索装置1から、基地局2とネットワーク4を介して送信されてきたクエリを受信したとき実行される。
ステップS141において、クエリ取得部580は、クエリを取得し、音片を周波数変換部581に出力する。
ステップS142において、検索候補絞り込み部584は、図25を参照して後述する検索対象候補作成処理を実行する。これにより、音片に基づいて、クラスタ列が求められ、クラスタ列に基づいて、検索対象候補データが作成される。
ステップS143において、パターンマッチング部582は、図28を参照して後述する検索候補データチェック処理を実行する。これにより、検索対象候補データの音データと音片の類似度(評価値)が求められ、検索結果出力される。ステップS144において、スコアソート部583は、検索結果の評価値に基づいて、結果リストをソートする。ステップS145において、スコアソート部583は、ステップS144でソートされた結果リストを出力する。
このようにして、サーバ3において、検索装置1から送信されたクエリに基づいて、音楽が検索される。
次に、図25を参照して、図24のステップS142の検索対象候補作成処理の詳細について説明する。ステップS161において、周波数変換部581は、クエリの音片を周波数スペクトルに分解して検索候補絞り込み部584に出力する。ステップS162において検索候補絞り込み部584は、ステップS161の処理で得られた周波数スペクトルに基づいてベクトルを生成する。その結果、図8と図9を参照して上述した場合と同様に、所定の時間区分に対応する複数のベクトル(ベクトル列)が生成される。
ステップS163において、検索候補絞り込み部584は、ステップS162で生成されたベクトル列を類似検索データ作成部104に出力する。類似検索データ作成部104は、図18と図19を参照して上述した場合と同様に、ベクトル列に対応するクラスタ列を求める。ステップS164において、類似検索データ作成部104は、クラスタ列に基づいてツリーを検索して、インデックスを求め、インデックスのスタックの内容を読み出し、検索候補絞り込み部584に出力する。検索候補絞り込み部584は、類似検索データ作成部104から供給されたスタックの内容に基づいて、検索対象候補データを生成する。
図26と図27を参照して、以上の処理をさらに詳しく説明する。図26には、縦軸を振幅、横軸を時間とし、クエリの音片の波形601が示されている。ステップS161では、波形601が所定の時間区分で分割され、それぞれの時間区分の周波数スペクトルが生成される。そして、ステップS162で、各周波数スペクトルに対応する複数のベクトル(ベクトル列)が生成され、ステップS163で、各ベクトルに対応するクラスタ列602(C1,C2,・・・C2)が求められる。
ステップS164では、クラスタ列602に基づいて、ツリー503が検索される。これにより、図27に示されるように、ツリー503が、図中斜線で示されるようにC1,C2,・・・C2と辿られて、スタックSiのインデックスが得られ、スタックSiの情報メモリ504とポインタメモリ505の内容が読み出される。この例では、情報メモリ504には先頭からの時間を表す情報PbとPcが記憶されている。なお、ポインタメモリ505の内容については後述する。
検索候補絞り込み部584は、情報Pbに基づいて、音楽DBを検索し、音楽データ501−1を取得し、音楽データ501−1の開始位置から時間pbだけ後の、クラスタ列502と時間的に同じ長さとなる、データ621−1を抽出し、同様に、情報Pcに基づいて、音楽DBを検索し、音楽データ501−2を取得し、音楽データ501−2の開始位置から、時間pcだけ後のクラスタ列502と、時間的に同じ長さとなるデータ621−2を抽出する。そして、データ621−1と621−2が検索対象候補データとされる。
なお、この例では、クエリの音データが、基準の長さ(図19を参照して上述したクラスタ列421と、時間的に同じ長さ)の音データとすることとしたが、クエリの音データが、基準の長さより長い(クラスタ列421より時間的に長い)データとされるようにしてもよい。この場合、例えば、ステップS162において生成されたベクトル列が、基準の長さであるクラスタ列421と時間的に同じ長さとなる複数のベクトル列に分解され、ステップS163で、それぞれのベクトル列に対応する複数のクラスタ列が求められる。
また、クエリの音データが、基準の長さより短い(クラスタ列421より時間的短い)音データとされるようにしてもよい。例えば、図19において、基準の長さ(クラスタ列421の時間的な長さ)は、t1+t2+・・・,+tnとされるのに対して、クエリの音データの長さが、t1+t2+・・・,+tn-1である場合、クエリの音データに基づいて生成されるクラスタ列は、n-1個のクラスタIDにより構成される。このような場合、例えば、ステップS163で、第n番目のクラスタIDを任意のクラスタID(いまの場合C1,C2,・・・Ck)とするk個のクラスタ列が求められる。
このようにして、検索対象候補データが生成される。検索されるクエリの音片に基づいて、クラスタ列を生成し、そのクラスタ列に基づいて、音楽データの中から検索対象候補データを絞り込むようにしたので、音楽DB103に記憶される大量の音楽データの中からクエリの音片に類似すると推定される音データを、迅速に絞り込むことができる。その結果、所望の音楽を迅速に検索することができる。
次に、図28を参照して、図24の検索候補データチェック処理の詳細について説明する。
ステップS181において、検索候補絞り込み部584は、ステップS142(図24)の処理により生成された検索対象候補データの中から、1つのデータを取り出す。ステップS182において、検索候補絞込み部584は、データがあったか(ステップS181でデータを取得できたか)否かを判定し、データがあると判定された場合、ステップS183に進む。
ステップS183において、パターンマッチング部582は、図29を参照して後述するパターンマッチング処理を実行する。これにより、クエリの音片と検索対象候補データの類似度が評価値として演算される。
ステップS184において、パターンマッチング部582は、ステップS183の処理により演算された評価値が予め設定された閾値以下か否か、すなわち類似度が高いか否かを判定し、評価値が閾値以下であると判定された場合(基準を満足する評価である場合)、ステップS185に進み、このデータの音楽情報をリストに保存する。このとき、この音楽に関連する情報(例えば、曲名、アーティスト名など)が取得され音楽情報としてリストに保存される。
ステップS185の処理の後、または、ステップS184で評価値は閾値以下ではない(類似度が低い)と判定された場合、処理はステップS181に戻り、それ以降の処理が繰り返し実行される。
ステップS182において、データがないと判定された場合(全てのデータのチェックが完了した場合)、検索候補絞り込み部584は、ステップS186に進み、リストが空か否かを判定する。ステップS186において、リストが空であると判定された場合、全ての検索対象候補データについてパターンマッチング処理を行ったが、基準を満足する評価の音楽のデータが得られなかったと考えられる。そこで、ステップS187において、検索候補絞り込み部584は、スタックのポインタメモリ505(図27)に記憶されていたポインタに基づいて、新たな検索対象候補データを生成する。
例えば、ポインタメモリ505には、スタックSi-1へのポインタが記憶されており、スタックSi-1は、クラスタ列602と1つだけ要素が違うクラスタ列に対応するスタックである。すなわち、クラスタ列602は、そのクラスタIDがC1,C2,・・・C2となるクラスタ列であるが、スタックSi-1に対応するクラスタ列は、そのクラスタIDが、C1,C2,・・・C1となるクラスタ列であり、最後のクラスタID(要素)だけが異なっている。このような、クラスタ列の音楽データは、クエリの音片と類似している可能性が高いので、スタックSi-1の情報メモリの内容に基づいて、新たな検索対象候補データが生成される。
ステップS187の処理の後、処理は、ステップS181に戻り、それ以降の処理が繰り返し実行される。
ステップS186において、リストは空ではないと判定された場合、処理は終了される。
このようにして、検索対象候補データとクエリの音片の類似度がチェックされ、その結果がリストに保存される。全ての検索対象候補データについてパターンマッチング処理を行っても、基準を満足する評価が得られなかった場合、クエリの音片のクラスタ列と1つだけ要素が違うクラスタ列に対応するスタックに基づいて、新たに検索対象候補データが生成されるので、より確実かつ迅速に所望の音楽を検索することができる。
次に、図29を参照して、図28のステップS183のパターンマッチング処理の詳細について説明する。
ステップS201において、パターンマッチング部582は、クエリの音片(音データ)の周波数スペクトルを時間と周波数でメッシュ分解する。
ここで、図30乃至図33を参照して、音片の周波数スペクトルがメッシュ分解される原理を説明する。図30は、音片の音データの信号を、縦軸を出力レベルとし、横軸を時間として波形で示した図である。音片の音データは、周波数変換部581により周波数変換され、図31に示されるような周波数スペクトルに変換される(図25のステップS161)。この例では、横軸を時間、縦軸を周波数として、周波数スペクトルが表示されている。そして、図31に示される周波数スペクトルが、図32に示されるように、所定の時間(t1,t2,t3,・・・tn)と、所定の周波数(f1,f2,f3,・・・fm)を単位としてn×m個のブロックにメッシュ分解される。
図33は、このとき生成されるメッシュデータの例を示す図である。この例では、時間区分t1,t2,・・・tnにおける各周波数の値f1,f2,・・・fmにおける値F11乃至Fnmが、データ数と時間または周波数の間隔を表す刻み幅とともに記述されている。
図29に戻って、ステップS202において、パターンマッチング部582は、ステップS201と同様にして、検索対象候補データの周波数スペクトルを時間と周波数でメッシュ分解する。これにより検索対象候補データについても、図33と同様のメッシュデータが生成される。
ステップS203において、パターンマッチング部582は、ステップS201の処理で得られたクエリの音片のメッシュデータと、ステップS202の処理で得られた検索対象候補データのメッシュデータをベクトルとして比較する。
このとき、図34に示されるように、検索対象候補データのメッシュデータ621の中から時間区分t1に対応する周波数成分(F11,F12,・・・F1m)が抽出され、所定の重み(a1,a2,・・・am)で重み付けされて、m次元のベクトルであるベクトルT1(a1・F11,a2・F12,・・・am・F1m)が生成される。同様にクエリの音片のメッシュデータの時間区分r1に対応する周波数成分(F'11,F'12,・・・F'1m)が抽出され、やはり所定の重み(a'1,a'2,・・・a'm)で重み付けされて、m次元のベクトルであるベクトルR1(a'1・F'11,a'2・F'12,・・・a'm・F'1m)が生成される。なお、図34において、ベクトルT1とR1は、f1、f2、およびf3の3次元で表されているが、実際には、m次元となる。
同様に、検索対象候補データのメッシュデータ621の中から時間区分t2,t3,・・・tnに対応する周波数成分が抽出され、所定の重みで重み付けされ、ベクトルT2,T3,・・・Tnが生成され、クエリの音片のメッシュデータの時間区分r2,r3,・・・rnに対応する周波数成分が抽出され、所定の重みで重み付けされ、ベクトルR2,R3,・・・Rnが生成される。
ステップS204において、パターンマッチング部582は、図34に示されるベクトルT1とR1がなす角度α1、ベクトルT2とR2がなす角度α2、・・・ベクトルTnとRnがなす角度αnの総和を求めて評価値を演算する。各ベクトル間の角度の総和は、次式により求められる。
なお、評価値は、ベクトルT1とR1の距離L1、ベクトルT2のR2距離L2、・・・ベクトルTnとRnの距離Lnの総和により演算されるようにしてもよい。各ベクトル間の距離の総和は、次式により求められる。
このようにして、評価値が演算される。評価値は、音片の音データと検索対象候補データのそれぞれの周波数スペクトルを、時間と周波数でメッシュ分解することにより生成された複数のベクトルが、それぞれ個々に比較されることにより演算されるので、より精度の高い類似度を表すことができる。
上述したように、サーバ3により検索された音楽情報は、ネットワーク4と基地局2を介して検索装置1により取得され、検索結果が表示される(図22のステップS127)。このとき表示される画面の例を図35乃至図37に示す。
最初に、図35に示されるような画面が、検索装置1の表示部25に表示される。この例では、3件の検索結果が表示されている。図35において日付と時刻(2003/2/20 13:35:26など)の記述701−1乃至701−3は、検索ボタン41が押下された日付と時刻を表している。入力インタフェース23を操作して画面中央のアイコン702−1乃至702−3のいずれかをダブルクリックすると、そのクエリの音片の音データが再生され、スピーカ24から再生された音が出力される。
図中右側の「検索結果」と表示されたアイコン703−1乃至703−3は、検索結果の有無を表している。アイコン703−1とアイコン703−2は実線で表示されており、サーバ3による検索結果が、すでに検索装置1により取得されていることを表す。アイコン703−3は破線で表示されており、サーバ3による検索結果が、まだ検索装置1により取得されていないことを表す。検索結果の詳細を表示させるとき、ユーザは、入力インタフェース23を操作して、アイコン703−1乃至703−3をダブルクリックする。
図36は、アイコン703−1がダブルクリックされた場合の画面の表示例を示す図である。この例では、検索ボタン41が押下された日付と時刻(2003/2/20 13:35:26)の記述711と、クエリの音片の音データを再生するためのアイコン712が表示されている。
また、検索された音楽情報として、曲名と歌手名の記述713−1と713−2が表示されている。検索された音楽情報が複数ある場合は、図29を参照して上述したパターンマッチング処理により、演算された評価値が小さい順(類似度が高い順)に音楽情報が表示される。
入力インタフェース23を操作して、アイコン714−1または、アイコン714−2をダブルクリックすると、パターンマッチング処理で用いられた検索対象候補データの音データが再生され、スピーカ24からその音が出力される。
また、ユーザは、入力インタフェース23を操作して、図36に示される表示画面において、音楽情報713−1を選択し、詳細表示を指示することにより、図37に示されるような画面を表示することができる。図37の例では、曲名、歌手名の記述721の後ろにアイコン722とアイコン723が表示されている。
図37の表示画面においてアイコン722がダブルクリックされると、この音楽(コンテンツ)を視聴するためのデータが取得されて再生され、スピーカ24から再生された音が出力される。また、アイコン723がダブルクリックされると、この音楽のコンテンツが購入可能となる。音楽の視聴または購入は、ネットワーク4に接続される所定のサーバにアクセスすることにより行われる。
また、図37の表示画面の下部の参考情報表示部724には、この音楽を検索した他のユーザがよく検索する音楽情報が必要に応じて表示される。
以上においては、検索装置1で検索結果を取得するようにしたが、他の装置(例えば、家庭にあるパーソナルコンピュータ)で、検索結果を取得するようにしてもよい。
なお、上述した一連の処理をハードウェアで実現するか、ソフトウェアで実現するかは問わない。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば図38に示されるような汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。
図38において、CPU(Central Processing Unit)901は、ROM(Read Only Memory)902に記憶されているプログラム、または記憶部908からRAM(Random Access Memory)903にロードされたプログラムに従って各種の処理を実行する。RAM903にはまた、CPU901が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU901、ROM902、およびRAM903は、バス904を介して相互に接続されている。このバス904にはまた、入出力インタフェース905も接続されている。
入出力インタフェース905には、キーボード、マウスなどよりなる入力部906、CRT(Cathode Ray Tube)、LCD(Liquid Crystal display)などよりなるディスプレイ(表示部)、並びにスピーカなどよりなる出力部907、ハードディスクなどより構成される記憶部908、モデム、ターミナルアダプタなどより構成される通信部909が接続されている。通信部909は、インターネットなどのネットワークを介しての通信処理を行う。
入出力インタフェース905にはまた、必要に応じてドライブ910が接続され、ドライブ910には、本発明のプログラムが記録された記録媒体として、例えば、リムーバブルメディア911が装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部908にインストールされる。
なお、本明細書において上述した一連の処理を実行するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
1 検索装置, 3 サーバ, 61 入力部, 62 音バッファ, 67 CPU, 91 クエリ作成部, 92 検索実行部, 102 検索部, 103 音楽DB, 104類似検索データ作成部, 131 ベクトル生成部, 132 分類部, 133 インデックスデータ制御部, 134 ツリーインデックスDB, 581 周波数変換部, 582 パターンマッチング部, 584 検索候補絞込み部
Claims (13)
- ネットワークを介して相互に接続される第1の情報処理装置と第2の情報処理装置からなる音楽検索システムであって、
前記第1の情報処理装置は、
前記第1の情報処理装置の周囲の音のデータであって、予め設定された時間分の最新の音データを記録する記録手段と、
検索すべきデータの生成を指令する指令手段と、
前記指令手段により検索すべきデータの生成が指令された場合、前記記録手段により記録されている音データから検索データを生成する生成手段と、
前記生成手段により生成された前記検索データを、前記第2の情報処理装置に前記ネットワークを介して送信する送信手段と
を備え、
前記第2の情報処理装置は、
複数の音楽の周波数スペクトルの特徴量を記憶する記憶手段と、
前記第1の情報処理装置から送信された検索データの音データの周波数スペクトルの特徴量と、前記記憶手段により記憶されている周波数スペクトルの特徴量を比較して、前記検索データの音データと類似度が高い音楽の情報を検索する検索手段と
前記検索手段により検索された音楽の情報を提供する提供手段と
を備えることを特徴とする音楽検索システム。 - ネットワークを介して相互に接続される第1の情報処理装置と第2の情報処理装置からなる音楽検索システムの音楽検索方法であって、
前記第1の情報処理装置は、
前記第1の情報処理装置の周囲の音のデータであって、予め設定された時間分の最新の音データを記録し、
検索すべきデータの生成が指令されたか否かを判定し、
検索すべきデータの生成が指令された場合、記録されている前記音データから検索データを生成し、
生成された前記検索データを、前記第2の情報処理装置に前記ネットワークを介して送信し、
前記第2の情報処理装置は、
複数の音楽の周波数スペクトルの特徴量を記憶し、
前記第1の情報処理装置から送信された検索データの音データの周波数スペクトルの特徴量と、記憶されている周波数スペクトルの特徴量を比較して、前記検索データの音データと類似度が高い音楽の情報を検索し、
検索された音楽の情報を提供する
ことを特徴とする音楽検索方法。 - 複数の音楽の周波数スペクトルの特徴量を記憶する記憶手段と、
入力された検索データの音データの周波数スペクトルの特徴量と、前記記憶手段に記憶されている周波数スペクトルの特徴量を比較して、前記検索データの音データと類似度が高い音楽の情報を検索する検索手段と、
前記検索手段により検索された音楽の情報を提供する提供手段と
を備えることを特徴とする情報処理装置。 - 複数の音楽の音データを取得し、前記音データの周波数に基づいて、複数のベクトルを生成するベクトル生成手段と、
前記ベクトル生成手段により生成された複数のベクトルをニューラルネットワークの自己組織化マップに入力し、自己組織化マップの出力層のクラスタ情報に基づいて、前記音楽の音データのクラスタ列を生成するクラスタ生成手段とを備え、
前記クラスタ列を前記周波数スペクトルの特徴量として、前記記憶手段に記憶する
ことを特徴とする請求項3に記載の情報処理装置。 - 前記クラスタ生成手段は、前記自己組織化マップ内のニューロン間の距離に基づいて、前記自己組織化マップの出力層を複数のクラスタに分割する
ことを特徴とする請求項4に記載の情報処理装置。 - 前記クラスタ生成手段により生成されたクラスタ列に基づいて、木構造のインデックス情報を生成するインデックス生成手段をさらに備え、
前記インデックス情報に基づいて、前記音楽の情報が特定される
ことを特徴とする請求項4に記載の情報処理装置。 - 前記検索手段は、
前記検索データの音データに基づいて周波数スペクトルを生成するスペクトル生成手段と、
前記スペクトル生成手段に生成された周波数スペクトルに基づいて、複数のベクトルを生成し、検索する対象となる音楽の音データを生成する検索対象データ生成手段と
を備えることを特徴とする請求項3に記載の情報処理装置。 - 前記検索対象データ生成手段は、前記複数のベクトルのクラスタ列に基づくインデックス情報を求め、求めたインデックス情報に基づいて、前記音楽の情報を取得し、取得した音楽の情報に基づいて、前記検索する対象となる音データを生成する
ことを特徴とする請求項7に記載の情報処理装置。 - 前記検索手段は、
前記検索データの音データと、前記検索対象データ生成手段により生成された音データを比較して、前記検索データの音データと、前記検索対象データ生成手段により生成された音データの類似度を表す評価値を演算する演算手段と、
前記演算手段により演算された評価値が予め設定された基準を満足する前記音データを選択する選択手段と
をさらに備えることを特徴とする請求項7に記載の情報処理装置。 - 前記検索対象データ生成手段は、前記演算手段により演算された評価値が予め設定された基準を満足する前記音データがない場合、前記インデックス情報に基づいて、新たな音楽の情報を取得し、取得された音楽の情報に基づいて、新たに検索する対象となる音楽の音データを生成する
ことを特徴とする請求項9に記載の情報処理装置。 - ネットワークを介して他の情報処理装置と接続され、複数の音楽の情報を記憶する情報処理装置の情報処理方法であって、
記憶されている音楽の情報に基づいて、周波数スペクトルの特徴量を生成して記憶する記憶ステップと、
入力された検索データの音データの周波数スペクトルの特徴量と、前記記憶ステップの処理により記憶された周波数スペクトルの特徴量を比較して、前記検索データの音データと類似度が高い音楽の情報を検索する検索ステップと、
前記検索ステップの処理により検索された音楽の情報を出力する出力ステップと
を含むことを特徴とする情報処理方法。 - ネットワークを介して他の情報処理装置と接続され、複数の音楽の情報を記憶する情報処理装置のプログラムであって、
記憶されている音楽の情報に基づいて、周波数スペクトルの特徴量を生成して記憶するように制御する記憶制御ステップと、
入力された検索データの音データの周波数スペクトルの特徴量と、前記記憶制御ステップの処理により記憶された周波数スペクトルの特徴量を比較して、前記検索データの音データと類似度が高い音楽の情報を検索するように制御する検索制御ステップと、
前記検索制御ステップの処理により検索された音楽の情報の出力を制御する出力制御ステップと
をコンピュータに実行させることを特徴とするプログラム。 - ネットワークを介して他の情報処理装置と接続され、複数の音楽の情報を記憶する情報処理装置のプログラムが記録される記録媒体であって、
記憶されている音楽の情報に基づいて、周波数スペクトルの特徴量を生成して記憶するように制御する記憶制御ステップと、
入力された検索データの音データの周波数スペクトルの特徴量と、前記記憶制御ステップの処理により記憶された周波数スペクトルの特徴量を比較して、前記検索データの音データと類似度が高い音楽の情報を検索するように制御する検索制御ステップと、
前記検索制御ステップの処理により検索された音楽の情報の出力を制御する出力制御ステップと
をコンピュータに実行させるプログラムが記録されることを特徴とする記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003309482A JP2005077865A (ja) | 2003-09-02 | 2003-09-02 | 音楽検索システムおよび方法、情報処理装置および方法、プログラム、並びに記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003309482A JP2005077865A (ja) | 2003-09-02 | 2003-09-02 | 音楽検索システムおよび方法、情報処理装置および方法、プログラム、並びに記録媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005077865A true JP2005077865A (ja) | 2005-03-24 |
Family
ID=34411605
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003309482A Withdrawn JP2005077865A (ja) | 2003-09-02 | 2003-09-02 | 音楽検索システムおよび方法、情報処理装置および方法、プログラム、並びに記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005077865A (ja) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006195619A (ja) * | 2005-01-12 | 2006-07-27 | Sharp Corp | 情報検索装置および情報検索方法 |
JP2006318384A (ja) * | 2005-05-16 | 2006-11-24 | Sharp Corp | 楽曲検索システムおよび楽曲検索方法 |
JP2006323438A (ja) * | 2005-05-17 | 2006-11-30 | Sharp Corp | 楽曲検索システム |
JP2008070868A (ja) * | 2006-08-14 | 2008-03-27 | Sanyo Electric Co Ltd | 楽曲一致判定装置、楽曲記録装置、楽曲一致判定方法、楽曲記録方法、楽曲一致判定プログラム、及び楽曲記録プログラム |
JP2009058548A (ja) * | 2007-08-30 | 2009-03-19 | Oki Electric Ind Co Ltd | 音声検索装置 |
JP2010020727A (ja) * | 2008-07-14 | 2010-01-28 | Clarion Co Ltd | 楽曲情報提供装置、楽曲情報提供システム、楽曲情報提供方法、及び、プログラム |
US8224846B2 (en) | 2008-09-30 | 2012-07-17 | Kddi Corporation | Apparatus for music retrieval, method for music retrieval, and program for music retrieval |
US8494986B2 (en) | 2007-10-18 | 2013-07-23 | Sony Corporation | Information processing apparatus, information processing method, and program |
JP2016513816A (ja) * | 2013-03-06 | 2016-05-16 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | コンテンツベースのノイズ抑制 |
KR101942459B1 (ko) * | 2016-06-01 | 2019-01-28 | 네이버 주식회사 | 음원 컨텐츠 및 메타 정보를 이용한 플레이리스트 자동 생성 방법 및 시스템 |
KR20190009821A (ko) * | 2019-01-21 | 2019-01-29 | 네이버 주식회사 | 음원 컨텐츠 및 메타 정보를 이용한 플레이리스트 자동 생성 방법 및 시스템 |
WO2020253694A1 (zh) * | 2019-06-17 | 2020-12-24 | 华为技术有限公司 | 一种用于识别音乐的方法、芯片和终端 |
-
2003
- 2003-09-02 JP JP2003309482A patent/JP2005077865A/ja not_active Withdrawn
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006195619A (ja) * | 2005-01-12 | 2006-07-27 | Sharp Corp | 情報検索装置および情報検索方法 |
JP2006318384A (ja) * | 2005-05-16 | 2006-11-24 | Sharp Corp | 楽曲検索システムおよび楽曲検索方法 |
JP2006323438A (ja) * | 2005-05-17 | 2006-11-30 | Sharp Corp | 楽曲検索システム |
JP2008070868A (ja) * | 2006-08-14 | 2008-03-27 | Sanyo Electric Co Ltd | 楽曲一致判定装置、楽曲記録装置、楽曲一致判定方法、楽曲記録方法、楽曲一致判定プログラム、及び楽曲記録プログラム |
JP2009058548A (ja) * | 2007-08-30 | 2009-03-19 | Oki Electric Ind Co Ltd | 音声検索装置 |
US8712936B2 (en) | 2007-10-18 | 2014-04-29 | Sony Corporation | Information processing apparatus, information processing method, and program |
US8494986B2 (en) | 2007-10-18 | 2013-07-23 | Sony Corporation | Information processing apparatus, information processing method, and program |
JP2010020727A (ja) * | 2008-07-14 | 2010-01-28 | Clarion Co Ltd | 楽曲情報提供装置、楽曲情報提供システム、楽曲情報提供方法、及び、プログラム |
US8224846B2 (en) | 2008-09-30 | 2012-07-17 | Kddi Corporation | Apparatus for music retrieval, method for music retrieval, and program for music retrieval |
JP2016513816A (ja) * | 2013-03-06 | 2016-05-16 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | コンテンツベースのノイズ抑制 |
KR101942459B1 (ko) * | 2016-06-01 | 2019-01-28 | 네이버 주식회사 | 음원 컨텐츠 및 메타 정보를 이용한 플레이리스트 자동 생성 방법 및 시스템 |
KR20190009821A (ko) * | 2019-01-21 | 2019-01-29 | 네이버 주식회사 | 음원 컨텐츠 및 메타 정보를 이용한 플레이리스트 자동 생성 방법 및 시스템 |
KR102031282B1 (ko) * | 2019-01-21 | 2019-10-11 | 네이버 주식회사 | 음원 컨텐츠 및 메타 정보를 이용한 플레이리스트 자동 생성 방법 및 시스템 |
WO2020253694A1 (zh) * | 2019-06-17 | 2020-12-24 | 华为技术有限公司 | 一种用于识别音乐的方法、芯片和终端 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7805389B2 (en) | Information processing apparatus and method, program and recording medium | |
US8838617B2 (en) | Method and apparatus for searching for recommended music using emotional information of music | |
CN100454298C (zh) | 旋律数据库搜索 | |
US11461390B2 (en) | Automated cover song identification | |
US20090306797A1 (en) | Music analysis | |
WO2001020609A2 (en) | Music searching methods based on human perception | |
CN111400543B (zh) | 音频片段的匹配方法、装置、设备及存储介质 | |
US20080071764A1 (en) | Method and an apparatus to perform feature similarity mapping | |
EP3477643B1 (en) | Audio fingerprint extraction and audio recognition using said fingerprints | |
JP2005077865A (ja) | 音楽検索システムおよび方法、情報処理装置および方法、プログラム、並びに記録媒体 | |
Murauer et al. | Detecting music genre using extreme gradient boosting | |
Zhao et al. | Ensemble classification based on feature selection for environmental sound recognition | |
US7576278B2 (en) | Song search system and song search method | |
CN111460215B (zh) | 音频数据处理方法、装置、计算机设备以及存储介质 | |
Das et al. | Building a computational model for mood classification of music by integrating an asymptotic approach with the machine learning techniques | |
JP2005078245A (ja) | デンドログラムを用いたコンテンツ検索装置 | |
Borjian | Query-by-example music information retrieval by score-based genre prediction and similarity measure | |
Mirza et al. | Residual LSTM neural network for time dependent consecutive pitch string recognition from spectrograms: a study on Turkish classical music makams | |
JP2005309712A (ja) | 楽曲検索システムおよび楽曲検索方法 | |
EP4250134A1 (en) | System and method for automated music pitching | |
KR102476120B1 (ko) | 인공신경망을 이용하여 음악의 속성을 교차 비교하는 음악 분석 방법 및 장치 | |
Haro et al. | Power-law distribution in encoded MFCC frames of speech, music, and environmental sound signals | |
Dewi et al. | Gamelan Rindik Classification Based On Mood Using K-Nearest Neigbor Method | |
JP2006195619A (ja) | 情報検索装置および情報検索方法 | |
Pavitha et al. | Analysis of Clustering Algorithms for Music Recommendation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20061107 |