JP4607659B2 - Music search apparatus and music search method - Google Patents
Music search apparatus and music search method Download PDFInfo
- Publication number
- JP4607659B2 JP4607659B2 JP2005144355A JP2005144355A JP4607659B2 JP 4607659 B2 JP4607659 B2 JP 4607659B2 JP 2005144355 A JP2005144355 A JP 2005144355A JP 2005144355 A JP2005144355 A JP 2005144355A JP 4607659 B2 JP4607659 B2 JP 4607659B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- music
- range
- impression
- search
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本発明は、楽曲データベースに記憶された楽曲データを検索する楽曲検索装置および楽曲検索方法関し、特に楽曲データから抽出した特徴データを用いて楽曲データベースに記憶された楽曲データを検索する楽曲検索装置および楽曲検索方法に関する。 The present invention relates to a music search apparatus and a music search method for searching for music data stored in a music database, and in particular, a music search apparatus for searching music data stored in a music database using feature data extracted from the music data and The present invention relates to a music search method.
近年、HDD等の大容量の記憶手段が開発され、大容量の記憶手段に大量の楽曲データを記憶させることができるようになっている。大容量の記憶手段に記憶されている大量の楽曲データの検索は、アーティスト名や曲名、その他のキーワード等の書誌データを用いて行うのが一般的であるが、書誌データで検索した場合には、楽曲が持っている情感を考慮することができず、印象の異なる楽曲が検索される可能性がある。 In recent years, a large-capacity storage means such as an HDD has been developed, and a large amount of music data can be stored in the large-capacity storage means. Searching for a large amount of music data stored in a large-capacity storage means is generally performed using bibliographic data such as artist names, music titles, and other keywords. There is a possibility that a song with a different impression cannot be taken into consideration because the emotion of the song cannot be taken into account.
そこで、楽曲に対する主観的な印象に基づいて利用者の希望する楽曲を検索可能にするために、検索を希望する楽曲に対するユーザの主観的な要件を入力して数値化して出力し、その出力から、検索対象の楽曲の印象を数量化した予測印象値を算出し、算出した予測印象値をキーとして、複数の楽曲の音響信号およびその楽曲の印象を数量化した印象値を記憶した楽曲データベースを検索することにより、利用者の楽曲に対する主観的なイメージに基づいて、希望する楽曲を検索する装置が提案されている(例えば、特許文献1参照)。 Therefore, in order to make it possible to search for the music desired by the user based on the subjective impression of the music, the user's subjective requirements for the music desired to be searched are input, quantified and output, and the output , A predicted impression value obtained by quantifying the impression of the music to be searched is calculated, and a music database storing an acoustic value of a plurality of music and an impression value obtained by quantifying the impression of the music is calculated using the calculated predicted impression value as a key. There has been proposed an apparatus for searching for desired music based on a subjective image of a user's music by searching (for example, see Patent Document 1).
しかしながら、楽曲には、印象の異なるフレーズが含まれていることが多いにもかかわらず、従来技術では、楽曲の印象を印象値に集約しているため、印象の異なるフレーズが平均化した印象値になってしまったり、1箇所のフレーズに基づく印象値になってしまったりしてしまうため、ユーザが所望する印象の楽曲を必ずしも検索することができないという問題点があった。
本発明は斯かる問題点に鑑みてなされたものであり、その目的とするところは、印象の異なるフレーズを考慮して検索することができ、ユーザが所望する印象の楽曲を精度良く検索することができる楽曲検索装置および楽曲検索方法を提供する点にある。 The present invention has been made in view of such problems, and an object of the present invention is to search for a song having an impression desired by a user with high accuracy by searching for a phrase having a different impression. Is to provide a music search device and a music search method.
本発明は上記課題を解決すべく、以下に掲げる構成とした。
本発明の楽曲検索装置は、楽曲データベースに記憶された楽曲データを検索する楽曲検索装置であって、複数の項目のそれぞれの値の範囲を検索範囲として受け付ける操作手段と、前記楽曲データの時間軸上の異なる箇所からそれぞれ特徴データを抽出する特徴データ抽出手段と、該特徴データ抽出手段によって時間軸上の異なる箇所からそれぞれ抽出された複数の前記特徴データに基づいて、前記複数の項目のそれぞれの値に幅を持たせた範囲データを決定する範囲データ決定手段と、前記操作手段によって受け付けた前記検索範囲と重なる前記範囲データの前記楽曲データを特定すると共に、特定した前記楽曲データの前記範囲データにおいて前記検索範囲と重なっている領域が占める割合を重なり度合として算出することで、特定した前記楽曲データを順位付けする楽曲検索手段とを具備することを特徴とする。
In order to solve the above problems, the present invention has the following configuration.
The music search apparatus of the present invention is a music search apparatus for searching music data stored in a music database, and includes an operation means for accepting each value range of a plurality of items as a search range, and a time axis of the music data feature data extraction means for extracting each feature data from different locations on, based on the feature data of the multiple extracted respectively from different positions on the time axis by the feature data extraction means, each of said plurality of items and range data determining means for determining the range data which gave width value, along with specifying the music data of the range data overlapping the search range accepted by said operation means, the range of the music data specified Identified by calculating the ratio of the area that overlaps the search range in the data as the degree of overlap Characterized by comprising a music searching means for ranking the serial music data.
さらに、本発明の楽曲検索装置は、前記特徴データ抽出手段によって抽出された前記特徴データを、前記複数の項目の値からなる印象度データに変換する印象度データ変換手段を具備し、該印象度データ変換手段は、前記特徴データ抽出手段によって抽出された複数の前記特徴データのそれぞれについて前記印象度データに変換させることで、複数の前記特徴データを複数の前記印象度データに変換させ、前記範囲データ決定手段は、前記印象度データ変換手段によって変換された複数の前記印象度データに基づいて前記範囲データを決定することを特徴とする。 Furthermore, the song search apparatus of the present invention, the pre-Symbol feature data extracted by the feature data extraction means, comprising a impression data converting means for converting the impression data of values of said plurality of items, the impression The degree data conversion means converts each of the plurality of feature data extracted by the feature data extraction means into the impression degree data, thereby converting the plurality of feature data into the plurality of impression degree data, and range data determining means, and determines the range data based on the impression data of multiple converted by the impression data converting means.
さらに、本発明の楽曲検索装置において、前記範囲データ決定手段は、前記印象度データの各項目の最大値から最小値の間を前記範囲データとして決定することを特徴とする。 Furthermore, the song search apparatus of the present invention, before above range data determining means, and determines between the minimum value as the range data from the maximum value of each item of the impression data.
本発明は上記課題を解決すべく、以下に掲げる構成とした。
本発明の楽曲検索方法は、楽曲データベースに記憶された楽曲データを検索する楽曲検索方法であって、複数の項目のそれぞれの値の範囲を検索範囲の入力を受け付け、前記楽曲データの時間軸上の異なる箇所からそれぞれ特徴データを抽出し、時間軸上の異なる箇所からそれぞれ抽出した複数の前記特徴データに基づいて、前記複数の項目のそれぞれの値に幅を持たせた範囲データを決定し、該検索範囲と重なる前記範囲データの前記楽曲データを特定し、該特定した前記楽曲データの前記範囲データにおいて前記検索範囲と重なっている領域が占める割合を重なり度合として算出することで、前記特定した前記楽曲データを順位付けすることを特徴とする。
In order to solve the above problems, the present invention has the following configuration.
The music search method of the present invention is a music search method for searching music data stored in a music database, accepting an input of a search range for each value range of a plurality of items, on the time axis of the music data Each of the feature data is extracted from different locations, and based on the plurality of feature data respectively extracted from different locations on the time axis , range data in which each value of the plurality of items has a range is determined, identify the song data of the range data that overlaps with the search range, by calculating the degree overlap the percentage area in the range data of the song data the specific overlaps with the search range occupied and the specific The music data is ranked.
さらに、本発明の楽曲検索方法は、前記抽出した複数の前記特徴データのそれぞれについて、前記複数の項目の値からなる印象度データに変換することで、複数の前記特徴データを複数の前記印象度データに変換し、該変換した複数の前記印象度データに基づいて前記範囲データを決定することを特徴とする。 Furthermore, the music search method of the present invention converts each of the plurality of extracted feature data into impression degree data including values of the plurality of items, thereby converting the plurality of feature data into the plurality of impression degrees. It is converted into data, and the range data is determined based on the plurality of converted impression degree data.
さらに、本発明の楽曲検索方法は、前記印象度データの各項目の最大値から最小値の間を前記範囲データとして決定することを特徴とする。 Furthermore, the song search method of the present invention is characterized by determining between the minimum value as the range data from the maximum value of each item before Symbol impression data.
本発明の楽曲検索装置および楽曲検索方法は、楽曲データから複数組の特徴データを抽出し、抽出した複数組の前記特徴データに基づいて、幅を持って楽曲データの印象を表す範囲データを決定し、受け付けた検索範囲と重なる範囲データの楽曲データを特定し、特定した楽曲データの範囲データにおいて検索範囲と重なっている領域が占める割合を重なり度合として算出することで、特定した楽曲データを順位付けするように構成することにより、印象が異なるフレーズの中のいずれかにユーザが所望する印象が含まれている場合には、該当する楽曲データが検索されるため、印象の異なるフレーズを考慮して検索することができ、ユーザが所望する印象の楽曲を精度良く検索することができるという効果を奏する。 The music search apparatus and the music search method of the present invention extract a plurality of sets of feature data from music data, and determine range data that represents the impression of the song data with a width based on the extracted sets of feature data The music data of the range data that overlaps the received search range is identified, and the ratio of the area that overlaps the search range in the range data of the specified music data is calculated as the degree of overlap, so that the specified music data is ranked If the user's desired impression is included in any of the phrases with different impressions, the corresponding music data is searched. Thus, there is an effect that the music of the impression desired by the user can be searched with high accuracy.
以下、本発明の実施の形態を図面に基づいて詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は、本発明に係る楽曲検索装置の実施の形態の構成を示すブロック図であり、図2は、図1に示す楽曲検索装置に用いられるニューラルネットワークを事前に学習させるニューラルネットワーク学習装置の構成を示すブロック図である。 FIG. 1 is a block diagram showing a configuration of an embodiment of a music search apparatus according to the present invention, and FIG. 2 is a diagram of a neural network learning apparatus that learns in advance a neural network used in the music search apparatus shown in FIG. It is a block diagram which shows a structure.
本実施の形態の楽曲検索装置10は、図1を参照すると、パーソナルコンピュータ等のプログラム制御で動作する情報処理装置であり、楽曲データ入力部11と、圧縮処理部12と、特徴データ抽出部13と、印象度データ変換部14と、範囲データ決定部15と、楽曲データベース16と、楽曲検索部17と、PC操作部18と、PC表示部19と、音声出力部20とからなる。
Referring to FIG. 1, the music search device 10 of the present embodiment is an information processing device that operates under program control such as a personal computer, and includes a music
楽曲データ入力部11は、CD、DVD等の楽曲データが記憶されている記憶媒体を読み取る機能を有し、CD、DVD等の記憶媒体から楽曲データを入力し、圧縮処理部12および特徴データ抽出部13に出力する。CD、DVD等の記憶媒体以外にインターネット等のネットワークを経由した楽曲データ(配信データ)を入力するように構成しても良い。なお、圧縮された楽曲データが入力される場合には、圧縮された楽曲データを伸長して特徴データ抽出部13に出力する。
The music
圧縮処理部12は、楽曲検索時には、楽曲データ入力部11から入力された楽曲データをMP3やATRAC(Adaptive Transform Acoustic Coding )等の圧縮形式で圧縮し、圧縮した楽曲データを、アーティスト名、曲名等の書誌データと共に楽曲データベース16に記憶させる。
The
特徴データ抽出部13は、楽曲データ入力部11から入力された楽曲データから特徴データを抽出し、抽出した特徴データを印象度データ変換部14に出力する。
The feature
印象度データ変換部14は、図2に示すニューラルネットワーク学習装置40によって予め学習が施された階層型ニューラルネットワークを用いて、特徴データ抽出部13から入力された特徴データを、人間の感性によって判断される印象度データに変換し、変換した印象度データを範囲データ決定部15に出力する。
The impression degree
範囲データ決定部15は、印象度データ変換部14から入力された印象度データに基づいて範囲データを決定し、決定した範囲データを楽曲データに関連づけて楽曲データベース16に登録する。
The range
楽曲データベース16は、HDD等の大容量の記憶手段であり、圧縮処理部12によって圧縮された楽曲データ、書誌データと、範囲データ決定部15によって決定された範囲データとが関連づけられて記憶される。
The
楽曲検索部17は、PC操作部18から印象度データにおける各項目の値の範囲を検索範囲として受け付け、受け付けた検索範囲に基づいて楽曲データベース16に記憶されている楽曲データを検索し、受け付けた検索範囲と重なる範囲データの楽曲データを特定し、特定した楽曲データの範囲データにおいて検索範囲と重なっている領域が占める割合を重なり度合として算出することで、特定した楽曲データを順位付けする。
The
PC操作部18は、キーボードやマウス等の入力手段であり、楽曲データベース16に記憶されている楽曲データを検索する検索範囲の入力が行われる。
The
PC表示部19は、例えば液晶ディスプレイ等の表示手段であり、楽曲データベース16に記憶されている楽曲データを検索する検索範囲の表示、検索された楽曲データ(検索結果)の表示等が行われる。
The
音声出力部20は、楽曲データベース16に記憶されている楽曲データを伸長して再生するオーディオプレーヤであり、接続されたスピーカ21から伸長した楽曲データを音声出力させる。
The
ニューラルネットワーク学習装置40は、印象度データ変換部14で用いられる階層型ニューラルネットワークの学習を行う装置であり、図2を参照すると、楽曲データ入力部41と、音声出力部42と、特徴データ抽出部43と、印象度データ入力部44と、結合重み値学習部45と、結合重み値出力部46とからなる。
The neural
楽曲データ入力部41は、CD、DVD等の楽曲データが記憶されている記憶媒体を読み取る機能を有し、CD、DVD等の記憶媒体から楽曲データを入力し、音声出力部42および特徴データ抽出部43に出力する。CD、DVD等の記憶媒体以外にインターネット等のネットワークを経由した楽曲データ(配信データ)を入力するように構成しても良い。なお、圧縮された楽曲データが入力される場合には、圧縮された楽曲データを伸長して音声出力部42および特徴データ抽出部43に出力する。
The music
音声出力部42は、楽曲データ入力部41から入力された楽曲データを伸長して再生するオーディオプレーヤであり、接続されたスピーカ21から伸長した楽曲データを音声出力させる。
The
特徴データ抽出部43は、楽曲データ入力部41から入力された楽曲データから特徴データを抽出し、抽出した特徴データを結合重み値学習部45に出力する。なお、特徴データ抽出部43によって楽曲データから抽出される特徴データと、楽曲検索装置10の特徴データ抽出部13で楽曲データから抽出される特徴データとは、同一のものとする。
The feature
印象度データ入力部44は、音声出力部42からの音声出力に基づく、評価者による印象度データの入力を受け付け、受け付けた印象度データを、階層型ニューラルネットワークの学習に用いる教師信号として結合重み値学習部45に出力する。
The impression degree
結合重み値学習部45は、特徴データ抽出部43から入力された特徴データと、印象度データ入力部44から入力された印象度データとに基づいて階層型ニューラルネットワークに学習を施し、各ニューロンの結合重み値を更新し、結合重み値出力部46を介して更新した結合重み値を出力する。学習が施された階層型ニューラルネットワーク(更新された結合重み値)は、楽曲検索装置10の印象度データ変換部14に移植される。
The connection weight
まず、楽曲検索装置10における楽曲登録動作について図3乃至図8を参照して詳細に説明する。
図3は、図1に示す楽曲検索装置における楽曲登録動作を説明するためのフローチャートであり、図4は、図1に示す特徴データ抽出部における特徴データ抽出動作を説明するためのフローチャートであり、図5は、図1に示す特徴データ抽出部から出力される特徴データ例を示す図であり、図6は、図1に示す印象度データ変換部で用いられる階層型ニューラルネットワーク例を示す説明図であり、図7は、図1に示す印象度データ変換部から出力される印象度データ例を示す図であり、図8は、図1に示す範囲データ決定部における範囲データ決定動作を説明するための説明図である。
First, the music registration operation in the music search apparatus 10 will be described in detail with reference to FIGS.
FIG. 3 is a flowchart for explaining the music registration operation in the music search apparatus shown in FIG. 1, and FIG. 4 is a flowchart for explaining the feature data extraction operation in the feature data extraction unit shown in FIG. 5 is a diagram showing an example of feature data output from the feature data extraction unit shown in FIG. 1, and FIG. 6 is an explanatory diagram showing an example of a hierarchical neural network used in the impression degree data conversion unit shown in FIG. 7 is a diagram illustrating an example of impression degree data output from the impression degree data conversion unit illustrated in FIG. 1, and FIG. 8 illustrates a range data determination operation in the range data determination unit illustrated in FIG. It is explanatory drawing for.
楽曲データ入力部11にCD、DVD等の楽曲データが記憶されている記憶媒体をセットし、楽曲データ入力部11から楽曲データを入力する(ステップA1)。
A storage medium storing music data such as CD and DVD is set in the music
圧縮処理部12は、楽曲データ入力部11から入力された楽曲データを圧縮し(ステップA2)、圧縮した楽曲データを、アーティスト名、曲名等の書誌データと共に楽曲データベース16に記憶させる(ステップA3)。
The
特徴データ抽出部13は、楽曲データ入力部11から入力された楽曲データから特徴データを抽出する(ステップA4)。なお、楽曲データから抽出する特徴データとしては、テンポ、ビート、ビート強度、平均音数、スペクトル変化量等の各種データが考えられ、いずれを用いても良いが、本実施の形態では、特徴データ抽出部13において、ゆらぎ情報の6項目を特徴データとして抽出するように構成した。
The feature
また、特徴データ抽出部13は、楽曲データの時間軸上の異なる箇所からそれぞれ特徴データを抽出するように構成されている。すなわち、特徴データ抽出部13においては、楽曲データの一部分から特徴データを抽出するようになっており、例えば、開始から30s後、60s後、120s後のように時間をずらした複数箇所で特徴データをそれぞれ抽出する。
Further, the feature
特徴データ抽出部13における特徴データの抽出動作は、図4を参照すると、楽曲データ入力部11にCDプレーヤ等の楽曲再生装置やインターネット等のネットワークから楽曲データが入力されると(ステップB1)、楽曲データ入力部11は、高速化を目的とし、楽曲データ入力部11に入力された楽曲データを44.1kHzから22.05kHzにダウンサンプリングし、ダウンサンプリングした楽曲データを特徴データ抽出部13に出力する。
With reference to FIG. 4, the feature data extraction operation in the feature
次に、特徴データ抽出部13は、変数mに1を設定し(ステップB2)、n番目のデータ解析開始点から一定のフレーム長に対してのFFT処理を行い、パワースペクトルを算出する(ステップB3)。なお、特徴データ抽出部13には、楽曲データの時間軸上においてそれぞれ異なる箇所を示すN個のデータ解析開始点(例えば、楽曲の先頭から30s、60s、120s〜)が予め設定されているものとする。また、本実施の形態においては、特徴データの1つである楽曲のテンポとしてテンポの周期を抽出し、テンポの周期が0.3〜1sの範囲にあることを想定し、サンプリング周期が22.05kHzである楽曲データに対して1024ポイントのFFT処理を行うように構成した。すなわち、FFT処理を行うフレーム長を、1024/22.05kHz≒46msとし、想定した楽曲におけるテンポの周期の最小値よりも短い値としている。
Next, the feature
次に、特徴データ抽出部13は、Low(0〜200Hz)、Middle(200〜600Hz)、High(600〜11050Hz)の周波数帯域を予め設定しておき、Low、Middle、Highの3帯域のパワースペクトルを積分し、平均パワーを算出し(ステップB4)、ステップB3〜ステップB4の処理動作を行ったフレーム個数が予め定められた設定値(2048)に達したか否かを判断し(ステップB5)、ステップB3〜ステップB4の処理動作を行ったフレーム個数が予め定められた設定値に達していない場合には、データ解析開始点をシフトしながら(ステップB6)、ステップB3〜ステップB4の処理動作を繰り返す。これにより、ステップB3〜ステップB4の処理動作は、予め定められたフレーム個数の設定値分行われることになり、Low、Middle、High3帯域の平均パワーの時系列データをそれぞれ求めることができる。なお、本実施の形態では、解析時間長を60sとし、データ解析開始点を60s*22.05kHz/2048≒646ポイントずつシフトしながらFFT処理を行い、2048ポイント、60sの平均パワーの時系列データを作成するように構成した。
Next, the feature
次に、特徴データ抽出部13は、ステップB3〜ステップB5の処理動作によって算出したLow、Middle、Highの平均パワーの時系列データに対しそれぞれFFTを行い、ゆらぎ情報を算出する(ステップB7)。なお、本実施の形態では、平均パワーの時系列データに対して2048ポイントのFFT処理を行うように構成した。
Next, the feature
次に、特徴データ抽出部13は、Low、Middle、HighにおけるFFT分析結果から、横軸を対数周波数、縦軸を対数パワースペクトルとしたグラフにおける近似直線を最小2乗法等によって算出し(ステップB8)、近似直線の傾きと、近似直線のY切片とを求め(ステップB9)、Low、Middle、Highのそれぞれにおける近似直線の傾きおよびY切片を特徴データとして抽出する。
Next, the feature
次に、特徴データ抽出部13は、変数mが予め定められた設定数Mであるか否かを判断し(ステップB10)、変数mが設定数Mに到達していない場合には、変数mをインクリメント(ステップB11)、ステップB3の処理に戻り、変数mが設定数Mに到達した場合には、特徴データの抽出動作を終了する。これにより、特徴データ抽出部13においては、図5に示すような、Low、Middle、Highのそれぞれにおける近似直線の傾きおよびY切片の6項目の特徴データがM組求められることになり、特徴データ抽出部13は、求めたM組の特徴データを印象度データ変換部14に出力する。
Next, the feature
次に、印象度データ変換部14は、図6に示すような入力層(第1層)、中間層(第n層)、出力層(第N層)からなる階層型ニューラルネットワークを用い、入力層(第1層)に特徴データ抽出部13で抽出されたM組の特徴データをそれぞれ入力することによって、出力層(第N層)からM組の印象度データを出力、すなわちM組の特徴データをそれぞれ印象度データに変換する(ステップA5)。印象度データは、出力層(第N層)のニューロン数LNと同数の項目数N(本実施の形態では、N=2)となり、印象度データ変換部14では、図7に示すような、項目数Nの印象度データがM組求められることになり、印象度データ変換部14は、求めたM組の印象度データを範囲データ決定部15に出力する。なお、中間層(第n層)の各ニューロンの結合重み値wは、評価者によって予め学習が施されている。
Next, the impression degree
また、本実施の形態では、入力層(第1層)に入力される特徴データ、すなわち特徴データ抽出部13によって抽出される特徴データの項目は、前述のようにLow、Middle、Highのそれぞれにおける近似直線の傾きおよびY切片の6項目であり、入力層(第1層)のニューロン数L1は、6個となっている。さらに、印象度データの項目数は、任意であるが、本実施の形態では、印象度データの項目としては、人間の感性によって判断される「明るい、暗い」、「激しい、穏やか」の2項目を設定し、各項目を7段階評価で表すように設定した。従って、出力層(第N層)のニューロン数LNは、2個となっている。中間層(第n層:n=2,…,N−1)のニューロン数Lnは、適宜設定すると良い。
Further, in the present embodiment, the feature data input to the input layer (first layer), that is, the feature data items extracted by the feature
さらに、出力層(第N層)から出力される印象度データの各項目の値は、後述するように階層型ニューラルネットワークを学習させる教師信号として7段階評価の印象度データを用いているため、それぞれほぼ1〜7の範囲の実数となり、1以下は、1に、7以上は、7に変換するように構成した。印象度データにおいて、項目「明るい、暗い」が最小値(1)に近いほど「明るい」印象を与える楽曲データであり、最大値(7)に近いほど「暗い」印象を与える楽曲データである。また、印象度データにおいて、項目「激しい、穏やか」が最小値(1)に近いほど「激しい」印象を与える楽曲データであり、最大値(7)に近いほど「穏やか」な印象を与える楽曲データである。 Furthermore, since the value of each item of the impression degree data output from the output layer (Nth layer) uses the impression degree data of the seven-step evaluation as a teacher signal for learning the hierarchical neural network as described later, Each is a real number in the range of approximately 1 to 7, and 1 or less is converted to 1, and 7 or more is converted to 7. In the impression degree data, music data that gives a “bright” impression as the item “bright, dark” is closer to the minimum value (1), and music data that gives a “dark” impression as it gets closer to the maximum value (7). In addition, in the impression degree data, the music data that gives a “severe” impression as the item “violent and gentle” is closer to the minimum value (1), and the music data that gives a “gentle” impression as it is closer to the maximum value (7). It is.
範囲データ決定部15は、印象度データ変換部14から入力されたM組の印象度データに基づいて範囲データを決定し(ステップA6)、決定した範囲データを楽曲データに関連づけて楽曲データベース16に記憶させる(ステップA7)。範囲データは、幅を持たせて楽曲データの印象を表すデータであり、本実施の形態では、M組の印象度データにおいて、各項目の最大値から最小値の間を範囲データとした。すなわち、図8に示すように、M組の印象度データにおける項目「明るい、暗い」の最大値が(3.2)、最小値が(2.3)であり、項目「激しい、穏やか」の最大値が(4.2)、最小値が(3.5)である場合には、範囲データ決定部15は、項目「明るい、暗い」における値の範囲(2.3〜3.2)と、項目「激しい、穏やか」における値の範囲(3.5〜4.2)とを範囲データとして決定する。
The range
次に、印象度データ変換部14における変換動作(ステップA5)に用いられる階層型ニューラルネットワークの学習動作について図9を参照して詳細に説明する。
図9は、図2に示すニューラルネットワーク学習装置における階層型ニューラルネットワークの学習動作を説明するためのフローチャートである。
Next, the learning operation of the hierarchical neural network used for the conversion operation (step A5) in the impression degree
FIG. 9 is a flowchart for explaining the learning operation of the hierarchical neural network in the neural network learning apparatus shown in FIG.
評価者による階層型ニューラルネットワーク(結合重み値w)の学習は、例えば、図2に示すニューラルネットワーク学習装置40を用いて行われ、まず、階層型ニューラルネットワーク(結合重み値w)を事前学習させるための事前学習データ(楽曲データの特徴データ+印象度データ)の入力が行われる。
Learning of the hierarchical neural network (connection weight value w) by the evaluator is performed using, for example, the neural
楽曲データ入力部41にCD、DVD等の楽曲データが記憶されている記憶媒体をセットし、楽曲データ入力部41から楽曲データを入力し(ステップC1)、特徴データ抽出部43は、楽曲データ入力部41から入力された楽曲データから特徴データを抽出する(ステップC2)。なお、特徴データ抽出部43によって抽出する特徴データは、楽曲検索装置10の特徴データ抽出部13で抽出する特徴データと同一である。
A music medium such as a CD or DVD is set in the music
また、音声出力部42は、楽曲データ入力部41から入力された楽曲データを音声出力し(ステップC3)、評価者は、音声出力部42からの音声出力を聞くことによって、楽曲の印象度を感性によって評価し、評価結果を印象度データとして印象度データ入力部44から入力し(ステップC4)、結合重み値学習部45は、印象度データ入力部44から入力された印象度データを教師信号として受け付ける。なお、本実施の形態では、印象度データの項目としては、人間の感性によって判断される「明るい、暗い」、「激しい、穏やか」の2項目を設定し、各項目についての7段階評価を印象度データとして印象度データ入力部44で受け付けるように構成した。
The
次に、特徴データと入力された印象度データとからなる学習データが予め定められたサンプル数T1に達したか否かを判断し(ステップC5)、学習データがサンプル数T1に達するまでステップC1〜ステップC4の動作が繰り返される。 Next, it is determined whether a learning data consisting of characteristic data and the inputted impression data reaches the number of samples T 1 for a predetermined (step C5), until the learning data reaches the number of samples T 1 Steps C1 to C4 are repeated.
結合重み値学習部45における階層型ニューラルネットワークの学習、すなわち各ニューロンの結合重み値wの更新は、誤差逆伝播学習法を用いて行う。
まず、初期値として、中間層(第n層)の全てのニューロンの結合重み値wを乱数によって−0.1〜0.1程度の範囲の小さな値に設定しておき、結合重み値学習部45は、特徴データ抽出部43によって抽出された特徴データを入力信号xj(j=1,2,…,8) として入力層(第1層)に入力し、入力層(第1層)から出力層(第N層)に向けて、各ニューロンの出力を計算する。
The learning of the hierarchical neural network in the connection weight
First, as an initial value, the connection weight value w of all the neurons of the intermediate layer (nth layer) is set to a small value in the range of about −0.1 to 0.1 by a random number, and the connection weight
次に、結合重み値学習部45は、印象度データ入力部44から入力された印象度データを教師信号yj(j=1,2,…,8) とし、出力層(第N層)の出力outj Nと、教師信号yjとの誤差から、学習則δj Nを次式によって計算する。
Next, the combined weight
次に、結合重み値学習部45は、学習則δj Nを使って、中間層(第n層)の誤差信号 δj n を次式によって計算する。
Next, the joint weight
なお、数式2において、wは、第 n 層 j 番目と第 n -1 層k番目のニューロンの間の結合重み値を表している。
In
次に、結合重み値学習部45は、中間層(第n層)の誤差信号 δj n を用いて各ニューロンの結合重み値wの変化量Δwを次式によって計算し、各ニューロンの結合重み値wを更新する(ステップC6)。なお、次式において、ηは、学習率を表し、評価者による学習では、η1(0<η1≦1)に設定されている。
Next, the connection weight
ステップC6では、サンプル数T1の事前学習データのそれぞれについて学習が行われ、次に、次式に示す2乗誤差Eが予め定められた事前学習用の基準値E1よりも小さいか否かが判断され(ステップC7)、2乗誤差Eが基準値E1よりも小さくなるまでステップC6の動作が繰り返される。なお、2乗誤差Eが基準値E1よりも小さくなると想定される学習反復回数Sを予め設定しておき、ステップC6の動作を学習反復回数S回繰り返すようにしても良い。 In step C6, for each of the pre-training data sample number T 1 learning is performed, then, or smaller or not than the reference value E 1 for pre-learning is square error E shown in the following equation predetermined There is judged (step C7), the operation of step C6 to square error E is smaller than the reference value E 1 is repeated. Incidentally, the learning iterations S squared error E is assumed to be smaller than the reference value E 1 is set in advance, may be the operation of the step C6 to repeat the learning iterations S times.
ステップC7で2乗誤差Eが基準値E1よりも小さいと判断された場合には、結合重み値学習部45は、事前学習させた各ニューロンの結合重み値wを結合重み値出力部46によって出力し(ステップC8)、結合重み値出力部46から出力された各ニューロンの結合重み値wは、印象度データ変換部14に記憶される。
In the case of the square error E is determined to be smaller than the reference value E 1 Step C7, connection
次に、楽曲検索部17における楽曲検索動作について図10および図11を参照して詳細に説明する。
図10は、図1に示す楽曲検索部における楽曲検索動作を説明するためフローチャートであり、図11は、図1に示す楽曲検索部における楽曲検索動作を説明するための説明図である。
Next, the music search operation in the
FIG. 10 is a flowchart for explaining the music search operation in the music search unit shown in FIG. 1, and FIG. 11 is an explanatory diagram for explaining the music search operation in the music search unit shown in FIG.
楽曲検索部17は、PC操作部18から印象度データの各項目における値の範囲を検索範囲として受け付け(ステップD1)、受け付けた検索範囲に基づいて楽曲データベース16に記憶されている楽曲データを検索し、受け付けた検索範囲と重なる範囲データの楽曲データを特定する(ステップD2)。
The
例えば、印象度データの項目である「明るい、暗い」、「激しい、穏やか」の2項目の範囲を示す範囲データと共に、楽曲A〜Gが楽曲データベース16に記憶されている場合には、図11に示すように、7個の範囲データが存在しており、PC操作部18から検索条件として受け付けた印象度データの各項目の値を含む範囲データの楽曲データが楽曲検索部17によって特定される。図11に示すように、印象度データの項目「明るい、暗い」における値の範囲(2〜3)と、項目「激しい、穏やか」における値の範囲(3〜4)とを検索範囲として受け付けた場合には、楽曲Aと、楽曲Eと、楽曲Gとが特定される。
For example, when the music pieces A to G are stored in the
次に、楽曲検索部17は、特定したそれぞれの楽曲データの範囲データに対し、検索範囲と重なっている領域が占める割合(以下、重なり度合Pと称す)を算出し(ステップD3)、重なり度合Pが大きい順にステップD2で特定した楽曲データを順位付け(ソート)し(ステップD4)、上位から予め定められた所定数の楽曲データを検索結果として特定する(ステップD5)。
Next, the
重なり度合Pは、範囲データの内のどの程度(割合)が検索範囲と重なっているかを示す値であり、重なり度合Pが大きいほど検索範囲により適合しているものとして判断される。 The overlap degree P is a value indicating how much (ratio) of the range data overlaps the search range, and it is determined that the greater the overlap degree P, the better the search range.
楽曲データ(項目数N)の各項目の幅をそれぞれX1、X2・・・XNとし、各項目において検索範囲と重なっている幅をそれぞれY1、Y2・・・YNとすると、重なり度合Pは、
P=(X1*X2*・・・*XN)*Z/(Y1*Y2*・・・*YN)
で表される。なお、Zは、各範囲データに与えられている持ち点である。各範囲データに与えられている持ち点Zは、各楽曲データを同じ条件で検索する場合には、同じ持ち点にすることが好ましいが、優先的に検索させたい楽曲データがある場合には、当該楽曲データの範囲データに与える持ち点Zを他の範囲データよりも大きい値に設定できるように、また、あまり検索させたくない楽曲データがある場合には、当該楽曲データの範囲データに与える持ち点Zを他の範囲データよりも小さい値に設定できるように構成すると良い。
And X 1, X 2 ··· X N the width of each item of the song data (number of items N) respectively, when each of the widths of overlap with the search range as Y 1, Y 2 ··· Y N In each item The degree of overlap P is
P = (X 1 * X 2 * ... * X N ) * Z / (Y 1 * Y 2 * ... * Y N )
It is represented by Z is a point given to each range data. The score Z given to each range data is preferably the same score when searching for each piece of music data under the same conditions, but when there is song data to be preferentially searched, The possession point Z given to the range data of the music data can be set to a larger value than the other range data, and if there is music data which is not desired to be searched, the possession given to the range data of the music data It is preferable that the point Z can be set to a value smaller than other range data.
次に、楽曲検索部17は、特定した楽曲データの書誌データを検索結果としてPC表示部19に表示させることで検索結果をユーザに通知し、PC操作部18から再生指示が入力されると、特定した楽曲データを順次もしくはランダムに楽曲データベース16から読み出し、読み出した楽曲データを音声出力部20に出力してスピーカ21から音声出力させる。
Next, the
以上説明したように、本実施の形態によれば、特徴データ抽出部13は、楽曲データから複数組の特徴データを抽出し、範囲データ決定部15は、抽出した複数組の前記特徴データに基づいて、幅を持って楽曲データの印象を表す範囲データを決定し、楽曲検索部17は、受け付けた検索範囲と重なる範囲データの楽曲データを特定し、特定した楽曲データの範囲データにおいて検索範囲と重なっている領域が占める割合を重なり度合として算出することで、特定した楽曲データを順位付けするように構成することにより、印象が異なるフレーズの中のいずれかにユーザが所望する印象が含まれている場合には、該当する楽曲データが検索されるため、印象の異なるフレーズを考慮して検索することができ、ユーザが所望する印象の楽曲を精度良く検索することができるという効果を奏する。
As described above, according to the present embodiment, the feature
なお、本実施の形態では、楽曲データの時間軸上の異なる箇所からそれぞれ特徴データを抽出すると共に、複数組の特徴データをそれぞれ印象度データに変換することで、複数組の印象度データを求め、求めた複数組の印象度データに基づいて範囲データを決定するように構成したが、楽曲データの時間軸上の同一箇所から幅を持たせた特徴データを抽出するように構成し、幅を持たせた特徴データを変換した印象度データに基づいて範囲データを決定するようにしても良い。 In the present embodiment, the feature data is extracted from different locations on the time axis of the music data, and the plurality of sets of feature data are converted into impression data, thereby obtaining the plurality of sets of impression data. The range data is determined based on the plurality of sets of impression degree data obtained, but the feature data having a width is extracted from the same location on the time axis of the music data, and the width is The range data may be determined based on impression degree data obtained by converting the feature data provided.
図12は、図1に示す特徴データ抽出部で幅を持たせた特徴データの抽出例を説明するための説明図である。
図4に示すステップB8において、近似直線を算出する代わりに、図12に示すように上限直線と下限直線とを求め、ステップB9において、上限直線と下限直線との傾きと、Y切片とをそれぞれ求めるように構成する。なお、図11は、Lowのパワースペクトルを示しており、Middle、Highについても同様に上限直線と下限直線とを求める。また、上限直線と下限直線とを求めるに際し、対数周波数は、マスクする範囲(例えば0.1Hz未満をマスクし、0.1Hzのデータに基づいて上限直線と下限直線とを求める等)を設定してもよい。
FIG. 12 is an explanatory diagram for explaining an example of extracting feature data having a width provided by the feature data extracting unit shown in FIG.
In step B8 shown in FIG. 4, instead of calculating an approximate line, an upper limit line and a lower limit line are obtained as shown in FIG. 12, and in step B9, the slopes of the upper limit line and the lower limit line and the Y intercept are respectively obtained. Configure as required. Note that FIG. 11 shows a low power spectrum, and an upper limit straight line and a lower limit straight line are similarly obtained for middle and high. Further, when obtaining the upper limit line and the lower limit line, the logarithmic frequency is set to a masking range (for example, masking less than 0.1 Hz and obtaining the upper limit line and the lower limit line based on 0.1 Hz data). May be.
これにより、2組の特徴データ(上限直線に基づく特徴データと下限直線に基づく特徴データ)が求められることになり、2組の特徴データをそれぞれ印象度データに変換し、変換された2組の印象度データに基づいて範囲データを決定することができる。 As a result, two sets of feature data (feature data based on the upper limit line and feature data based on the lower limit line) are obtained, and the two sets of feature data are converted into impression data, respectively. The range data can be determined based on the impression degree data.
さらに、本実施の形態では、楽曲データの時間軸上の異なる箇所からそれぞれ特徴データを抽出すると共に、複数組の特徴データをそれぞれ印象度データに変換することで、複数組の印象度データを求め、求めた複数組の印象度データに基づいて範囲データを決定するように構成したが、特徴データを印象度データに変換することなく、直接複数組の特徴データに基づいて範囲データを決定するように構成しても良い。 Furthermore, in the present embodiment, feature data is extracted from different locations on the time axis of the music data, and a plurality of sets of impression data is obtained by converting a plurality of sets of feature data into impression data. The range data is determined based on the obtained multiple sets of impression data, but the range data is determined directly based on the multiple sets of feature data without converting the feature data into impression data. You may comprise.
さらに、本実施の形態では、全ての楽曲データから特徴データを抽出できるものとして説明したが、何らかの理由により、楽曲データから特徴データを抽出できない場合には、範囲データを全範囲とすると良い。 Furthermore, although the present embodiment has been described on the assumption that feature data can be extracted from all music data, if for some reason the feature data cannot be extracted from music data, the range data may be the entire range.
なお、本発明が上記各実施の形態に限定されず、本発明の技術思想の範囲内において、各実施の形態は適宜変更され得ることは明らかである。また、上記構成部材の数、位置、形状等は上記実施の形態に限定されず、本発明を実施する上で好適な数、位置、形状等にすることができる。なお、各図において、同一構成要素には同一符号を付している。 Note that the present invention is not limited to the above-described embodiments, and it is obvious that the embodiments can be appropriately changed within the scope of the technical idea of the present invention. In addition, the number, position, shape, and the like of the constituent members are not limited to the above-described embodiment, and can be set to a suitable number, position, shape, and the like in practicing the present invention. In each figure, the same numerals are given to the same component.
10 楽曲検索装置
11 楽曲データ入力部
12 圧縮処理部
13 特徴データ抽出部
14 印象度データ変換部
15 範囲データ決定部
16 楽曲データベース
17 楽曲検索部
18 PC操作部
19 PC表示部
20 音声出力部
21 スピーカ
40 ニューラルネットワーク学習装置
41 楽曲データ入力部
42 音声出力部
43 特徴データ抽出部
44 印象度データ入力部
45 結合重み値学習部
46 結合重み値出力部
DESCRIPTION OF SYMBOLS 10
Claims (6)
複数の項目のそれぞれの値の範囲を検索範囲として受け付ける操作手段と、
前記楽曲データの時間軸上の異なる箇所からそれぞれ特徴データを抽出する特徴データ抽出手段と、
該特徴データ抽出手段によって時間軸上の異なる箇所からそれぞれ抽出された複数の前記特徴データに基づいて、前記複数の項目のそれぞれの値に幅を持たせた範囲データを決定する範囲データ決定手段と、
前記操作手段によって受け付けた前記検索範囲と重なる前記範囲データの前記楽曲データを特定すると共に、特定した前記楽曲データの前記範囲データにおいて前記検索範囲と重なっている領域が占める割合を重なり度合として算出することで、特定した前記楽曲データを順位付けする楽曲検索手段とを具備することを特徴とする楽曲検索装置。 A music search device for searching music data stored in a music database,
An operation means for accepting a range of values of a plurality of items as a search range;
Feature data extracting means for extracting feature data from different locations on the time axis of the music data ;
Wherein the different locations on the time axis by the feature data extraction means multiple extracted respectively based on the feature data, range data determining means for determining a range data which gave width value of each of the plurality of items and,
Together with the search range overlaps to identify the music data of the range data received by said operating means, is calculated as the degree overlap the ratio of the area of overlap with the search range in the range data of the music data specified And a music search means for ranking the specified music data.
該印象度データ変換手段は、前記特徴データ抽出手段によって抽出された複数の前記特徴データのそれぞれについて前記印象度データに変換させることで、複数の前記特徴データを複数の前記印象度データに変換させ、
前記範囲データ決定手段は、前記印象度データ変換手段によって変換された複数の前記印象度データに基づいて前記範囲データを決定することを特徴とする請求項1記載の楽曲検索装置。 Said pre Symbol feature data extracted by the feature data extraction means, comprising a impression data converting means for converting the impression data of values of said plurality of items,
The impression degree data converting means converts the plurality of feature data into a plurality of impression degree data by converting each of the plurality of feature data extracted by the feature data extracting means into the impression degree data. ,
The range data determining means song search apparatus according to claim 1, wherein determining said range data based on the impression data of multiple converted by the impression data converting means.
複数の項目のそれぞれの値の範囲を検索範囲の入力を受け付け、Accept the search range input for each value range of multiple items,
前記楽曲データの時間軸上の異なる箇所からそれぞれ特徴データを抽出し、 Extract feature data from different points on the time axis of the music data,
時間軸上の異なる箇所からそれぞれ抽出した複数の前記特徴データに基づいて、前記複数の項目のそれぞれの値に幅を持たせた範囲データを決定し、 Based on the plurality of feature data respectively extracted from different locations on the time axis, to determine range data having a width for each value of the plurality of items,
該検索範囲と重なる前記範囲データの前記楽曲データを特定し、 Specifying the music data of the range data overlapping the search range;
該特定した前記楽曲データの前記範囲データにおいて前記検索範囲と重なっている領域が占める割合を重なり度合として算出することで、前記特定した前記楽曲データを順位付けすることを特徴とする楽曲検索方法。 A music search method, wherein the specified music data is ranked by calculating a ratio of the area overlapping the search range in the range data of the specified music data as an overlap degree.
該変換した複数の前記印象度データに基づいて前記範囲データを決定することを特徴とする請求項4記載の楽曲検索方法。 5. The music search method according to claim 4, wherein the range data is determined based on the plurality of converted impression degree data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005144355A JP4607659B2 (en) | 2005-05-17 | 2005-05-17 | Music search apparatus and music search method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005144355A JP4607659B2 (en) | 2005-05-17 | 2005-05-17 | Music search apparatus and music search method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006323007A JP2006323007A (en) | 2006-11-30 |
JP4607659B2 true JP4607659B2 (en) | 2011-01-05 |
Family
ID=37542761
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005144355A Expired - Fee Related JP4607659B2 (en) | 2005-05-17 | 2005-05-17 | Music search apparatus and music search method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4607659B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2008107986A1 (en) * | 2007-03-07 | 2010-06-10 | パイオニア株式会社 | Data browsing apparatus and method |
JP2008299631A (en) * | 2007-05-31 | 2008-12-11 | Sony Ericsson Mobilecommunications Japan Inc | Content retrieval device, content retrieval method and content retrieval program |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05257487A (en) * | 1992-03-13 | 1993-10-08 | Clarion Co Ltd | 'karaoke' program selecting device using fuzzy inference |
JPH08137902A (en) * | 1994-11-10 | 1996-05-31 | Fujitsu Ltd | Device for retrieving image space area specifying sound |
JPH08153117A (en) * | 1994-11-30 | 1996-06-11 | Canon Inc | Device and method for document retrieval |
JPH09212480A (en) * | 1996-01-31 | 1997-08-15 | Yamaha Corp | Atmosphere information generating device and karaoke device |
JPH1011463A (en) * | 1996-06-26 | 1998-01-16 | Mitsubishi Materials Corp | Music information retrieval device |
JP2000207415A (en) * | 1999-01-19 | 2000-07-28 | Sony Corp | Information providing method, information recording medium, information management method and recording and reproducing device |
JP2002278547A (en) * | 2001-03-22 | 2002-09-27 | Matsushita Electric Ind Co Ltd | Music piece retrieval method, music piece retrieval data registration method, music piece retrieval device and music piece retrieval data registration device |
JP2003330459A (en) * | 2002-05-15 | 2003-11-19 | Meiji Univ | System and program for impressing music data |
JP2004110422A (en) * | 2002-09-18 | 2004-04-08 | Double Digit Inc | Music classifying device, music classifying method, and program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006095599A1 (en) * | 2005-03-08 | 2006-09-14 | Pioneer Corporation | Information processing device, information processing method |
-
2005
- 2005-05-17 JP JP2005144355A patent/JP4607659B2/en not_active Expired - Fee Related
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05257487A (en) * | 1992-03-13 | 1993-10-08 | Clarion Co Ltd | 'karaoke' program selecting device using fuzzy inference |
JPH08137902A (en) * | 1994-11-10 | 1996-05-31 | Fujitsu Ltd | Device for retrieving image space area specifying sound |
JPH08153117A (en) * | 1994-11-30 | 1996-06-11 | Canon Inc | Device and method for document retrieval |
JPH09212480A (en) * | 1996-01-31 | 1997-08-15 | Yamaha Corp | Atmosphere information generating device and karaoke device |
JPH1011463A (en) * | 1996-06-26 | 1998-01-16 | Mitsubishi Materials Corp | Music information retrieval device |
JP2000207415A (en) * | 1999-01-19 | 2000-07-28 | Sony Corp | Information providing method, information recording medium, information management method and recording and reproducing device |
JP2002278547A (en) * | 2001-03-22 | 2002-09-27 | Matsushita Electric Ind Co Ltd | Music piece retrieval method, music piece retrieval data registration method, music piece retrieval device and music piece retrieval data registration device |
JP2003330459A (en) * | 2002-05-15 | 2003-11-19 | Meiji Univ | System and program for impressing music data |
JP2004110422A (en) * | 2002-09-18 | 2004-04-08 | Double Digit Inc | Music classifying device, music classifying method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2006323007A (en) | 2006-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8392414B2 (en) | Hybrid audio-visual categorization system and method | |
US10296959B1 (en) | Automated recommendations of audio narrations | |
CN106295717B (en) | A kind of western musical instrument classification method based on rarefaction representation and machine learning | |
Samsekai Manjabhat et al. | Raga and tonic identification in carnatic music | |
Mokhsin et al. | Automatic music emotion classification using artificial neural network based on vocal and instrumental sound timbres | |
Ünal et al. | A hierarchical approach to makam classification of Turkish makam music, using symbolic data | |
US7576278B2 (en) | Song search system and song search method | |
JP4607660B2 (en) | Music search apparatus and music search method | |
JP4607659B2 (en) | Music search apparatus and music search method | |
Sarkar et al. | Raga identification from Hindustani classical music signal using compositional properties | |
Van De Laar | Emotion detection in music, a survey | |
US10403304B1 (en) | Neural networks for identifying the potential of digitized audio to induce frisson in listeners | |
Fu | [Retracted] Model of Markov‐Based Piano Note Recognition Algorithm and Piano Teaching Model Construction | |
JP4279274B2 (en) | Mobile terminal device and music information display method | |
Lai | [Retracted] Automatic Music Classification Model Based on Instantaneous Frequency and CNNs in High Noise Environment | |
Krishnendu | Classification Of Carnatic Music Ragas Using RNN Deep Learning Models | |
JP4313343B2 (en) | Portable terminal device and information display method | |
JP4313340B2 (en) | Mobile terminal device and music selection method | |
Kher | Music Composer Recognition from MIDI Representation using Deep Learning and N-gram Based Methods | |
JP4115923B2 (en) | Music search system and music search method | |
JP2006317872A (en) | Portable terminal device and musical piece expression method | |
JP2005309712A (en) | Musical piece retrieval system and musical piece retrieval method | |
JP2006195619A (en) | Information retrieval device, and information retrieval method | |
JP4246100B2 (en) | Music search system and music search method | |
JP4165645B2 (en) | Music search system and music search method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070822 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100303 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100420 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100609 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101005 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101007 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131015 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |