JP2005107718A - Database retrieval device - Google Patents
Database retrieval device Download PDFInfo
- Publication number
- JP2005107718A JP2005107718A JP2003338393A JP2003338393A JP2005107718A JP 2005107718 A JP2005107718 A JP 2005107718A JP 2003338393 A JP2003338393 A JP 2003338393A JP 2003338393 A JP2003338393 A JP 2003338393A JP 2005107718 A JP2005107718 A JP 2005107718A
- Authority
- JP
- Japan
- Prior art keywords
- sensitivity
- database
- space coordinate
- coordinate value
- music
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
この発明は、音楽、映像等のデータベース検索装置に関する。 The present invention relates to a database search apparatus for music, video and the like.
感性語によって音楽を検索するシステムが提案されている(「音楽感性空間を用いた感性語による音楽データベース検索システム」情報処理学会論文誌 Vol.42 No12 2001)。この従来の検索システムでは、データベース中の曲をマッピングするための検索空間をSD法ならびに因子分析により生成する。また、データベースに新たな曲を登録する際には、GAとニューラルネットワークにより構成された自動インデクシングシステムにより検索空間へのマッピングを行う。検索の際には、8つの感性語対の度合い(1〜7)をニューラルネットワークに入力することにより、ニューラルネットワークはそれらの入力に対応する感性空間中の座標を出力するので、検索システムはその出力座標値からユークリッド距離の最も近い曲から順番に検索候補としてユーザに提示を行う。 A system for searching music by sensitivity words has been proposed ("Music database search system by sensitivity words using music sensitivity space", Information Processing Society of Japan Vol.42 No12 2001). In this conventional search system, a search space for mapping songs in a database is generated by the SD method and factor analysis. In addition, when a new song is registered in the database, mapping to a search space is performed by an automatic indexing system constituted by a GA and a neural network. At the time of search, by inputting the degree (1-7) of eight sensitivity word pairs to the neural network, the neural network outputs the coordinates in the sensitivity space corresponding to those inputs. The search candidates are presented to the user in order from the song with the closest Euclidean distance from the output coordinate value.
なお、感性語対として、「明るい−暗い」、「重い−軽い」、「かたい−やわらかい」、「安定−不安定」、「澄んだ−濁った」、「滑らか−歯切れのよい」、「激しい−穏やか」および「厚い−薄い」の8種類が使用されている。 The sensitivity word pairs are “bright-dark”, “heavy-light”, “hard-soft”, “stable-unstable”, “clear-cloudy”, “smooth-crisp”, “ Eight types are used: severe-mild and thick-thin.
ところで、音楽、映像に対するユーザの感性も、性別、年齢層によって異なるものと考えられるが、上記従来の検索システムでは、この点が考慮されていない。
この発明は、より個人に適合した検索が可能となるデータベース検索装置を提供することを目的とする。 An object of the present invention is to provide a database search device that enables a search that is more personalized.
請求項1に記載の発明は、データベースに登録される各コンテンツ毎に、そのコンテンツに対して求められた感性空間座標値がそのコンテンツのインデックスとしてデータベースに登録されており、検索時にはユーザによって入力された各感性語対毎の印象値に基づいて、入力された各感性語対毎の印象値に対応する感性空間座標値が算出され、算出された感性空間座標値との空間的距離が最も短いコンテンツを検索するデータベース検索装置において、性別および/または年齢によって分類される分類パターン毎に、各コンテンツの感性空間座標値が求められて、インデックス情報としてデータべースに登録されており、検索時において、各感性語対毎の印象値の他に、分類パターンを特定するためのユーザ情報をユーザに入力させるための第1手段、第1手段によって入力された各感性語対毎の印象値に対応する感性空間座標値を算出する第2手段、第2手段によって算出された感性空間座標値とデータベースにインデックスとして登録されている感性空間座標値との間の空間距離の計算する第3手段、ならびに第3手段によって算出された空間距離が最も短いコンテンツを選択する第4手段を備えており、第3手段は、空間距離を計算する際に、第1手段によって入力されたユーザ情報によって特定される分類パターンに対応したインデックス情報のみを空間距離の算出対象として使用することを特徴とする。 According to the first aspect of the present invention, for each content registered in the database, the Kansei space coordinate value obtained for the content is registered in the database as an index of the content, and is input by the user during the search. Based on the impression value for each sensitivity word pair, the sensitivity space coordinate value corresponding to the input impression value for each sensitivity word pair is calculated, and the spatial distance from the calculated sensitivity space coordinate value is the shortest In a database search device for searching for content, the sensitivity space coordinate value of each content is obtained for each classification pattern classified by gender and / or age, and is registered in the database as index information. In order to make the user input user information for specifying the classification pattern in addition to the impression value for each sensitivity word pair The first means, the second means for calculating the sensitivity space coordinate value corresponding to the impression value for each sensitivity word pair input by the first means, and the sensitivity space coordinate value calculated by the second means and registered in the database as an index A third means for calculating a spatial distance between the sentimental spatial coordinate values, and a fourth means for selecting the content having the shortest spatial distance calculated by the third means. The third means comprises: When calculating the spatial distance, only index information corresponding to the classification pattern specified by the user information input by the first means is used as a spatial distance calculation target.
請求項2に記載の発明は、データベースに登録される各コンテンツ毎に、そのコンテンツに対して求められた感性空間座標値がそのコンテンツのインデックスとしてデータベースに登録されており、検索時にはユーザによって指定された感性空間座標値との空間的距離が最も短いコンテンツを検索するデータベース検索装置において、性別および/または年齢によって分類される分類パターン毎に、各コンテンツの感性空間座標値が求められて、インデックス情報としてデータべースに登録されており、検索時において、感性空間座標値の他に、分類パターンを特定するためのユーザ情報をユーザに入力させるための第1手段、第1手段によって入力された感性空間座標値とデータベースにインデックスとして登録されている感性空間座標値との間の空間距離の計算する第2手段、ならびに第2手段によって算出された空間距離が最も短いコンテンツを選択する第3手段を備えており、第2手段は、空間距離を計算する際に、第1手段によって入力されたユーザ情報によって特定される分類パターンに対応したインデックス情報のみを空間距離の算出対象として使用することを特徴とする。 According to the second aspect of the present invention, for each content registered in the database, the Kansei space coordinate value obtained for the content is registered in the database as an index of the content, and is specified by the user at the time of search. In a database search device that searches for content having the shortest spatial distance from the emotional space coordinate value, the emotional space coordinate value of each content is obtained for each classification pattern classified by sex and / or age, and index information is obtained. And is input by the first means and the first means for allowing the user to input user information for specifying the classification pattern in addition to the sensitivity space coordinate value at the time of the search. Kansei space coordinate values and Kansei space coordinate values registered as indexes in the database A second means for calculating the spatial distance between the second means, and a third means for selecting the content having the shortest spatial distance calculated by the second means. When the second means calculates the spatial distance, Only the index information corresponding to the classification pattern specified by the user information input by the first means is used as a spatial distance calculation target.
この発明によれば、より個人に適合した検索が可能となる。 According to the present invention, it is possible to search more suited to an individual.
以下、図面を参照して、この発明を音楽データベース検索システムに適用した場合の実施例について説明する。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention applied to a music database search system will be described below with reference to the drawings.
〔1〕音楽データベース検索システムの構成についての説明 [1] Explanation of the configuration of the music database search system
図1は、音楽データベース検索システムの構成を示している。 FIG. 1 shows the configuration of a music database search system.
音楽データベース検索システムは、音楽感性空間生成部100と検索システム部200とから構成されている。音楽感性空間生成部100は、検索空間となる音楽感性空間を生成する。検索システム部200は、入力された曲印象に適合した曲を音楽データベースから検索し、その曲を出力する。
The music database search system includes a music sensitivity
〔2〕音楽感性空間生成部100についての説明
[2] Description of the music sensitivity
音楽感性空間生成部100は、図1に示すように、聴取実験によって音楽感性空間を生成する初期音楽感性空間生成部101と、データベースに追加したい曲の音楽感性空間座標値を自動的に算出するための自動インデクシング部102とを備えている。
As shown in FIG. 1, the music sensitivity
〔2−1〕初期音楽感性空間生成部101についての説明
[2-1] Description of the initial music sensitivity
初期音楽感性空間生成部101は、聴取実験によって得られた曲印象値を用いて因子分析を行う因子分析部111と、データベース部112とを備えている。
The initial music sensation
聴取実験について説明する。被験者として、30歳未満の男性、30歳以上の男性、30歳未満の女性、30歳以上の女性、各10名に対して、ポップスを100曲提示し、各感性語対に対して7段階評価を行ってもらった。 A listening experiment will be described. As subjects, 100 pops were presented to 10 males under 30 years old, males over 30 years old, females under 30 years old, females over 30 years old, each with 7 levels for each sensitivity word pair. We had you evaluate.
感性語対は、次の4種類とした。
(1)明るい−暗い
(2)重い−軽い
(3)安定−不安定
(4)力強い−弱々しい
The following four types of sensitivity word pairs were used.
(1) bright-dark (2) heavy-light (3) stable-unstable (4) powerful-weak
この実験結果から、性別、年齢別の4グループ(30歳未満の男性、30歳以上の男性、30歳未満の女性、30歳以上の女性)毎に、各曲それぞれについて、各感性語対毎の曲印象値を算出した。各感性語対毎の曲印象値は、その感性語対の評価値の平均値で表される。 From this experimental result, for each song, for each sex word pair, for each group of 4 groups by sex and age (male under 30 years old, male over 30 years old, female under 30 years old, female over 30 years old). The song impression value was calculated. The music impression value for each sensitivity word pair is represented by an average value of the evaluation values of the sensitivity word pairs.
因子分析部111は、各グループ毎に、各曲の各感性語対毎の曲印象値を多変量とする因子分析を行い、各曲毎に、各因子を軸とした、曲印象の心理的な相関を表す空間(音楽感性空間)の座標データを得る。このように、音楽感性空間は、複数の因子軸を有する空間である。この例では、因子は3種類あり、因子軸も3種類あるものとする。 The factor analysis unit 111 performs, for each group, a factor analysis in which the song impression value for each sensitivity word pair of each song is multivariate, and for each song, the psychological impression of the song impression with each factor as an axis. Coordinate data of a space (musical sensation space) representing a strong correlation is obtained. Thus, the music sensitivity space is a space having a plurality of factor axes. In this example, it is assumed that there are three types of factors and three types of factor axes.
データベース部112には、各曲の楽曲データが登録されるとともに、各グループ毎に、各曲の感性空間中の座標データが各曲のインデックス情報として登録される。 In the database unit 112, music data of each music is registered, and coordinate data in the sensitivity space of each music is registered as index information of each music for each group.
〔2−2〕自動インデクシング部102についての説明
[2-2] Description of the
自動インデクシング部102は、新規登録曲を解析して、テンポ、リズム等の物理的特徴量を抽出する物理的特徴量抽出部121と、物理的特徴量抽出部121によって抽出された物理的特徴量を各感性語対毎の曲印象値に変換する物理的特徴量/曲印象値変換部122と、物理的特徴量/曲印象値変換部122によって得られた各感性語対毎の曲印象値を音楽感性空間座標値に変換する曲印象値/音楽感性空間座標変換部123とを備えている。
The
自動インデクシング部102によって得られた新規登録曲の音楽感性空間座標値は、新規登録曲の曲データとともに、データベース部112に登録される。
The music sensitivity space coordinate value of the newly registered song obtained by the
図2は、自動インデクシング部102の構成をより具体的に示している。
FIG. 2 shows the configuration of the
物理的特徴量/曲印象値変換部122は、4種類の感性語対それぞれに対応する回帰分析部122a〜122dから構成されている。曲印象値/音楽感性空間座標変換部123は、ニューラルネットワークから構成されている。
The physical feature quantity / musical impression
物理的特徴量/曲印象値変換部122内の各回帰分析部122a〜122dには、それぞれに対応する感性語対に関係した複数の物理的特徴量が入力される。各回帰分析部122a〜122dに入力される物理特徴量の種類は予め定められている。
A plurality of physical feature quantities related to the corresponding sensitivity word pairs are input to the
各回帰分析部122a〜122dは、次式(1)に基づいて、物理的特徴量を対応する感性語対の曲印象値に変換する。
Each
上記式(1)において、OUTは、当該回帰分析部の出力値であり、当該回帰分析部に対応する感性語対に関する曲印象値の推定値を表している。In〔k〕は、当該回帰分析部に入力するk番目の物理的特徴量を表している。W〔k〕は、In〔k〕に対する重み係数である。W〔0〕は、重み係数である。 In the above equation (1), OUT is an output value of the regression analysis unit, and represents an estimated value of the music impression value related to the sensitivity word pair corresponding to the regression analysis unit. In [k] represents the k-th physical feature amount input to the regression analysis unit. W [k] is a weighting coefficient for In [k]. W [0] is a weighting coefficient.
上記式(1)の各重み係数W〔k〕,W〔0〕は、上述した聴取実験結果と、それに用いられた各曲の物理的特徴量に基づいて、性別、年齢別の4グループ毎に予め求められている。1つのグループに対する重み係数W〔k〕,W〔0〕は、次のようにして決定される。当該グループに対する聴取実験結果、つまり、各曲毎に求められた感性語対毎の曲印象値を教師信号(出力値OUT)とする。また、各曲毎に物理的特徴量抽出部121によって抽出された物理的特徴量を入力値Inとする。そして、全曲それぞれに対する回帰分析結果が、その曲に対する教師信号に最も近い値となるような重み係数W〔k〕,W〔0〕を算出する。
The weighting factors W [k] and W [0] in the above formula (1) are based on the results of the above-mentioned listening experiment and the physical features of each song used for each group of 4 groups by sex and age. Is required in advance. The weighting factors W [k] and W [0] for one group are determined as follows. A listening experiment result for the group, that is, a song impression value for each sensitivity word pair obtained for each song is used as a teacher signal (output value OUT). Further, the physical feature amount extracted by the physical feature
曲印象値/音楽感性空間座標変換部123を構成するニューラルネットワークの学習について説明する。ニューラルネットワークは、性別、年齢別の4グループ毎に学習が行われ、性別、年齢別の4グループ毎に内部状態が決定されている。学習時の入力信号は、上述した聴取実験結果、つまり、各曲毎に求められた感性語対毎の曲印象値である。学習時の教師信号は、因子分析部111によって得られた各曲の音楽感性空間座標値(各因子軸の座標値)である。
Learning of the neural network constituting the music impression value / musical sensitivity space coordinate
〔3〕検索システム部200についての説明
[3] Description of the
検索システム部200は、図1に示すように、ユーザ入力部201、曲印象値/音楽感性空間座標変換部202、検索部203および検索結果出力部204とからなる。
As shown in FIG. 1, the
ユーザは、ユーザ入力部201に対して、性別、年齢等のユーザデータ、検索したい曲に関する各感性語対毎の曲印象値(7段階)、各感性語対の重要度情報等を入力する。ユーザ入力部201に入力された性別、年齢等のユーザデータおよび選択したい曲に関する各感性語対毎の曲印象値は、曲印象値/音楽感性空間座標変換部202に与えられる。曲印象値/音楽感性空間座標変換部202としては、自動インデクシング部102内の曲印象値/音楽感性空間座標変換部123を構成するニューラルネットワークがそのまま用いられる。
The user inputs user data such as gender and age, song impression values for each sensitivity word pair (seven levels), importance level information of each sensitivity word pair, and the like on the
曲印象値/音楽感性空間座標変換部202は、ニューラルネットワークの内部状態をユーザ入力部201から与えられたユーザデータに対応するグループの内部状態に設定した後、ユーザ入力部201から与えられた各感性語対毎の曲印象値をニューラルネットワークに入力することにより、それに対応する音楽感性空間座標値を取得する。曲印象値/音楽感性空間座標変換部202は、取得した音楽感性空間座標値を検索部203に与える。
The music impression value / musical sensitivity space coordinate
検索部203には、ユーザ入力部201に入力された各感性語対の重要度情報も与えられる。まず、各感性語対の重要度情報が与えられない場合の、検索部203の処理について説明する。
The
データベース部112に登録されている曲の、ユーザデータで指定されるグループに対応する音楽感性空間座標値を(X1〔i〕,X2〔i〕,X3〔i〕)とする。iは曲番号である。また、ユーザが入力した選択したい曲に関する各感性語対毎の曲印象値が、曲印象値/音楽感性空間座標変換部202によって音楽感性空間座標に変換された値を、(a1,a2,a3)とする。
The music sensitivity space coordinate values corresponding to the group specified by the user data of the music registered in the database unit 112 are defined as (X1 [i], X2 [i], X3 [i]). i is a song number. Also, values obtained by converting the music impression value for each sensitivity word pair input by the user into music sensitivity space coordinates by the music impression value / music sensitivity space coordinate
検索部203は、次式(2)に基づいて、各登録曲毎に空間距離Lを算出し、この空間距離Lが最も小さい曲を選択する。検索結果出力部204は、検索部203によって選択された曲の曲データをデータベース部112から読み出して出力する。
The
L =(X1〔i〕−a1)2 +(X2〔i〕−a2)2 +(X3〔i〕−a3)2 …(2) L = (X1 [i] -a1) 2 + (X2 [i] -a2) 2 + (X3 [i] -a3) 2 (2)
次に、各感性語対の重要度情報が与えられる場合の、検索部203の処理について説明する。
Next, processing of the
ユーザは、4種類の感性語対(明るい−暗い,重い−軽い,安定−不安定,力強い−弱々しい)に対する重要度を考慮して、各感性語対に対する重要度情報を入力することが可能である。各感性語対(明るい−暗い,重い−軽い,安定−不安定,力強い−弱々しい)の重要度情報を{p1,p2,p3,p4}で表すことにする。pn (n=1,2,3,4)は、1≦pn ≦4の範囲の値であり、1が最も重要度が高く、数値が大きくなるほど重要度が低くなる。全ての感性語対を同等に扱う場合には、全ての感性語対に対する重要度情報を1に設定する。 The user can input importance information for each sensitivity word pair in consideration of the importance for the four types of sensitivity word pairs (bright-dark, heavy-light, stable-unstable, strong-weak). Is possible. The importance level information of each sensitivity word pair (bright-dark, heavy-light, stable-unstable, strong-weak) is represented by {p1, p2, p3, p4}. p n (n = 1, 2, 3, 4) is a value in the range of 1 ≦ p n ≦ 4, with 1 being the most important, and the greater the numerical value, the lower the importance. When all sensitivity word pairs are handled equally, importance level information for all sensitivity word pairs is set to 1.
表1は、各感性語対の各因子(因子1,因子2,因子3)への寄与率(因子負荷)を示している。
Table 1 shows the contribution rate (factor load) of each sensitivity word pair to each factor (
各感性語対の各因子(因子1,因子2,因子3)への寄与率が表1に示すような場合には、各因子(因子1,因子2,因子3)の重みW1,W2,W3を次式(3)に基づいて算出する。なお、各因子(因子1,因子2,因子3)の重みW1,W2,W3は、予め算出されて、検索部203に保持されている。
When the contribution rate of each sensitivity word pair to each factor (
W1=(0.14 +0.17+0.96+0.34)
÷(0.14 ×p1+0.17×p2+0.96×p3+0.34×p4)
W2=(0.69 +0.01+0.12+0.91)
÷(0.69 ×p1+0.01×p2+0.12×p3+0.91×p4)
W3=( 0.64 +0.96+0.00+0.01)
÷( 0.64×p1+0.96×p2+0.00×p3+0.01×p4) …(3)
W1 = (0.14 +0.17 +0.96 +0.34)
÷ (0.14 x p1 + 0.17 x p2 + 0.96 x p3 + 0.34 x p4)
W2 = (0.69 +0.01 +0.12 +0.91)
÷ (0.69 x p1 + 0.01 x p2 + 0.12 x p3 + 0.91 x p4)
W3 = (0.64 + 0.96 + 0.00 + 0.01)
÷ (0.64 x p1 + 0.96 x p2 + 0.00 x p3 + 0.01 x p4) (3)
なお、各因子(因子1,因子2,因子3)の重みW1,W2,W3を次式(4)に基づいて算出してもよい。
The weights W1, W2, and W3 of each factor (
W1= 0.14 ×(1/p1)+0.17×(1/p2)+0.96×(1/p3)+0.34×(1/p4)
W2= 0.69 ×(1/p1)+0.01×(1/p2)+0.12×(1/p3)+0.91×(1/p4)
W3= 0.64 ×(1/p1)+0.96×(1/p2)+0.00×(1/p3)+0.01×(1/p4) …(4)
W1 = 0.14 x (1 / p1) + 0.17 x (1 / p2) + 0.96 x (1 / p3) + 0.34 x (1 / p4)
W2 = 0.69 x (1 / p1) + 0.01 x (1 / p2) + 0.12 x (1 / p3) + 0.91 x (1 / p4)
W3 = 0.64 x (1 / p1) + 0.96 x (1 / p2) + 0.00 x (1 / p3) + 0.01 x (1 / p4)… (4)
データベース部112に登録されている曲の、ユーザデータで指定されるグループに対応する音楽感性空間座標値を(X1〔i〕,X2〔i〕,X3〔i〕)とする。iは曲番号である。また、ユーザが入力した選択したい曲に関する各感性語対毎の曲印象値が、曲印象値/音楽感性空間座標変換部202によって音楽感性空間座標に変換された値を、(a1,a2,a3)とする。
The music sensitivity space coordinate values corresponding to the group specified by the user data of the music registered in the database unit 112 are defined as (X1 [i], X2 [i], X3 [i]). i is a song number. Also, values obtained by converting the music impression value for each sensitivity word pair input by the user into music sensitivity space coordinates by the music impression value / music sensitivity space coordinate
検索部203は、次式(5)に基づいて、各登録曲毎に空間距離Lを算出し、この空間距離Lが最も小さい曲を選択する。検索結果出力部204は、検索部203によって選択された曲の曲データをデータベース部112から読み出して出力する。
The
L =W1×(X1〔i〕−a1)2 +W2×(X2〔i〕−a2)2 +W3×(X3〔i〕−a3)2 …(5) L = W1 × (X1 [i] −a1) 2 + W2 × (X2 [i] −a2) 2 + W3 × (X3 [i] −a3) 2 (5)
なお、検索部203は、次式(6)に基づいて、各登録曲毎に空間距離Lを算出し、この空間距離Lが最も小さい曲を選択するようにしてもよい。
The
L =W1×α1 ×(X1〔i〕−a1)2 +W2×α2 ×(X2〔i〕−a2)2
+W3×α3 ×(X3〔i〕−a3)2 …(6)
L = W1 × α1 × (X1 [i] −a1) 2 + W2 × α2 × (X2 [i] −a2) 2
+ W3 × α3 × (X3 [i] −a3) 2 (6)
上記式(6)においては、各因子には、上記重みW1,W2,W3の他に、重みα1,α2,α3が付加されている。αn(ただし、n=1,2,3)は、Xn〔i〕(ただし、n=1,2,3)とan (ただし、n=1,2,3)との符号によって、k1またはk2を取る。k1≧k2>0である。 In the above equation (6), weights α1, α2, and α3 are added to each factor in addition to the weights W1, W2, and W3. αn (where n = 1, 2, 3) is k1 or k2 depending on the sign of Xn [i] (where n = 1, 2, 3) and an (where n = 1, 2, 3). I take the. k1 ≧ k2> 0.
つまり、Xn〔i〕とan とが異符号の場合には(Xn〔i〕とan とが因子軸の原点を挟んで互いに反対側に存在する場合には)、それらの距離をより大きくするために、αn=k1とされる。Xn〔i〕とan とが同符号の場合には、αn=k2とされる。 That is, when Xn [i] and an have different signs (when Xn [i] and an are on opposite sides of the origin of the factor axis), the distance between them is increased. Therefore, αn = k1. When Xn [i] and an have the same sign, αn = k2.
上記実施例では、性別、年齢別によって分けられた複数のグループ毎に、各登録曲の音楽感性空間座標が求められているが、性別、年齢別、音楽ジャンル別によって分けられた複数のパターン毎に、各登録曲の音楽感性空間座標を求めるようにしてもよい。 In the above embodiment, music sensitivity space coordinates of each registered song are obtained for each of a plurality of groups divided by sex and age, but for each of a plurality of patterns divided by sex, age, and music genre. In addition, the music sensitivity space coordinates of each registered song may be obtained.
上記実施例では、ユーザ入力部201には、各感性語対毎の曲印象値が入力されているが、感性空間座標値(各因子毎の座標値)を直接入力させるようにしてもよい。この場合には、重要度情報としては、各因子毎の重要度情報を直接入力させるようにしてもよい。
In the above-described embodiment, the music impression value for each sensitivity word pair is input to the
この発明は、カーステレオやホームオーディオ、PC等の音楽再生機器に利用できる。また、この発明は、音楽配信サービス等の検索ソフトに利用できる。 The present invention can be used for music playback devices such as car stereos, home audio, and PCs. The present invention can also be used for search software such as a music distribution service.
また、この発明は、音楽データベースの他映像データベースの検索にも利用できる。つまり、絵画やカタログなどのデータベースの検索装置として利用できる。 The present invention can also be used for searching video databases as well as music databases. That is, it can be used as a search device for databases such as pictures and catalogs.
100 音楽感性空間生成部
200 検索システム部
101 初期音楽感性空間生成部
102 自動インデクシング部
111 因子分析部
112 データベース部
121 物理的特徴量抽出部
122 物理的特徴量/曲印象値変換部
123 曲印象値/音楽感性空間座標変換部
201 ユーザ入力部
202 曲印象値/音楽感性空間座標変換部
203 検索部
204 検索結果出力部
DESCRIPTION OF
Claims (2)
性別および/または年齢によって分類される分類パターン毎に、各コンテンツの感性空間座標値が求められて、インデックス情報としてデータべースに登録されており、
検索時において、各感性語対毎の印象値の他に、分類パターンを特定するためのユーザ情報をユーザに入力させるための第1手段、
第1手段によって入力された各感性語対毎の印象値に対応する感性空間座標値を算出する第2手段、
第2手段によって算出された感性空間座標値とデータベースにインデックスとして登録されている感性空間座標値との間の空間距離の計算する第3手段、ならびに
第3手段によって算出された空間距離が最も短いコンテンツを選択する第4手段を備えており、
第3手段は、空間距離を計算する際に、第1手段によって入力されたユーザ情報によって特定される分類パターンに対応したインデックス情報のみを空間距離の算出対象として使用することを特徴とするデータベース検索装置。 For each content registered in the database, the Kansei space coordinate value obtained for the content is registered in the database as an index of the content, and the impression value for each sensitivity word pair input by the user at the time of search In the database search device for searching the content having the shortest spatial distance from the calculated emotional space coordinate value, the emotional space coordinate value corresponding to the input impression value for each sensitivity word pair is calculated based on
For each classification pattern classified by gender and / or age, the Kansei space coordinate value of each content is obtained and registered in the database as index information.
A first means for allowing a user to input user information for specifying a classification pattern in addition to an impression value for each sensitivity word pair at the time of search;
Second means for calculating a sensitivity space coordinate value corresponding to an impression value for each sensitivity word pair input by the first means;
A third means for calculating a spatial distance between the emotional space coordinate value calculated by the second means and the emotional space coordinate value registered as an index in the database; and the spatial distance calculated by the third means is the shortest. A fourth means of selecting content,
The third means uses only the index information corresponding to the classification pattern specified by the user information input by the first means as the spatial distance calculation target when calculating the spatial distance. apparatus.
性別および/または年齢によって分類される分類パターン毎に、各コンテンツの感性空間座標値が求められて、インデックス情報としてデータべースに登録されており、
検索時において、感性空間座標値の他に、分類パターンを特定するためのユーザ情報をユーザに入力させるための第1手段、
第1手段によって入力された感性空間座標値とデータベースにインデックスとして登録されている感性空間座標値との間の空間距離の計算する第2手段、ならびに
第2手段によって算出された空間距離が最も短いコンテンツを選択する第3手段を備えており、
第2手段は、空間距離を計算する際に、第1手段によって入力されたユーザ情報によって特定される分類パターンに対応したインデックス情報のみを空間距離の算出対象として使用することを特徴とするデータベース検索装置。 For each content registered in the database, the Kansei space coordinate value obtained for the content is registered in the database as an index of the content, and the spatial space with the Kansei space coordinate value specified by the user at the time of search In a database search device that searches for content with the shortest distance,
For each classification pattern classified by gender and / or age, the Kansei space coordinate value of each content is obtained and registered in the database as index information.
A first means for allowing a user to input user information for specifying a classification pattern in addition to the sensitivity space coordinate value at the time of retrieval;
A second means for calculating a spatial distance between the emotional space coordinate value input by the first means and the emotional space coordinate value registered as an index in the database; and the spatial distance calculated by the second means is the shortest. A third means for selecting content,
The second means uses the index information corresponding to the classification pattern specified by the user information input by the first means as the spatial distance calculation target when calculating the spatial distance. apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003338393A JP2005107718A (en) | 2003-09-29 | 2003-09-29 | Database retrieval device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003338393A JP2005107718A (en) | 2003-09-29 | 2003-09-29 | Database retrieval device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005107718A true JP2005107718A (en) | 2005-04-21 |
Family
ID=34533923
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003338393A Pending JP2005107718A (en) | 2003-09-29 | 2003-09-29 | Database retrieval device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005107718A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011065567A (en) * | 2009-09-18 | 2011-03-31 | Kanazawa Inst Of Technology | Media content information analysis device and method |
-
2003
- 2003-09-29 JP JP2003338393A patent/JP2005107718A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011065567A (en) * | 2009-09-18 | 2011-03-31 | Kanazawa Inst Of Technology | Media content information analysis device and method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Levy et al. | Music information retrieval using social tags and audio | |
Pohle et al. | Evaluation of frequently used audio features for classification of music into perceptual categories | |
JP4428036B2 (en) | Information processing apparatus and method, program, information processing system and method | |
EP2793223A1 (en) | Ranking representative segments in media data | |
Hong et al. | Cbvmr: content-based video-music retrieval using soft intra-modal structure constraint | |
CN110134820B (en) | Feature increasing based hybrid personalized music recommendation method | |
KR20080030922A (en) | Information processing apparatus, method, program and recording medium | |
CN104067273A (en) | Grouping search results into a profile page | |
CN113392321A (en) | Information recommendation method and device, electronic equipment and storage medium | |
Guan et al. | Efficient karaoke song recommendation via multiple kernel learning approximation | |
JP2005107718A (en) | Database retrieval device | |
JP2008052737A (en) | Music matching system and music matching method | |
Liu | Effective results ranking for mobile query by singing/humming using a hybrid recommendation mechanism | |
Chordia et al. | Extending Content-Based Recommendation: The Case of Indian Classical Music. | |
Coviello et al. | Automatic Music Tagging With Time Series Models. | |
JP2005107719A (en) | Database retrieval device | |
Nakano et al. | Musical similarity and commonness estimation based on probabilistic generative models | |
Lu et al. | Deep learning models for melody perception: An investigation on symbolic music data | |
Nishikawa et al. | A musical mood trajectory estimation method using lyrics and acoustic features | |
US20080017017A1 (en) | Method and Apparatus for Melody Representation and Matching for Music Retrieval | |
Salehin et al. | A recommender system for music less singing voice signals | |
Iliadis et al. | Music deep learning: A survey on deep learning methods for music processing | |
Yang et al. | Improving Musical Concept Detection by Ordinal Regression and Context Fusion. | |
CN109710797B (en) | Audio file pushing method and device, electronic device and storage medium | |
JP6308706B1 (en) | Patent requirement conformity prediction device and patent requirement conformity prediction program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050905 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071107 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071228 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080226 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080710 |