JP2005107718A - Database retrieval device - Google Patents

Database retrieval device Download PDF

Info

Publication number
JP2005107718A
JP2005107718A JP2003338393A JP2003338393A JP2005107718A JP 2005107718 A JP2005107718 A JP 2005107718A JP 2003338393 A JP2003338393 A JP 2003338393A JP 2003338393 A JP2003338393 A JP 2003338393A JP 2005107718 A JP2005107718 A JP 2005107718A
Authority
JP
Japan
Prior art keywords
sensitivity
database
space coordinate
coordinate value
music
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003338393A
Other languages
Japanese (ja)
Inventor
Masahiro Yoshida
昌弘 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2003338393A priority Critical patent/JP2005107718A/en
Publication of JP2005107718A publication Critical patent/JP2005107718A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a database retrieval device realizing retrieval which is much more suitable for an individual. <P>SOLUTION: The device is provided with a first means for inputting user information for specifying a classification pattern to a user in addition to an impression value at every sensitivity word pair at the time of retrieval, a second means calculating a sensitivity spatial coordinate value corresponding to the impression value at every sensitivity word pair, which are inputted by the first means, a third means calculating a spatial distance between the sensitivity spatial coordinate value calculated by the second means and the sensitivity spatial coordinate value registered in a database as an index, and a fourth means selecting a content whose spatial distance calculated by the third means is the shortest. The third means uses only index information corresponding to the classification pattern specified by user information inputted by the first means as an object of calculation of the spatial distance. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

この発明は、音楽、映像等のデータベース検索装置に関する。   The present invention relates to a database search apparatus for music, video and the like.

感性語によって音楽を検索するシステムが提案されている(「音楽感性空間を用いた感性語による音楽データベース検索システム」情報処理学会論文誌 Vol.42 No12 2001)。この従来の検索システムでは、データベース中の曲をマッピングするための検索空間をSD法ならびに因子分析により生成する。また、データベースに新たな曲を登録する際には、GAとニューラルネットワークにより構成された自動インデクシングシステムにより検索空間へのマッピングを行う。検索の際には、8つの感性語対の度合い(1〜7)をニューラルネットワークに入力することにより、ニューラルネットワークはそれらの入力に対応する感性空間中の座標を出力するので、検索システムはその出力座標値からユークリッド距離の最も近い曲から順番に検索候補としてユーザに提示を行う。   A system for searching music by sensitivity words has been proposed ("Music database search system by sensitivity words using music sensitivity space", Information Processing Society of Japan Vol.42 No12 2001). In this conventional search system, a search space for mapping songs in a database is generated by the SD method and factor analysis. In addition, when a new song is registered in the database, mapping to a search space is performed by an automatic indexing system constituted by a GA and a neural network. At the time of search, by inputting the degree (1-7) of eight sensitivity word pairs to the neural network, the neural network outputs the coordinates in the sensitivity space corresponding to those inputs. The search candidates are presented to the user in order from the song with the closest Euclidean distance from the output coordinate value.

なお、感性語対として、「明るい−暗い」、「重い−軽い」、「かたい−やわらかい」、「安定−不安定」、「澄んだ−濁った」、「滑らか−歯切れのよい」、「激しい−穏やか」および「厚い−薄い」の8種類が使用されている。   The sensitivity word pairs are “bright-dark”, “heavy-light”, “hard-soft”, “stable-unstable”, “clear-cloudy”, “smooth-crisp”, “ Eight types are used: severe-mild and thick-thin.

ところで、音楽、映像に対するユーザの感性も、性別、年齢層によって異なるものと考えられるが、上記従来の検索システムでは、この点が考慮されていない。
特開2001−306580号公報 「音楽感性空間を用いた感性語による音楽データベース検索システム」情報処理学会論文誌 Vol.42 No12
By the way, although it is thought that the user's sensitivity with respect to a music and an image also changes with sex and age groups, this point is not considered in the said conventional search system.
JP 2001-306580 A "Music database retrieval system by sensitivity word using music sensitivity space" IPSJ Journal Vol.42 No12

この発明は、より個人に適合した検索が可能となるデータベース検索装置を提供することを目的とする。   An object of the present invention is to provide a database search device that enables a search that is more personalized.

請求項1に記載の発明は、データベースに登録される各コンテンツ毎に、そのコンテンツに対して求められた感性空間座標値がそのコンテンツのインデックスとしてデータベースに登録されており、検索時にはユーザによって入力された各感性語対毎の印象値に基づいて、入力された各感性語対毎の印象値に対応する感性空間座標値が算出され、算出された感性空間座標値との空間的距離が最も短いコンテンツを検索するデータベース検索装置において、性別および/または年齢によって分類される分類パターン毎に、各コンテンツの感性空間座標値が求められて、インデックス情報としてデータべースに登録されており、検索時において、各感性語対毎の印象値の他に、分類パターンを特定するためのユーザ情報をユーザに入力させるための第1手段、第1手段によって入力された各感性語対毎の印象値に対応する感性空間座標値を算出する第2手段、第2手段によって算出された感性空間座標値とデータベースにインデックスとして登録されている感性空間座標値との間の空間距離の計算する第3手段、ならびに第3手段によって算出された空間距離が最も短いコンテンツを選択する第4手段を備えており、第3手段は、空間距離を計算する際に、第1手段によって入力されたユーザ情報によって特定される分類パターンに対応したインデックス情報のみを空間距離の算出対象として使用することを特徴とする。   According to the first aspect of the present invention, for each content registered in the database, the Kansei space coordinate value obtained for the content is registered in the database as an index of the content, and is input by the user during the search. Based on the impression value for each sensitivity word pair, the sensitivity space coordinate value corresponding to the input impression value for each sensitivity word pair is calculated, and the spatial distance from the calculated sensitivity space coordinate value is the shortest In a database search device for searching for content, the sensitivity space coordinate value of each content is obtained for each classification pattern classified by gender and / or age, and is registered in the database as index information. In order to make the user input user information for specifying the classification pattern in addition to the impression value for each sensitivity word pair The first means, the second means for calculating the sensitivity space coordinate value corresponding to the impression value for each sensitivity word pair input by the first means, and the sensitivity space coordinate value calculated by the second means and registered in the database as an index A third means for calculating a spatial distance between the sentimental spatial coordinate values, and a fourth means for selecting the content having the shortest spatial distance calculated by the third means. The third means comprises: When calculating the spatial distance, only index information corresponding to the classification pattern specified by the user information input by the first means is used as a spatial distance calculation target.

請求項2に記載の発明は、データベースに登録される各コンテンツ毎に、そのコンテンツに対して求められた感性空間座標値がそのコンテンツのインデックスとしてデータベースに登録されており、検索時にはユーザによって指定された感性空間座標値との空間的距離が最も短いコンテンツを検索するデータベース検索装置において、性別および/または年齢によって分類される分類パターン毎に、各コンテンツの感性空間座標値が求められて、インデックス情報としてデータべースに登録されており、検索時において、感性空間座標値の他に、分類パターンを特定するためのユーザ情報をユーザに入力させるための第1手段、第1手段によって入力された感性空間座標値とデータベースにインデックスとして登録されている感性空間座標値との間の空間距離の計算する第2手段、ならびに第2手段によって算出された空間距離が最も短いコンテンツを選択する第3手段を備えており、第2手段は、空間距離を計算する際に、第1手段によって入力されたユーザ情報によって特定される分類パターンに対応したインデックス情報のみを空間距離の算出対象として使用することを特徴とする。   According to the second aspect of the present invention, for each content registered in the database, the Kansei space coordinate value obtained for the content is registered in the database as an index of the content, and is specified by the user at the time of search. In a database search device that searches for content having the shortest spatial distance from the emotional space coordinate value, the emotional space coordinate value of each content is obtained for each classification pattern classified by sex and / or age, and index information is obtained. And is input by the first means and the first means for allowing the user to input user information for specifying the classification pattern in addition to the sensitivity space coordinate value at the time of the search. Kansei space coordinate values and Kansei space coordinate values registered as indexes in the database A second means for calculating the spatial distance between the second means, and a third means for selecting the content having the shortest spatial distance calculated by the second means. When the second means calculates the spatial distance, Only the index information corresponding to the classification pattern specified by the user information input by the first means is used as a spatial distance calculation target.

この発明によれば、より個人に適合した検索が可能となる。   According to the present invention, it is possible to search more suited to an individual.

以下、図面を参照して、この発明を音楽データベース検索システムに適用した場合の実施例について説明する。   DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention applied to a music database search system will be described below with reference to the drawings.

〔1〕音楽データベース検索システムの構成についての説明 [1] Explanation of the configuration of the music database search system

図1は、音楽データベース検索システムの構成を示している。   FIG. 1 shows the configuration of a music database search system.

音楽データベース検索システムは、音楽感性空間生成部100と検索システム部200とから構成されている。音楽感性空間生成部100は、検索空間となる音楽感性空間を生成する。検索システム部200は、入力された曲印象に適合した曲を音楽データベースから検索し、その曲を出力する。   The music database search system includes a music sensitivity space generation unit 100 and a search system unit 200. The music sensitivity space generation unit 100 generates a music sensitivity space as a search space. The search system unit 200 searches the music database for a song that matches the input song impression, and outputs the song.

〔2〕音楽感性空間生成部100についての説明 [2] Description of the music sensitivity space generation unit 100

音楽感性空間生成部100は、図1に示すように、聴取実験によって音楽感性空間を生成する初期音楽感性空間生成部101と、データベースに追加したい曲の音楽感性空間座標値を自動的に算出するための自動インデクシング部102とを備えている。   As shown in FIG. 1, the music sensitivity space generation unit 100 automatically calculates an initial music sensitivity space generation unit 101 that generates a music sensitivity space by a listening experiment, and music sensitivity space coordinate values of a song to be added to the database. And an automatic indexing unit 102.

〔2−1〕初期音楽感性空間生成部101についての説明 [2-1] Description of the initial music sensitivity space generation unit 101

初期音楽感性空間生成部101は、聴取実験によって得られた曲印象値を用いて因子分析を行う因子分析部111と、データベース部112とを備えている。   The initial music sensation space generation unit 101 includes a factor analysis unit 111 that performs factor analysis using a song impression value obtained by a listening experiment, and a database unit 112.

聴取実験について説明する。被験者として、30歳未満の男性、30歳以上の男性、30歳未満の女性、30歳以上の女性、各10名に対して、ポップスを100曲提示し、各感性語対に対して7段階評価を行ってもらった。   A listening experiment will be described. As subjects, 100 pops were presented to 10 males under 30 years old, males over 30 years old, females under 30 years old, females over 30 years old, each with 7 levels for each sensitivity word pair. We had you evaluate.

感性語対は、次の4種類とした。
(1)明るい−暗い
(2)重い−軽い
(3)安定−不安定
(4)力強い−弱々しい
The following four types of sensitivity word pairs were used.
(1) bright-dark (2) heavy-light (3) stable-unstable (4) powerful-weak

この実験結果から、性別、年齢別の4グループ(30歳未満の男性、30歳以上の男性、30歳未満の女性、30歳以上の女性)毎に、各曲それぞれについて、各感性語対毎の曲印象値を算出した。各感性語対毎の曲印象値は、その感性語対の評価値の平均値で表される。   From this experimental result, for each song, for each sex word pair, for each group of 4 groups by sex and age (male under 30 years old, male over 30 years old, female under 30 years old, female over 30 years old). The song impression value was calculated. The music impression value for each sensitivity word pair is represented by an average value of the evaluation values of the sensitivity word pairs.

因子分析部111は、各グループ毎に、各曲の各感性語対毎の曲印象値を多変量とする因子分析を行い、各曲毎に、各因子を軸とした、曲印象の心理的な相関を表す空間(音楽感性空間)の座標データを得る。このように、音楽感性空間は、複数の因子軸を有する空間である。この例では、因子は3種類あり、因子軸も3種類あるものとする。   The factor analysis unit 111 performs, for each group, a factor analysis in which the song impression value for each sensitivity word pair of each song is multivariate, and for each song, the psychological impression of the song impression with each factor as an axis. Coordinate data of a space (musical sensation space) representing a strong correlation is obtained. Thus, the music sensitivity space is a space having a plurality of factor axes. In this example, it is assumed that there are three types of factors and three types of factor axes.

データベース部112には、各曲の楽曲データが登録されるとともに、各グループ毎に、各曲の感性空間中の座標データが各曲のインデックス情報として登録される。   In the database unit 112, music data of each music is registered, and coordinate data in the sensitivity space of each music is registered as index information of each music for each group.

〔2−2〕自動インデクシング部102についての説明 [2-2] Description of the automatic indexing unit 102

自動インデクシング部102は、新規登録曲を解析して、テンポ、リズム等の物理的特徴量を抽出する物理的特徴量抽出部121と、物理的特徴量抽出部121によって抽出された物理的特徴量を各感性語対毎の曲印象値に変換する物理的特徴量/曲印象値変換部122と、物理的特徴量/曲印象値変換部122によって得られた各感性語対毎の曲印象値を音楽感性空間座標値に変換する曲印象値/音楽感性空間座標変換部123とを備えている。   The automatic indexing unit 102 analyzes a newly registered song and extracts physical feature amounts such as tempo and rhythm, and a physical feature amount extracted by the physical feature amount extraction unit 121. Is converted into a song impression value for each sensitivity word pair, and a music impression value for each sensitivity word pair obtained by the physical feature value / music impression value conversion unit 122. Is converted into a music sensitivity space coordinate value, and a music impression space / music sensitivity space coordinate conversion unit 123 is provided.

自動インデクシング部102によって得られた新規登録曲の音楽感性空間座標値は、新規登録曲の曲データとともに、データベース部112に登録される。   The music sensitivity space coordinate value of the newly registered song obtained by the automatic indexing unit 102 is registered in the database unit 112 together with the song data of the newly registered song.

図2は、自動インデクシング部102の構成をより具体的に示している。   FIG. 2 shows the configuration of the automatic indexing unit 102 more specifically.

物理的特徴量/曲印象値変換部122は、4種類の感性語対それぞれに対応する回帰分析部122a〜122dから構成されている。曲印象値/音楽感性空間座標変換部123は、ニューラルネットワークから構成されている。   The physical feature quantity / musical impression value conversion unit 122 includes regression analysis units 122a to 122d corresponding to four types of sensitivity word pairs. The music impression value / musical sensitivity space coordinate conversion unit 123 includes a neural network.

物理的特徴量/曲印象値変換部122内の各回帰分析部122a〜122dには、それぞれに対応する感性語対に関係した複数の物理的特徴量が入力される。各回帰分析部122a〜122dに入力される物理特徴量の種類は予め定められている。   A plurality of physical feature quantities related to the corresponding sensitivity word pairs are input to the regression analysis units 122 a to 122 d in the physical feature quantity / musical impression value conversion unit 122. The types of physical feature values input to the regression analysis units 122a to 122d are determined in advance.

各回帰分析部122a〜122dは、次式(1)に基づいて、物理的特徴量を対応する感性語対の曲印象値に変換する。   Each regression analysis part 122a-122d converts a physical feature-value into the music impression value of the corresponding sensitivity word pair based on following Formula (1).

Figure 2005107718
Figure 2005107718

上記式(1)において、OUTは、当該回帰分析部の出力値であり、当該回帰分析部に対応する感性語対に関する曲印象値の推定値を表している。In〔k〕は、当該回帰分析部に入力するk番目の物理的特徴量を表している。W〔k〕は、In〔k〕に対する重み係数である。W〔0〕は、重み係数である。   In the above equation (1), OUT is an output value of the regression analysis unit, and represents an estimated value of the music impression value related to the sensitivity word pair corresponding to the regression analysis unit. In [k] represents the k-th physical feature amount input to the regression analysis unit. W [k] is a weighting coefficient for In [k]. W [0] is a weighting coefficient.

上記式(1)の各重み係数W〔k〕,W〔0〕は、上述した聴取実験結果と、それに用いられた各曲の物理的特徴量に基づいて、性別、年齢別の4グループ毎に予め求められている。1つのグループに対する重み係数W〔k〕,W〔0〕は、次のようにして決定される。当該グループに対する聴取実験結果、つまり、各曲毎に求められた感性語対毎の曲印象値を教師信号(出力値OUT)とする。また、各曲毎に物理的特徴量抽出部121によって抽出された物理的特徴量を入力値Inとする。そして、全曲それぞれに対する回帰分析結果が、その曲に対する教師信号に最も近い値となるような重み係数W〔k〕,W〔0〕を算出する。   The weighting factors W [k] and W [0] in the above formula (1) are based on the results of the above-mentioned listening experiment and the physical features of each song used for each group of 4 groups by sex and age. Is required in advance. The weighting factors W [k] and W [0] for one group are determined as follows. A listening experiment result for the group, that is, a song impression value for each sensitivity word pair obtained for each song is used as a teacher signal (output value OUT). Further, the physical feature amount extracted by the physical feature amount extraction unit 121 for each song is set as the input value In. Then, the weighting coefficients W [k] and W [0] are calculated so that the regression analysis results for all the songs become values closest to the teacher signal for the songs.

曲印象値/音楽感性空間座標変換部123を構成するニューラルネットワークの学習について説明する。ニューラルネットワークは、性別、年齢別の4グループ毎に学習が行われ、性別、年齢別の4グループ毎に内部状態が決定されている。学習時の入力信号は、上述した聴取実験結果、つまり、各曲毎に求められた感性語対毎の曲印象値である。学習時の教師信号は、因子分析部111によって得られた各曲の音楽感性空間座標値(各因子軸の座標値)である。   Learning of the neural network constituting the music impression value / musical sensitivity space coordinate conversion unit 123 will be described. In the neural network, learning is performed for every four groups according to sex and age, and the internal state is determined for every four groups according to sex and age. The input signal at the time of learning is the result of the above-described listening experiment, that is, the music impression value for each sensitivity word pair obtained for each music. The teacher signal at the time of learning is a music sensitivity space coordinate value (coordinate value of each factor axis) of each song obtained by the factor analysis unit 111.

〔3〕検索システム部200についての説明 [3] Description of the search system unit 200

検索システム部200は、図1に示すように、ユーザ入力部201、曲印象値/音楽感性空間座標変換部202、検索部203および検索結果出力部204とからなる。   As shown in FIG. 1, the search system unit 200 includes a user input unit 201, a song impression value / musical sensitivity space coordinate conversion unit 202, a search unit 203, and a search result output unit 204.

ユーザは、ユーザ入力部201に対して、性別、年齢等のユーザデータ、検索したい曲に関する各感性語対毎の曲印象値(7段階)、各感性語対の重要度情報等を入力する。ユーザ入力部201に入力された性別、年齢等のユーザデータおよび選択したい曲に関する各感性語対毎の曲印象値は、曲印象値/音楽感性空間座標変換部202に与えられる。曲印象値/音楽感性空間座標変換部202としては、自動インデクシング部102内の曲印象値/音楽感性空間座標変換部123を構成するニューラルネットワークがそのまま用いられる。   The user inputs user data such as gender and age, song impression values for each sensitivity word pair (seven levels), importance level information of each sensitivity word pair, and the like on the user input unit 201. User data such as sex and age input to the user input unit 201 and the song impression value for each sensitivity word pair regarding the song to be selected are given to the song impression value / music sensitivity space coordinate conversion unit 202. As the music impression value / musical sensitivity space coordinate conversion unit 202, a neural network constituting the music impression value / musical sensitivity space coordinate conversion unit 123 in the automatic indexing unit 102 is used as it is.

曲印象値/音楽感性空間座標変換部202は、ニューラルネットワークの内部状態をユーザ入力部201から与えられたユーザデータに対応するグループの内部状態に設定した後、ユーザ入力部201から与えられた各感性語対毎の曲印象値をニューラルネットワークに入力することにより、それに対応する音楽感性空間座標値を取得する。曲印象値/音楽感性空間座標変換部202は、取得した音楽感性空間座標値を検索部203に与える。   The music impression value / musical sensitivity space coordinate conversion unit 202 sets the internal state of the neural network to the internal state of the group corresponding to the user data given from the user input unit 201, and then each of the given values given from the user input unit 201. The music impression space coordinate value corresponding to the sensitivity word pair is acquired by inputting the music impression value for each sensitivity word pair to the neural network. The music impression value / music sensitivity space coordinate conversion unit 202 gives the acquired music sensitivity space coordinate value to the search unit 203.

検索部203には、ユーザ入力部201に入力された各感性語対の重要度情報も与えられる。まず、各感性語対の重要度情報が与えられない場合の、検索部203の処理について説明する。   The search unit 203 is also given importance level information of each sensitivity word pair input to the user input unit 201. First, the processing of the search unit 203 when importance level information of each sensitivity word pair is not given will be described.

データベース部112に登録されている曲の、ユーザデータで指定されるグループに対応する音楽感性空間座標値を(X1〔i〕,X2〔i〕,X3〔i〕)とする。iは曲番号である。また、ユーザが入力した選択したい曲に関する各感性語対毎の曲印象値が、曲印象値/音楽感性空間座標変換部202によって音楽感性空間座標に変換された値を、(a1,a2,a3)とする。   The music sensitivity space coordinate values corresponding to the group specified by the user data of the music registered in the database unit 112 are defined as (X1 [i], X2 [i], X3 [i]). i is a song number. Also, values obtained by converting the music impression value for each sensitivity word pair input by the user into music sensitivity space coordinates by the music impression value / music sensitivity space coordinate conversion unit 202 are (a1, a2, a3). ).

検索部203は、次式(2)に基づいて、各登録曲毎に空間距離Lを算出し、この空間距離Lが最も小さい曲を選択する。検索結果出力部204は、検索部203によって選択された曲の曲データをデータベース部112から読み出して出力する。   The search unit 203 calculates a spatial distance L for each registered song based on the following formula (2), and selects a song having the smallest spatial distance L. The search result output unit 204 reads the song data of the song selected by the search unit 203 from the database unit 112 and outputs it.

L =(X1〔i〕−a1)2 +(X2〔i〕−a2)2 +(X3〔i〕−a3)2 …(2) L = (X1 [i] -a1) 2 + (X2 [i] -a2) 2 + (X3 [i] -a3) 2 (2)

次に、各感性語対の重要度情報が与えられる場合の、検索部203の処理について説明する。   Next, processing of the search unit 203 when importance level information of each sensitivity word pair is given will be described.

ユーザは、4種類の感性語対(明るい−暗い,重い−軽い,安定−不安定,力強い−弱々しい)に対する重要度を考慮して、各感性語対に対する重要度情報を入力することが可能である。各感性語対(明るい−暗い,重い−軽い,安定−不安定,力強い−弱々しい)の重要度情報を{p1,p2,p3,p4}で表すことにする。pn (n=1,2,3,4)は、1≦pn ≦4の範囲の値であり、1が最も重要度が高く、数値が大きくなるほど重要度が低くなる。全ての感性語対を同等に扱う場合には、全ての感性語対に対する重要度情報を1に設定する。 The user can input importance information for each sensitivity word pair in consideration of the importance for the four types of sensitivity word pairs (bright-dark, heavy-light, stable-unstable, strong-weak). Is possible. The importance level information of each sensitivity word pair (bright-dark, heavy-light, stable-unstable, strong-weak) is represented by {p1, p2, p3, p4}. p n (n = 1, 2, 3, 4) is a value in the range of 1 ≦ p n ≦ 4, with 1 being the most important, and the greater the numerical value, the lower the importance. When all sensitivity word pairs are handled equally, importance level information for all sensitivity word pairs is set to 1.

表1は、各感性語対の各因子(因子1,因子2,因子3)への寄与率(因子負荷)を示している。   Table 1 shows the contribution rate (factor load) of each sensitivity word pair to each factor (factor 1, factor 2, factor 3).

Figure 2005107718
Figure 2005107718

各感性語対の各因子(因子1,因子2,因子3)への寄与率が表1に示すような場合には、各因子(因子1,因子2,因子3)の重みW1,W2,W3を次式(3)に基づいて算出する。なお、各因子(因子1,因子2,因子3)の重みW1,W2,W3は、予め算出されて、検索部203に保持されている。   When the contribution rate of each sensitivity word pair to each factor (factor 1, factor 2, factor 3) is as shown in Table 1, the weights W1, W2, and weights of each factor (factor 1, factor 2, factor 3) W3 is calculated based on the following equation (3). The weights W1, W2, and W3 of each factor (factor 1, factor 2, factor 3) are calculated in advance and held in the search unit 203.

W1=(0.14 +0.17+0.96+0.34)
÷(0.14 ×p1+0.17×p2+0.96×p3+0.34×p4)
W2=(0.69 +0.01+0.12+0.91)
÷(0.69 ×p1+0.01×p2+0.12×p3+0.91×p4)
W3=( 0.64 +0.96+0.00+0.01)
÷( 0.64×p1+0.96×p2+0.00×p3+0.01×p4) …(3)
W1 = (0.14 +0.17 +0.96 +0.34)
÷ (0.14 x p1 + 0.17 x p2 + 0.96 x p3 + 0.34 x p4)
W2 = (0.69 +0.01 +0.12 +0.91)
÷ (0.69 x p1 + 0.01 x p2 + 0.12 x p3 + 0.91 x p4)
W3 = (0.64 + 0.96 + 0.00 + 0.01)
÷ (0.64 x p1 + 0.96 x p2 + 0.00 x p3 + 0.01 x p4) (3)

なお、各因子(因子1,因子2,因子3)の重みW1,W2,W3を次式(4)に基づいて算出してもよい。   The weights W1, W2, and W3 of each factor (factor 1, factor 2, factor 3) may be calculated based on the following equation (4).

W1= 0.14 ×(1/p1)+0.17×(1/p2)+0.96×(1/p3)+0.34×(1/p4)
W2= 0.69 ×(1/p1)+0.01×(1/p2)+0.12×(1/p3)+0.91×(1/p4)
W3= 0.64 ×(1/p1)+0.96×(1/p2)+0.00×(1/p3)+0.01×(1/p4) …(4)
W1 = 0.14 x (1 / p1) + 0.17 x (1 / p2) + 0.96 x (1 / p3) + 0.34 x (1 / p4)
W2 = 0.69 x (1 / p1) + 0.01 x (1 / p2) + 0.12 x (1 / p3) + 0.91 x (1 / p4)
W3 = 0.64 x (1 / p1) + 0.96 x (1 / p2) + 0.00 x (1 / p3) + 0.01 x (1 / p4)… (4)

データベース部112に登録されている曲の、ユーザデータで指定されるグループに対応する音楽感性空間座標値を(X1〔i〕,X2〔i〕,X3〔i〕)とする。iは曲番号である。また、ユーザが入力した選択したい曲に関する各感性語対毎の曲印象値が、曲印象値/音楽感性空間座標変換部202によって音楽感性空間座標に変換された値を、(a1,a2,a3)とする。   The music sensitivity space coordinate values corresponding to the group specified by the user data of the music registered in the database unit 112 are defined as (X1 [i], X2 [i], X3 [i]). i is a song number. Also, values obtained by converting the music impression value for each sensitivity word pair input by the user into music sensitivity space coordinates by the music impression value / music sensitivity space coordinate conversion unit 202 are (a1, a2, a3). ).

検索部203は、次式(5)に基づいて、各登録曲毎に空間距離Lを算出し、この空間距離Lが最も小さい曲を選択する。検索結果出力部204は、検索部203によって選択された曲の曲データをデータベース部112から読み出して出力する。   The search unit 203 calculates a spatial distance L for each registered song based on the following equation (5), and selects a song having the smallest spatial distance L. The search result output unit 204 reads the song data of the song selected by the search unit 203 from the database unit 112 and outputs it.

L =W1×(X1〔i〕−a1)2 +W2×(X2〔i〕−a2)2 +W3×(X3〔i〕−a3)2 …(5) L = W1 × (X1 [i] −a1) 2 + W2 × (X2 [i] −a2) 2 + W3 × (X3 [i] −a3) 2 (5)

なお、検索部203は、次式(6)に基づいて、各登録曲毎に空間距離Lを算出し、この空間距離Lが最も小さい曲を選択するようにしてもよい。   The search unit 203 may calculate the spatial distance L for each registered song based on the following equation (6), and may select a song having the smallest spatial distance L.

L =W1×α1 ×(X1〔i〕−a1)2 +W2×α2 ×(X2〔i〕−a2)2
+W3×α3 ×(X3〔i〕−a3)2 …(6)
L = W1 × α1 × (X1 [i] −a1) 2 + W2 × α2 × (X2 [i] −a2) 2
+ W3 × α3 × (X3 [i] −a3) 2 (6)

上記式(6)においては、各因子には、上記重みW1,W2,W3の他に、重みα1,α2,α3が付加されている。αn(ただし、n=1,2,3)は、Xn〔i〕(ただし、n=1,2,3)とan (ただし、n=1,2,3)との符号によって、k1またはk2を取る。k1≧k2>0である。  In the above equation (6), weights α1, α2, and α3 are added to each factor in addition to the weights W1, W2, and W3. αn (where n = 1, 2, 3) is k1 or k2 depending on the sign of Xn [i] (where n = 1, 2, 3) and an (where n = 1, 2, 3). I take the. k1 ≧ k2> 0.

つまり、Xn〔i〕とan とが異符号の場合には(Xn〔i〕とan とが因子軸の原点を挟んで互いに反対側に存在する場合には)、それらの距離をより大きくするために、αn=k1とされる。Xn〔i〕とan とが同符号の場合には、αn=k2とされる。   That is, when Xn [i] and an have different signs (when Xn [i] and an are on opposite sides of the origin of the factor axis), the distance between them is increased. Therefore, αn = k1. When Xn [i] and an have the same sign, αn = k2.

上記実施例では、性別、年齢別によって分けられた複数のグループ毎に、各登録曲の音楽感性空間座標が求められているが、性別、年齢別、音楽ジャンル別によって分けられた複数のパターン毎に、各登録曲の音楽感性空間座標を求めるようにしてもよい。   In the above embodiment, music sensitivity space coordinates of each registered song are obtained for each of a plurality of groups divided by sex and age, but for each of a plurality of patterns divided by sex, age, and music genre. In addition, the music sensitivity space coordinates of each registered song may be obtained.

上記実施例では、ユーザ入力部201には、各感性語対毎の曲印象値が入力されているが、感性空間座標値(各因子毎の座標値)を直接入力させるようにしてもよい。この場合には、重要度情報としては、各因子毎の重要度情報を直接入力させるようにしてもよい。   In the above-described embodiment, the music impression value for each sensitivity word pair is input to the user input unit 201, but the sensitivity space coordinate values (coordinate values for each factor) may be directly input. In this case, importance information for each factor may be directly input as importance information.

この発明は、カーステレオやホームオーディオ、PC等の音楽再生機器に利用できる。また、この発明は、音楽配信サービス等の検索ソフトに利用できる。   The present invention can be used for music playback devices such as car stereos, home audio, and PCs. The present invention can also be used for search software such as a music distribution service.

また、この発明は、音楽データベースの他映像データベースの検索にも利用できる。つまり、絵画やカタログなどのデータベースの検索装置として利用できる。   The present invention can also be used for searching video databases as well as music databases. That is, it can be used as a search device for databases such as pictures and catalogs.

音楽データベース検索システムの構成を示すブロック図である。It is a block diagram which shows the structure of a music database search system. 自動インデクシング部102の構成をより具体的に示すブロック図である。2 is a block diagram showing more specifically the configuration of an automatic indexing unit 102. FIG.

符号の説明Explanation of symbols

100 音楽感性空間生成部
200 検索システム部
101 初期音楽感性空間生成部
102 自動インデクシング部
111 因子分析部
112 データベース部
121 物理的特徴量抽出部
122 物理的特徴量/曲印象値変換部
123 曲印象値/音楽感性空間座標変換部
201 ユーザ入力部
202 曲印象値/音楽感性空間座標変換部
203 検索部
204 検索結果出力部
DESCRIPTION OF SYMBOLS 100 Music sensitivity space generation part 200 Search system part 101 Initial music sensitivity space generation part 102 Automatic indexing part 111 Factor analysis part 112 Database part 121 Physical feature-value extraction part 122 Physical feature-value / music impression value conversion part 123 Music impression value / Music sensitivity space coordinate conversion unit 201 User input unit 202 Music impression value / Music sensitivity space coordinate conversion unit 203 Search unit 204 Search result output unit

Claims (2)

データベースに登録される各コンテンツ毎に、そのコンテンツに対して求められた感性空間座標値がそのコンテンツのインデックスとしてデータベースに登録されており、検索時にはユーザによって入力された各感性語対毎の印象値に基づいて、入力された各感性語対毎の印象値に対応する感性空間座標値が算出され、算出された感性空間座標値との空間的距離が最も短いコンテンツを検索するデータベース検索装置において、
性別および/または年齢によって分類される分類パターン毎に、各コンテンツの感性空間座標値が求められて、インデックス情報としてデータべースに登録されており、
検索時において、各感性語対毎の印象値の他に、分類パターンを特定するためのユーザ情報をユーザに入力させるための第1手段、
第1手段によって入力された各感性語対毎の印象値に対応する感性空間座標値を算出する第2手段、
第2手段によって算出された感性空間座標値とデータベースにインデックスとして登録されている感性空間座標値との間の空間距離の計算する第3手段、ならびに
第3手段によって算出された空間距離が最も短いコンテンツを選択する第4手段を備えており、
第3手段は、空間距離を計算する際に、第1手段によって入力されたユーザ情報によって特定される分類パターンに対応したインデックス情報のみを空間距離の算出対象として使用することを特徴とするデータベース検索装置。
For each content registered in the database, the Kansei space coordinate value obtained for the content is registered in the database as an index of the content, and the impression value for each sensitivity word pair input by the user at the time of search In the database search device for searching the content having the shortest spatial distance from the calculated emotional space coordinate value, the emotional space coordinate value corresponding to the input impression value for each sensitivity word pair is calculated based on
For each classification pattern classified by gender and / or age, the Kansei space coordinate value of each content is obtained and registered in the database as index information.
A first means for allowing a user to input user information for specifying a classification pattern in addition to an impression value for each sensitivity word pair at the time of search;
Second means for calculating a sensitivity space coordinate value corresponding to an impression value for each sensitivity word pair input by the first means;
A third means for calculating a spatial distance between the emotional space coordinate value calculated by the second means and the emotional space coordinate value registered as an index in the database; and the spatial distance calculated by the third means is the shortest. A fourth means of selecting content,
The third means uses only the index information corresponding to the classification pattern specified by the user information input by the first means as the spatial distance calculation target when calculating the spatial distance. apparatus.
データベースに登録される各コンテンツ毎に、そのコンテンツに対して求められた感性空間座標値がそのコンテンツのインデックスとしてデータベースに登録されており、検索時にはユーザによって指定された感性空間座標値との空間的距離が最も短いコンテンツを検索するデータベース検索装置において、
性別および/または年齢によって分類される分類パターン毎に、各コンテンツの感性空間座標値が求められて、インデックス情報としてデータべースに登録されており、
検索時において、感性空間座標値の他に、分類パターンを特定するためのユーザ情報をユーザに入力させるための第1手段、
第1手段によって入力された感性空間座標値とデータベースにインデックスとして登録されている感性空間座標値との間の空間距離の計算する第2手段、ならびに
第2手段によって算出された空間距離が最も短いコンテンツを選択する第3手段を備えており、
第2手段は、空間距離を計算する際に、第1手段によって入力されたユーザ情報によって特定される分類パターンに対応したインデックス情報のみを空間距離の算出対象として使用することを特徴とするデータベース検索装置。
For each content registered in the database, the Kansei space coordinate value obtained for the content is registered in the database as an index of the content, and the spatial space with the Kansei space coordinate value specified by the user at the time of search In a database search device that searches for content with the shortest distance,
For each classification pattern classified by gender and / or age, the Kansei space coordinate value of each content is obtained and registered in the database as index information.
A first means for allowing a user to input user information for specifying a classification pattern in addition to the sensitivity space coordinate value at the time of retrieval;
A second means for calculating a spatial distance between the emotional space coordinate value input by the first means and the emotional space coordinate value registered as an index in the database; and the spatial distance calculated by the second means is the shortest. A third means for selecting content,
The second means uses the index information corresponding to the classification pattern specified by the user information input by the first means as the spatial distance calculation target when calculating the spatial distance. apparatus.
JP2003338393A 2003-09-29 2003-09-29 Database retrieval device Pending JP2005107718A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003338393A JP2005107718A (en) 2003-09-29 2003-09-29 Database retrieval device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003338393A JP2005107718A (en) 2003-09-29 2003-09-29 Database retrieval device

Publications (1)

Publication Number Publication Date
JP2005107718A true JP2005107718A (en) 2005-04-21

Family

ID=34533923

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003338393A Pending JP2005107718A (en) 2003-09-29 2003-09-29 Database retrieval device

Country Status (1)

Country Link
JP (1) JP2005107718A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011065567A (en) * 2009-09-18 2011-03-31 Kanazawa Inst Of Technology Media content information analysis device and method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011065567A (en) * 2009-09-18 2011-03-31 Kanazawa Inst Of Technology Media content information analysis device and method

Similar Documents

Publication Publication Date Title
Levy et al. Music information retrieval using social tags and audio
Pohle et al. Evaluation of frequently used audio features for classification of music into perceptual categories
JP4428036B2 (en) Information processing apparatus and method, program, information processing system and method
EP2793223A1 (en) Ranking representative segments in media data
Hong et al. Cbvmr: content-based video-music retrieval using soft intra-modal structure constraint
CN110134820B (en) Feature increasing based hybrid personalized music recommendation method
KR20080030922A (en) Information processing apparatus, method, program and recording medium
CN104067273A (en) Grouping search results into a profile page
CN113392321A (en) Information recommendation method and device, electronic equipment and storage medium
Guan et al. Efficient karaoke song recommendation via multiple kernel learning approximation
JP2005107718A (en) Database retrieval device
JP2008052737A (en) Music matching system and music matching method
Liu Effective results ranking for mobile query by singing/humming using a hybrid recommendation mechanism
Chordia et al. Extending Content-Based Recommendation: The Case of Indian Classical Music.
Coviello et al. Automatic Music Tagging With Time Series Models.
JP2005107719A (en) Database retrieval device
Nakano et al. Musical similarity and commonness estimation based on probabilistic generative models
Lu et al. Deep learning models for melody perception: An investigation on symbolic music data
Nishikawa et al. A musical mood trajectory estimation method using lyrics and acoustic features
US20080017017A1 (en) Method and Apparatus for Melody Representation and Matching for Music Retrieval
Salehin et al. A recommender system for music less singing voice signals
Iliadis et al. Music deep learning: A survey on deep learning methods for music processing
Yang et al. Improving Musical Concept Detection by Ordinal Regression and Context Fusion.
CN109710797B (en) Audio file pushing method and device, electronic device and storage medium
JP6308706B1 (en) Patent requirement conformity prediction device and patent requirement conformity prediction program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071107

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071228

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080226

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080710