JP5158450B2 - Information processing apparatus and method, and program - Google Patents

Information processing apparatus and method, and program Download PDF

Info

Publication number
JP5158450B2
JP5158450B2 JP2010218616A JP2010218616A JP5158450B2 JP 5158450 B2 JP5158450 B2 JP 5158450B2 JP 2010218616 A JP2010218616 A JP 2010218616A JP 2010218616 A JP2010218616 A JP 2010218616A JP 5158450 B2 JP5158450 B2 JP 5158450B2
Authority
JP
Japan
Prior art keywords
search axis
music
search
user
axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010218616A
Other languages
Japanese (ja)
Other versions
JP2011048839A (en
Inventor
由幸 小林
亮 向山
浩司 荻野
聡一 深沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010218616A priority Critical patent/JP5158450B2/en
Publication of JP2011048839A publication Critical patent/JP2011048839A/en
Application granted granted Critical
Publication of JP5158450B2 publication Critical patent/JP5158450B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は情報処理装置および方法、並びにプログラムに関し、特に、コンテンツを提示できるようにした情報処理装置および方法、並びにプログラムに関する。   The present invention relates to an information processing device and method, and a program, and more particularly, to an information processing device and method, and a program capable of presenting content.

従来、楽曲や動画像などのコンテンツに、ユーザの評価を示すメタデータを付与することが行われている。   Conventionally, metadata indicating user evaluation is added to content such as music and moving images.

ユーザが、自分の好みを示すメタデータをコンテンツに付与する場合、メタデータを付与したコンテンツについて自分の好みであるかを知ることができる。   When the user gives metadata indicating his / her preference to the content, the user can know whether the content to which the metadata is given is his / her preference.

従来の記録再生装置には、情報より受ける印象を数値化して生成した変数データを基準にしたユーザの操作に応動してユーザの所望する情報を提供するようにしているものもある(例えば、特許文献1参照)。   Some conventional recording / reproducing apparatuses provide information desired by a user in response to a user operation based on variable data generated by quantifying an impression received from information (for example, patents). Reference 1).

特開2000−207415号公報JP 2000-207415 A

しかしながら、自分の好みを示すメタデータを付与していないコンテンツについて、自分の好みであるかを知ることはできなかった。   However, it has not been possible to know whether or not the content to which metadata indicating the user's preference is attached is his / her preference.

自分のコンテンツの全部について、自分の好みであるかを知るためには、その全部のコンテンツに自分の好みを示すメタデータを付与しなければならなかった。   In order to know whether or not all of my content is my preference, I had to give metadata indicating my preference to all of my content.

ユーザが多数のコンテンツを所有している場合、全部のコンテンツに自分の好みを示すメタデータを付与することは、大変、面倒なことであった。   When a user owns a large number of contents, it is very troublesome to add metadata indicating his / her preference to all contents.

本発明は、このような状況に鑑みてなされたものであり、より簡単に、ユーザに合わせたコンテンツの提示を表示することができるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to display the presentation of content tailored to the user more easily.

本発明の一側面の情報処理装置は、コンテンツに関する情報であって、ユーザに提示する情報を求める情報処理装置において、前記ユーザが任意に指定した検索軸であって、前記コンテンツを提示する基準となる検索軸を生成する検索軸生成手段と、前記検索軸について複数の前記コンテンツのそれぞれが当てはまる度合を前記ユーザのフィードバック値として入力する入力手段と、前記検索軸が示す値を求めるための回帰式または判別式を求めるための学習データを、前記フィードバック値に基づいて生成する学習用データ生成手段と、前記コンテンツの特徴量と前記学習用データを用いて、検索軸が示す値を求めるための回帰式または判別式を学習する検索軸学習手段と、ユーザに提示する対象となるコンテンツについて前記検索軸の値を前記回帰式または判別式に基づいて計算する計算手段とを備える情報処理装置である。   An information processing apparatus according to an aspect of the present invention is an information processing apparatus that requests information to be presented to a user, and is a search axis arbitrarily designated by the user, and a reference for presenting the content. A search axis generating means for generating the search axis, an input means for inputting the degree to which each of the plurality of contents is applied to the search axis as a feedback value of the user, and a regression equation for obtaining a value indicated by the search axis Alternatively, learning data generation means for generating learning data for obtaining a discriminant based on the feedback value, and regression for obtaining a value indicated by a search axis using the feature amount of the content and the learning data Search axis learning means for learning a formula or discriminant and the value of the search axis for the content to be presented to the user An information processing apparatus including a calculation means for calculating, based on the regression equation or discriminants.

前記計算手段は、複数の前記検索軸のそれぞれが示す値を計算するようにすることができる。   The calculation means may calculate a value indicated by each of the plurality of search axes.

前記検索軸をその次元の軸とする空間の、前記検索軸が示す前記コンテンツの値に応じた位置に、前記コンテンツを示す画像を表示させる表示制御手段をさらに備えるようにすることができる。   It is possible to further include display control means for displaying an image indicating the content at a position corresponding to the value of the content indicated by the search axis in a space having the search axis as an axis of the dimension.

前記検索軸が示す値が表示されている前記コンテンツのうち、前記検索軸が示す所定の範囲の前記コンテンツを選別する選別手段をさらに備えるようにすることができる。   A sorting means for sorting out the content in a predetermined range indicated by the search axis among the contents in which the value indicated by the search axis is displayed can be further provided.

本発明の一側面は、コンテンツに関する情報であって、ユーザに提示する情報を求める情報処理装置の情報処理方法において、検索軸生成手段が、前記ユーザが任意に指定した検索軸であって、前記コンテンツを提示する基準となる検索軸を生成し、入力手段が、前記検索軸について複数の前記コンテンツのそれぞれが当てはまる度合を前記ユーザのフィードバック値として入力し、学習用データ生成手段が、前記検索軸が示す値を求めるための回帰式または判別式を求めるための学習データを、前記フィードバック値に基づいて生成し、検索軸学習手段が、前記コンテンツの特徴量と前記学習用データを用いて、検索軸が示す値を求めるための回帰式または判別式を学習し、計算手段が、ユーザに提示する対象となるコンテンツについて前記検索軸の値を前記回帰式または判別式に基づいて計算するステップを含む情報処理方法である。   One aspect of the present invention is information relating to content, and in an information processing method for an information processing apparatus that requests information to be presented to a user, a search axis generation unit is a search axis arbitrarily designated by the user, A search axis serving as a reference for presenting content is generated, and the input unit inputs a degree to which each of the plurality of contents applies to the search axis as a feedback value of the user, and the learning data generation unit includes the search axis. Learning data for obtaining a regression equation or a discriminant for obtaining the value indicated by is generated based on the feedback value, and the search axis learning means performs a search using the feature amount of the content and the learning data. Learn the regression or discriminant for obtaining the value indicated by the axis, and the calculation means The value of the search axis is an information processing method comprising the step of calculating, based on the regression equation or discriminants.

本発明の一側面は、コンピュータを、コンテンツに関する情報であって、ユーザに提示する情報を求める情報処理装置において、前記ユーザが任意に指定した検索軸であって、前記コンテンツを提示する基準となる検索軸を生成する検索軸生成手段と、前記検索軸について複数の前記コンテンツのそれぞれが当てはまる度合を前記ユーザのフィードバック値として入力する入力手段と、前記検索軸が示す値を求めるための回帰式または判別式を求めるための学習データを、前記フィードバック値に基づいて生成する学習用データ生成手段と、前記コンテンツの特徴量と前記学習用データを用いて、検索軸が示す値を求めるための回帰式または判別式を学習する検索軸学習手段と、ユーザに提示する対象となるコンテンツについて前記検索軸の値を前記回帰式または判別式に基づいて計算する計算手段とを備える情報処理装置として機能させるプログラムである。   One aspect of the present invention is a search axis arbitrarily designated by the user as a reference for presenting the content in an information processing apparatus that requests information to be presented to the user from a computer. A search axis generating means for generating a search axis, an input means for inputting the degree to which each of the plurality of contents is applied to the search axis as a feedback value of the user, and a regression equation for obtaining a value indicated by the search axis or A learning data generation means for generating learning data for determining a discriminant based on the feedback value, and a regression equation for determining a value indicated by a search axis using the feature amount of the content and the learning data Alternatively, the search axis learning means for learning the discriminant and the search axis for the content to be presented to the user Which is a program to function as an information processing apparatus and a calculating means for calculating, based on the regression equation or discriminants.

本発明の一側面においては、前記ユーザが任意に指定した検索軸であって、前記コンテンツを提示する基準となる検索軸が生成され、前記検索軸について複数の前記コンテンツのそれぞれが当てはまる度合が前記ユーザのフィードバック値として入力され、前記検索軸が示す値を求めるための回帰式または判別式を求めるための学習データが、前記フィードバック値に基づいて生成され、前記コンテンツの特徴量と前記学習用データを用いて、検索軸が示す値を求めるための回帰式または判別式が学習され、ユーザに提示する対象となるコンテンツについて前記検索軸の値が前記回帰式または判別式に基づいて計算される。   In one aspect of the present invention, a search axis arbitrarily designated by the user, a search axis serving as a reference for presenting the content is generated, and the degree to which each of the plurality of contents applies to the search axis Learning data for obtaining a regression equation or discriminant for obtaining a value indicated by the search axis, which is input as a user feedback value, is generated based on the feedback value, and the feature amount of the content and the learning data Is used to learn a regression equation or discriminant for obtaining the value indicated by the search axis, and the value of the search axis is calculated based on the regression equation or discriminant for the content to be presented to the user.

以上のように、本発明の一側面によれば、コンテンツを提示することができる。   As described above, according to one aspect of the present invention, content can be presented.

楽曲検索システムの構成の例を示すブロック図である。It is a block diagram which shows the example of a structure of a music search system. 楽曲検索装置の構成を示すブロック図である。It is a block diagram which shows the structure of a music search device. 検索軸学習部の検索軸の生成を説明する図である。It is a figure explaining the production | generation of the search axis | shaft of a search axis | shaft learning part. 楽曲特徴量およびフィードバック値の例を示す図である。It is a figure which shows the example of a music feature-value and a feedback value. 楽曲特徴量およびフィードバック値の例を示す図である。It is a figure which shows the example of a music feature-value and a feedback value. 検索軸の値の計算を説明する図である。It is a figure explaining calculation of the value of a search axis. 検索軸の値の計算を説明する図である。It is a figure explaining calculation of the value of a search axis. 検索軸を学習する構成を示すブロック図である。It is a block diagram which shows the structure which learns a search axis. ユーザによる楽曲の再生の履歴の例を示す図である。It is a figure which shows the example of the log | history of the reproduction | regeneration of the music by a user. フィードバック値の例を示す図である。It is a figure which shows the example of a feedback value. 学習用データの例を示す図である。It is a figure which shows the example of the data for learning. ユーザによる楽曲の再生の履歴からの学習用データの生成を説明する図である。It is a figure explaining the production | generation of the data for learning from the log | history of the reproduction | regeneration of the music by a user. 検索軸の判別式の学習を説明する図である。It is a figure explaining learning of the discriminant of a search axis. 検索軸の学習の処理を説明するフローチャートである。It is a flowchart explaining the learning process of a search axis. 検索軸を用いた空間に楽曲をマッピングしたユーザインタフェースを説明する図である。It is a figure explaining the user interface which mapped the music in the space using a search axis. 他のユーザに対する情報により生成された検索軸を用いた空間に楽曲をマッピングしたユーザインタフェースを説明する図である。It is a figure explaining the user interface which mapped the music on the space using the search axis produced | generated by the information with respect to another user. 検索軸を使って検索を行う構成を示すブロック図である。It is a block diagram which shows the structure which searches using a search axis. 検索軸の取得を説明する図である。It is a figure explaining acquisition of a search axis. 検索軸の値の計算を説明する図である。It is a figure explaining calculation of the value of a search axis. 楽曲の選別を説明する図である。It is a figure explaining the selection of music. 検索軸を使った検索の処理を説明するフローチャートである。It is a flowchart explaining the process of the search using a search axis. 検索軸の類似度の計算を説明する図である。It is a figure explaining calculation of the similarity of a search axis. 検索軸の類似度の計算を説明する図である。It is a figure explaining calculation of the similarity of a search axis. 検索軸の類似度の例を示す図である。It is a figure which shows the example of the similarity of a search axis. 検索軸の類似度の例を示す図である。It is a figure which shows the example of the similarity of a search axis. 重ねて表示される類似する検索軸の例を示す図である。It is a figure which shows the example of the similar search axis displayed superimposed. 検索軸の選択の操作の例を示す図である。It is a figure which shows the example of operation of selection of a search axis. 検索軸の類似度を計算する構成を示すブロック図である。It is a block diagram which shows the structure which calculates the similarity of a search axis. 類似検索軸の提示の処理を説明するフローチャートである。It is a flowchart explaining the process of presentation of a similar search axis. 重ねて表示されるユーザの楽曲の位置および他のユーザの楽曲の位置の例を示す図である。It is a figure which shows the example of the position of the user's music displayed in an overlapping manner, and the position of the music of another user. 2次元以上の空間に、ユーザの楽曲の位置と他のユーザの楽曲の位置とを重ねて表示する構成を示すブロック図である。It is a block diagram which shows the structure which overlaps and displays the position of a user's music, and the position of another user's music in the space more than two dimensions. 検索軸の取得を説明する図である。It is a figure explaining acquisition of a search axis. 検索軸の値の計算を説明する図である。It is a figure explaining calculation of the value of a search axis. 他のユーザのコンテンツを重ねて表示する処理を説明するフローチャートである。It is a flowchart explaining the process which displays and displays the content of another user. コンテンツの選別の処理を説明するフローチャートである。It is a flowchart explaining the content selection process. コンピュータのハードウェアの構成例を示すブロック図である。It is a block diagram which shows the structural example of the hardware of a computer.

図1は、楽曲検索システムの構成の例を示すブロック図である。楽曲検索システムは、楽曲検索装置11−1、楽曲検索装置11−2、サーバ12、およびネットワーク13から構成される。   FIG. 1 is a block diagram illustrating an example of a configuration of a music search system. The music search system includes a music search device 11-1, a music search device 11-2, a server 12, and a network 13.

楽曲検索装置11−1、楽曲検索装置11−2、およびサーバ12は、ネットワーク13を介して、相互に接続される。   The music search device 11-1, the music search device 11-2, and the server 12 are connected to each other via the network 13.

楽曲検索装置11−1および楽曲検索装置11−2は、それぞれ、情報処理装置の一例であり、コンテンツの一例である楽曲に関する情報を求めて、それぞれのユーザに提示する。   Each of the music search device 11-1 and the music search device 11-2 is an example of an information processing device, and obtains information related to music, which is an example of content, and presents the information to each user.

なお、コンテンツとは、ユーザに有用な情報を意味し、例えば、楽曲(音声)、動画像、静止画像、文(テキスト)、データ、またはプログラムなどをいう。以下、コンテンツとして、楽曲を例に説明する。   Note that content means information useful to the user, such as music (sound), moving images, still images, sentences (text), data, or programs. Hereinafter, music will be described as an example of content.

例えば、楽曲検索装置11−1および楽曲検索装置11−2は、コンテンツの一例としての楽曲を提示する基準となる軸(以下、検索軸と称する)であって、楽曲の特徴量およびそれぞれのユーザによる楽曲の再生の履歴またはそれぞれのユーザの楽曲に対する評価により定められる検索軸を学習によって生成し、生成された検索軸を基準とした楽曲の提示に関する表示を制御する。   For example, the music search device 11-1 and the music search device 11-2 are axes serving as a reference for presenting music as an example of content (hereinafter referred to as a search axis). The search axis defined by the history of the music playback by or the evaluation of each user's music is generated by learning, and the display related to the presentation of the music based on the generated search axis is controlled.

ここで、検索軸は、コンテンツに関連する情報に応じてコンテンツを提示する基準である。例えば、検索軸は、コンテンツに関連する情報に応じた位置(座標位置)を規定する空間の座標軸とされる。   Here, the search axis is a standard for presenting content according to information related to the content. For example, the search axis is a coordinate axis of a space that defines a position (coordinate position) according to information related to the content.

ここで、検索軸は任意の座標系における座標軸とすることができる。具体的には、例えば、直交座標系または斜交座標系などの空間において検索軸は直線とされ、円座標系、円柱座標系または球座標系などの極座標系やその他の座標系において、検索軸は直線または曲線もしくは角度を示す基準とされる。なお、検索軸は必ずしも表示されなくとも良い。   Here, the search axis can be a coordinate axis in an arbitrary coordinate system. Specifically, for example, a search axis is a straight line in a space such as an orthogonal coordinate system or an oblique coordinate system, and a search axis in a polar coordinate system such as a circular coordinate system, a cylindrical coordinate system, or a spherical coordinate system, or other coordinate system. Is a reference indicating a straight line or a curve or angle. Note that the search axis is not necessarily displayed.

例えば、楽曲検索装置11−1は、楽曲を提示する基準となる、楽曲検索装置11−1のユーザに対する情報により生成された検索軸と、楽曲検索装置11−2のユーザに対する情報により生成された検索軸との類似度を計算し、類似する2つの検索軸が示す楽曲の値を表示する。例えば、楽曲検索装置11−2は、楽曲を提示する基準となる、楽曲検索装置11−2のユーザに対する情報により生成された検索軸と、楽曲検索装置11−1のユーザに対する情報により生成された検索軸との類似度を計算し、類似する2つの検索軸が示す楽曲の値を表示する。   For example, the music search device 11-1 is generated based on a search axis generated based on information for the user of the music search device 11-1, which is a reference for presenting the music, and information on the user of the music search device 11-2. The degree of similarity with the search axis is calculated, and the music value indicated by the two similar search axes is displayed. For example, the music search device 11-2 is generated based on a search axis generated based on information for the user of the music search device 11-2, which is a reference for presenting the music, and information on the user of the music search device 11-1. The degree of similarity with the search axis is calculated, and the music value indicated by the two similar search axes is displayed.

楽曲検索装置11−1は、ネットワーク13を介して、楽曲検索装置11−2から、楽曲検索装置11−2のユーザに対する情報により生成された検索軸を取得する。楽曲検索装置11−2は、ネットワーク13を介して、楽曲検索装置11−1から、楽曲検索装置11−1のユーザに対する情報により生成された検索軸を取得する。   The music search device 11-1 acquires a search axis generated from information for the user of the music search device 11-2 from the music search device 11-2 via the network 13. The music search device 11-2 acquires a search axis generated from information for the user of the music search device 11-1 from the music search device 11-1 via the network 13.

なお、詳細は後述するが、コンテンツについての検索軸の値は、回帰式または判別式で求められ、検索軸を取得するとは、検索軸を表す回帰式または判別式を取得することを意味する。   Although details will be described later, the value of the search axis for the content is obtained by a regression equation or discriminant, and acquiring the search axis means acquiring a regression equation or discriminant representing the search axis.

サーバ12は、ネットワーク13を介して、楽曲検索装置11−1または楽曲検索装置11−2から、それぞれのユーザに対する情報により生成された検索軸を取得し、記録する。サーバ12は、ネットワーク13を介して、楽曲検索装置11−1または楽曲検索装置11−2に、記録しているそれぞれのユーザに対する情報により生成された検索軸を提
供する。
The server 12 acquires and records the search axis generated by the information for each user from the music search device 11-1 or the music search device 11-2 via the network 13. The server 12 provides the search axis generated by the information for each recorded user to the music search device 11-1 or the music search device 11-2 via the network 13.

以下、楽曲検索装置11−1および楽曲検索装置11−2を個々に区別する必要がないとき、単に、楽曲検索装置11と称する。   Hereinafter, when there is no need to distinguish between the music search device 11-1 and the music search device 11-2, they are simply referred to as the music search device 11.

図2は、本発明の一実施の形態の情報処理装置の一例である楽曲検索装置11の構成を示すブロック図である。楽曲検索装置11は、検索軸学習部31、特徴量データベース(DB(Database))32、検索軸データベース(DB)33、学習用データ生成部34、再生履歴フィードバックデータベース(DB)35、操作部36、検索軸取得部37、他ユーザ検索軸データベース(DB)38、検索軸値計算部39、他ユーザ特徴量データベース(DB)40、該当楽曲選別部41、コンテンツ再生部42、コンテンツデータベース(DB)43、検索軸比較部44、表示部45、および通信部46から構成される。   FIG. 2 is a block diagram illustrating a configuration of the music search apparatus 11 that is an example of the information processing apparatus according to the embodiment of this invention. The music search apparatus 11 includes a search axis learning unit 31, a feature amount database (DB (Database)) 32, a search axis database (DB) 33, a learning data generation unit 34, a reproduction history feedback database (DB) 35, and an operation unit 36. , Search axis acquisition unit 37, other user search axis database (DB) 38, search axis value calculation unit 39, other user feature quantity database (DB) 40, corresponding music selection unit 41, content playback unit 42, content database (DB) 43, a search axis comparison unit 44, a display unit 45, and a communication unit 46.

検索軸学習部31は、楽曲を提示する基準となる検索軸であって、楽曲の特徴量およびユーザによる楽曲の再生の履歴またはユーザの楽曲に対する評価により定められる検索軸を学習によって生成する。例えば、検索軸学習部31は、特徴量データベース32から供給される、楽曲の特徴量と、学習用データ生成部34を介して再生履歴フィードバックデータベース35から供給される、ユーザによる楽曲の再生の履歴またはユーザの楽曲に対する評価とを用いた学習により、楽曲を提示する基準となる検索軸を生成する。   The search axis learning unit 31 is a search axis that serves as a reference for presenting music, and generates a search axis determined by learning based on the feature amount of the music and the history of music playback by the user or the user's evaluation of the music. For example, the search axis learning unit 31 provides the feature amount of the music supplied from the feature amount database 32 and the history of music playback by the user supplied from the playback history feedback database 35 via the learning data generation unit 34. Alternatively, a search axis serving as a reference for presenting the music is generated by learning using the user's evaluation of the music.

ここで特徴量は、コンテンツの特徴を示す値であればよい。例えば、特徴量は、コンテンツのメタデータ、またはメタデータ若しくはコンテンツそのものから算出された値である。   Here, the feature amount may be a value indicating the feature of the content. For example, the feature amount is a value calculated from the metadata of the content, or the metadata or the content itself.

すなわち、例えば、検索軸学習部31は、特徴量データベース32からの楽曲の特徴量および学習用データ生成部34からの楽曲の再生の履歴または評価を用いた学習により、楽曲を提示する基準となる検索軸が示す値(以下、検索軸の値と称する)を算出するための回帰式または判別式を求める。   That is, for example, the search axis learning unit 31 serves as a reference for presenting a song by learning using the feature amount of the song from the feature amount database 32 and the history or evaluation of the reproduction of the song from the learning data generation unit 34. A regression equation or discriminant for calculating a value indicated by the search axis (hereinafter referred to as a search axis value) is obtained.

検索軸学習部31は、生成した検索軸を検索軸データベース33に供給する。すなわち、検索軸学習部31は、楽曲を提示する基準となる検索軸の値を算出するための回帰式または判別式を検索軸データベース33に供給する。   The search axis learning unit 31 supplies the generated search axis to the search axis database 33. That is, the search axis learning unit 31 supplies the search axis database 33 with a regression equation or a discriminant for calculating the value of the search axis serving as a reference for presenting music.

特徴量データベース32は、ユーザの所有する楽曲の特徴量を格納する。例えば、特徴量データベース32は、楽曲の特徴量である、楽曲のメタデータを格納する。   The feature quantity database 32 stores the feature quantities of music pieces owned by the user. For example, the feature database 32 stores music metadata, which is a music feature.

検索軸データベース33は、検索軸学習部31において生成された、楽曲を提示する基準となる検索軸を格納する。換言すれば、検索軸データベース33は、楽曲を提示する基準となる検索軸の値を算出するための回帰式または判別式を格納する。   The search axis database 33 stores search axes generated by the search axis learning unit 31 and serving as a reference for presenting music. In other words, the search axis database 33 stores a regression equation or a discriminant for calculating a search axis value serving as a reference for presenting music.

学習用データ生成部34は、再生履歴フィードバックデータベース35から供給される、ユーザによる楽曲の再生の履歴またはユーザの楽曲に対する評価から、生成しようとする検索軸の学習に不要なデータを取り除いて、検索軸学習部31における学習に用いる学習用データを生成する。学習用データ生成部34は、生成した学習用データを検索軸学習部31に供給する。   The learning data generation unit 34 removes data unnecessary for learning of the search axis to be generated from the history of the music playback by the user or the evaluation of the user music supplied from the playback history feedback database 35, and performs the search. Learning data used for learning in the axis learning unit 31 is generated. The learning data generation unit 34 supplies the generated learning data to the search axis learning unit 31.

再生履歴フィードバックデータベース35は、ユーザによる楽曲の再生の履歴、およびユーザからのフィードバック値であるユーザの楽曲に対する評価を格納する。再生履歴フィードバックデータベース35は、格納している、ユーザによる楽曲の再生の履歴、またはユーザの楽曲に対する評価を学習用データ生成部34に供給する。   The reproduction history feedback database 35 stores the reproduction history of music by the user and the evaluation of the user's music that is a feedback value from the user. The reproduction history feedback database 35 supplies the learning data generation unit 34 with the stored history of reproduction of music by the user or evaluation of the user's music.

操作部36は、ボタン、キーボード、マウス、リモートコントローラ、またはタッチパッドなどとそれらを制御する制御部とからなり、ユーザの操作に応じた、検索に用いる検索軸を示す情報を検索軸取得部37に供給する。または、操作部36は、ユーザの操作に応じた、ユーザからのフィードバック値であるユーザの楽曲に対する評価を再生履歴フィードバックデータベース35に供給する。   The operation unit 36 includes a button, a keyboard, a mouse, a remote controller, a touch pad, and the like and a control unit that controls them, and information indicating a search axis used for search according to a user operation is obtained as a search axis acquisition unit 37. To supply. Alternatively, the operation unit 36 supplies the reproduction history feedback database 35 with an evaluation of the user's music, which is a feedback value from the user, according to the user's operation.

さらに、または、操作部36は、表示部45において検索軸を基準とした楽曲の提示に関する表示がされている場合、ユーザの操作に応じた、検索軸を基準とした所定の範囲を指定する情報を該当楽曲選別部41に供給する。   In addition, when the display unit 45 displays information related to the presentation of music based on the search axis, the operation unit 36 specifies information that specifies a predetermined range based on the search axis according to the user's operation. Is supplied to the corresponding music selection unit 41.

検索軸取得部37は、検索軸データベース33から検索に用いる検索軸を取得する。また、検索軸取得部37は、他ユーザ検索軸データベース38から、他のユーザに対する情報により生成された検索軸であって、検索に用いる検索軸を取得する。   The search axis acquisition unit 37 acquires a search axis used for search from the search axis database 33. In addition, the search axis acquisition unit 37 acquires a search axis used for search, which is a search axis generated based on information for other users from the other user search axis database 38.

検索軸取得部37は、取得した検索軸を検索軸値計算部39に供給する。   The search axis acquisition unit 37 supplies the acquired search axis to the search axis value calculation unit 39.

他ユーザ検索軸データベース38は、楽曲を提示する基準となる検索軸であって、他のユーザに対する情報により生成された検索軸を格納する。換言すれば、他ユーザ検索軸データベース38は、楽曲を提示する基準となる、他のユーザに対する情報により生成された検索軸が示す値を算出するための回帰式または判別式を格納する。   The other user search axis database 38 is a search axis serving as a reference for presenting music, and stores a search axis generated by information for other users. In other words, the other-user search axis database 38 stores a regression equation or discriminant for calculating a value indicated by a search axis generated by information for other users, which is a reference for presenting music.

例えば、通信部46が、ネットワーク13を介して、他の楽曲検索装置11またはサーバ12から送信されてきた検索軸を受信すると、受信した検索軸を他ユーザ検索軸データベース38に供給するので、他ユーザ検索軸データベース38は、通信部46から供給された、他のユーザに対する情報により生成された検索軸を格納する。また、例えば、楽曲検索装置11が複数のユーザから使用される場合、検索軸データベース33および他ユーザ検索軸データベース38は、それぞれ異なるユーザに対する情報により生成された検索軸を格納し、検索軸データベース33は、楽曲検索装置11を現在使用しているユーザに対する情報により生成された検索軸を格納し、他ユーザ検索軸データベース38は、楽曲検索装置11を現在使用しているユーザと異なるユーザに対する情報により生成された検索軸を格納する。   For example, when the communication unit 46 receives a search axis transmitted from another music search device 11 or the server 12 via the network 13, the received search axis is supplied to the other user search axis database 38. The user search axis database 38 stores search axes generated from information for other users supplied from the communication unit 46. Further, for example, when the music search device 11 is used by a plurality of users, the search axis database 33 and the other user search axis database 38 store search axes generated by information for different users, respectively. Stores a search axis generated by information for a user who is currently using the music search device 11, and the other user search axis database 38 is based on information for a user different from the user who is currently using the music search device 11. Stores the generated search axis.

検索軸値計算部39は、検索軸取得部37から供給された検索軸について、特徴量データベース32から供給された楽曲の楽曲特徴量から、その楽曲の検索軸の値を計算する。また、検索軸値計算部39は、検索軸取得部37から供給された検索軸について、他ユーザ特徴量データベース40から供給された他のユーザの楽曲の楽曲特徴量から、その楽曲の検索軸が示す値を計算する。   The search axis value calculation unit 39 calculates the search axis value of the music from the music feature quantity of the music supplied from the feature quantity database 32 for the search axis supplied from the search axis acquisition unit 37. Further, the search axis value calculation unit 39 determines the search axis of the music from the music feature amount of the music of another user supplied from the other user feature database 40 for the search axis supplied from the search axis acquisition unit 37. Calculate the value shown.

検索軸値計算部39は、計算して得られた、楽曲の検索軸が示す値を該当楽曲選別部41または表示部45に供給する。   The search axis value calculation unit 39 supplies the calculated value obtained by the music search axis to the corresponding music selection unit 41 or the display unit 45.

他ユーザ特徴量データベース40は、他のユーザの所有する楽曲の特徴量を格納する。例えば、他ユーザ特徴量データベース40は、他のユーザの所有する楽曲の特徴量として、その楽曲のメタデータを格納する。   The other user feature quantity database 40 stores the feature quantities of music pieces owned by other users. For example, the other user feature database 40 stores the metadata of the music as the feature of the music owned by the other user.

例えば、他ユーザ特徴量データベース40は、他の楽曲検索装置11のユーザの所有する楽曲の特徴量を格納する。または、例えば、楽曲検索装置11が複数のユーザから使用される場合、他ユーザ特徴量データベース40は、楽曲検索装置11を現在使用しているユーザと異なるユーザの所有する楽曲の特徴量を格納する。   For example, the other user feature quantity database 40 stores the feature quantity of the music owned by the user of the other music search device 11. Alternatively, for example, when the music search device 11 is used by a plurality of users, the other user feature value database 40 stores the feature values of the music owned by a user different from the user who is currently using the music search device 11. .

より具体的には、例えば、通信部46が、ネットワーク13を介して、他の楽曲検索装置11またはサーバ12から送信されてきた他のユーザの楽曲の特徴量を受信すると、他のユーザの楽曲の特徴量を他ユーザ特徴量データベース40に供給するので、他ユーザ特徴量データベース40は、通信部46から供給された、他のユーザの楽曲の特徴量を格納する。   More specifically, for example, when the communication unit 46 receives the feature amount of the music of another user transmitted from the other music search device 11 or the server 12 via the network 13, the music of the other user is received. Are supplied to the other-user feature-value database 40, the other-user feature-value database 40 stores the feature-value of the music of other users supplied from the communication unit 46.

該当楽曲選別部41は、提示されているコンテンツである楽曲のうち、所定の範囲の楽曲を選別する。例えば、該当楽曲選別部41は、2つの検索軸を基準とした提示に関する表示がされている楽曲のうち、その2つの検索軸を基準とした所定の範囲の楽曲を選別する。   The corresponding music selection unit 41 selects music in a predetermined range from the music that is the presented content. For example, the corresponding music selection unit 41 selects music in a predetermined range based on the two search axes from among the music displayed for presentation based on the two search axes.

または、例えば、該当楽曲選別部41は、ユーザに対する情報により生成された検索軸と他のユーザに対する情報により生成された検索軸とを基準とした提示に関する表示がされている楽曲のうち、ユーザに対する情報により生成された検索軸と他のユーザに対する情報により生成された検索軸とを基準とした所定の範囲の楽曲を選別する。   Alternatively, for example, the corresponding music selection unit 41 may display the music related to the user among the music displayed on the basis of the search axis generated by the information for the user and the search axis generated by the information for the other user. A predetermined range of music is selected based on a search axis generated by information and a search axis generated by information for other users.

より具体的には、該当楽曲選別部41は、ユーザの操作に応じて操作部36から供給される情報で示される、検索軸を基準とした所定の範囲に、その検索軸の位置が属する楽曲を選別する。   More specifically, the corresponding music selection unit 41 is a music whose position of the search axis belongs to a predetermined range based on the search axis, which is indicated by information supplied from the operation unit 36 according to the user's operation. Sort out.

コンテンツ再生部42は、該当楽曲選別部41において選別されたコンテンツである楽曲を、コンテンツデータベース43から読み出して、再生して、出力する。   The content playback unit 42 reads out the music that is the content selected by the corresponding music selection unit 41 from the content database 43, plays it, and outputs it.

コンテンツデータベース43は、ユーザが所有するコンテンツである楽曲を格納する。なお、コンテンツデータベース43に格納されているコンテンツである楽曲と、特徴量データベース32に格納されている特徴量であるメタデータとは、例えば、楽曲を特定するID情報などにより紐付けされている。   The content database 43 stores music that is content owned by the user. Note that the music that is the content stored in the content database 43 and the metadata that is the feature amount stored in the feature amount database 32 are associated with each other by, for example, ID information that identifies the song.

検索軸比較部44は、検索軸データベース33から、ユーザに対する情報により生成された検索軸を取得し、また、他ユーザ検索軸データベース38から、他のユーザに対する情報により生成された検索軸を取得し、ユーザに対する情報により生成された検索軸と他のユーザに対する情報により生成された検索軸とを比較する。例えば、検索軸比較部44は、ユーザに対する情報により生成された検索軸と、他のユーザに対する情報により生成された検索軸との類似度を計算する。   The search axis comparison unit 44 acquires a search axis generated by information for the user from the search axis database 33, and acquires a search axis generated by information for another user from the other user search axis database 38. The search axis generated by the information for the user is compared with the search axis generated by the information for the other user. For example, the search axis comparison unit 44 calculates a similarity between a search axis generated based on information for a user and a search axis generated based on information for another user.

より具体的には、検索軸比較部44は、楽曲についてのユーザに対する情報により生成された検索軸が示す値と、楽曲についての他のユーザに対する情報により生成された検索軸が示す値との類似度である、ユーザに対する情報により生成された検索軸と他のユーザに対する情報により生成された検索軸との類似度を計算する。   More specifically, the search axis comparison unit 44 is similar to the value indicated by the search axis generated based on the information for the user regarding the music and the value indicated by the search axis generated based on the information for the other user regarding the music. The degree of similarity between the search axis generated by the information for the user and the search axis generated by the information for the other user is calculated.

すなわち、検索軸比較部44は、特徴量データベース32から、ユーザの所有する楽曲のメタデータを読み出して、ユーザの所有する楽曲のメタデータから、ユーザの楽曲についてのユーザに対する情報により生成された検索軸が示す値と、ユーザの楽曲についての他のユーザに対する情報により生成された検索軸が示す値とを計算する。そして、検索軸比較部44は、ユーザの所有する楽曲についてのユーザに対する情報により生成された検索軸が示す値と、ユーザの所有する楽曲についての他のユーザに対する情報により生成された検索軸が示す値との類似度である、ユーザに対する情報により生成された検索軸と他のユーザに対する情報により生成された検索軸との類似度を計算する。   In other words, the search axis comparison unit 44 reads the metadata of the music owned by the user from the feature amount database 32, and the search generated by the information about the user's music from the metadata of the music owned by the user. The value indicated by the axis and the value indicated by the search axis generated based on the information about the user's music for other users are calculated. The search axis comparison unit 44 indicates the value indicated by the search axis generated by the information about the user's owned music and the search axis generated by the information about the other user's music. The similarity between the search axis generated by the information for the user and the search axis generated by the information for the other user, which is the similarity to the value, is calculated.

例えば、検索軸比較部44は、楽曲の特徴量であるメタデータおよびユーザによる楽曲の再生の履歴またはユーザによる楽曲に対する評価により定められる検索軸と、楽曲のメタデータおよび他のユーザによる楽曲の再生の履歴または他のユーザによる楽曲に対する評価により定められる検索軸との類似度を計算する。   For example, the search axis comparison unit 44 includes the metadata that is the feature amount of music and the search axis determined by the user's history of music playback or the user's evaluation of the music, the music metadata, and music playback by other users. The degree of similarity with the search axis determined by the history or the evaluation of the music by other users is calculated.

表示部45は、LCD(liquid crystal display)または有機EL(electro luminescence)ディスプレイなどとLCDまたは有機ELディスプレイなどの表示を制御する表示制御部とからなり、その表示制御部の制御に応じて各種の画像や文字を表示する。例えば、表示部45は、検索軸値計算部39から供給された楽曲の検索軸が示す値を基に、類似するユーザに対する情報により生成された検索軸と他のユーザに対する情報により生成された検索軸とを基準とした楽曲の提示に関する表示を制御し、楽曲の提示に関し表示する。   The display unit 45 includes an LCD (liquid crystal display) or an organic EL (electroluminescence) display and a display control unit that controls display of the LCD or organic EL display. Display images and text. For example, the display unit 45 uses a search axis generated by information for similar users and a search generated by information for other users based on the value indicated by the search axis of the music supplied from the search axis value calculation unit 39. The display related to the presentation of the music based on the axis is controlled, and the display related to the presentation of the music is displayed.

また、例えば、表示部45は、楽曲の提示に関し表示する場合、ユーザに対する情報により生成された検索軸を示す画像と、ユーザに対する情報により生成された検索軸に類似する他のユーザに対する情報により生成された検索軸を示す画像とを重ねて表示する。   Further, for example, when displaying the presentation of music, the display unit 45 is generated by an image showing a search axis generated by information for the user and information for other users similar to the search axis generated by information for the user. The displayed image indicating the search axis is displayed in an overlapping manner.

すなわち、表示部45は、検索軸学習部31において生成された検索軸を基準としたコンテンツの提示に関する表示を制御する。または、表示部45は、類似する検索軸を基準としたコンテンツの提示に関する表示を制御する。   That is, the display unit 45 controls display related to content presentation based on the search axis generated by the search axis learning unit 31. Or the display part 45 controls the display regarding presentation of the content on the basis of a similar search axis.

通信部46は、ネットワーク13を介して、他の楽曲検索装置11またはサーバ12から送信されてきた他のユーザに対する情報により生成された検索軸(回帰式または判別式)を受信し、他のユーザに対する情報により生成された検索軸を他ユーザ検索軸データベース38に供給する。また、通信部46は、ネットワーク13を介して、他の楽曲検索装置11またはサーバ12から送信されてきた他のユーザのコンテンツの特徴量を受信し、他のユーザのコンテンツの特徴量を他ユーザ特徴量データベース40に供給する。   The communication unit 46 receives the search axis (regression equation or discriminant equation) generated by the information for the other user transmitted from the other music search device 11 or the server 12 via the network 13, and receives the other user. The search axis generated based on the information for is supplied to the other user search axis database 38. In addition, the communication unit 46 receives the feature amount of the content of the other user transmitted from the other music search device 11 or the server 12 via the network 13 and transmits the feature amount of the content of the other user to the other user. This is supplied to the feature amount database 40.

また、通信部46は、検索軸データベース33からユーザの検索軸を読み出して、ユーザの検索軸を、ネットワーク13を介して、他の楽曲検索装置11またはサーバ12に送信する。さらにまた、通信部46は、特徴量データベース32からユーザのコンテンツの特徴量を読み出して、ユーザのコンテンツの特徴量を、ネットワーク13を介して、他の楽曲検索装置11に送信する。   Further, the communication unit 46 reads the user search axis from the search axis database 33 and transmits the user search axis to the other music search device 11 or the server 12 via the network 13. Furthermore, the communication unit 46 reads the feature amount of the user's content from the feature amount database 32, and transmits the feature amount of the user's content to the other music search device 11 via the network 13.

このように、楽曲検索装置11は、検索において使用される検索軸であって、個人化された検索軸を生成する。そして、楽曲検索装置11は、検索軸をユーザ間で共有する。   As described above, the music search device 11 generates a search axis that is used in the search and is personalized. And the music search device 11 shares a search axis between users.

次に、検索軸の生成について説明する。   Next, generation of a search axis will be described.

楽曲検索装置11は、ユーザの楽曲の再生の履歴またはユーザによって入力されたフィードバックを示す値であるフィードバック値から、検索において使用される検索軸を生成する。   The music search device 11 generates a search axis used in the search from a feedback value that is a value indicating feedback input by the user or a history of playback of the user's music.

例えば、検索軸によって、楽曲が、ユーザの好きな楽曲である若しくは嫌いな楽曲であるとされるか、または楽曲の好き嫌いの程度が求められる。また、例えば、検索軸によって、楽曲が、再生の頻度が高い楽曲である若しくは低い楽曲であるとされるか、または、楽曲の再生の頻度が求められる。   For example, depending on the search axis, it is determined that the music is a music that the user likes or dislikes, or the degree of likes or dislikes of the music is required. Further, for example, the search axis determines whether the music is a music having a high or low frequency of reproduction, or the frequency of music reproduction.

さらにまた、例えば、検索軸によって、楽曲が、ユーザが最近聞いた楽曲であるまたは聞いていない楽曲であるとされる。例えば、検索軸によって、楽曲が、ユーザが週末に聞く楽曲であるまたは平日に聞く楽曲であるとされる。また、例えば、検索軸によって、楽曲が、ユーザが昼間に聞く楽曲であるまたは夜に聞く楽曲であるとされる。   Furthermore, for example, according to the search axis, it is determined that the music is music that the user has recently heard or has not heard. For example, according to the search axis, it is determined that the music is music that the user listens on the weekend or music that is heard on weekdays. Further, for example, it is assumed that the music is music that the user listens to during the day or music that is heard at night by the search axis.

図3に示されるように、検索軸学習部31は、楽曲の特徴を表す楽曲特徴量から検索軸が示す値を推定するための回帰式または判別式を、楽曲の再生の履歴またはフィードバック値と楽曲の特徴を表す楽曲特徴量とから、統計解析または機械学習などを用いて学習させることにより、検索軸を生成する。   As shown in FIG. 3, the search axis learning unit 31 uses a regression expression or discriminant for estimating a value indicated by the search axis from a music feature amount that represents the characteristics of the music, a history of music playback or a feedback value. A search axis is generated by learning from the music feature amount representing the characteristics of the music using statistical analysis or machine learning.

生成された検索軸の回帰式または判別式を、楽曲の楽曲特徴量に適用することにより、その楽曲について、検索軸が示す値が算出される。従って、再生をしていない楽曲やフィードバック値が入力されていない楽曲について、検索軸が示す値を算出することができ、この検索軸が示す値によって、楽曲を提示することができる。   By applying the generated regression equation or discriminant of the search axis to the music feature amount of the music, the value indicated by the search axis is calculated for the music. Therefore, the value indicated by the search axis can be calculated for music that has not been played back or music for which no feedback value has been input, and music can be presented according to the value indicated by the search axis.

すなわち、ユーザが、自分の所有している楽曲のうち、一部の楽曲だけを再生したり、または一部の楽曲についてのみ、フィードバック値を入力した場合であっても、ユーザによる楽曲の再生の履歴またはフィードバックから、ユーザの所有している楽曲の全部について検索軸が示す値を求めることができる。   That is, even if the user plays only some of the songs he owns or inputs a feedback value for only some of the songs, From the history or feedback, the value indicated by the search axis can be obtained for all of the songs owned by the user.

このように、1度も再生されていない楽曲やフィードバック値が入力されていない楽曲についても、回帰式または判別式で、その楽曲のメタデータから検索軸が示す値を求めることができるので、その検索軸を用いて楽曲を検索することができるようになる。   In this way, the value indicated by the search axis can be obtained from the metadata of the music by the regression equation or discriminant for the music that has never been played back or the music for which no feedback value has been input. Music can be searched using the search axis.

図4は、楽曲に対する好き嫌いの程度を5段階に示すフィードバック値から、楽曲の好き嫌いの程度を示す検索軸を生成するときの楽曲特徴量およびフィードバック値の例を示す図である。楽曲特徴量は、例えば、メタデータである。   FIG. 4 is a diagram illustrating examples of music feature amounts and feedback values when generating a search axis indicating the degree of likes / dislikes of music from feedback values indicating the degree of likes / dislikes of music in five stages. The music feature amount is, for example, metadata.

例えば、ユーザは、操作部36を操作することにより、楽曲に対する好き嫌い、すなわち楽曲の嗜好の程度を5段階に示すフィードバック値を入力する。フィードバック値は、ユーザの楽曲に対する評価である。なお、上述のようにフィードバック値は、再生履歴フィードバックデータベース35に格納される。   For example, the user operates the operation unit 36 to input feedback values indicating likes and dislikes of music, that is, the degree of preference of music in five levels. The feedback value is an evaluation of the user's music. Note that the feedback value is stored in the reproduction history feedback database 35 as described above.

図4の例における、楽曲1に対する嗜好(好き嫌い)のフィードバック値は、とても好きなことを示す5であり、楽曲2に対する嗜好のフィードバック値は、好きでも嫌いでもないことを示す3であり、楽曲3に対する嗜好のフィードバック値は、どちらかと言えば嫌いであることを示す2である。   In the example of FIG. 4, the feedback value of the preference (likes and dislikes) for the music 1 is 5 indicating that he likes very much, and the feedback value of the preference for the music 2 is 3 indicating that he does not like or dislike the music. The preference feedback value for 3 is 2 which is rather disliked.

また、図4の例における、楽曲1に対する楽曲特徴量のうちの特徴量1、特徴量2、および特徴量3のそれぞれの値は、24、74、および68であり、楽曲2に対する特徴量1、特徴量2、および特徴量3のそれぞれの値は、17、81、および50であり、楽曲3に対する特徴量1、特徴量2、および特徴量3のそれぞれの値は、33、75、および97である。   Further, in the example of FIG. 4, the values of the feature amount 1, the feature amount 2, and the feature amount 3 among the music feature amounts for the song 1 are 24, 74, and 68, respectively. , The feature value 2 and the feature value 3 are 17, 81, and 50, and the feature value 1, the feature value 2, and the feature value 3 for the music piece 3 are 33, 75, and 97.

検索軸学習部31は、例えば図4に示される楽曲のそれぞれの嗜好のフィードバック値および楽曲特徴量の値を基に、回帰式の学習を行う。   The search axis learning unit 31 learns a regression equation based on, for example, each preference feedback value and music feature value shown in FIG.

回帰式の学習には、線形回帰(重回帰分析)またはSVR(support vector regression)などの方式を用いることができる。   For learning the regression equation, a method such as linear regression (multiple regression analysis) or SVR (support vector regression) can be used.

この学習により、例えば、F(楽曲特徴量)=特徴量1×0.5+特徴量2×0.2−特徴量3×0.9+・・・+0.3などの、楽曲の好き嫌いの程度である検索軸が示す値を算出するための回帰式が求められる。すなわち、楽曲の楽曲特徴量にこの回帰式を適用することにより、好き嫌いの程度である検索軸が示すその楽曲の値が求められる。   By this learning, for example, F (music feature amount) = feature amount 1 × 0.5 + feature amount 2 × 0.2−feature amount 3 × 0.9 +. A regression equation for calculating a value indicated by a certain search axis is obtained. That is, by applying this regression formula to the music feature amount of the music, the value of the music indicated by the search axis that is the degree of likes and dislikes is obtained.

図5は、楽曲に対する好き嫌いを示す2値のフィードバック値から、楽曲をユーザの好きな楽曲であるまたは嫌いな楽曲であるとする検索軸を生成するときの楽曲特徴量およびフィードバック値の例を示す図である。   FIG. 5 shows an example of the music feature amount and feedback value when generating a search axis indicating that the music is a user's favorite or disliked music from a binary feedback value indicating likes and dislikes for the music. FIG.

例えば、ユーザは、操作部36を操作することにより、楽曲に対し、楽曲の好き嫌いを示すフィードバック値を入力する。   For example, the user inputs a feedback value indicating the likes or dislikes of the music by operating the operation unit 36.

図5の例において、嗜好のフィードバック値は、ユーザの楽曲の好きまたは嫌いの2値の値である。   In the example of FIG. 5, the preference feedback value is a binary value indicating whether the user likes or dislikes music.

図5の例における、楽曲1に対する嗜好のフィードバック値は、好きであり、楽曲2に対する嗜好のフィードバック値は、好きであり、楽曲3に対する嗜好のフィードバック値は、嫌いである。   In the example of FIG. 5, the preference feedback value for the song 1 is liked, the preference feedback value for the song 2 is liked, and the preference feedback value for the song 3 is disliked.

また、図5の例における、楽曲1に対する楽曲特徴量のうちの特徴量1、特徴量2、および特徴量3のそれぞれの値は、24、74、および68であり、楽曲2に対する特徴量1、特徴量2、および特徴量3のそれぞれの値は、17、81、および50であり、楽曲3に対する特徴量1、特徴量2、および特徴量3のそれぞれの値は、33、75、および97である。   Further, in the example of FIG. 5, the values of the feature amount 1, the feature amount 2, and the feature amount 3 among the music feature amounts for the song 1 are 24, 74, and 68, respectively. , The feature value 2 and the feature value 3 are 17, 81, and 50, and the feature value 1, the feature value 2, and the feature value 3 for the music piece 3 are 33, 75, and 97.

検索軸学習部31は、例えば図5に示される楽曲のそれぞれの嗜好のフィードバック値および楽曲特徴量の値を基に、判別式の学習を行う。   The search axis learning unit 31 learns a discriminant based on, for example, each preference feedback value and music feature value shown in FIG.

判別式の学習には、線形判別、決定木、SVM(support vector machine)、またはNaive Bayesなどの方式を用いることができる。   For discriminant learning, methods such as linear discrimination, decision tree, support vector machine (SVM), or Naive Bayes can be used.

例えば、線形判別により、F(楽曲特徴量)=特徴量1×0.5+特徴量2×0.2−特徴量3×0.9+・・・+0.3により求められたF(楽曲特徴量)が、F(楽曲特徴量)≧0.0ならばその楽曲を好き、F(楽曲特徴量)<0.0ならばその楽曲を嫌いと判別するような、楽曲をユーザの好きな楽曲であるまたは嫌いな楽曲であるとする検索軸の判別式が求められる。すなわち、楽曲の楽曲特徴量にこの判別式を適用することにより、楽曲をユーザの好きな楽曲であるまたは嫌いな楽曲であるとする検索軸が示すその楽曲の値が求められる。   For example, F (music feature value) calculated by F (music feature value) = feature value 1 × 0.5 + feature value 2 × 0.2−feature value 3 × 0.9 +. ), But if F (music feature) ≥ 0.0, I like the song, and if F (music feature) <0.0, I like or dislike the song that the user likes A discriminant for the search axis is determined to be music. That is, by applying this discriminant to the music feature amount of the music, the value of the music indicated by the search axis that the music is the music that the user likes or dislikes is obtained.

例えば、楽曲の楽曲特徴量として楽曲のメタデータを用いて回帰式または判別式を学習すれば、学習により得られた回帰式または判別式により、楽曲のメタデータから、それぞれの楽曲について検索軸が示す値を算出することができる。   For example, if the regression equation or discriminant is learned using the song metadata as the song feature quantity of the song, the search axis for each song is determined from the song metadata by the regression equation or discriminant obtained by learning. The indicated value can be calculated.

楽曲検索装置11において、ユーザは、新しい検索軸の名前と、いくつかの楽曲に対して、その検索軸に当てはまる度合いまたは当てはまるか否かのなどのフィードバック値を入力することで、自由に検索軸を生成させることができる。   In the music search device 11, the user can freely input a search axis by inputting a name of a new search axis and a feedback value such as a degree of whether or not the search axis is applied to some music. Can be generated.

なお、回帰式または判別式は、線形の式であっても、非線形の式であってもよい。   The regression equation or discriminant equation may be a linear equation or a non-linear equation.

次に、検索軸を用いた楽曲の検索について説明する。   Next, music search using the search axis will be described.

作成した検索軸を用いて楽曲を検索するには、まず、ユーザの所有する全ての楽曲について、各検索軸が示す値が計算される。   In order to search for music using the created search axes, first, the values indicated by the search axes are calculated for all the music owned by the user.

例えば、図6で示されるように、楽曲1に対する楽曲特徴量、すなわち、24である特徴量1、74である特徴量2、および68である特徴量3に、好き嫌いの程度を示す検索軸の回帰式を適用することにより、その検索軸の楽曲1の値である0.3が計算される。また、楽曲1に対する特徴量1、特徴量2、および特徴量3に、良く聴くかの程度を示す検索軸の回帰式を適用することにより、その検索軸の楽曲1の値である0.2が計算され、朝聞くかの程度を示す検索軸の回帰式を適用することにより、その検索軸の楽曲1の値である0.1が計算される。   For example, as shown in FIG. 6, the search feature indicating the degree of likes and dislikes in the feature amount of the song 1, that is, the feature amount 1 that is 24, the feature amount 2 that is 74, and the feature amount 3 that is 68. By applying the regression formula, 0.3 which is the value of the music 1 on the search axis is calculated. Further, by applying a regression equation of the search axis indicating the degree of listening well to the feature amount 1, feature amount 2, and feature amount 3 for the song 1, the value of the song 1 on the search axis is 0.2. Is applied, and a regression equation of the search axis indicating the degree of whether or not to listen in the morning is applied to calculate 0.1 which is the value of the music 1 on the search axis.

また、図6で示されるように、楽曲2に対する楽曲特徴量、すなわち、17である特徴量1、81である特徴量2、および50である特徴量3に、好き嫌いの程度を示す検索軸の回帰式を適用することにより、その検索軸の楽曲2の値である0.8が計算される。また、楽曲2に対する特徴量1、特徴量2、および特徴量3に、良く聴くかの程度を示す検索軸の回帰式を適用することにより、その検索軸の楽曲2の値である0.9が計算され、朝聞くかの程度を示す検索軸の回帰式を適用することにより、その検索軸の楽曲2の値である0.7が計算される。   Further, as shown in FIG. 6, a search axis indicating the degree of likes and dislikes for the music feature quantity for music piece 2, that is, feature quantity 1 that is 17, feature quantity 2 that is 81, and feature quantity 3 that is 50. By applying the regression equation, 0.8 which is the value of the music piece 2 on the search axis is calculated. In addition, by applying a regression equation of the search axis indicating the degree of listening well to the feature amount 1, feature amount 2, and feature amount 3 for the song 2, the value of the song 2 on the search axis is 0.9. Is applied, and the regression formula of the search axis indicating the degree of whether to listen in the morning is applied, so that 0.7, which is the value of the music piece 2 on the search axis, is calculated.

同様に、図6で示されるように、楽曲3に対する楽曲特徴量、すなわち、33である特徴量1、75である特徴量2、および97である特徴量3に、好き嫌いの程度を示す検索軸の回帰式を適用することにより、その検索軸の楽曲3の値である0.4が計算される。また、楽曲3に対する特徴量1、特徴量2、および特徴量3に、良く聴くかの程度を示す検索軸の回帰式を適用することにより、その検索軸の楽曲3の値である0.3が計算され、朝聞くかの程度を示す検索軸の回帰式を適用することにより、その検索軸の楽曲3の値である0.1が計算される。   Similarly, as shown in FIG. 6, a search axis indicating the degree of likes and dislikes for the music feature quantity for music piece 3, that is, feature quantity 1 that is 33, feature quantity 2 that is 75, and feature quantity 3 that is 97. Is applied, the value 0.4 of the music 3 on the search axis is calculated. Further, by applying a search axis regression equation indicating the degree of listening to the feature amount 1, feature amount 2, and feature amount 3 for the song 3, the value of the song 3 on the search axis is 0.3. Is applied, and the search axis regression formula indicating the degree of listening in the morning is applied to calculate 0.1, which is the value of the music piece 3 on the search axis.

それぞれの楽曲についての、それぞれの検索軸が示す値から、検索軸が示す値で記述される検索条件を基に、所望の楽曲を検索することができる。例えば、好き嫌いの程度を示す検索軸の値が0.5以上で、良く聴くかの程度を示す検索軸の値が0.4以下で、朝聞くかの程度を示す検索軸の値が0.2以上であることを検索条件として、その検索条件にあてはまる楽曲を検索することができる。   The desired music can be searched from the values indicated by the respective search axes for the respective music based on the search conditions described by the values indicated by the search axes. For example, the value of the search axis indicating the degree of likes and dislikes is 0.5 or more, the value of the search axis indicating the degree of listening well is 0.4 or less, and the value of the search axis indicating the degree of listening in the morning is 0. With the search condition being two or more, music that meets the search condition can be searched.

また、例えば、図7で示されるように、楽曲1に対する楽曲特徴量、すなわち、24である特徴量1、74である特徴量2、および68である特徴量3に、楽曲をユーザの好きな楽曲であるまたは嫌いな楽曲であるとする検索軸の判別式を適用することにより、その検索軸の楽曲1の値である”好き”、すなわち楽曲1がユーザに好かれていることを示す”好き”が計算される。また、楽曲1に対する特徴量1、特徴量2、および特徴量3に、良く聴く楽曲であるまたはあまり聴かない楽曲であるとする検索軸の判別式を適用することにより、その検索軸の楽曲1の値である”Yes”、すなわち楽曲1がユーザに良く聴かれることを示す”Yes”が計算される。また、楽曲1に対する特徴量1、特徴量2、および特徴量3に、朝聞く楽曲であるまたは朝聞かない楽曲であるとする検索軸の判別式を適用することにより、その検索軸の楽曲1の値である”No”、すなわち楽曲1がユーザに朝聞かれないことを示す”No”が計算される。   Further, for example, as shown in FIG. 7, the music feature amount for the song 1, that is, the feature amount 1 that is 24, the feature amount 2 that is 74, and the feature amount 3 that is 68, are set to the user's favorite songs. By applying a search axis discriminant that is a song or a disliked song, the value of the song 1 on the search axis is “like”, that is, the song 1 indicates that the user likes it. "Like" is calculated. Further, by applying a discriminant of a search axis that is a song that is often listened to or not much listened to to the feature amount 1, feature amount 2, and feature amount 3 for the song 1, the song 1 on the search axis is applied. "Yes", that is, "Yes" indicating that the music 1 is often listened to by the user is calculated. Further, by applying a discriminant of a search axis that is a song that is heard in the morning or a song that is not heard in the morning to the feature value 1, feature value 2, and feature value 3 for the song 1, the song 1 on the search axis is applied. Is “No”, that is, “No” indicating that the music piece 1 is not heard by the user in the morning.

なお、楽曲検索装置11は、ユーザが自分の好きな楽曲を検索したい場合、楽曲をユーザの好きな楽曲であるまたは嫌いな楽曲であるとする検索軸において、”好き”の値をとる楽曲を検索し、検索した楽曲をユーザに提示する。   When the user wants to search for his favorite music, the music search device 11 selects a music having a value of “like” on the search axis indicating that the music is a user's favorite music or a disliked music. Search and present the searched music to the user.

さらに、図7で示されるように、楽曲2に対する楽曲特徴量、すなわち、17である特徴量1、81である特徴量2、および50である特徴量3に、楽曲をユーザの好きな楽曲であるまたは嫌いな楽曲であるとする検索軸の判別式を適用することにより、その検索軸の楽曲2の値である”好き”が計算され、良く聴く楽曲であるまたはあまり聴かない楽曲であるとする検索軸の判別式を適用することにより、その検索軸の楽曲2の値である”Yes”が計算される。また、楽曲2に対する特徴量1、特徴量2、および特徴量3に、朝聞く楽曲であるまたは朝聞かない楽曲であるとする検索軸の判別式を適用することにより、その検索軸の楽曲2の値である”Yes”、すなわち楽曲1がユーザに朝聞かれることを示す”Yes”が計算される。   Further, as shown in FIG. 7, the music feature amount for the music piece 2, that is, the feature amount 1 that is 17, the feature amount 2 that is 81, and the feature amount 3 that is 50, is the music that the user likes. By applying the search axis discriminant that the song is a certain or disliked song, the value of “song 2” on the search axis is calculated and “like” is calculated. By applying the search axis discriminant, “Yes”, which is the value of the music 2 of the search axis, is calculated. Further, by applying a discriminant of a search axis that is a song that is heard in the morning or a song that is not heard in the morning to the feature value 1, the feature value 2, and the feature value 3 for the song 2, the song 2 on the search axis is applied. Value “Yes”, that is, “Yes” indicating that the music 1 is heard by the user in the morning is calculated.

同様に、図7で示されるように、楽曲3に対する楽曲特徴量、すなわち、33である特徴量1、75である特徴量2、および97である特徴量3に、楽曲をユーザの好きな楽曲であるまたは嫌いな楽曲であるとする検索軸の判別式を適用することにより、その検索軸の楽曲1の値である”嫌い”、すなわち楽曲1がユーザに嫌われていることを示す”嫌い”が計算される。また、楽曲3に対する特徴量1、特徴量2、および特徴量3に、良く聴く楽曲であるまたはあまり聴かない楽曲であるとする検索軸の判別式を適用することにより、その検索軸の楽曲3の値である”No”、すなわち楽曲3がユーザにあまり聴かれないことを示す”No”が計算される。また、楽曲3に対する特徴量1、特徴量2、および特徴量3に、朝聞く楽曲であるまたは朝聞かない楽曲であるとする検索軸の判別式を適用することにより、その検索軸の楽曲3の値である”No”が計算される。   Similarly, as shown in FIG. 7, the music feature amount for the music piece 3, that is, the feature amount 1 which is 33, the feature amount 2 which is 75, and the feature amount 3 which is 97, By applying the search axis discriminant that the music is a dislike or dislike, the value of the music 1 on the search axis is “dislike”, that is, the dislike of the music 1 is disliked by the user "Is calculated. Further, by applying a discriminant of a search axis that is a song that is often listened to or not much listened to to the feature amount 1, feature amount 2, and feature amount 3 for the song 3, the song 3 on the search axis is applied. Is “No”, that is, “No” indicating that the user does not listen to the music 3 very much. Further, by applying a search axis discriminant that is a song to be heard in the morning or a song to be heard in the morning to the feature value 1, feature value 2, and feature value 3 for the song 3, the song 3 on the search axis is applied. The value “No” is calculated.

この場合も、それぞれの楽曲についての、それぞれの検索軸が示す値から、検索軸が示す値で記述される検索条件を基に、所望の楽曲を検索することができる。すなわち、各検索軸に当てはまる楽曲または当てはまらない楽曲を検索することが可能になる。   Also in this case, it is possible to search for a desired music piece based on the search condition described by the value indicated by the search axis from the value indicated by the search axis for each music piece. In other words, it is possible to search for music that applies to or does not apply to each search axis.

例えば、楽曲をユーザの好きな楽曲であるまたは嫌いな楽曲であるとする検索軸が示す値が”好き”であることを検索条件として、その検索条件にあてはまる、ユーザに好かれている(と予測される)楽曲を検索することができる。また、例えば、良く聴く楽曲であるまたはあまり聴かない楽曲であるとする検索軸が示す値が”No”であることを検索条件として、その検索条件にあてはまる、ユーザにあまり聴かれない楽曲を検索することができる。   For example, a search condition that the value indicated by the search axis indicating that the music is a user's favorite music or a disliked music is “like”, and the search condition is satisfied by the user ( (Predicted) music can be searched. In addition, for example, a search condition that the value indicated by the search axis indicating that it is a song that is often listened to or not listened to much is “No”, and a search condition that is not often heard by the user is searched. can do.

図8は、図2に示される構成のうち、検索軸を学習する構成を示すブロック図である。   FIG. 8 is a block diagram showing a configuration for learning a search axis among the configurations shown in FIG.

検索軸を学習する場合、図8に示されるように、まず、学習用データ生成部34は、再生履歴フィードバックデータベース35から、ユーザによる楽曲の再生の履歴、またはユーザの楽曲に対する評価であるフィードバック値を取得する。   When learning the search axis, as shown in FIG. 8, first, the learning data generation unit 34 searches the reproduction history feedback database 35 for a reproduction history of the music by the user or a feedback value that is an evaluation of the user's music. To get.

学習用データ生成部34は、ユーザによる楽曲の再生の履歴、またはユーザの楽曲に対する評価であるフィードバック値から、生成しようとする検索軸の学習に不要なデータを取り除いて、学習用データを生成する。   The learning data generation unit 34 generates learning data by removing data unnecessary for learning of a search axis to be generated from a history of reproduction of music by a user or a feedback value that is an evaluation of the user's music. .

図9乃至図12を参照して、学習用データの生成を説明する。   The generation of learning data will be described with reference to FIGS.

図9は、ユーザによる楽曲の再生の履歴の例を示す図である。ユーザによる楽曲の再生の履歴(のデータ)は、ユーザが楽曲を再生させたり、再生に関する操作を行った履歴を示す。   FIG. 9 is a diagram illustrating an example of a history of music playback by the user. The history of music playback by the user (data) indicates a history of the user playing back music or performing operations related to playback.

例えば、図9に示される、ユーザによる楽曲の再生の履歴は、楽曲1が、2006年9月7日の14時4分に、再生され、楽曲2が、2006年9月7日の14時8分に、再生され、楽曲3が、2006年9月7日の14時13分に、再生され、楽曲3が、2006年9月7日の14時15分に、スキップされ、楽曲4が、2006年9月7日の14時15分に、再生され、楽曲4の再生が、2006年9月7日の14時18分に、停止されたことを示す。   For example, as shown in FIG. 9, the user's reproduction history of music is that music 1 is reproduced at 14:04 on September 7, 2006, and music 2 is reproduced at 14:00 on September 7, 2006. Played at 8 minutes, song 3 was played at 14:13 on September 7, 2006, song 3 was skipped at 14:15 on September 7, 2006, and song 4 was played , Played at 14:15 on September 7, 2006, indicating that playback of song 4 was stopped at 14:18 on September 7, 2006.

図10は、ユーザの楽曲に対する評価であるフィードバック値の例を示す図である。フィードバック値は、ユーザが楽曲に対して行った明示的なフィードバックを記憶したものである。すなわち、フィードバック値は、楽曲に対する、明示的なユーザの評価を示す。   FIG. 10 is a diagram illustrating an example of a feedback value that is an evaluation of a user's music. The feedback value stores explicit feedback given to the music by the user. That is, the feedback value indicates an explicit user evaluation of the music.

図10の例に示される、面白いかのフィードバック値、両親用かのフィードバック値、および古いかのフィードバック値のそれぞれの、面白いか、両親用か、または古いかの種類は、ユーザ自身によって設定されたものである。   The types of funny, parental or old feedback values shown in the example of FIG. 10 are set by the user himself / herself. It is a thing.

図10の例における、楽曲1に対する好き嫌いのフィードバック値は、とても好きなことを示す5であり、楽曲2に対する好き嫌いのフィードバック値は、好きでも嫌いでもないことを示す3であり、楽曲4に対する好き嫌いのフィードバック値は、とても嫌いであることを示す1であり、楽曲5に対する好き嫌いのフィードバック値は、とても好きなことを示す5であり、楽曲6に対する好き嫌いのフィードバック値は、どちらかと言えば好きであることを示す4である。   In the example of FIG. 10, the feedback value for likes and dislikes for the song 1 is 5 indicating that he likes very much, the feedback value for likes and dislikes for the song 2 is 3 indicating that he does not like and dislikes, and likes and dislikes for the song 4. The feedback value of 1 is 1 indicating that he / she is very disliked, the feedback value of likes / dislikes for song 5 is 5 indicating that he / she likes very much, and the feedback value of likes / dislikes for song 6 is rather like It is 4 which shows that there is.

なお、図10の例において、楽曲3に対する好き嫌いのフィードバック値は、入力されていない。   In the example of FIG. 10, the feedback value for likes and dislikes for the music 3 is not input.

図10の例における、楽曲1に対する面白いかのフィードバック値は、まあまあ面白いことを示す3であり、楽曲2に対する面白いかのフィードバック値は、全くつまらないことを示す1であり、楽曲3に対する面白いかのフィードバック値は、とても面白いことを示す5であり、楽曲6に対する面白いかのフィードバック値は、面白いことを示す4である。   In the example of FIG. 10, the interesting feedback value for song 1 is 3 indicating that it is so interesting, and the interesting feedback value for song 2 is 1 indicating that it is not very interesting. The feedback value is 5 indicating very interesting, and the feedback value indicating whether the music 6 is interesting is 4 indicating interesting.

なお、図10の例において、楽曲4および楽曲5に対する面白いかのフィードバック値は、入力されていない。   In the example of FIG. 10, interesting feedback values for music 4 and music 5 are not input.

図10の例における、楽曲1に対する両親用かのフィードバック値は、全く両親用ではないことを示す1であり、楽曲2に対する両親用かのフィードバック値は、あまり両親用ではないことを示す2であり、楽曲4に対する両親用かのフィードバック値は、両親用であることを示す5であり、楽曲5に対する両親用かのフィードバック値は、全く両親用ではないことを示す1である。   In the example of FIG. 10, the feedback value for the parent for the music 1 is 1 indicating that it is not for parents at all, and the feedback value for the parent for the music 2 is 2 indicating that it is not very for parents. Yes, the feedback value for the parent of the music 4 is 5 indicating that it is for the parent, and the feedback value for the parent of the music 5 is 1 indicating that it is not for the parent at all.

なお、図10の例において、楽曲3および楽曲6に対する両親用かのフィードバック値は、入力されていない。   In the example of FIG. 10, the feedback value for the parents for music 3 and music 6 is not input.

図10の例における、楽曲2に対する古いかのフィードバック値は、まあまあ古いことを示す3であり、楽曲3に対する古いかのフィードバック値は、全く古くないことを示す1であり、楽曲4に対する古いかのフィードバック値は、1であり、楽曲6に対する古いかのフィードバック値は、少し古いことを示す2である。   In the example of FIG. 10, the old feedback value for music 2 is 3 indicating that it is fairly old, the old feedback value for music 3 is 1 indicating that it is not very old, and the old value for music 4 is old. The feedback value is 1 and the feedback value for the song 6 is 2 indicating a little old.

なお、図10の例において、楽曲1および楽曲5に対する古いかのフィードバック値は、入力されていない。   In the example of FIG. 10, old feedback values for music 1 and music 5 are not input.

例えば、学習用データ生成部34は、図9のユーザによる楽曲の再生の履歴、または図10のフィードバック値から、学習用データを生成する。   For example, the learning data generation unit 34 generates learning data from the history of music playback by the user in FIG. 9 or the feedback value in FIG.

図11は、学習用データ生成部34のよって生成される学習用データの例を示す図である。   FIG. 11 is a diagram illustrating an example of learning data generated by the learning data generation unit 34.

学習用データは、検索軸の回帰式または判別式を学習させるためのデータである。例えば、学習用データは、楽曲を識別するための楽曲IDと正解データとからなるリストのデータである。   The learning data is data for learning the regression equation or discriminant of the search axis. For example, the learning data is data of a list including a music ID for identifying music and correct answer data.

図11に示される例は、楽曲1を識別するための楽曲IDと5である正解データとが対応付けられ、楽曲3を識別するための楽曲IDと4である正解データとが対応付けられ、楽曲6を識別するための楽曲IDと2である正解データとが対応付けられ、楽曲12を識別するための楽曲IDと3である正解データとが対応付けられ、楽曲16を識別するための楽曲IDと1である正解データとが対応付けられたリストの学習用データである。   In the example shown in FIG. 11, the song ID for identifying the song 1 is associated with the correct data that is 5, the song ID for identifying the song 3 is associated with the correct data that is 4, A music ID for identifying the music 6 and the correct answer data 2 are associated with each other, a music ID for identifying the music 12 and the correct data 3 are associated with each other, and the music for identifying the music 16 This is learning data for a list in which an ID and correct answer data of 1 are associated with each other.

例えば、図11に示される学習用データの例において、それぞれの正解データは、対応付けられている楽曲IDで特定される楽曲に対するユーザの好き嫌い、面白いか、両親用か、または古いかなどのいずれかを示す。   For example, in the example of the learning data shown in FIG. 11, each correct answer data indicates whether the user likes or dislikes the song specified by the associated song ID, whether it is funny, parental, or old. Indicate.

より具体的には、例えば、ユーザの好き嫌いを示す5である正解データは、対応付けられている楽曲IDで特定される楽曲をユーザがとても好きであることを示し、ユーザの好き嫌いを示す4である正解データは、対応付けられている楽曲IDで特定される楽曲をユーザがどちらかと言えば好きであることを示す。また、ユーザの好き嫌いを示す3である正解データは、対応付けられている楽曲IDで特定される楽曲をユーザが好きでも嫌いでもないことを示し、ユーザの好き嫌いを示す2である正解データは、対応付けられている楽曲IDで特定される楽曲をユーザがどちらかと言えば嫌いであることを示し、ユーザの好き嫌いを示す1である正解データは、対応付けられている楽曲IDで特定される楽曲をユーザがとても嫌いであることを示す。   More specifically, for example, the correct answer data which is 5 indicating the likes and dislikes of the user indicates that the user likes the music specified by the associated music ID very much and is 4 indicating the likes and dislikes of the user. Certain correct answer data indicates that the user likes the music specified by the associated music ID. In addition, the correct answer data that is 3 indicating the user's likes and dislikes indicates that the user does not like or dislike the music specified by the associated music ID, and the correct answer data that is 2 that indicates the likes or dislikes of the user is The correct answer data, which is 1 indicating the user's likes and dislikes, indicates that the user does not like the song identified by the associated song ID. The song identified by the associated song ID Indicates that the user is very disliked.

例えば、学習用データ生成部34は、図10に示されるフィードバック値から、1つの種類のフィードバック値と、それに対応する楽曲IDとを抽出する。そして、学習用データ生成部34は、抽出した結果からフィードバック値が空である楽曲IDを削除する。さらに、学習用データ生成部34は、楽曲IDに対応するフィードバック値を正解データとすることにより、学習用データを生成する。   For example, the learning data generation unit 34 extracts one type of feedback value and the corresponding music ID from the feedback value shown in FIG. Then, the learning data generation unit 34 deletes the music ID whose feedback value is empty from the extracted result. Further, the learning data generation unit 34 generates learning data by using the feedback value corresponding to the music ID as correct data.

図12は、ユーザによる楽曲の再生の履歴からの学習用データの生成を説明する図である。   FIG. 12 is a diagram for explaining generation of learning data from a music reproduction history by a user.

学習用データ生成部34は、ユーザによる楽曲の再生の履歴から、楽曲を識別するための楽曲IDと楽曲IDで識別される楽曲が最近再生されたか否かを示す正解データとからなるリストである学習用データを生成する。   The learning data generation unit 34 is a list composed of a song ID for identifying a song and correct data indicating whether or not the song identified by the song ID has recently been played from the history of playing the song by the user. Generate learning data.

例えば、2006年9月7日15時0分現在における履歴であって、楽曲1が、2006年9月7日の14時4分に、再生され、楽曲2が、2006年9月7日の14時8分に、再生され、楽曲3が、2006年9月7日の14時13分に、再生され、楽曲3が、2006年9月7日の14時15分に、スキップされ、楽曲4が、2006年9月7日の14時15分に、再生され、楽曲4の再生が、2006年9月7日の14時18分に、停止されたことを示す、ユーザによる楽曲の再生の履歴から、学習用データ生成部34は、楽曲1を識別するための楽曲IDと、楽曲1が最近再生されたことを示す正解データ(True)とが対応付けられ、楽曲2を識別するための楽曲IDと、楽曲2が最近再生されたことを示す正解データ(True)とが対応付けられ、楽曲3を識別するための楽曲IDと、楽曲3が最近再生されたことを示す正解データ(True)とが対応付けられ、楽曲4を識別するための楽曲IDと、楽曲4が最近再生されたことを示す正解データ(True)とが対応付けられ、楽曲5を識別するための楽曲IDと、楽曲5が最近再生されていないことを示す正解データ(False)とが対応付けられ、楽曲6を識別するための楽曲IDと、楽曲6が最近再生されていないことを示す正解データ(False)とが対応付けられているリストである学習用データを生成する。   For example, in the history as of 17:00 on September 7, 2006, the music 1 is reproduced at 14:04 on September 7, 2006, and the music 2 is played on September 7, 2006. Played at 14: 8, song 3 was played at 14:13 on September 7, 2006, song 3 was skipped at 14:15 on September 7, 2006, and song 3 4 is played at 14:15 on September 7, 2006, and the playback of the song 4 by the user indicating that the playback of song 4 is stopped at 14:18 on September 7, 2006 The learning data generation unit 34 associates the song ID for identifying the song 1 with the correct data (True) indicating that the song 1 has been recently played, and identifies the song 2 from the history of Is associated with the correct answer data (True) indicating that song 2 was recently played. Thus, the music ID for identifying the music 3 is associated with the correct answer data (True) indicating that the music 3 has recently been reproduced, and the music ID for identifying the music 4 and the music 4 have recently been reproduced. Is associated with correct data (True) indicating that the music has been performed, and is associated with music ID for identifying the music 5 and correct data (False) indicating that the music 5 has not been reproduced recently. The learning data, which is a list in which the song ID for identifying the song 6 and the correct answer data (False) indicating that the song 6 has not been reproduced recently, are associated with each other.

図12に示される学習用データは、例えば、最近再生した楽曲であるまたは最近再生していない楽曲であるとする検索軸を生成する場合に、生成される。   The learning data shown in FIG. 12 is generated, for example, when generating a search axis indicating that the music is recently played back or is not played back recently.

図8に戻り、学習用データ生成部34は、このような学習用データを生成して、生成した学習用データを検索軸学習部31に供給する。   Returning to FIG. 8, the learning data generation unit 34 generates such learning data and supplies the generated learning data to the search axis learning unit 31.

検索軸学習部31は、それぞれの楽曲の楽曲特徴量を特徴量データベース32から取得して、学習用データと楽曲特徴量とから、検索軸の回帰式または判別式を学習する。   The search axis learning unit 31 acquires the music feature amount of each piece of music from the feature amount database 32 and learns the regression equation or discriminant of the search axis from the learning data and the music feature amount.

例えば、図13に示されるように、検索軸学習部31は、少なくとも、楽曲1を識別するための楽曲IDと、楽曲1がユーザに好かれていることを示す正解データ(True)とが対応付けられ、楽曲2を識別するための楽曲IDと、楽曲2がユーザに好かれていることを示す正解データ(True)とが対応付けられ、楽曲3を識別するための楽曲IDと、楽曲3がユーザに好かれていることを示す正解データ(True)とが対応付けられ、楽曲4を識別するための楽曲IDと、楽曲4がユーザに好かれていることを示す正解データ(True)とが対応付けられ、楽曲5を識別するための楽曲IDと、楽曲5がユーザに好かれていないことを示す正解データ(False)とが対応付けられ、楽曲6を識別するための楽曲IDと、楽曲6がユーザに好かれていないことを示す正解データ(False)とが対応付けられているリストである学習用データ、並びに楽曲1についての15である特徴量1および94である特徴量2、楽曲2についての36である特徴量1および29である特徴量2、楽曲3についての75である特徴量1および85である特徴量2、楽曲4についての96である特徴量1および71である特徴量2、楽曲5についての24である特徴量1および53である特徴量2、楽曲6についての46である特徴量1および0である特徴量2を含む楽曲特徴量から、式(1)、式(2)、および式(3)に示される、楽曲をユーザの好きな楽曲であるまたは嫌いな楽曲であるとする検索軸の判別式を学習する。   For example, as shown in FIG. 13, the search axis learning unit 31 corresponds to at least a music ID for identifying the music 1 and correct data (True) indicating that the music 1 is favored by the user. The music ID for identifying the music 2 is associated with the music ID for identifying the music 2 and the correct data (True) indicating that the music 2 is favored by the user. Is associated with correct data (True) indicating that the music is liked by the user, and a music ID for identifying the music 4 and correct data (True) indicating that the music 4 is liked by the user. Is associated with the song ID for identifying the song 5 and the correct answer data (False) indicating that the song 5 is not preferred by the user, and the song ID for identifying the song 6; Correct answer date indicating that song 6 is not liked by the user (False) is a learning data that is a list associated with the learning data, and the feature amount 1 and 94 are the feature amount 1 and 94 for the song 1, and the feature amount 1 and 29 are 36 for the song 2. Feature amount 2, feature amount 1 which is 75 for song 3, feature amount 2 which is 85, feature amount 1 and 71 which is 96 for song 4, feature amount 2 which is 24 for song 5, feature amount 1 which is 24 for song 5 Are expressed in Equation (1), Equation (2), and Equation (3) from the feature amount 2 including feature amount 2 that is 53 and 53, and feature amount 1 that is 46 and feature amount 2 that is 0. The discriminant of the search axis is learned that the music is the music that the user likes or dislikes.

F(楽曲特徴量)= 特徴量1×0.5+特徴量2×0.2−特徴量3×0.9+・・・+0.3 ・・・(1)
F(楽曲特徴量)≧0.0 → Yes ・・・(2)
F(楽曲特徴量)<0.0 → No ・・・(3)
F (musical feature amount) = feature amount 1 × 0.5 + feature amount 2 × 0.2−feature amount 3 × 0.9 +... +0.3 (1)
F (music feature) ≧ 0.0 → Yes ・ ・ ・ (2)
F (music feature) <0.0 → No (3)

なお、式(2)は、式(1)により求められたF(楽曲特徴量)が、F(楽曲特徴量)≧0.0の条件を満たすならば、ユーザがその楽曲を好きであると判別することを示す。また、式(3)は、式(1)により求められたF(楽曲特徴量)が、F(楽曲特徴量)<0.0の条件を満たすならば、ユーザがその楽曲を嫌いであると判別することを示す。   It should be noted that the equation (2) determines that the user likes the song if F (music feature value) obtained by the equation (1) satisfies the condition of F (music feature value) ≧ 0.0. It shows that. Further, the expression (3) determines that the user dislikes the music if F (musical feature quantity) obtained by the expression (1) satisfies the condition of F (musical feature quantity) <0.0. It shows that.

このように、例えば、検索軸学習部31は、楽曲特徴量およびユーザによる楽曲の再生の履歴またはユーザの楽曲に対する評価から、検索軸が示す値を楽曲特徴量から算出するための回帰式を学習によって求めることにより、検索軸を生成する。または、例えば、検索軸学習部31は、楽曲特徴量およびユーザによる楽曲の再生の履歴またはユーザの楽曲に対する評価から、検索軸が示す値を楽曲特徴量から算出するための判別式を学習によって求めることにより、検索軸を生成する。   Thus, for example, the search axis learning unit 31 learns a regression equation for calculating the value indicated by the search axis from the music feature quantity from the music feature quantity and the history of the music reproduction by the user or the evaluation of the user's music. To obtain a search axis. Alternatively, for example, the search axis learning unit 31 obtains, by learning, a discriminant for calculating the value indicated by the search axis from the music feature value based on the music feature value and the history of the user's music reproduction or the evaluation of the user's music. Thus, a search axis is generated.

検索軸学習部31は、作成した検索軸を検索軸データベース33に供給する。検索軸データベース33は、検索軸学習部31から供給された検索軸を格納する。すなわち、検索軸学習部31は、作成した回帰式または判別式を検索軸データベース33に供給し、検索軸データベース33は、回帰式または判別式を格納する。   The search axis learning unit 31 supplies the created search axis to the search axis database 33. The search axis database 33 stores the search axes supplied from the search axis learning unit 31. That is, the search axis learning unit 31 supplies the created regression equation or discriminant to the search axis database 33, and the search axis database 33 stores the regression equation or discriminant.

図14は、検索軸の学習の処理を説明するフローチャートである。ステップS11において、検索軸学習部31は、学習する検索軸を決定する。例えば、検索軸学習部31は、操作部36へのユーザの操作に応じて操作部36から供給される信号で示される検索軸を、学習する検索軸に決定する。   FIG. 14 is a flowchart for explaining search axis learning processing. In step S11, the search axis learning unit 31 determines a search axis to be learned. For example, the search axis learning unit 31 determines a search axis indicated by a signal supplied from the operation unit 36 according to a user operation on the operation unit 36 as a search axis to be learned.

ステップS12において、学習用データ生成部34は、ユーザによる楽曲の再生の履歴またはユーザの楽曲に対する評価であるフィードバック値から学習用データを作成する。例えば、学習用データ生成部34は、再生履歴フィードバックデータベース35から、ユーザによる楽曲の再生の履歴およびフィードバック値を取得する。そして、学習用データ生成部34は、ユーザによる楽曲の再生の履歴またはフィードバック値から、楽曲を識別するための楽曲IDと対応する正解データとからなる学習用データを作成する。   In step S <b> 12, the learning data generation unit 34 generates learning data from a feedback history that is an evaluation of a user's music reproduction history or a user's music. For example, the learning data generation unit 34 acquires a reproduction history and feedback value of the music played by the user from the reproduction history feedback database 35. Then, the learning data generation unit 34 creates learning data composed of a music ID for identifying a music piece and correct data corresponding to the music piece from a history of reproducing the music piece by the user or a feedback value.

ステップS13において、検索軸学習部31は、学習に用いる楽曲の楽曲特徴量を特徴量データベース32から取得する。   In step S <b> 13, the search axis learning unit 31 acquires the music feature quantity of the music used for learning from the feature quantity database 32.

ステップS14において、検索軸学習部31は、学習用データおよび楽曲特徴量から、ステップS11で決定した検索軸の回帰式または判別式を学習する。例えば、検索軸学習部31は、線形判別、決定木、SVM、またはNaive Bayesなどの方式により、判別式を学習する。また、例えば、検索軸学習部31は、線形回帰(重回帰分析)またはSVRなどの方式により、回帰式を学習する。   In step S14, the search axis learning unit 31 learns the regression equation or discriminant of the search axis determined in step S11 from the learning data and the music feature amount. For example, the search axis learning unit 31 learns a discriminant by a method such as linear discrimination, decision tree, SVM, or Naive Bayes. Further, for example, the search axis learning unit 31 learns a regression equation by a method such as linear regression (multiple regression analysis) or SVR.

ステップS15において、検索軸学習部31は、学習した検索軸の回帰式または判別式を検索軸データベース33に保存する。   In step S <b> 15, the search axis learning unit 31 stores the learned regression formula or discriminant of the search axis in the search axis database 33.

ステップS16において、検索軸学習部31は、全ての検索軸を学習したか否かを判定し、全ての検索軸を学習していないと判定された場合、ステップS11に戻り、上述した処理を繰り返す。   In step S16, the search axis learning unit 31 determines whether or not all the search axes have been learned. If it is determined that all the search axes have not been learned, the search axis learning unit 31 returns to step S11 and repeats the above-described processing. .

ステップS16において、全ての検索軸を学習したと判定された場合、検索軸の学習の処理は終了する。   If it is determined in step S16 that all search axes have been learned, the search axis learning process ends.

このように、楽曲検索装置11は、コンテンツを提示する基準となる軸を学習することができる。   In this way, the music search device 11 can learn an axis serving as a reference for presenting content.

すなわち、楽曲検索装置11は、コンテンツを提示する基準となる検索軸であって、ユーザに対する情報により生成された検索軸をユーザに対する情報により学習することができる。また、楽曲検索装置11は、コンテンツを提示する基準となる検索軸であって、コンテンツの特徴量およびユーザによるコンテンツの再生の履歴またはユーザのコンテンツに対する評価により定められる検索軸を学習によって生成することができる。   In other words, the music search device 11 can learn a search axis that is a reference for presenting content and is generated based on information for the user based on information for the user. Further, the music search device 11 generates a search axis that serves as a reference for presenting the content and is determined by learning based on the feature amount of the content and the history of content playback by the user or the user's evaluation of the content. Can do.

次に、検索軸を用いた楽曲の検索について説明する。   Next, music search using the search axis will be described.

図15で示されるように、回帰式による検索軸を、2次元以上の空間のそれぞれの軸として用い、この空間に楽曲をマッピングすることにより、感覚的な検索が可能なユーザインタフェースを提供することができる。この場合、楽曲を空間にマッピングするとは、楽曲毎にそれぞれの検索軸が示す値を算出して、算出された値で示される空間上の位置を楽曲について特定することを意味する。その空間を表示する場合、表示されている空間上の特定された位置に、楽曲を示す画像、例えば、丸やバツなどの印やアイコンなどが表示される。   As shown in FIG. 15, a search interface based on a regression equation is used as each axis of a space of two or more dimensions, and music is mapped to this space, thereby providing a user interface capable of sensory search. Can do. In this case, mapping a song to a space means calculating a value indicated by each search axis for each song and specifying a position in the space indicated by the calculated value for the song. When displaying the space, an image indicating a music piece, for example, a mark such as a circle or cross, an icon, or the like is displayed at a specified position in the displayed space.

このようにすることで、ユーザは、2つ以上の検索軸による楽曲の提示を一目で知ることができる。   By doing in this way, the user can know at a glance presentation of music by two or more search axes.

例えば、図15で示されるように、回帰式による検索軸で表現される2次元以上の空間であって、表示されている空間における範囲を指定することにより、この範囲に検索軸の値の属する楽曲が検索される。より具体的には、好き嫌いの程度を示す検索軸において、好きの範囲であって、良く聞くかの程度を示す検索軸において、あまり聞かないの範囲を指定することにより、普段あまり聞かない曲であって、好きそうな曲が検索される。   For example, as shown in FIG. 15, a space of two or more dimensions expressed by a search axis based on a regression equation, and by specifying a range in the displayed space, the value of the search axis belongs to this range. Music is searched. More specifically, in the search axis that shows the degree of likes and dislikes, by specifying the range that you like and that you do not hear much on the search axis that shows the degree of listening well, There is a search for songs you like.

さらに、楽曲検索装置11は、その楽曲検索装置11のユーザの再生の履歴やフィードバックにより生成されたユーザの検索軸だけでなく、他のユーザの検索軸を用いて楽曲を検索することができる。   Further, the music search device 11 can search for music using not only the user search axis generated by the user's playback history and feedback of the music search device 11 but also the search axes of other users.

例えば、楽曲検索装置11は、ユーザの好きな楽曲であって、他のユーザであるAさんの好きな楽曲を検索することができる。また、例えば、楽曲検索装置11は、他のユーザであるAさんが朝聞く楽曲を検索することができる。さらに、例えば、楽曲検索装置11は、ユーザの好きな楽曲であって、他のユーザであるBさんの週末によく聞く楽曲を検索することができる。   For example, the music search device 11 can search for a user's favorite music and a user A's favorite music. Further, for example, the music search device 11 can search for music that Mr. A who is another user listens in the morning. Furthermore, for example, the music search device 11 can search for music that the user likes and that is often heard on the weekend of B, another user.

これにより、ユーザは、例えば、好みの共通点や相違点など、所望の他のユーザとの共通点や相違点を知ることができる。   Thereby, the user can know a common point and difference with other desired users, such as a favorite common point and a difference, for example.

この場合、例えば、図16で示されるように、回帰式による検索軸であって、他のユーザに対する情報により生成された検索軸を空間の軸として用い、この空間に楽曲がマッピングされる。   In this case, for example, as shown in FIG. 16, a search axis based on a regression equation, which is generated based on information for other users, is used as a space axis, and music is mapped in this space.

例えば、ユーザの好き嫌いの程度を示す検索軸と、他のユーザであるAさんの好き嫌いの程度を示す検索軸とを、2次元の空間のそれぞれの次元の軸として用い、この空間に楽曲がマッピングされる。この場合、例えば、ユーザの好き嫌いの程度を示す検索軸と、他のユーザであるAさんの好き嫌いの程度を示す検索軸との双方において、好きの範囲が指定されると、自分もAさんも好きそうな曲が検索される。   For example, a search axis indicating the degree of likes and dislikes of a user and a search axis indicating the degree of likes and dislikes of another user A are used as axes of respective dimensions of a two-dimensional space, and music is mapped in this space. Is done. In this case, for example, if a favorite range is specified in both the search axis indicating the degree of likes and dislikes of the user and the search axis indicating the degree of likes and dislikes of the other user A, Search for songs you like.

図17は、図2に示される構成のうち、検索軸を使って検索を行う構成を示すブロック図である。   FIG. 17 is a block diagram showing a configuration for performing a search using a search axis among the configurations shown in FIG.

検索軸を使って検索を行う場合、ユーザが操作部36を操作して、検索に用いる検索軸を指示すると、操作部36は、ユーザのその操作に応じて、検索に用いる検索軸を示す検索軸情報を検索軸取得部37に供給する。図17に示されるように、検索軸取得部37は、検索軸情報で示される検索軸を検索軸データベース33または他ユーザ検索軸データベース38から取得する。   When a search is performed using a search axis, when the user operates the operation unit 36 to indicate a search axis used for the search, the operation unit 36 performs a search indicating the search axis used for the search in accordance with the user's operation. The axis information is supplied to the search axis acquisition unit 37. As shown in FIG. 17, the search axis acquisition unit 37 acquires the search axis indicated by the search axis information from the search axis database 33 or the other user search axis database 38.

例えば、図18で示されるように、操作部36から、「良く聴く曲」および「Aさんの好きな曲」を示す検索軸情報が供給された場合、検索軸取得部37は、「良く聴く曲」である名前の検索軸である、良く聴くかの程度を示す検索軸(図18の良く聴く曲軸)を検索軸データベース33から取得し、また、「Aさんの好きな曲」である名前の検索軸である、他のユーザであるAさんの好き嫌いの程度を示す検索軸(図18のAさんの好きな曲軸)を他ユーザ検索軸データベース38から取得する。   For example, as shown in FIG. 18, when search axis information indicating “a song that is often listened to” and “a song that Mr. A likes” is supplied from the operation unit 36, the search axis acquisition unit 37 reads “ The search axis of the name “Song”, the search axis indicating the degree of listening well (the song axis of FIG. 18) is acquired from the search axis database 33, and the name “Song A's favorite song” is also obtained. A search axis (a favorite music axis of Mr. A in FIG. 18) indicating the degree of likes and dislikes of A who is another user is acquired from the other user search axis database 38.

すなわち、この場合、検索軸取得部37は、「良く聴く曲」である名前の検索軸である、良く聴くかの程度を示す検索軸の回帰式を検索軸データベース33から取得し、また、「Aさんの好きな曲」である名前の検索軸である、他のユーザであるAさんの好き嫌いの程度を示す検索軸の回帰式を他ユーザ検索軸データベース38から取得する。   That is, in this case, the search axis acquisition unit 37 acquires the search axis regression expression indicating the degree of whether or not to listen well, which is the search axis of the name “songs that are often listened to”, from the search axis database 33. A search axis regression formula indicating the degree of likes and dislikes of other user A, who is the search axis with the name “A's favorite song”, is acquired from the other user search axis database 38.

検索軸取得部37は、取得した検索軸を検索軸値計算部39に供給する。   The search axis acquisition unit 37 supplies the acquired search axis to the search axis value calculation unit 39.

検索軸値計算部39は、特徴量データベース32からユーザの楽曲の楽曲特徴量を取得し、他ユーザ特徴量データベース40から他のユーザの楽曲の楽曲特徴量を取得する。   The search axis value calculation unit 39 acquires the music feature value of the user's music from the feature data database 32 and acquires the music feature value of the music of another user from the other user feature data database 40.

そして、検索軸値計算部39は、検索軸取得部37から供給された検索軸について、検索軸が示す値を、楽曲特徴量から計算する。   Then, the search axis value calculation unit 39 calculates the value indicated by the search axis for the search axis supplied from the search axis acquisition unit 37 from the music feature amount.

例えば、図19に示されるように、検索軸値計算部39は、15である特徴量1および94である特徴量2を含む楽曲1の楽曲特徴量に、良く聴くかの程度を示す検索軸の回帰式と、他のユーザであるAさんの好き嫌いの程度を示す検索軸の回帰式とをそれぞれ適用することにより、楽曲1についての、良く聴くかの程度を示す検索軸の5である値と、他のユーザであるAさんの好き嫌いの程度を示す検索軸の3である値を計算する。   For example, as shown in FIG. 19, the search axis value calculation unit 39 is a search axis that indicates the degree to which the music feature quantity of the music piece 1 including the feature quantity 1 that is 15 and the feature quantity 2 that is 94 is heard well. And a search axis regression expression that indicates the degree of likes and dislikes of other user A, respectively, and a value that is 5 of the search axis that indicates the degree of listening well for song 1 Then, a value that is 3 of the search axis indicating the degree of likes and dislikes of other user A is calculated.

また、検索軸値計算部39は、36である特徴量1および29である特徴量2を含む楽曲2の楽曲特徴量に、良く聴くかの程度を示す検索軸の回帰式と、他のユーザであるAさんの好き嫌いの程度を示す検索軸の回帰式とをそれぞれ適用することにより、楽曲2についての、良く聴くかの程度を示す検索軸の1である値と、他のユーザであるAさんの好き嫌いの程度を示す検索軸の2である値を計算する。   In addition, the search axis value calculation unit 39 uses a search axis regression formula indicating the degree of listening to the music feature quantity of the music piece 2 including the feature quantity 1 which is 36 and the feature quantity 2 which is 29, and other users. By applying the search axis regression expression indicating the degree of likes and dislikes of Mr. A, the value that is 1 on the search axis indicating the degree of whether or not the song 2 is listened well and the other user A Calculate a value that is 2 on the search axis indicating the degree of likes and dislikes.

同様に、検索軸値計算部39は、楽曲3乃至楽曲6のそれぞれの楽曲特徴量に、良く聴くかの程度を示す検索軸の回帰式と、他のユーザであるAさんの好き嫌いの程度を示す検索軸の回帰式とをそれぞれ適用することにより、楽曲3乃至楽曲6のそれぞれについての、良く聴くかの程度を示す検索軸の値と、他のユーザであるAさんの好き嫌いの程度を示す検索軸の値を計算する。   Similarly, the search axis value calculation unit 39 calculates the regression equation of the search axis indicating the degree of listening well to the music feature quantities of the music pieces 3 to 6 and the degree of likes and dislikes of A who is another user. By applying each of the search axis regression equations shown, the values of the search axis indicating the degree of listening well for each of the music pieces 3 to 6 and the degree of likes and dislikes of the other user A are shown. Calculate the value of the search axis.

検索軸値計算部39は、計算して求めた楽曲毎の検索軸毎の値を該当楽曲選別部41に供給する。   The search axis value calculation unit 39 supplies the corresponding song selection unit 41 with the value for each search axis calculated for each song.

該当楽曲選別部41は、楽曲毎の検索軸毎の値から、検索条件に当てはまる楽曲を選別する。   The corresponding music selection unit 41 selects the music that matches the search condition from the value of each search axis for each music.

例えば、図20に示されるように、該当楽曲選別部41は、検索範囲として、良く聴くかの程度を示す検索軸の値が3以上であって、他のユーザであるAさんの好き嫌いの程度を示す検索軸の値が3以上であることを示す検索条件が、操作部36から供給された場合、楽曲1乃至楽曲6のそれぞれの、良く聴くかの程度を示す検索軸の値が、それぞれ、5、1、3、2、4、または4であり、楽曲1乃至楽曲6のそれぞれの、他のユーザであるAさんの好き嫌いの程度を示す検索軸の値が、それぞれ、3、2、5、4、2、または3であるとき、良く聴くかの程度を示す検索軸の値が3以上で、かつ他のユーザであるAさんの好き嫌いの程度を示す検索軸の値が3以上である、楽曲1、楽曲3、楽曲5、および楽曲6を選別(選択)する。   For example, as shown in FIG. 20, the corresponding music selection unit 41 has a search axis value of 3 or more indicating the degree of listening well as the search range, and the degree of likes and dislikes of A who is another user When the search condition indicating that the value of the search axis indicating 3 or more is supplied from the operation unit 36, the values of the search axes indicating the degree of whether each of the music pieces 1 to 6 is listened well are respectively 5, 1, 3, 2, 4, or 4, and the values of the search axes indicating the degree of likes and dislikes of the other user A of each of the music 1 to 6 are 3 When it is 5, 4, 2, or 3, the value of the search axis indicating the degree of listening well is 3 or more, and the value of the search axis indicating the degree of likes / dislikes of other user A is 3 or more A certain song 1, song 3, song 5, and song 6 are selected (selected).

該当楽曲選別部41は、選別した楽曲を示す該当楽曲リストをコンテンツ再生部42に出力する。例えば、該当楽曲選別部41は、再生する楽曲を示すプレイリストである該当楽曲リストを出力する。   The corresponding music selection unit 41 outputs a corresponding music list indicating the selected music to the content reproduction unit 42. For example, the corresponding music selection unit 41 outputs a corresponding music list that is a playlist indicating the music to be reproduced.

コンテンツ再生部42は、該当楽曲選別部41から供給された該当楽曲リストに示される楽曲をコンテンツデータベース43から読み出して、再生し、出力する。   The content playback unit 42 reads the music shown in the corresponding music list supplied from the corresponding music selection unit 41 from the content database 43, plays it, and outputs it.

図21は、検索軸を使った検索の処理を説明するフローチャートである。ステップS31において、検索軸取得部37は、検索に使用する検索軸を、検索軸データベース33または他ユーザ検索軸データベース38から取得する。すなわち、例えば、検索軸取得部37は、操作部36からの検索軸情報で示される検索軸の回帰式または判別式を、検索軸データベース33または他ユーザ検索軸データベース38から取得する。   FIG. 21 is a flowchart for explaining search processing using a search axis. In step S <b> 31, the search axis acquisition unit 37 acquires a search axis used for the search from the search axis database 33 or the other user search axis database 38. That is, for example, the search axis acquisition unit 37 acquires the regression equation or discriminant of the search axis indicated by the search axis information from the operation unit 36 from the search axis database 33 or the other user search axis database 38.

例えば、ステップS31において、検索軸取得部37は、検索に使用する2つの検索軸のうちの1つを、検索軸データベース33から取得し、他の1つを他ユーザ検索軸データベース38から取得する。   For example, in step S <b> 31, the search axis acquisition unit 37 acquires one of the two search axes used for the search from the search axis database 33 and acquires the other one from the other user search axis database 38. .

ステップS32において、検索軸値計算部39は、特徴量データベース32からユーザの楽曲の楽曲特徴量を取得して、他ユーザ特徴量データベース40から他のユーザの楽曲の楽曲特徴量を取得して、取得した楽曲特徴量から全ての楽曲の検索軸の値を計算する。例えば、検索軸値計算部39は、取得した楽曲特徴量に、検索に使用する検索軸の回帰式または判別式を適用することにより、検索に使用する検索軸が示す値を計算する。   In step S <b> 32, the search axis value calculation unit 39 acquires the music feature amount of the user's music from the feature amount database 32, acquires the music feature amount of the other user's music from the other user feature amount database 40, and The search axis value of all the music is calculated from the acquired music feature. For example, the search axis value calculation unit 39 calculates a value indicated by the search axis used for the search by applying a regression equation or a discriminant of the search axis used for the search to the acquired music feature amount.

例えば、ステップS31において、検索軸取得部37は、検索に使用する2つの検索軸のうちの1つを、検索軸データベース33から取得し、他の1つを他ユーザ検索軸データベース38から取得し、ステップS32において、検索軸値計算部39は、特徴量データベース32からユーザの楽曲の楽曲特徴量だけを取得して、取得した楽曲特徴量から全ての楽曲の検索軸が示す値を計算してもよい。このようにすることで、ユーザは、自分の所有する楽曲について、自分の検索軸が示す値と他のユーザの検索軸が示す値とを知ることができる。   For example, in step S31, the search axis acquisition unit 37 acquires one of two search axes used for the search from the search axis database 33, and acquires the other one from the other user search axis database 38. In step S32, the search axis value calculation unit 39 obtains only the music feature quantity of the user's music from the feature quantity database 32, and calculates the values indicated by the search axes of all the music pieces from the obtained music feature quantity. Also good. By doing in this way, the user can know the value indicated by the user's search axis and the value indicated by the search axis of another user for the music owned by the user.

逆に、例えば、ステップS31において、検索軸取得部37は、検索に使用する2つの検索軸のうちの1つを、検索軸データベース33から取得し、他の1つを他ユーザ検索軸データベース38から取得し、ステップS32において、検索軸値計算部39は、他ユーザ特徴量データベース40から他のユーザの楽曲の楽曲特徴量だけを取得して、取得した楽曲特徴量から全ての楽曲の検索軸が示す値を計算してもよい。このようにすることで、ユーザは、他のユーザの所有する楽曲について、自分の検索軸が示す値と他のユーザの検索軸が示す値とを知ることができる。   On the other hand, for example, in step S31, the search axis acquisition unit 37 acquires one of the two search axes used for the search from the search axis database 33 and the other one as the other user search axis database 38. In step S32, the search axis value calculation unit 39 acquires only the music feature quantity of the music of another user from the other user feature quantity database 40, and searches the search axis of all the music from the acquired music feature quantity. The value indicated by may be calculated. By doing in this way, the user can know the value indicated by his / her own search axis and the value indicated by the other user's search axis for music owned by other users.

ステップS33において、該当楽曲選別部41は、検索に使用する検索軸の値と検索条件とから、楽曲が検索条件に当てはまるか否かを判定する。   In step S <b> 33, the corresponding music selection unit 41 determines whether the music satisfies the search condition from the value of the search axis used for the search and the search condition.

ステップS33において、楽曲が検索条件に当てはまると判定された場合、手続きはステップS34に進み、ステップS34において、該当楽曲選別部41は、検索条件に当てはまると判定された楽曲をコンテンツ再生部42に再生させて出力させる。   If it is determined in step S33 that the music matches the search condition, the procedure proceeds to step S34. In step S34, the corresponding music selection unit 41 reproduces the music determined to satisfy the search condition on the content reproduction unit 42. To output.

そして、手続きは、ステップS35に進む。例えば、ステップS34において、コンテンツ再生部42は、検索条件に当てはまると判定された楽曲をコンテンツデータベース43から読み出して、再生し、出力する。   Then, the procedure proceeds to step S35. For example, in step S34, the content reproduction unit 42 reads out, reproduces, and outputs the music determined to satisfy the search condition from the content database 43.

なお、検索条件に当てはまるか否かが判定される楽曲が、他のユーザの楽曲である場合、楽曲の再生はスキップされる。この場合、例えば、他のユーザの楽曲の試聴用のデータをネットワーク13を介してサーバ12から取得して、その楽曲を再生するようにしてもよい。   When the music for which it is determined whether or not the search condition is met is a music of another user, the reproduction of the music is skipped. In this case, for example, data for trial listening of the music of another user may be acquired from the server 12 via the network 13 and the music may be reproduced.

ステップS33において、楽曲が検索条件に当てはまらないと判定された場合、ステップS34はスキップされて、手続きは、ステップS35に進む。   If it is determined in step S33 that the music does not meet the search condition, step S34 is skipped and the procedure proceeds to step S35.

ステップS35において、該当楽曲選別部41は、全ての楽曲を判別したか否かを判定し、全ての楽曲を判別していないと判定された場合、ステップS33に戻り、次の楽曲について、上述した処理を繰り返す。   In step S35, the corresponding music selection unit 41 determines whether or not all the music pieces have been discriminated. If it is determined that all the music pieces have not been discriminated, the process returns to step S33, and the next music piece has been described above. Repeat the process.

ステップS35において、全ての楽曲を判別したと判定された場合、検索軸を使った検索の処理は終了する。   If it is determined in step S35 that all the music pieces have been determined, the search process using the search axis ends.

また、ユーザに対する情報により生成された検索軸と、他のユーザに対する情報により生成された検索軸との類似度を計算し、類似する複数の検索軸を基準としてコンテンツの提示を表示することもできる。   It is also possible to calculate the similarity between a search axis generated based on information for a user and a search axis generated based on information for other users, and display the content presentation based on a plurality of similar search axes. .

検索軸の類似度は、ユーザの所有する全ての楽曲について、それぞれの検索軸が示す値を計算し、検索軸が示す値の類似度を計算することにより求められる。検索軸比較部44は、ユーザの所有する全ての楽曲について、それぞれの検索軸が示す値を計算し、検索軸が示す値の類似度を計算し、その結果を、検索軸の類似度とする。   The similarity of the search axis is obtained by calculating the value indicated by each search axis and calculating the similarity of the value indicated by the search axis for all songs owned by the user. The search axis comparison unit 44 calculates the value indicated by each search axis for all songs owned by the user, calculates the similarity of the value indicated by the search axis, and sets the result as the similarity of the search axis. .

まず、回帰式により検索軸が示す値が推定される場合について説明する。   First, the case where the value indicated by the search axis is estimated from the regression equation will be described.

検索軸の類似度を計算する場合、図22に示されるように、ユーザの所有する楽曲が、全部で、楽曲1乃至楽曲8であるとき、まず、楽曲1乃至楽曲8のそれぞれについて、ユーザに対する情報により生成された1つ目の検索軸である、好き嫌いの程度を示す検索軸の値が求められ、他のユーザに対する情報により生成された2つ目の検索軸である、再生の頻度を示す検索軸の値が求められる。   When calculating the similarity of the search axes, as shown in FIG. 22, when the music pieces owned by the user are music 1 to music 8 in total, first, for each of music 1 to music 8, The search axis value indicating the degree of likes and dislikes, which is the first search axis generated by information, is obtained, and the second search axis generated by information for other users indicates the frequency of reproduction. The search axis value is determined.

すなわち、図22の例に示されるように、楽曲1乃至楽曲8についての、好き嫌いの程度を示す検索軸の値は、それぞれ、0.5,0.4,0.1,0.2,0.4,0.3,0.2,0.5である。これらの値は、楽曲1乃至楽曲8の楽曲特徴量に、好き嫌いの程度を示す検索軸の値を推定するための回帰式を適用することにより算出される。   That is, as shown in the example of FIG. 22, the values of the search axes indicating the degree of likes and dislikes for music 1 to music 8 are 0.5, 0.4, 0.1, 0.2, 0.4, 0.3, 0.2, and 0.5, respectively. . These values are calculated by applying a regression equation for estimating the value of the search axis indicating the degree of likes and dislikes to the music feature quantities of music 1 to music 8.

また、楽曲1乃至楽曲8についての、再生の頻度を示す検索軸の値は、それぞれ、0.2,0.5,0.4,0.1,0.2,0.5,0.2,0.4である。これらの値は、楽曲1乃至楽曲8の楽曲特徴量に、再生の頻度を示す検索軸の値を推定するための回帰式を適用することにより算出される。   The search axis values indicating the frequency of reproduction for music 1 to music 8 are 0.2, 0.5, 0.4, 0.1, 0.2, 0.5, 0.2, and 0.4, respectively. These values are calculated by applying a regression equation for estimating the value of the search axis indicating the frequency of reproduction to the music feature quantities of the music pieces 1 to 8.

そして、検索軸の値の類似度として、楽曲1乃至楽曲8のそれぞれについての、好き嫌いの程度を示す検索軸が示す値と、再生の頻度を示す検索軸の値との相関係数が計算される。   Then, as the similarity of the search axis values, the correlation coefficient between the value indicated by the search axis indicating the degree of likes and dislikes and the search axis value indicating the frequency of reproduction for each of the music pieces 1 to 8 is calculated. The

例えば、好き嫌いの程度を示す検索軸の楽曲1乃至楽曲8についての8つの値からなる嗜好ベクトルと、再生の頻度を示す検索軸の楽曲1乃至楽曲8についての8つの値からなる再生頻度ベクトルとの相関係数が計算され、その相関係数が、好き嫌いの程度を示す検索軸と再生の頻度を示す検索軸との類似度とされる。   For example, a preference vector composed of eight values for music 1 to music 8 on the search axis indicating the degree of likes and dislikes, and a reproduction frequency vector composed of eight values for music 1 to music 8 on the search axis indicating the frequency of reproduction. The correlation coefficient is calculated as the similarity between the search axis indicating the degree of likes and dislikes and the search axis indicating the frequency of reproduction.

嗜好ベクトルと再生頻度ベクトルとの相関係数が0.1である場合、好き嫌いの程度を示す検索軸と再生の頻度を示す検索軸との類似度は、0.1とされる。   When the correlation coefficient between the preference vector and the reproduction frequency vector is 0.1, the similarity between the search axis indicating the degree of likes and dislikes and the search axis indicating the reproduction frequency is set to 0.1.

次に、判別式により検索軸が示す値が推定される場合について説明する。   Next, a case where the value indicated by the search axis is estimated from the discriminant will be described.

検索軸の類似度を計算する場合、図23に示されるように、ユーザの所有する楽曲が、全部で、楽曲1乃至楽曲8であるとき、まず、楽曲1乃至楽曲8のそれぞれについて、ユーザに対する情報により生成された1つ目の検索軸である、好きな楽曲であるまたは嫌いな楽曲であるとする検索軸が示す値が求められ、他のユーザに対する情報により生成された2つ目の検索軸である、良く聴く楽曲であるまたはあまり聴かない楽曲であるとする検索軸が示す値が求められる。   When calculating the similarity of the search axes, as shown in FIG. 23, when the music pieces owned by the user are music 1 to music 8 in total, first, for each of music 1 to music 8, The second search generated by the information for other users, which is the first search axis generated by the information, the value indicated by the search axis indicating that it is a favorite song or a disliked song is obtained. The value indicated by the search axis, which is an axis, a song that is often listened to, or a song that is not often listened to is obtained.

すなわち、図23に示される例において、楽曲1乃至楽曲8についての、好きな楽曲であるまたは嫌いな楽曲であるとする検索軸の値は、それぞれ、Yes,Yes,No,No,Yes,No,No,Yesである。これらの値は、楽曲1乃至楽曲8の楽曲特徴量に、好きな楽曲であるまたは嫌いな楽曲であるとする検索軸の値を推定するための判別式を適用することにより算出される。   That is, in the example shown in FIG. 23, the values of the search axes for music 1 to music 8 that are favorite music or dislike music are Yes, Yes, No, No, Yes, No, respectively. , No, Yes. These values are calculated by applying a discriminant for estimating the value of the search axis that is a favorite song or a dislike song to the song feature amounts of the songs 1 to 8.

また、楽曲1乃至楽曲8についての、良く聴く楽曲であるまたはあまり聴かない楽曲であるとする検索軸の値は、それぞれ、No,Yes,Yes,No,No,Yes,No,Yesである。これらの値は、楽曲1乃至楽曲8の楽曲特徴量に、良く聴く楽曲であるまたはあまり聴かない楽曲であるとする検索軸の値を推定するための判別式を適用することにより算出される。   Further, the values of the search axes for the music 1 to the music 8 that are frequently listened music or music that is not often listened to are No, Yes, Yes, No, No, Yes, No, Yes. These values are calculated by applying a discriminant for estimating the value of the search axis that is a song that is often heard or a song that is not often heard to the song feature amounts of the songs 1 to 8.

そして、検索軸の値の類似度として、楽曲1乃至楽曲8のそれぞれについての、好きな楽曲であるまたは嫌いな楽曲であるとする検索軸の値と、良く聴く楽曲であるまたはあまり聴かない楽曲であるとする検索軸の値との一致率が計算される。例えば、一致率は、検索軸の値が一致した楽曲の数を、検索軸の値が一致するか比較される楽曲の数で割り算した結果とされる。   Then, as the similarity of the search axis value, for each of the songs 1 to 8, the search axis value that is a favorite song or a dislike song, and a song that is often listened to or not listened to much A match rate with the value of the search axis is calculated. For example, the coincidence rate is the result of dividing the number of songs whose search axis values match by the number of songs whose search axis values match or are compared.

より具体的には、楽曲1についての、好きな楽曲であるまたは嫌いな楽曲であるとする検索軸の値は、Yesであり、良く聴く楽曲であるまたはあまり聴かない楽曲であるとする検索軸の値は、Noであり、楽曲1についての、それぞれの検索軸の値は、一致していない。また、楽曲2についての、好きな楽曲であるまたは嫌いな楽曲であるとする検索軸の値は、Yesであり、良く聴く楽曲であるまたはあまり聴かない楽曲であるとする検索軸の値は、Yesであり、楽曲2についての、それぞれの検索軸の値は、一致している。   More specifically, the value of the search axis for the song 1 that is a favorite song or a dislike song is Yes, and a search axis that is a song that is often listened to or not much listened to. The value of No is No, and the values of the respective search axes for music 1 do not match. In addition, the value of the search axis for the music 2 that is a favorite music or a dislike music is Yes, and the value of the search axis that is a music that is often listened to or is not much listened to is Yes, and the values of the respective search axes for music 2 are the same.

図23に示される例において、楽曲1乃至楽曲8の8曲のうち、楽曲2、楽曲4、楽曲7、および楽曲8の4曲についての、それぞれの検索軸の値が一致しているので、4曲/8曲から、一致率は、0.50である。   In the example shown in FIG. 23, the search axis values for the four pieces of the music piece 2, the music piece 4, the music piece 7, and the music piece 8 out of the eight pieces of the music pieces 1 to 8 are the same. From 4 songs / 8 songs, the match rate is 0.50.

例えば、好きな楽曲であるまたは嫌いな楽曲であるとする検索軸の楽曲1乃至楽曲8についての8つの値からなる「好き」ベクトルと、良く聴く楽曲であるまたはあまり聴かない楽曲であるとする検索軸の楽曲1乃至楽曲8についての8つの値からなる「よく聴く」ベクトルとの一致率が計算され、その一致率が、好きな楽曲であるまたは嫌いな楽曲であるとする検索軸と良く聴く楽曲であるまたはあまり聴かない楽曲であるとする検索軸との類似度とされる。   For example, it is assumed that the “favorite” vector consisting of eight values for the music 1 to music 8 on the search axis that is a favorite music or a dislike music and a music that is often listened to or not listened to much. The match rate with the “well listened” vector consisting of 8 values for the music 1 to 8 on the search axis is calculated, and the match rate is good with the search axis indicating that it is a favorite song or a dislike song. The similarity to the search axis indicating that the song is a song to be listened to or a song to be listened to rarely.

「好き」ベクトルと「よく聴く」ベクトルとの一致率が0.50である場合、好きな楽曲であるまたは嫌いな楽曲であるとする検索軸と良く聴く楽曲であるまたはあまり聴かない楽曲であるとする検索軸との類似度は、0.50とされる。   If the match rate between the “Like” vector and the “Frequently Listen” vector is 0.50, it is assumed that the song is a favorite song or a dislike song and a song that is often listened to or not listened to much. The similarity with the search axis is 0.50.

なお、回帰式によりその値が推定される検索軸と、判別式によりその値が検索される検索軸との類似度を求める場合、回帰式により推定した検索軸が示す値が、予め定めた閾値と比較されることにより、2値とされてから、一致率が計算され、その一致率が検索軸の類似度とされる。   When the similarity between the search axis whose value is estimated by the regression equation and the search axis whose value is searched by the discriminant is obtained, the value indicated by the search axis estimated by the regression equation is a predetermined threshold value. Are compared with each other to obtain a binary value, and then the coincidence rate is calculated, and the coincidence rate is used as the similarity of the search axes.

このように、検索軸比較部44は、検索軸の類似度を求める。   Thus, the search axis comparison unit 44 calculates the similarity of the search axes.

検索軸比較部44は、ユーザに対する情報により生成された検索軸の全てと、比較の対象となる他のユーザに対する情報により生成された検索軸の全てとの類似度を計算する。   The search axis comparison unit 44 calculates the similarity between all of the search axes generated based on the information for the user and all of the search axes generated based on the information for the other users to be compared.

例えば、図24で示されるように、好き嫌いの程度を示す検索軸、再生の頻度を示す検索軸、センスがいいまたはそうでないとする検索軸、激しさを示す検索軸などの、ユーザの検索軸のそれぞれと、好き嫌いの程度を示す検索軸、再生の頻度を示す検索軸、名曲であるまたはそうでないとする検索軸、癒されるまたはそうでないとする検索軸などの、対象となる他のユーザの検索軸のそれぞれとの類似度が計算される。   For example, as shown in FIG. 24, a user's search axis such as a search axis indicating the degree of likes and dislikes, a search axis indicating the frequency of playback, a search axis indicating good or bad sense, a search axis indicating intensity, etc. And other search targets such as a search axis that indicates the level of likes and dislikes, a search axis that indicates the frequency of playback, a search axis that is or is not a famous song, a search axis that is or is not healed, etc. The similarity with each of the search axes is calculated.

例えば、図24で示されるように、検索軸比較部44は、ユーザに対する情報により生成された検索軸である、好き嫌いの程度を示す検索軸と、対象となる他のユーザに対する情報により生成された検索軸である、好き嫌いの程度を示す検索軸との0.5である類似度を計算する。また、検索軸比較部44は、ユーザに対する情報により生成された検索軸である、好き嫌いの程度を示す検索軸と、対象となる他のユーザに対する情報により生成された検索軸である、再生の頻度を示す検索軸との0.8である類似度を計算する。同様に、検索軸比較部44は、ユーザに対する情報により生成された検索軸である、好き嫌いの程度を示す検索軸と、対象となる他のユーザに対する情報により生成された検索軸である、名曲であるまたはそうでないとする検索軸または癒されるまたはそうでないとする検索軸とのそれぞれ0.9または0.6である類似度を計算する。   For example, as shown in FIG. 24, the search axis comparison unit 44 is a search axis generated based on information for the user, and is generated based on a search axis indicating the degree of likes and dislikes and information for other target users. The similarity that is 0.5 with the search axis indicating the degree of likes and dislikes is calculated. In addition, the search axis comparison unit 44 is a search axis generated by information for a user, a search axis indicating the degree of likes and dislikes, and a search axis generated by information for another target user. The similarity that is 0.8 with the search axis indicating is calculated. Similarly, the search axis comparison unit 44 is a search axis generated by information for users, a search axis indicating the degree of likes and dislikes, and a search axis generated by information for other target users. Calculate a similarity that is 0.9 or 0.6 with the search axis that is or is not or the search axis that is or is not healed, respectively.

さらに、図24で示されるように、検索軸比較部44は、ユーザに対する情報により生成された検索軸である、再生の頻度を示す検索軸と、対象となる他のユーザに対する情報により生成された検索軸である、好き嫌いの程度を示す検索軸、再生の頻度を示す検索軸、名曲であるまたはそうでないとする検索軸、または癒されるまたはそうでないとする検索軸とのそれぞれ0.4,0.5,0.9、または0.5である類似度を計算する。   Furthermore, as shown in FIG. 24, the search axis comparison unit 44 is generated by a search axis indicating the frequency of reproduction, which is a search axis generated by information for the user, and information for other target users. 0.4, 0.5, and 0.9, respectively, a search axis that indicates the degree of likes and dislikes, a search axis that indicates the frequency of playback, a search axis that is famous or not, or a search axis that is or is not healed , Or calculate a similarity that is 0.5.

また、図24で示されるように、検索軸比較部44は、ユーザに対する情報により生成された検索軸である、センスがいいまたはそうでないとする検索軸と、対象となる他のユーザに対する情報により生成された検索軸である、好き嫌いの程度を示す検索軸、再生の頻度を示す検索軸、名曲であるまたはそうでないとする検索軸、または癒されるまたはそうでないとする検索軸とのそれぞれ0.7,0.6,0.4、または0.1である類似度を計算する。   Further, as shown in FIG. 24, the search axis comparison unit 44 is based on a search axis generated based on information for a user, a search axis that has a good or no sense, and information for another target user. 0.7, each of the generated search axes, the search axis indicating the degree of likes and dislikes, the search axis indicating the frequency of playback, the search axis that is or is not a masterpiece, or the search axis that is or is not healed Calculate the similarity that is 0.6, 0.4, or 0.1.

さらにまた、図24で示されるように、検索軸比較部44は、ユーザに対する情報により生成された検索軸である、激しさを示す検索軸と、対象となる他のユーザに対する情報により生成された検索軸である、好き嫌いの程度を示す検索軸、再生の頻度を示す検索軸、名曲であるまたはそうでないとする検索軸、または癒されるまたはそうでないとする検索軸とのそれぞれ0.5,0.9,0.3、または0.8である類似度を計算する。   Furthermore, as shown in FIG. 24, the search axis comparison unit 44 is generated based on the search axis indicating the intensity, which is a search axis generated based on information for the user, and information for other target users. A search axis that indicates the degree of likes and dislikes, a search axis that indicates the frequency of playback, a search axis that is or is not a masterpiece, or a search axis that is or is not healed, respectively. Or calculate a similarity that is 0.8.

検索軸比較部44において、検索軸の類似度が計算されると、表示部45が、類似度の高い検索軸をユーザに提示する。   When the search axis comparison unit 44 calculates the similarity of the search axes, the display unit 45 presents a search axis having a high similarity to the user.

例えば、より大きい値の類似度がよる類似していることを示す場合、計算された検索軸の類似度のうち、最も大きい類似度、予め定めた所定の閾値より大きい類似度、または大きい順に予め定めた数の類似度が選択されて、表示部45により、選択された類似度の検索軸が、類似する検索軸としてユーザに提示される。   For example, in the case of indicating that the similarity of a larger value is similar, among the calculated similarities of the search axes, the highest similarity, the similarity greater than a predetermined threshold value, or in advance in descending order. A predetermined number of similarities are selected, and the display unit 45 presents the selected similarity search axis to the user as a similar search axis.

より具体的には、図24で示される検索軸の類似度が計算されると、図25で示されるように、最も大きい0.9である類似度が選択されて、ユーザに対する情報により生成された検索軸である、好き嫌いの程度を示す検索軸と、対象となる他のユーザに対する情報により生成された検索軸である、名曲であるまたはそうでないとする検索軸とが、類似する検索軸としてユーザに提示される。   More specifically, when the similarity of the search axes shown in FIG. 24 is calculated, as shown in FIG. 25, the highest similarity that is 0.9 is selected and a search generated based on information for the user. The search axis that indicates the degree of likes and dislikes that is the axis, and the search axis that is a search axis that is generated based on information for the other target users, or a search axis that is a famous song or not, is similar to the user. Presented.

対象となる他のユーザがAさんである場合、このとき、「あなたの好きな曲は、Aさんにとって名曲です。」などのメッセージを表示部45に表示するようにしてもよい。   When the target other user is Mr. A, at this time, a message such as “Your favorite song is a famous song for Mr. A” may be displayed on the display unit 45.

また、ユーザに対する情報により生成された検索軸である、再生の頻度を示す検索軸と、対象となる他のユーザに対する情報により生成された検索軸である、名曲であるまたはそうでないとする検索軸とが、類似する検索軸としてユーザに提示される。   In addition, a search axis indicating the frequency of reproduction, which is a search axis generated by information for the user, and a search axis generated by information for other target users, a search axis which is a famous song or not Are presented to the user as similar search axes.

さらにまた、ユーザに対する情報により生成された検索軸である、激しさを示す検索軸と、対象となる他のユーザに対する情報により生成された検索軸である、再生の頻度を示す検索軸とが、類似する検索軸としてユーザに提示される。   Furthermore, a search axis indicating the intensity, which is a search axis generated based on information for the user, and a search axis indicating the frequency of reproduction, which is a search axis generated based on information for other target users, It is presented to the user as a similar search axis.

対象となる他のユーザがAさんである場合、このとき、「あなたが激しいと思う曲は、Aさんが頻繁に再生しています。」などのメッセージを表示部45に表示するようにしてもよい。   When the target other user is Mr. A, at this time, a message such as “Mr. A frequently plays songs that you think is intense” may be displayed on the display unit 45. Good.

なお、このメッセージは、メッセージのひな形を予め記憶し、このひな形に、検索軸の名前から抽出した単語を挿入することにより生成される。   This message is generated by storing a message template in advance and inserting a word extracted from the name of the search axis into this template.

また、ユーザに対する情報により生成された検索軸と他のユーザに対する情報により生成された検索軸とのうち、相反する検索軸をユーザに提示するようにしてもよい。例えば、正または負の値の相関値を検索軸の類似度とする場合、計算された検索軸の負の値の類似度のうち、絶対値の最も大きい類似度を選択して、表示部45により、選択された類似度の検索軸を、ユーザに提示するようにしてもよい。   Moreover, you may make it show to a user the search axis which conflicts among the search axes produced | generated by the information with respect to a user, and the search axes produced | generated by the information with respect to another user. For example, when the correlation value of the positive or negative value is used as the similarity of the search axis, the similarity having the largest absolute value is selected from the calculated similarities of the negative value of the search axis, and the display unit 45 Thus, the search axis of the selected similarity may be presented to the user.

さらに、ユーザに対する情報により生成された検索軸と他のユーザに対する情報により生成された検索軸とのうち、関連のない検索軸をユーザに提示するようにしてもよい。例えば、相関値を検索軸の類似度とする場合、計算された検索軸の類似度のうち、絶対値の最も小さい類似度を選択して、表示部45により、選択された類似度の検索軸を、ユーザに提示するようにしてもよい。   Further, an unrelated search axis may be presented to the user among a search axis generated based on information for the user and a search axis generated based on information for another user. For example, when the correlation value is the similarity of the search axis, the similarity with the smallest absolute value is selected from the calculated similarities of the search axis, and the search axis of the selected similarity is displayed by the display unit 45. May be presented to the user.

さらにまた、ユーザに対する情報により生成された検索軸と他のユーザに対する情報により生成された検索軸とのうち、同様の検索軸同士、すなわち、異なるユーザに対する情報により生成された同様の検索軸同士、例えば、ユーザと他のユーザの、好き嫌いの程度を示す検索軸、またはユーザと他のユーザの、名曲であるまたはそうでないとする検索軸の類似度を求めて、表示部45により、異なるユーザに対する情報により生成された同様の検索軸の類似度を提示させるようにしてもよい。   Furthermore, among search axes generated by information for users and search axes generated by information for other users, similar search axes, that is, similar search axes generated by information for different users, For example, a search axis indicating the degree of likes and dislikes of the user and other users, or the similarity between the search axis of the user and other users that is or is not a masterpiece, and the display unit 45 is used for different users. You may make it show the similarity of the similar search axis produced | generated by information.

類似する検索軸をユーザに提示する場合、表示部45は、2次元以上の空間であって、その各軸を検索軸とした空間において、その空間の軸とされている、楽曲の位置の表示の用いる検索軸を示す画像に、この検索軸に類似する検索軸を示す画像を、薄く重ねて表示する。   When a similar search axis is presented to the user, the display unit 45 displays the position of the music, which is a two-dimensional or higher space, and is the axis of the space in the space where each axis is the search axis. An image showing a search axis similar to this search axis is displayed in a thinly superimposed manner on the image showing the search axis used by the.

図26に示されるように、表示部45は、ユーザに対する情報により生成された検索軸である、好き嫌いの程度を示す検索軸を示す画像と、他のユーザのAさんに対する情報により生成された、好き嫌いの程度を示す検索軸を示す画像とをそれぞれ、図26の実線で示されるように、2次元の空間の軸として濃く表示する。   As shown in FIG. 26, the display unit 45 is a search axis generated based on information for the user, an image showing a search axis indicating the degree of likes and dislikes, and information generated for other user A's information. Each of the images indicating the search axes indicating the degree of likes and dislikes is displayed darkly as an axis of a two-dimensional space, as indicated by a solid line in FIG.

表示部45は、それぞれの楽曲についての、ユーザに対する情報により生成された検索軸である、好き嫌いの程度を示す検索軸が示す値と、他のユーザのAさんに対する情報により生成された、好き嫌いの程度を示す検索軸が示す値とから決められる2次元の空間上の位置に、それぞれの楽曲を示す丸などの記号を表示する。   The display unit 45 is a search axis generated by information for each user for each piece of music, the value indicated by the search axis indicating the degree of likes and dislikes, and the likes and dislikes generated by information about other users A A symbol such as a circle indicating each piece of music is displayed at a position in a two-dimensional space determined from the value indicated by the search axis indicating the degree.

さらに、表示部45は、ユーザに対する情報により生成された検索軸である、好き嫌いの程度を示す検索軸に類似する、他のユーザのAさんに対する情報により生成された検索軸である、名曲であるまたはそうでないとする検索軸を示す画像を、図26の点線で示されるように、2次元の空間上に薄く表示する。   Furthermore, the display unit 45 is a famous song that is a search axis generated by information for another user A, similar to a search axis indicating the degree of likes and dislikes, which is a search axis generated by information for the user. Alternatively, an image indicating a search axis that is not so is displayed lightly on a two-dimensional space as indicated by a dotted line in FIG.

また、表示部45は、他のユーザのAさんに対する情報により生成された検索軸である、好き嫌いの程度を示す検索軸に類似する、ユーザに対する情報により生成された検索軸である、センスがいいまたはそうでないとする検索軸を示す画像を、図26の点線で示されるように、2次元の空間上に薄く表示する。   Further, the display unit 45 is a search axis generated by information for a user similar to a search axis indicating a degree of likes and dislikes, which is a search axis generated by information for another user A, and has a good sense. Alternatively, an image indicating a search axis that is not so is displayed lightly on a two-dimensional space as indicated by a dotted line in FIG.

なお、楽曲を提示する2次元以上の空間において軸とされている検索軸に対する、これに類似する検索軸の傾きは、その類似度により決められる。例えば、相関値である類似度が算出された場合、基準となる軸またはこれに直交する軸に対する、類似する検索軸の傾きは、類似度とされる。具体的には、0.8である相関値である類似度が算出された場合、基準となる軸に直交する軸に対する、類似する検索軸の傾きは、0.8とされる。また、-0.2である相関値である類似度が算出された場合、基準となる軸に対する、類似する検索軸の傾きは、-0.2とされる。また、例えば、類似度が0乃至1の値であり、より大きい類似度がより類似していることを示す場合、楽曲を提示する2次元以上の空間において軸とされている検索軸に対する、これに類似する検索軸の角度は、tan-1(1-類似度)で求められる。   Note that the inclination of a search axis similar to the search axis that is the axis in a two-dimensional or larger space for presenting music is determined by the similarity. For example, when the similarity that is the correlation value is calculated, the inclination of the similar search axis with respect to the reference axis or the axis that is orthogonal thereto is taken as the similarity. Specifically, when the similarity that is the correlation value of 0.8 is calculated, the inclination of the similar search axis with respect to the axis orthogonal to the reference axis is set to 0.8. When the similarity that is the correlation value of −0.2 is calculated, the inclination of the similar search axis with respect to the reference axis is −0.2. In addition, for example, when the similarity is a value of 0 to 1 and a larger similarity indicates that it is more similar, the search axis that is the axis in a two-dimensional or higher space that presents the music The angle of the search axis similar to is obtained by tan-1 (1-similarity).

このように、楽曲を提示する2次元以上の空間において軸とされている検索軸の画像とこれらの検索軸に類似する検索軸を示す画像が、重ねて薄く表示される。   In this way, the search axis image that is the axis in the two-dimensional or higher space presenting the music and the image that shows the search axis similar to these search axes are displayed in a thin and superimposed manner.

また、ユーザが提示された類似度の高い検索軸を選択する操作を行うと、楽曲検索装置11は、選択された検索軸に当てはまる楽曲をユーザに提示する。   In addition, when the user performs an operation of selecting a search axis with a high degree of similarity, the music search device 11 presents music that matches the selected search axis to the user.

例えば、選択された検索軸が示す値が、回帰式により推定される場合、楽曲検索装置11は、検索軸が示す値が予め定めた所定の閾値より大きい楽曲を、検索軸が示す値が大きい順にユーザに提示する。   For example, when the value indicated by the selected search axis is estimated by the regression equation, the music search device 11 has a large value indicated by the search axis for music whose value indicated by the search axis is greater than a predetermined threshold value. Present to the user in order.

例えば、選択された検索軸が示す値が判別式により推定される場合、楽曲検索装置11は、検索軸が示す値がNoまたはYesのいずれかの予め定めた値である楽曲をユーザに提示する。   For example, when the value indicated by the selected search axis is estimated by a discriminant, the music search device 11 presents the user with a song whose value indicated by the search axis is a predetermined value of No or Yes. .

すなわち、図27に示されるように、ユーザによって操作部36が操作されて、表示部45に表示された、所定の検索軸との類似度の高い検索軸のうち、所望の検索軸、例えば、他のユーザであるAさんに対する情報により生成された、名曲であるまたはそうでないとする検索軸を選択するためのボタンがクリックされると、楽曲検索装置11は、選択された検索軸を基準として、名曲であるとされる楽曲である、楽曲4、楽曲8、楽曲14、および楽曲7などを、ユーザに提示する。この場合、例えば、楽曲検索装置11は、選択された検索軸に当てはまる楽曲からなるプレイリストをユーザに提示する。   That is, as shown in FIG. 27, a desired search axis, for example, a search axis having a high similarity to a predetermined search axis displayed on the display unit 45 when the operation unit 36 is operated by the user, for example, When a button for selecting a search axis that is generated based on information for other user A and is or is not a masterpiece is clicked, the music search device 11 uses the selected search axis as a reference. Music 4, Music 8, Music 14, Music 7, etc., which are music that is considered to be a masterpiece, are presented to the user. In this case, for example, the music search device 11 presents to the user a playlist that includes music that applies to the selected search axis.

図28は、図2に示される構成のうち、検索軸の類似度を計算する構成を示すブロック図である。   FIG. 28 is a block diagram showing a configuration for calculating the similarity of search axes in the configuration shown in FIG.

検索軸比較部44は、軸値計算部101および類似度計算部102を含む。   The search axis comparison unit 44 includes an axis value calculation unit 101 and a similarity calculation unit 102.

検索軸比較部44は、類似度を計算する検索軸を検索軸データベース33または他ユーザ検索軸データベース38から取得する。すなわち、検索軸比較部44は、類似度を計算する検索軸が示す値を推定するための回帰式または判別式を検索軸データベース33または他ユーザ検索軸データベース38から取得する。   The search axis comparison unit 44 acquires a search axis for calculating the similarity from the search axis database 33 or the other user search axis database 38. That is, the search axis comparison unit 44 acquires a regression equation or discriminant for estimating a value indicated by the search axis for calculating the similarity from the search axis database 33 or the other user search axis database 38.

検索軸比較部44は、特徴量データベース32から、ユーザの所有する楽曲の特徴量を取得する。そして、検索軸比較部44の軸値計算部101は、ユーザの所有するそれぞれの楽曲の特徴量に、回帰式または判別式を適用することにより、楽曲についての、それぞれの検索軸が示す値を計算する。   The search axis comparison unit 44 acquires the feature amount of the music owned by the user from the feature amount database 32. Then, the axis value calculation unit 101 of the search axis comparison unit 44 applies the regression equation or discriminant to the feature amount of each song owned by the user, thereby obtaining the value indicated by each search axis for the song. calculate.

検索軸比較部44の類似度計算部102は、類似度を求める検索軸が示す値の類似度を計算し、その類似度を検索軸の類似度とする。   The similarity calculation unit 102 of the search axis comparison unit 44 calculates the similarity of the value indicated by the search axis for obtaining the similarity, and sets the similarity as the similarity of the search axis.

なお、検索軸比較部44は、他ユーザ特徴量データベース40から、他のユーザの所有する楽曲の特徴量を取得し、他のユーザの所有する楽曲の特徴量から、検索軸の類似度を計算するようにしてもよい。   Note that the search axis comparison unit 44 acquires the feature quantity of a song owned by another user from the other user feature quantity database 40, and calculates the similarity of the search axis from the feature quantity of the song owned by the other user. You may make it do.

さらに、検索軸比較部44は、ユーザの所有する楽曲の特徴量および他のユーザの所有する楽曲の特徴量から、検索軸の類似度を計算するようにしてもよい。   Further, the search axis comparison unit 44 may calculate the similarity of the search axes from the feature amount of the music owned by the user and the feature amount of the music owned by another user.

また、検索軸比較部44は、ユーザまたは他のユーザの全部の楽曲のうちの一部の楽曲の特徴量から、検索軸の類似度を計算するようにしてもよい。例えば、検索軸比較部44は、予め定めた数の楽曲の特徴量から、検索軸の類似度を計算するようにしてもよい。また、例えば、検索軸比較部44は、予め定めた数の、ランダムに選択された楽曲の特徴量から、検索軸の類似度を計算するようにしてもよい。   Further, the search axis comparison unit 44 may calculate the similarity of the search axes from the feature quantities of some of the music pieces of the user or other users. For example, the search axis comparison unit 44 may calculate the similarity of the search axes from a predetermined number of music feature quantities. Further, for example, the search axis comparison unit 44 may calculate the similarity of the search axes from a predetermined number of feature quantities of randomly selected music pieces.

検索軸比較部44は、検索軸の類似度から類似する検索軸を求めて、類似する検索軸を出力する。   The search axis comparison unit 44 obtains a similar search axis from the similarity of the search axes and outputs a similar search axis.

図29は、類似検索軸の提示の処理を説明するフローチャートである。ステップS71において、検索軸比較部44は、類似度を比較する2つの検索軸のそれぞれを検索軸データベース33または他ユーザ検索軸データベース38から取得する。   FIG. 29 is a flowchart for explaining the process of presenting a similar search axis. In step S <b> 71, the search axis comparison unit 44 acquires each of the two search axes for comparing the similarity from the search axis database 33 or the other user search axis database 38.

ステップS72において、検索軸比較部44は、ユーザの所有する全ての楽曲の特徴量からその全ての楽曲の2つの検索軸の値を計算する。すなわち、例えば、検索軸比較部44は、ユーザの所有する全ての楽曲の特徴量を特徴量データベース32から取得し、検索軸比較部44の軸値計算部101は、それぞれの楽曲の特徴量に、2つの検索軸のそれぞれの回帰式または判別式を適用して、ユーザの所有する全ての楽曲についての、それぞれの検索軸が示す値を計算する。   In step S72, the search axis comparison unit 44 calculates the values of the two search axes of all the music pieces from the feature quantities of all the music pieces owned by the user. That is, for example, the search axis comparison unit 44 acquires the feature values of all the songs owned by the user from the feature value database 32, and the axis value calculation unit 101 of the search axis comparison unit 44 sets the feature values of the respective songs. The regression formula or discriminant of each of the two search axes is applied to calculate the values indicated by the respective search axes for all the songs owned by the user.

ステップS73において、検索軸比較部44は、2つの検索軸の類似度を計算する。すなわち、検索軸比較部44の類似度計算部102は、検索軸の類似度として、ステップS72で計算した検索軸が示す値の類似度を計算する。   In step S73, the search axis comparison unit 44 calculates the similarity between the two search axes. That is, the similarity calculation unit 102 of the search axis comparison unit 44 calculates the similarity of the value indicated by the search axis calculated in step S72 as the similarity of the search axis.

ステップS74において、検索軸比較部44は、全ての検索軸の組み合わせで類似度を計算したか否かを判定し、全ての検索軸の組み合わせで類似度を計算していないと判定された場合、手続きはステップS71に戻り、上述した処理を繰り返す。   In step S74, the search axis comparison unit 44 determines whether the similarity is calculated for all combinations of search axes, and if it is determined that the similarity is not calculated for all combinations of search axes, The procedure returns to step S71 and repeats the above-described processing.

ステップS74において、全ての検索軸の組み合わせで類似度を計算したと判定された場合、手続きはステップS75に進み、ステップS75において、表示部45は、類似度の高い検索軸の組み合わせの上位数個をユーザに提示して、類似検索軸の提示の処理は終了する。より詳細には、ステップS75において、検索軸比較部44は、算出された類似度の大きい順に、予め定めた数の類似度を選択し、選択された類似度の検索軸を、類似する検索軸として表示部45に出力する。表示部45は、検索軸比較部44から供給された類似する検索軸を表示する。   If it is determined in step S74 that similarities have been calculated for all combinations of search axes, the procedure proceeds to step S75, and in step S75, the display unit 45 displays the highest number of combinations of search axes with high similarity. Is presented to the user, and the process of presenting the similar search axis ends. More specifically, in step S75, the search axis comparison unit 44 selects a predetermined number of similarities in descending order of the calculated similarity, and selects the search axes with the selected similarity as similar search axes. To the display unit 45. The display unit 45 displays similar search axes supplied from the search axis comparison unit 44.

この場合、表示部45は、類似する検索軸の名前を表示するようにしても、図26を参照して説明したように、2次元以上の空間であって、その各軸を検索軸とした空間において、その空間の軸とされている、楽曲の位置の表示の用いる検索軸を示す画像に、それらの検索軸に類似する検索軸を示す画像を、薄く重ねて表示するようにしてもよい。   In this case, even if the display unit 45 displays the name of a similar search axis, as described with reference to FIG. 26, the display unit 45 is a two-dimensional space or more, and each axis is used as a search axis. In a space, an image showing a search axis similar to those search axes may be displayed thinly superimposed on an image showing a search axis used for displaying the position of the music, which is the axis of the space. .

次に、楽曲を提示する検索軸をその軸とする2次元以上の空間に、ユーザの楽曲の位置と他のユーザの楽曲の位置とを重ねて表示する場合について説明する。   Next, a case will be described in which the position of the user's music and the position of the music of another user are displayed in a two-dimensional or more space with the search axis for presenting the music as the axis.

例えば、図30に示されるように、ユーザに対する情報により生成された好き嫌いの程度を示す検索軸と、他のユーザであるAさんに対する情報により生成された好き嫌いの程度を示す検索軸とをその軸とする2次元の空間に、ユーザの楽曲の位置とAさんの楽曲の位置とが重ねて表示される。図30において、丸印は、検索軸とをその軸とする2次元の空間における、ユーザの楽曲の位置を示し、バツ印は、その空間における、Aさんの楽曲の位置を示す。   For example, as shown in FIG. 30, a search axis indicating the degree of likes and dislikes generated by information for the user and a search axis indicating the degree of likes and dislikes generated by information for other user A The position of the user's music and the position of Mr. A's music are displayed in a two-dimensional space. In FIG. 30, a circle indicates the position of the user's music in a two-dimensional space with the search axis as the axis, and a cross indicates the position of Mr. A's music in that space.

図31は、図2に示される構成のうち、2次元以上の空間に、ユーザの楽曲の位置と他のユーザの楽曲の位置とを重ねて表示する構成を示すブロック図である。   FIG. 31 is a block diagram illustrating a configuration in which the position of the user's music and the position of the music of another user are displayed in a two-dimensional or higher space in the configuration illustrated in FIG.

検索に用いる検索軸を示す検索軸情報が、ユーザのその操作に応じて、操作部36から検索軸取得部37に供給されると、検索軸取得部37は、検索軸情報で示される検索軸を、検索軸データベース33または他ユーザ検索軸データベース38から取得する。すなわち、検索軸取得部37は、検索軸情報で示される検索軸が示す値を推定するための回帰式または判別式を検索軸データベース33または他ユーザ検索軸データベース38から取得する。   When the search axis information indicating the search axis used for the search is supplied from the operation unit 36 to the search axis acquisition unit 37 according to the user's operation, the search axis acquisition unit 37 displays the search axis indicated by the search axis information. Is acquired from the search axis database 33 or the other user search axis database 38. That is, the search axis acquisition unit 37 acquires a regression equation or discriminant for estimating a value indicated by the search axis indicated by the search axis information from the search axis database 33 or the other user search axis database 38.

例えば、図32に示されるように、操作部36から、「良く聴く曲」および「Aさんの好きな曲」を示す検索軸情報が供給された場合、検索軸取得部37は、「良く聴く曲」である名前の検索軸である、良く聴くかの程度を示す検索軸を検索軸データベース33から取得し、また、「Aさんの好きな曲」である名前の検索軸である、他のユーザであるAさんの好き嫌いの程度を示す検索軸を他ユーザ検索軸データベース38から取得する。   For example, as illustrated in FIG. 32, when search axis information indicating “a song that is often listened to” and “a song that Mr. A likes” is supplied from the operation unit 36, the search axis acquisition unit 37 reads “ The search axis of the name “Song”, indicating the degree of listening well, is acquired from the search axis database 33, and the search axis of the name “Song A's favorite song” is another search axis. A search axis indicating the degree of likes and dislikes of the user A is acquired from the other user search axis database 38.

すなわち、この場合、検索軸取得部37は、「良く聴く曲」である名前の検索軸である、良く聴くかの程度を示す検索軸の回帰式を検索軸データベース33から取得し、また、「Aさんの好きな曲」である名前の検索軸である、他のユーザであるAさんの好き嫌いの程度を示す検索軸の回帰式を他ユーザ検索軸データベース38から取得する。   That is, in this case, the search axis acquisition unit 37 acquires the search axis regression expression indicating the degree of whether or not to listen well, which is the search axis of the name “songs that are often listened to”, from the search axis database 33. A search axis regression formula indicating the degree of likes and dislikes of other user A, who is the search axis with the name “A's favorite song”, is acquired from the other user search axis database 38.

検索軸取得部37は、取得した検索軸、すなわち、その回帰式または判別式を検索軸値計算部39に供給する。   The search axis acquisition unit 37 supplies the acquired search axis, that is, the regression equation or discriminant thereof to the search axis value calculation unit 39.

検索軸値計算部39は、特徴量データベース32から、ユーザの所有する楽曲の特徴量を取得し、他ユーザ特徴量データベース40から、他のユーザの所有する楽曲の特徴量を取得する。そして、検索軸値計算部39は、ユーザの所有するそれぞれの楽曲の特徴量または他のユーザの所有する楽曲の特徴量に、検索軸取得部37から供給された検索軸の回帰式または判別式を適用することにより、楽曲についての、それぞれの検索軸が示す値を計算する。   The search axis value calculation unit 39 acquires the feature amount of the song owned by the user from the feature amount database 32, and acquires the feature amount of the song owned by another user from the other user feature amount database 40. Then, the search axis value calculation unit 39 uses the search axis regression formula or discriminant supplied from the search axis acquisition unit 37 to the feature quantity of each song owned by the user or the feature quantity of the song owned by another user. Is applied to calculate the value indicated by each search axis for the music.

例えば、検索軸値計算部39は、特徴量データベース32から、ユーザの所有する全ての楽曲の特徴量を取得し、他ユーザ特徴量データベース40から、対象となる他のユーザの所有する全ての楽曲の特徴量を取得し、その楽曲の特徴量から、それぞれの楽曲についての、それぞれの検索軸が示す値を計算する。   For example, the search axis value calculation unit 39 acquires the feature quantities of all the songs owned by the user from the feature quantity database 32, and all the songs owned by other target users from the other user feature quantity database 40. And the value indicated by each search axis for each song is calculated from the feature amount of the song.

具体的には、例えば、図33に示されるように、検索軸値計算部39は、15である特徴量1および94である特徴量2を含む楽曲1の楽曲特徴量に、良く聴くかの程度を示す検索軸の回帰式と、他のユーザであるAさんの好き嫌いの程度を示す検索軸の回帰式とをそれぞれ適用することにより、楽曲1についての、良く聴くかの程度を示す検索軸の5である値と、他のユーザであるAさんの好き嫌いの程度を示す検索軸の3である値を計算する。   Specifically, as shown in FIG. 33, for example, the search axis value calculation unit 39 listens to the music feature amount of the song 1 including the feature amount 1 which is 15 and the feature amount 2 which is 94. A search axis indicating the degree of whether or not the song 1 is often listened to by applying a regression equation of the search axis indicating the degree and a regression expression of the search axis indicating the degree of likes and dislikes of other user A, respectively. And a value that is 3 of the search axis indicating the degree of likes and dislikes of other user A, is calculated.

また、検索軸値計算部39は、36である特徴量1および29である特徴量2を含む楽曲2の楽曲特徴量に、良く聴くかの程度を示す検索軸の回帰式と、他のユーザであるAさんの好き嫌いの程度を示す検索軸の回帰式とをそれぞれ適用することにより、楽曲2についての、良く聴くかの程度を示す検索軸の1である値と、他のユーザであるAさんの好き嫌いの程度を示す検索軸の2である値を計算する。   In addition, the search axis value calculation unit 39 uses a search axis regression formula indicating the degree of listening to the music feature quantity of the music piece 2 including the feature quantity 1 which is 36 and the feature quantity 2 which is 29, and other users. By applying the search axis regression expression indicating the degree of likes and dislikes of Mr. A, the value that is 1 on the search axis indicating the degree of whether or not the song 2 is listened well and the other user A Calculate a value that is 2 on the search axis indicating the degree of likes and dislikes.

同様に、検索軸値計算部39は、楽曲3乃至楽曲6のそれぞれの楽曲特徴量に、良く聴くかの程度を示す検索軸の回帰式と、他のユーザであるAさんの好き嫌いの程度を示す検索軸の回帰式とをそれぞれ適用することにより、楽曲3乃至楽曲6のそれぞれについての、良く聴くかの程度を示す検索軸の値と、他のユーザであるAさんの好き嫌いの程度を示す検索軸の値を計算する。   Similarly, the search axis value calculation unit 39 calculates the regression equation of the search axis indicating the degree of listening well to the music feature quantities of the music pieces 3 to 6 and the degree of likes and dislikes of A who is another user. By applying each of the search axis regression equations shown, the values of the search axis indicating the degree of listening well for each of the music pieces 3 to 6 and the degree of likes and dislikes of the other user A are shown. Calculate the value of the search axis.

検索軸値計算部39は、楽曲についての、それぞれの検索軸の値を表示部45に供給する。   The search axis value calculation unit 39 supplies the value of each search axis for the music to the display unit 45.

表示部45は、楽曲についての、それぞれの検索軸が示す値から、その検索軸を軸とする2次元以上の空間に、ユーザの所有する楽曲の位置と他のユーザの所有する楽曲の位置とを重ねて表示する。   The display unit 45 determines the position of the song owned by the user and the position of the song owned by another user from a value indicated by each search axis for the song in a two-dimensional or more space around the search axis. Are displayed in layers.

例えば、表示部45は、図30に示されるように、ユーザに対する情報により生成された好き嫌いの程度を示す検索軸と、他のユーザであるAさんに対する情報により生成された好き嫌いの程度を示す検索軸とをその軸とする2次元の空間に、ユーザの楽曲の位置とAさんの楽曲の位置とを重ねて表示する。   For example, as shown in FIG. 30, the display unit 45 has a search axis indicating the degree of likes and dislikes generated by the information for the user and a search indicating the degree of likes and dislikes generated by the information for the other user A. The position of the user's music and the position of Mr. A's music are displayed in a two-dimensional space with the axis as the axis.

図34は、他のユーザのコンテンツを重ねて表示する処理を説明するフローチャートである。ステップS91において、検索軸取得部37は、表示に使用する2つ以上の検索軸を、検索軸データベース33または他ユーザ検索軸データベース38から取得する。すなわち、検索軸比較部44は、表示に使用する2つ以上の検索軸の値を推定するための回帰式または判別式を検索軸データベース33または他ユーザ検索軸データベース38から取得する。   FIG. 34 is a flowchart for describing processing for displaying other users' content in an overlapping manner. In step S91, the search axis acquisition unit 37 acquires two or more search axes used for display from the search axis database 33 or the other user search axis database 38. That is, the search axis comparison unit 44 acquires from the search axis database 33 or the other user search axis database 38 the regression equation or discriminant for estimating the values of two or more search axes used for display.

ステップS92において、検索軸値計算部39は、ユーザの楽曲の特徴量および他のユーザの楽曲の特徴量から、ユーザと他のユーザとの全ての楽曲の、それぞれの検索軸の値を計算する。すなわち、検索軸値計算部39は、特徴量データベース32から、ユーザの所有する全ての楽曲の特徴量を取得し、他ユーザ特徴量データベース40から、対象となる他のユーザの所有する全ての楽曲の特徴量を取得する。そして、検索軸値計算部39は、ユーザの所有するそれぞれの楽曲の特徴量または他のユーザの所有する楽曲の特徴量に、それぞれの検索軸の回帰式または判別式を適用することにより、楽曲についての、それぞれの検索軸の値を計算する。   In step S <b> 92, the search axis value calculation unit 39 calculates the values of the search axes of all the music pieces of the user and the other user from the feature amount of the user's music and the feature amount of the other user's music. . That is, the search axis value calculation unit 39 acquires the feature quantities of all the songs owned by the user from the feature quantity database 32, and all the songs owned by other target users from the other user feature quantity database 40. Get the feature quantity. Then, the search axis value calculation unit 39 applies the regression formula or discriminant of each search axis to the feature quantity of each song owned by the user or the feature quantity of the song owned by another user, thereby Calculate the value of each search axis for.

ステップS93において、表示部45は、検索軸を次元とする空間上に、ユーザと他のユーザの全ての楽曲を配置して表示し、他のユーザのコンテンツを重ねて表示する処理は終了する。例えば、ステップS93において、表示部45は、図30に示されるように、その検索軸をその次元の軸とする2次元以上の空間に、それぞれの楽曲についてのそれぞれの検索軸の値によって定まる位置であって、それぞれの楽曲の位置を表示する。   In step S93, the display unit 45 arranges and displays all the music pieces of the user and other users in a space having the search axis as a dimension, and the process of displaying the contents of other users in an overlapping manner ends. For example, in step S93, as shown in FIG. 30, the display unit 45 is a position determined by the value of each search axis for each piece of music in a two-dimensional or higher space having the search axis as the axis of that dimension. And the position of each music is displayed.

図35は、コンテンツの選別の処理を説明するフローチャートである。ステップS121乃至ステップS124は、それぞれ、図29のステップS71乃至ステップS74と同様なのでその説明は省略する。   FIG. 35 is a flowchart for explaining content selection processing. Steps S121 to S124 are the same as steps S71 to S74 in FIG.

ステップS124において、全ての検索軸の組み合わせで類似度を計算したと判定された場合、手続きはステップS125に進み、ステップS125において、検索軸比較部44は、類似度を参照して、類似する検索軸を選択する。検索軸比較部44は、選択した検索軸を表示部45に出力する。   If it is determined in step S124 that similarities have been calculated for all combinations of search axes, the procedure proceeds to step S125. In step S125, the search axis comparison unit 44 refers to similarities and searches for similarities. Select an axis. The search axis comparison unit 44 outputs the selected search axis to the display unit 45.

ステップS126において、表示部45は、選択された類似する検索軸を重ねて表示する。例えば、図26を参照して説明したように、表示部45は、選択された類似する検索軸の画像のうちの一方の画像を濃く表示し、これに重ねて他方の画像を薄く表示する。   In step S126, the display unit 45 displays the selected similar search axes in an overlapping manner. For example, as described with reference to FIG. 26, the display unit 45 displays one image of the selected similar search axis images in a dark color, and displays the other image in a thin layer on the image.

ステップS127において、検索軸値計算部39は、ステップS92と同様の処理で、ユーザの楽曲と他のユーザの楽曲とについて、それぞれの特徴量から検索軸の値を計算する。例えば、検索軸値計算部39は、ユーザの楽曲と他のユーザの楽曲とについて、それぞれの特徴量から、表示部45に濃く表示されている検索軸の値を計算する。   In step S127, the search axis value calculation unit 39 calculates the value of the search axis from the feature amounts of the user's music and other users' music in the same process as in step S92. For example, the search axis value calculation unit 39 calculates the value of the search axis that is darkly displayed on the display unit 45 from the feature amounts of the user's music and other users' music.

ステップS128において、表示部45は、ユーザの楽曲と他のユーザの楽曲とについて、検索軸の値に応じた検索軸の位置を表示する。より具体的には、表示部45は、ユーザの楽曲と他のユーザの楽曲とについて、検索軸の値に応じた検索軸の位置を示す画像を表示する。   In step S128, the display unit 45 displays the position of the search axis corresponding to the value of the search axis for the user's music and other users' music. More specifically, the display unit 45 displays an image indicating the position of the search axis corresponding to the value of the search axis for the user's music and other users' music.

ステップS129において、該当楽曲選別部41は、ユーザから指定された検索軸の範囲に属する位置の楽曲を選別して、コンテンツの選別の処理は終了する。例えば、ステップS129において、該当楽曲選別部41は、検索軸を基準とした所定の範囲であって、ユーザの操作に応じて操作部36から供給される情報で指定される範囲に、その検索軸の位置が属するコンテンツを選別する。   In step S129, the corresponding music selection unit 41 selects music at a position belonging to the range of the search axis designated by the user, and the content selection process ends. For example, in step S129, the corresponding music selection unit 41 sets the search axis within a predetermined range based on the search axis, which is specified by information supplied from the operation unit 36 according to the user's operation. The content to which the position belongs is selected.

以上のように、検索における個人化された検索軸が、ユーザ間で使用され、ユーザ間で共有される。   As described above, the personalized search axis in the search is used among users and shared among users.

楽曲検索装置11は、自動的にまたはユーザの入力に応じて、ユーザに個人化された検索軸を生成する。生成された検索軸は、ユーザ間で共有される。   The music search device 11 generates a search axis that is personalized to the user automatically or in response to a user input. The generated search axis is shared among users.

楽曲検索装置11において、ユーザは、予め用意された一般的な検索軸(例えば、メタデータそのものからコンテンツを検索するための検索軸)、自分の楽曲検索装置11において生成された自分の検索軸、および他のユーザの所有する楽曲検索装置11において生成された他のユーザの検索軸を用いて、楽曲を検索することができる。   In the music search device 11, the user can use a general search axis prepared in advance (for example, a search axis for searching content from the metadata itself), his / her search axis generated in his / her music search device 11, The music can be searched using the search axis of the other user generated in the music search device 11 owned by the other user.

楽曲検索装置11は、生成したそれぞれの検索軸と、他のユーザのそれぞれの検索軸との類似の度合いを比較する。楽曲検索装置11は、他のユーザの検索軸と類似の度合いの高いユーザの検索軸をユーザに提示する。または、楽曲検索装置11は、ユーザの検索軸と類似の度合いの高い他のユーザの検索軸をユーザに提示する。   The music search device 11 compares the similarities between the generated search axes and the search axes of other users. The music search device 11 presents a user search axis having a high degree of similarity to the search axes of other users to the user. Alternatively, the music search device 11 presents the search axis of another user who is highly similar to the user's search axis to the user.

ユーザが提示された検索軸を選択すると、楽曲検索装置11は、選択された検索軸を用いて、楽曲を検索する。   When the user selects the presented search axis, the music search device 11 searches for music using the selected search axis.

楽曲検索装置11は、楽曲の検索において、任意の2つ以上の検索軸を、座標とした2次元以上のマップ上に、検索対象である楽曲を示す画像を配置し、このマップ上の範囲が指定されることにより、楽曲を検索する。楽曲検索装置11は、このマップ上に、他のユーザの所有する楽曲を示す画像を重ねて表示することができる。   The music search device 11 arranges an image indicating a music to be searched on a two-dimensional or higher map having two or more search axes as coordinates in searching for music, and the range on the map is Search for music by being specified. The music search device 11 can display an image indicating a music owned by another user on the map.

楽曲検索装置11は、ユーザの検索軸のそれぞれと、他のユーザの検索軸のそれぞれとを比較して、類似度を求めて、似ている検索軸の組み合わせをユーザに提示するので、ユーザは、自分の検索軸が、他のユーザにとってどのような検索軸であるかを知ることができる。   The music search device 11 compares each of the search axes of the user with each of the search axes of the other users, obtains a similarity, and presents a combination of similar search axes to the user. , It is possible to know what search axis is used for other users.

楽曲検索装置11は、所定の検索軸を用いて作成したマップ上に、自分のコンテンツを示す画像と他のユーザのコンテンツを示す画像とを重ねて表示するので、ユーザは、他のユーザのコンテンツの分布を知ることができる。   Since the music search device 11 displays an image indicating its own content and an image indicating the content of another user on a map created using a predetermined search axis, the user can select the content of the other user. Can be known.

以上のように、ユーザは、個人化された検索軸で楽曲を検索することができる。例えば、ユーザは、好きな曲、よく聴く曲、おしゃれな曲(そのユーザがおしゃれだと思う曲)、食事中に聴きたい曲(そのユーザが食事中に聞きたいと思う曲)などを検索することができる。   As described above, the user can search for music with a personalized search axis. For example, a user searches for a favorite song, a song that is often listened to, a fashionable song (a song that the user thinks is fashionable), a song that the user wants to listen to during a meal (a song that the user wants to hear during a meal), and the like. Can do.

このように、検索軸を生成するようにした場合には、コンテンツを提示することができる。また、コンテンツを提示する基準となる検索軸であって、コンテンツの特徴量およびユーザによるコンテンツの再生の履歴またはユーザのコンテンツに対する評価により定められる検索軸を学習によって生成し、生成された検索軸を基準としたコンテンツの提示に関する表示を制御するようにした場合には、より簡単に、ユーザに合わせたコンテンツの提示を表示することができる。   Thus, when the search axis is generated, the content can be presented. Further, a search axis serving as a reference for presenting content is generated by learning, and a search axis determined by the content feature amount and the history of content reproduction by the user or evaluation of the user content is generated by learning. When the display related to the presentation of the content as a reference is controlled, the presentation of the content tailored to the user can be displayed more easily.

なお、楽曲検索装置11は、据え置き型の家庭用電子機器、例えば、ハードディスクレコーダ、ハードディスクプレーヤ、または家庭用ゲーム機などとしても、携帯型の電子機器、例えば、携帯用ゲーム機、携帯用プレーヤ、または携帯電話機とすることができる。   Note that the music search device 11 may be a stationary electronic device such as a hard disk recorder, a hard disk player, or a home game machine, or a portable electronic device such as a portable game machine, a portable player, Or it can be set as a mobile phone.

上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.

図36は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。   FIG. 36 is a block diagram illustrating a hardware configuration example of a computer that executes the above-described series of processing by a program.

コンピュータにおいて、CPU(Central Processing Unit)201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。   In a computer, a central processing unit (CPU) 201, a read only memory (ROM) 202, and a random access memory (RAM) 203 are connected to each other by a bus 204.

バス204には、さらに、入出力インタフェース205が接続されている。入出力インタフェース205には、キーボード、マウス、マイクロホンなどよりなる入力部206、ディスプレイ、スピーカなどよりなる出力部207、ハードディスクや不揮発性のメモリなどよりなる記憶部208、ネットワークインタフェースなどよりなる通信部209、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア211を駆動するドライブ210が接続されている。   An input / output interface 205 is further connected to the bus 204. The input / output interface 205 includes an input unit 206 composed of a keyboard, mouse, microphone, etc., an output unit 207 composed of a display, a speaker, etc., a storage unit 208 composed of a hard disk or nonvolatile memory, and a communication unit 209 composed of a network interface. A drive 210 for driving a removable medium 211 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is connected.

以上のように構成されるコンピュータでは、CPU201が、例えば、記憶部208に記憶されているプログラムを、入出力インタフェース205及びバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。   In the computer configured as described above, the CPU 201 loads, for example, the program stored in the storage unit 208 to the RAM 203 via the input / output interface 205 and the bus 204 and executes the program. Is performed.

コンピュータ(CPU201)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア211に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。   The program executed by the computer (CPU 201) is, for example, a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc), etc.), a magneto-optical disk, or a semiconductor. The program is recorded on a removable medium 211 that is a package medium composed of a memory or the like, or provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.

そして、プログラムは、リムーバブルメディア211をドライブ210に装着することにより、入出力インタフェース205を介して、記憶部208に記憶することで、コンピュータにインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部209で受信し、記憶部208に記憶することで、コンピュータにインストールすることができる。その他、プログラムは、ROM202や記憶部208にあらかじめ記憶しておくことで、コンピュータにあらかじめインストールしておくことができる。   The program can be installed in the computer by loading the removable medium 211 in the drive 210 and storing it in the storage unit 208 via the input / output interface 205. Further, the program can be installed in a computer by being received by the communication unit 209 via a wired or wireless transmission medium and stored in the storage unit 208. In addition, the program can be installed in the computer in advance by storing the program in the ROM 202 or the storage unit 208 in advance.

なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。   The program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.

なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

11−1,11−2,11 楽曲検索装置, 12 サーバ, 13 ネットワーク, 31 検索軸学習部, 32 特徴量データベース, 33 検索軸データベース, 34 学習用データ生成部, 35 再生履歴フィードバックデータベース, 36 操作部, 37 検索軸取得部, 38 他ユーザ検索軸データベース, 39 検索軸値計算部, 40 他ユーザ特徴量データベース, 41 該当楽曲選別部, 42 コンテンツ再生部, 43 コンテンツデータベース, 44 検索軸比較部, 45 表示部, 46 通信部, 101 軸値計算部, 102 類似度計算部, 201 CPU, 202 ROM, 203 RAM, 208 記憶部, 209 通信部, 211 リムーバブルメディア   11-1, 11-2, 11 Music search device, 12 servers, 13 networks, 31 search axis learning unit, 32 feature quantity database, 33 search axis database, 34 learning data generation unit, 35 playback history feedback database, 36 operation Unit, 37 search axis acquisition unit, 38 other user search axis database, 39 search axis value calculation unit, 40 other user feature quantity database, 41 corresponding music selection unit, 42 content reproduction unit, 43 content database, 44 search axis comparison unit, 45 display unit, 46 communication unit, 101 axis value calculation unit, 102 similarity calculation unit, 201 CPU, 202 ROM, 203 RAM, 208 storage unit, 209 communication unit, 211 removable media

Claims (6)

コンテンツに関する情報であって、ユーザに提示する情報を求める情報処理装置において、
前記ユーザが任意に指定した検索軸であって、前記コンテンツを提示する基準となる検索軸を生成する検索軸生成手段と、
前記検索軸について複数の前記コンテンツのそれぞれが当てはまる度合を前記ユーザのフィードバック値として入力する入力手段と、
前記検索軸が示す値を求めるための回帰式または判別式を求めるための学習データを、前記フィードバック値に基づいて生成する学習用データ生成手段と、
前記コンテンツの特徴量と前記学習用データを用いて、検索軸が示す値を求めるための回帰式または判別式を学習する検索軸学習手段と、
ユーザに提示する対象となるコンテンツについて前記検索軸の値を前記回帰式または判別式に基づいて計算する計算手段と
を備える情報処理装置。
In an information processing apparatus that requests information to be presented to a user, which is information related to content,
Search axis generation means for generating a search axis which is a search axis arbitrarily designated by the user and serves as a reference for presenting the content;
An input means for inputting, as a feedback value of the user, a degree to which each of the plurality of contents applies for the search axis;
Learning data generation means for generating learning data for obtaining a regression equation or discriminant for obtaining a value indicated by the search axis based on the feedback value;
Search axis learning means for learning a regression equation or a discriminant for obtaining a value indicated by a search axis using the feature amount of the content and the learning data;
An information processing apparatus comprising: calculation means for calculating a value of the search axis for content to be presented to a user based on the regression equation or discriminant equation.
前記計算手段は、複数の前記検索軸のそれぞれが示す値を計算する
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the calculation unit calculates a value indicated by each of the plurality of search axes.
前記検索軸をその次元の軸とする空間の、前記検索軸が示す前記コンテンツの値に応じた位置に、前記コンテンツを示す画像を表示させる表示制御手段をさらに備える
請求項1に記載の情報処理装置。
The information processing according to claim 1, further comprising display control means for displaying an image indicating the content at a position corresponding to a value of the content indicated by the search axis in a space having the search axis as a dimension axis. apparatus.
前記検索軸が示す値が表示されている前記コンテンツのうち、前記検索軸が示す所定の範囲の前記コンテンツを選別する選別手段をさらに備える
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, further comprising: a selecting unit configured to select the content in a predetermined range indicated by the search axis among the contents in which the value indicated by the search axis is displayed.
コンテンツに関する情報であって、ユーザに提示する情報を求める情報処理装置の情報処理方法において、
検索軸生成手段が、前記ユーザが任意に指定した検索軸であって、前記コンテンツを提示する基準となる検索軸を生成し、
入力手段が、前記検索軸について複数の前記コンテンツのそれぞれが当てはまる度合を前記ユーザのフィードバック値として入力し、
学習用データ生成手段が、前記検索軸が示す値を求めるための回帰式または判別式を求めるための学習データを、前記フィードバック値に基づいて生成し、
検索軸学習手段が、前記コンテンツの特徴量と前記学習用データを用いて、検索軸が示す値を求めるための回帰式または判別式を学習し、
計算手段が、ユーザに提示する対象となるコンテンツについて前記検索軸の値を前記回帰式または判別式に基づいて計算する
ステップを含む情報処理方法。
In an information processing method of an information processing apparatus that requests information to be presented to a user, which is information related to content,
The search axis generation means generates a search axis which is a search axis arbitrarily designated by the user and serves as a reference for presenting the content,
The input means inputs, as the feedback value of the user, the degree to which each of the plurality of contents applies for the search axis,
The learning data generating means generates learning data for obtaining a regression equation or a discriminant for obtaining a value indicated by the search axis based on the feedback value,
The search axis learning means learns a regression equation or a discriminant for obtaining a value indicated by the search axis using the feature amount of the content and the learning data,
An information processing method including a step of calculating a value of the search axis for content to be presented to a user based on the regression equation or discriminant equation.
コンピュータを、
コンテンツに関する情報であって、ユーザに提示する情報を求める情報処理装置において、
前記ユーザが任意に指定した検索軸であって、前記コンテンツを提示する基準となる検索軸を生成する検索軸生成手段と、
前記検索軸について複数の前記コンテンツのそれぞれが当てはまる度合を前記ユーザのフィードバック値として入力する入力手段と、
前記検索軸が示す値を求めるための回帰式または判別式を求めるための学習データを、前記フィードバック値に基づいて生成する学習用データ生成手段と、
前記コンテンツの特徴量と前記学習用データを用いて、検索軸が示す値を求めるための回帰式または判別式を学習する検索軸学習手段と、
ユーザに提示する対象となるコンテンツについて前記検索軸の値を前記回帰式または判別式に基づいて計算する計算手段とを備える情報処理装置として機能させる
プログラム。
Computer
In an information processing apparatus that requests information to be presented to a user, which is information related to content,
Search axis generation means for generating a search axis which is a search axis arbitrarily designated by the user and serves as a reference for presenting the content;
An input means for inputting, as a feedback value of the user, a degree to which each of the plurality of contents applies for the search axis;
Learning data generation means for generating learning data for obtaining a regression equation or discriminant for obtaining a value indicated by the search axis based on the feedback value;
Search axis learning means for learning a regression equation or a discriminant for obtaining a value indicated by a search axis using the feature amount of the content and the learning data;
A program that functions as an information processing apparatus including a calculation unit that calculates a value of the search axis based on the regression equation or the discriminant for content to be presented to a user.
JP2010218616A 2010-09-29 2010-09-29 Information processing apparatus and method, and program Expired - Fee Related JP5158450B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010218616A JP5158450B2 (en) 2010-09-29 2010-09-29 Information processing apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010218616A JP5158450B2 (en) 2010-09-29 2010-09-29 Information processing apparatus and method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2007052625A Division JP4730619B2 (en) 2007-03-02 2007-03-02 Information processing apparatus and method, and program

Publications (2)

Publication Number Publication Date
JP2011048839A JP2011048839A (en) 2011-03-10
JP5158450B2 true JP5158450B2 (en) 2013-03-06

Family

ID=43835025

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010218616A Expired - Fee Related JP5158450B2 (en) 2010-09-29 2010-09-29 Information processing apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP5158450B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI433011B (en) * 2010-08-17 2014-04-01 Chunghwa Picture Tubes Ltd Optical touch module and optical touch display panel

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2870458B2 (en) * 1995-08-10 1999-03-17 日本電気株式会社 Learning device and learning method
JP3586549B2 (en) * 1997-12-08 2004-11-10 株式会社日立製作所 Image search method and apparatus
JP2000322445A (en) * 1999-05-14 2000-11-24 Mitsubishi Electric Corp Information retrieval system and recording medium recording program thereof
JP3654173B2 (en) * 2000-11-02 2005-06-02 日本電気株式会社 PROGRAM SELECTION SUPPORT DEVICE, PROGRAM SELECTION SUPPORT METHOD, AND RECORDING MEDIUM CONTAINING THE PROGRAM
JP4469949B2 (en) * 2004-09-09 2010-06-02 独立行政法人情報通信研究機構 Personal adaptive object search method and apparatus

Also Published As

Publication number Publication date
JP2011048839A (en) 2011-03-10

Similar Documents

Publication Publication Date Title
JP4389950B2 (en) Information processing apparatus and method, and program
US7613736B2 (en) Sharing music essence in a recommendation system
JP5432264B2 (en) Apparatus and method for collection profile generation and communication based on collection profile
JP4730619B2 (en) Information processing apparatus and method, and program
US8316015B2 (en) Tunersphere
US11157542B2 (en) Systems, methods and computer program products for associating media content having different modalities
US8739062B2 (en) Graphical playlist
CN101243428A (en) Single action media playlist generation
EP1941389A2 (en) A system and method for creating a playlist
US20120117071A1 (en) Information processing device and method, information processing system, and program
US20170357479A1 (en) Personal music content
US11709847B2 (en) Media content playback for a group of users
US20190294690A1 (en) Media content item recommendation system
JP2006048319A (en) Device, method, recording medium, and program for information processing
JP4599141B2 (en) Information providing system, information providing server, and computer program
JP5158450B2 (en) Information processing apparatus and method, and program
US20220188062A1 (en) Skip behavior analyzer
US20180322195A1 (en) Method for recommending musing in playlist and apparatus using the same
Boström Andromedia-towards a context-aware mobile music recommender
US20230114681A1 (en) User interface for media content playback
JP2010262674A (en) Device and method for retrieval and playback of musical piece, and impression word setting program

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121128

R151 Written notification of patent or utility model registration

Ref document number: 5158450

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151221

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees