JP2008048001A - Information processor and processing method, and program - Google Patents

Information processor and processing method, and program Download PDF

Info

Publication number
JP2008048001A
JP2008048001A JP2006219303A JP2006219303A JP2008048001A JP 2008048001 A JP2008048001 A JP 2008048001A JP 2006219303 A JP2006219303 A JP 2006219303A JP 2006219303 A JP2006219303 A JP 2006219303A JP 2008048001 A JP2008048001 A JP 2008048001A
Authority
JP
Japan
Prior art keywords
similarity
person
information
content
similar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006219303A
Other languages
Japanese (ja)
Inventor
Koji Asano
康治 浅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006219303A priority Critical patent/JP2008048001A/en
Publication of JP2008048001A publication Critical patent/JP2008048001A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To increase variation of content recommendation. <P>SOLUTION: The information processor extracts a specific person whom a user can judge as acceptable from user taste information (S21), determines a content in which the specific person appears as a recommended candidate (S22), executes a processing for extracting a similar person of the specific person, i.e. a similar person extraction processing (S3), determines a content in which the similar person appears as a recommended candidate (S24), selects a recommended content among recommended candidates (S25), and outputs a list of recommended contents (recommendation information) (S26). The invention is applicable to an apparatus for recommending the content of television broadcast program, and the like. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、情報処理装置および方法、並びにプログラムに関し、特に、ユーザが嗜好する特定人物に基づくコンテンツ推薦だけではなく、ユーザの嗜好から外れない範囲内でバリエーションのあるコンテンツ推薦ができる情報処理装置および方法、並びにプログラムに関する。   The present invention relates to an information processing apparatus and method, and a program, and more particularly to an information processing apparatus capable of recommending content with variations within a range that does not deviate from the user's preference as well as content recommendation based on a specific person preferred by the user The present invention relates to a method and a program.

従来、コンテンツに付与されたメタデータを利用してコンテンツの推薦を行う推薦装置が利用されている(例えば特許文献1)。例えば、コンテンツとしてテレビジョン放送番組(以下、番組と適宜称する)を対象とした従来の推薦装置では、番組の出演者や番組のタイトル等を含む番組毎のメタデータを利用して、ユーザが嗜好する特定人物が出演している番組を認識し、それを推薦番組としてユーザに呈示することができる。
特開2004−194108号公報
Conventionally, a recommendation device that recommends content using metadata attached to the content has been used (for example, Patent Document 1). For example, in a conventional recommendation device that targets a television broadcast program (hereinafter referred to as a program as appropriate) as content, the user's preference is obtained by using metadata for each program including program performers and program titles. It is possible to recognize a program in which a specific person appears and present it to the user as a recommended program.
JP 2004-194108 A

しかしながら、ユーザにとっては、その特定人物への嗜好が強ければ強いほど、その特定人物が出演する番組は既に視聴していたり、既に録画予約している場合が多い。従って、このような場合、特許文献1を含む従来の推薦装置により推薦された番組は、ユーザにとって既知の番組であり、かかる番組の推薦は意味を成していない。このことは、番組のみならず、ユーザに配布されるコンテンツ一般に当てはまることである。   However, for the user, the stronger the preference for the specific person, the more often the program in which the specific person appears has already been viewed or already reserved for recording. Therefore, in such a case, the program recommended by the conventional recommendation device including Patent Document 1 is a program known to the user, and the recommendation of such a program does not make sense. This applies not only to programs but also to general contents distributed to users.

換言すると、ユーザにとっては、ユーザが嗜好する特定人物に基づくコンテンツ推薦だけでは不十分であり、ユーザの嗜好から外れない範囲内でバリエーションのあるコンテンツ推薦をして欲しいという要望が存在する。しかしながら、特許文献1を含む従来の推薦装置では、かかる要望に十分に応えられていないという状況である。   In other words, there is a demand for the user to recommend content with variations within a range that does not deviate from the user's preference. However, the conventional recommendation device including Patent Document 1 does not sufficiently meet such a demand.

本発明は、このような状況に鑑みてなされたものであり、ユーザが嗜好する特定人物に基づくコンテンツ推薦だけではなく、ユーザの嗜好から外れない範囲内でバリエーションのあるコンテンツ推薦をできるようにするものである。   The present invention has been made in view of such a situation, and enables not only content recommendation based on a specific person preferred by the user but also content recommendation with variations within a range that does not deviate from the user preference. Is.

本発明の一側面の情報処理装置は、ユーザにコンテンツを推薦する情報処理装置であって、ユーザが嗜好する特定人物に関する人物情報を含む嗜好情報を保持する嗜好情報保持手段と、前記特定人物を含む複数の人物間における所定の類似基準に基づく各類似度を示す人物類似情報を保持する人物類似情報保持手段と、前記嗜好情報保持手段に保持された前記嗜好情報に基づいて前記特定人物を認識し、前記人物類似情報保持手段に保持された前記人物類似情報に基づいて、前記特定人物に類似すると判断できる類似人物を認識し、前記特定人物が出演するコンテンツと前記類似人物が出演するコンテンツとのうちの少なくとも一方を、ユーザに対して推薦すべき推薦コンテンツの候補として決定する推薦手段とを備える。   An information processing apparatus according to an aspect of the present invention is an information processing apparatus that recommends content to a user, and includes preference information holding means that holds preference information including personal information about a specific person that the user likes, and the specific person. Recognizing the specific person based on the preference information held in the preference information holding means, and person similarity information holding means for holding person similarity information indicating each similarity based on a predetermined similarity criterion among a plurality of persons including Then, based on the person similarity information held in the person similarity information holding means, a similar person that can be determined to be similar to the specific person is recognized, and the content in which the specific person appears and the content in which the similar person appears Recommending means for determining at least one of them as a candidate of recommended content to be recommended to the user.

前記所定の類似基準に基づく類似度は、人物が有する顔の特徴に基づく類似度である。   The similarity based on the predetermined similarity criterion is a similarity based on facial features of a person.

前記所定の類似基準に基づく類似度は、人物が発声する声の特徴に基づく類似度である。   The similarity based on the predetermined similarity criterion is a similarity based on the characteristics of a voice uttered by a person.

前記所定の類似基準に基づく類似度は、人物が利用する言語の特徴に基づく類似度である。   The similarity based on the predetermined similarity criterion is a similarity based on characteristics of a language used by a person.

前記人物類似情報は、複数の類似基準のそれぞれに基づく各類似度を示す各情報からなり、前記推薦手段は、前記複数の類似基準のそれぞれについて、前記類似人物の候補と前記特定人物との間の各類似度を前記人物類似情報から取得し、取得した前記複数の類似基準のそれぞれについての前記各類似度と、コンテンツの内容に応じて変化する前記複数の類似基準の重要度合とに基づいて、前記類似人物の候補の総合的な類似度を演算し、前記総合的な類似度に基づいて、前記類似人物の候補を前記類似人物として認識するか否かを決定する。   The person similarity information includes information indicating each degree of similarity based on each of a plurality of similarity criteria, and the recommendation unit determines whether the similar person candidate and the specific person are in each of the plurality of similarity criteria. Are obtained from the person similarity information, and based on the obtained similarities for each of the plurality of similarity criteria and the importance levels of the plurality of similarity criteria that change in accordance with the content content The overall similarity of the similar person candidates is calculated, and it is determined whether to recognize the similar person candidate as the similar person based on the total similarity.

前記推薦手段は、前記特定人物として複数人を認識し、前記類似人物の候補と、前記複数の特定人物のそれぞれとの間の各類似度を前記人物類似情報から取得し、取得した前記各類似度に基づいて、前記類似人物の候補の総合的な類似度を演算し、前記総合的な類似度に基づいて、前記類似人物の候補を前記類似人物として認識するか否かを決定する。   The recommendation unit recognizes a plurality of persons as the specific person, acquires each similarity between the similar person candidate and each of the plurality of specific persons from the person similarity information, and acquires each similar Based on the degree, a total similarity of the similar person candidates is calculated, and based on the total similarity, it is determined whether to recognize the similar person candidate as the similar person.

前記特定人物を含む前記複数の人物間における前記所定の類似基準に基づく各類似度をそれぞれ演算し、それらの演算結果を前記人物類似情報として前記人物類似情報保持手段に保持させる類似度演算手段をさらに備える。   Similarity calculating means for calculating each similarity based on the predetermined similarity criterion between the plurality of persons including the specific person and holding the calculation result as the person similarity information in the person similarity information holding means; Further prepare.

本発明の一側面の情報処理方法は、ユーザが嗜好する特定人物に関する嗜好情報を保持する嗜好情報保持手段と、前記特定人物を含む複数の人物間における所定の類似基準に基づく各類似度を示す人物類似情報を保持する人物類似情報保持手段とを備え、前記ユーザにコンテンツを推薦する情報処理装置の情報処理方法であって、前記嗜好情報保持手段に保持された前記嗜好情報に基づいて前記特定人物を認識し、前記人物類似情報保持手段に保持された前記人物類似情報に基づいて、前記特定人物に類似すると判断できる類似人物を認識し、前記特定人物が出演するコンテンツと前記類似人物が出演するコンテンツとのうちの少なくとも一方を、ユーザに対して推薦すべき推薦コンテンツの候補として決定するステップを含む。   An information processing method according to one aspect of the present invention shows preference information holding means for holding preference information related to a specific person preferred by a user, and each similarity based on a predetermined similarity criterion between a plurality of persons including the specific person An information processing method of an information processing apparatus that recommends content to the user, the identification information being based on the preference information held in the preference information holding means Recognizing a person, recognizing a similar person that can be judged to be similar to the specific person based on the person similarity information held in the person similarity information holding means, and the content in which the specific person appears and the similar person appear Determining at least one of the content to be recommended as a recommended content candidate to be recommended to the user.

本発明の一側面のプログラムは、上述した本発明の一側面の情報処理方法に対応するプログラムである。   A program according to one aspect of the present invention is a program corresponding to the information processing method according to one aspect of the present invention described above.

本発明の一側面の情報処理装置および方法、並びにプログラムにおいては、ユーザが嗜好する特定人物に関する嗜好情報を保持する嗜好情報保持手段と、前記特定人物を含む複数の人物間における所定の類似基準に基づく各類似度を示す人物類似情報を保持する人物類似情報保持手段とを備え、前記ユーザにコンテンツを推薦する情報処理装置または推薦装置が対象となり、次のような処理が実行される。即ち、前記嗜好情報保持手段に保持された前記嗜好情報に基づいて前記特定人物が認識され、前記人物類似情報保持手段に保持された前記人物類似情報に基づいて、前記特定人物に類似すると判断できる類似人物が認識され、前記特定人物が出演するコンテンツと前記類似人物が出演するコンテンツとのうちの少なくとも一方が、ユーザに対して推薦すべき推薦コンテンツの候補として決定される。   In the information processing apparatus, method, and program according to one aspect of the present invention, the preference information holding unit that holds preference information related to the specific person that the user likes, and a predetermined similarity criterion between the plurality of persons including the specific person are used. And a person similarity information holding unit that holds person similarity information indicating each similarity based on the information processing apparatus or the recommendation apparatus that recommends content to the user, and the following processing is executed. That is, it can be determined that the specific person is recognized based on the preference information held in the preference information holding unit and is similar to the specific person based on the person similarity information held in the person similarity information holding unit. A similar person is recognized, and at least one of content in which the specific person appears and content in which the similar person appears is determined as a recommended content candidate to be recommended to the user.

以上のごとく、本発明によれば、ユーザにコンテンツを推薦することができる。特に、ユーザが嗜好する特定人物に基づくコンテンツ推薦だけではなく、類似人物に基づくコンテンツ推薦ができるようになった。即ち、ユーザの嗜好から外れない範囲内でバリエーションのあるコンテンツ推薦をすることが可能になった。   As described above, according to the present invention, it is possible to recommend content to the user. In particular, not only content recommendation based on a specific person preferred by a user but also content recommendation based on a similar person can be performed. That is, it is possible to recommend content with variations within a range that does not deviate from the user's preference.

以下に本発明の実施の形態を説明するが、本発明の構成要件と、発明の詳細な説明に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、発明の詳細な説明に記載されていることを確認するためのものである。従って、発明の詳細な説明中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between the configuration requirements of the present invention and the embodiments described in the detailed description of the present invention are exemplified as follows. This description is to confirm that the embodiments supporting the present invention are described in the detailed description of the invention. Accordingly, although there are embodiments that are described in the detailed description of the invention but are not described here as embodiments corresponding to the constituent elements of the present invention, It does not mean that the embodiment does not correspond to the configuration requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.

さらに、この記載は、発明の実施の形態に記載されている具体例に対応する発明が、請求項に全て記載されていることを意味するものではない。換言すれば、この記載は、発明の実施の形態に記載されている具体例に対応する発明であって、この出願の請求項には記載されていない発明の存在、すなわち、将来、分割出願されたり、補正により追加される発明の存在を否定するものではない。   Further, this description does not mean that all the inventions corresponding to the specific examples described in the embodiments of the invention are described in the claims. In other words, this description is an invention corresponding to the specific example described in the embodiment of the invention, and the existence of an invention not described in the claims of this application, that is, in the future, a divisional application will be made. Nor does it deny the existence of an invention added by amendment.

本発明の一側面の情報処理装置(例えば図2のコンテンツ推薦処理装置10)は、
ユーザにコンテンツを推薦する情報処理装置であって、
前記ユーザが嗜好する特定人物に関する嗜好情報(例えば図4の出演者情報Pupを含むユーザ嗜好情報)を保持する嗜好情報保持手段(例えば図2のユーザ嗜好情報保持部29)と、
前記特定人物を含む複数の人物間における所定の類似基準に基づく各類似度を示す人物類似情報(例えば図6の人物類似度情報)を保持する人物類似情報保持手段(例えば図2の人物類似度情報保持部31)と、
前記嗜好情報保持手段に保持された前記嗜好情報に基づいて前記特定人物を認識し、前記人物類似情報保持手段に保持された前記人物類似情報に基づいて、前記特定人物に類似すると判断できる類似人物を認識し、前記特定人物が出演するコンテンツと前記類似人物が出演するコンテンツとのうちの少なくとも一方を、ユーザに対して推薦すべき推薦コンテンツの候補として決定する推薦手段(例えば図2の推薦コンテンツ抽出部32)と
を備える。
An information processing apparatus according to one aspect of the present invention (for example, the content recommendation processing apparatus 10 in FIG. 2)
An information processing device that recommends content to a user,
Preference information holding means (for example, the user preference information holding unit 29 in FIG. 2) that holds preference information (for example, user preference information including the performer information Pup in FIG. 4) related to the specific person that the user likes;
Person similarity information holding means (for example, person similarity in FIG. 2) that holds person similarity information (for example, person similarity information in FIG. 6) indicating each similarity based on a predetermined similarity criterion among a plurality of persons including the specific person. An information holding unit 31);
A similar person that recognizes the specific person based on the preference information held in the preference information holding means and can determine that the specific person is similar to the specific person based on the person similarity information held in the person similarity information holding means And recommending means for determining at least one of the content in which the specific person appears and the content in which the similar person appears as a recommended content candidate to be recommended to the user (for example, the recommended content in FIG. 2) And an extraction unit 32).

前記人物類似情報は、複数の類似基準のそれぞれに基づく各類似度を示す各情報からなり(例えば図6の例の人物類似度情報は、類似基準の一例としての「顔」の類似度表、類似基準の一例としての「声」の類似度表、および、類似基準の一例としての「言語」の類似度表からなり)、
前記推薦手段は、
前記複数の類似基準のそれぞれについて、前記類似人物の候補と前記特定人物との間の各類似度を前記人物類似情報から取得し(例えば図8のステップS44の処理を実行し)、
取得した前記複数の類似基準のそれぞれについての前記各類似度と、コンテンツの内容に応じて変化する前記複数の類似基準の重要度合(例えば図11のコンテンツのジャンル(内容)に応じて変化する各重み係数α,β,γ)とに基づいて、前記類似人物の候補の総合的な類似度を演算し(例えば図8のステップS50(詳細は図10)の複数の使用類似基準の総合類似度演算処理を実行し)、
前記総合的な類似度に基づいて、前記類似人物の候補を前記類似人物として認識するか否かを決定する(例えば図8のステップS51の処理を実行する)。
The person similarity information includes information indicating each similarity based on each of a plurality of similarity criteria (for example, the person similarity information in the example of FIG. 6 includes a similarity table of “face” as an example of a similarity criterion, A similarity table of “voice” as an example of similarity criteria, and a similarity table of “language” as an example of similarity criteria),
The recommendation means is:
For each of the plurality of similarity criteria, each similarity between the candidate for the similar person and the specific person is acquired from the person similarity information (for example, the process of step S44 of FIG. 8 is executed)
Each of the similarities for each of the plurality of similar criteria acquired, and the importance of the plurality of similar criteria changing according to the content content (for example, each changing according to the genre (content) of the content in FIG. 11) Based on the weighting coefficients α, β, γ), the total similarity of the similar person candidates is calculated (for example, the total similarity of a plurality of use similarity criteria in step S50 of FIG. 8 (details are FIG. 10)). Execute arithmetic processing)
Whether or not the similar person candidate is recognized as the similar person is determined based on the total similarity (for example, the process of step S51 in FIG. 8 is executed).

前記推薦手段は、
前記特定人物として複数人を認識し、
前記類似人物の候補と、前記複数の特定人物のそれぞれとの間の各類似度を前記人物類似情報から取得し(例えば図8のステップS43乃至S45のループ処理を繰り返し実行し)、
取得した前記各類似度に基づいて、前記類似人物の候補の総合的な類似度を演算し(例えば図8のステップS47(詳細は図9)の複数の特定人物の総合類似度演算処理を実行し)、
前記総合的な類似度に基づいて、前記類似人物の候補を前記類似人物として認識するか否かを決定する(例えば、図8のステップS51の処理を実行する)。
The recommendation means is:
Recognizing a plurality of persons as the specific person,
Each similarity between the similar person candidate and each of the plurality of specific persons is acquired from the person similarity information (for example, the loop process of steps S43 to S45 in FIG. 8 is repeatedly executed)
Based on the obtained similarities, the overall similarity of the similar person candidates is calculated (for example, the total similarity calculation processing of a plurality of specific persons in step S47 in FIG. 8 (details are shown in FIG. 9)). And)
Whether or not the similar person candidate is recognized as the similar person is determined based on the total similarity (for example, the process of step S51 in FIG. 8 is executed).

前記特定人物を含む前記複数の人物間における前記所定の類似基準に基づく各類似度をそれぞれ演算し、それらの演算結果を前記人物類似情報として前記人物類似情報保持手段に保持させる類似度演算手段(例えば図2の人物類似度情報生成部30)をさらに備える。   A similarity calculation unit that calculates each similarity based on the predetermined similarity criterion between the plurality of persons including the specific person and holds the calculation result as the person similarity information in the person similarity information holding unit ( For example, it further includes the person similarity information generation unit 30) of FIG.

本発明の一側面の情報処理方法(例えば図7のコンテンツ推薦処理に対応する方法)は、
ユーザが嗜好する特定人物に関する嗜好情報(例えば図4の出演者情報Pupを含むユーザ嗜好情報)を保持する嗜好情報保持手段(例えば図2のユーザ嗜好情報保持部29)と、
前記特定人物を含む複数の人物間における所定の類似基準に基づく各類似度を示す人物類似情報(例えば図6の人物類似度情報)を保持する人物類似情報保持手段(例えば図2の人物類似度情報保持部31)とを備え、
前記ユーザにコンテンツを推薦する情報処理装置(例えば図2のコンテンツ推薦処理装置10)の情報処理方法であって、
前記嗜好情報保持手段に保持された前記嗜好情報に基づいて前記特定人物を認識し(例えば図7のステップS21)、前記人物類似情報保持手段に保持された前記人物類似情報に基づいて、前記特定人物に類似すると判断できる類似人物を認識し(例えば図7のステップS23、即ち、図8の類似人物抽出処理)、前記特定人物が出演するコンテンツと前記類似人物が出演するコンテンツとのうちの少なくとも一方を、ユーザに対して推薦すべき推薦コンテンツの候補として決定する(例えば図7のステップS22、S24)ステップを含む。
An information processing method according to one aspect of the present invention (for example, a method corresponding to the content recommendation process in FIG. 7)
Preference information holding means (for example, the user preference information holding unit 29 in FIG. 2) that holds preference information (for example, user preference information including the performer information Pup in FIG. 4) relating to a specific person that the user likes;
Person similarity information holding means (for example, person similarity in FIG. 2) that holds person similarity information (for example, person similarity information in FIG. 6) indicating each similarity based on a predetermined similarity criterion among a plurality of persons including the specific person. An information holding unit 31),
An information processing method of an information processing device (for example, the content recommendation processing device 10 in FIG. 2) that recommends content to the user,
The specific person is recognized based on the preference information held in the preference information holding means (for example, step S21 in FIG. 7), and the specific person is determined based on the person similarity information held in the person similarity information holding means. A similar person that can be determined to be similar to a person is recognized (for example, step S23 in FIG. 7, ie, similar person extraction processing in FIG. 8), and at least of the content in which the specific person appears and the content in which the similar person appears One of them is determined as a candidate of recommended content to be recommended to the user (for example, steps S22 and S24 in FIG. 7).

本発明の一側面のプログラムは、上述した本発明の一側面の情報処理方法に対応するプログラムであって、例えば図12のコンピュータにより実行される。   The program according to one aspect of the present invention is a program corresponding to the information processing method according to one aspect of the present invention described above, and is executed by, for example, the computer of FIG.

以下、図面を参照して、本発明の実施の形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

はじめに、図1を用いて、テレビジョン番組放送、およびストリーミングデータの配信について説明する。   First, a television program broadcast and streaming data distribution will be described with reference to FIG.

即ち、本実施の形態では、テレビジョン放送番組(ここでも番組と適宜略記する)と、配信ストリーミングデータとがコンテンツの一例として採用されている。   That is, in this embodiment, a television broadcast program (also abbreviated as a program here as appropriate) and distribution streaming data are adopted as examples of content.

放送局1は、地上波の番組放送を送信するか、もしくは、衛星2を介して衛星波の番組放送を送信する。図1の例では、放送局1は1つだけ図示されているが、放送局1が、複数局存在し得ることはいうまでもない。テレビジョン受信装置4のアンテナ3は、地上波、または衛星波の番組放送を受信する。放送信号には、必要に応じて、EPG(Electronic Program Guide)情報が含まれている。   The broadcast station 1 transmits a terrestrial program broadcast, or transmits a satellite wave program broadcast via the satellite 2. In the example of FIG. 1, only one broadcasting station 1 is illustrated, but it is needless to say that there may be a plurality of broadcasting stations 1. The antenna 3 of the television receiver 4 receives a terrestrial or satellite wave program broadcast. The broadcast signal includes EPG (Electronic Program Guide) information as necessary.

配信サーバ5は、ストリーミングデータデータベース6から、映像や音声等のコンテンツを構成するストリーミングデータを読み出し、インターネットその他のネットワークを含むネットワーク8を介して、テレビジョン受信装置4に配信する。また、配信サーバ5は、そのストリーミングデータに関するメタデータを含む情報をメタデータデータベース7から読み出して、ネットワーク8を介して、EPG受信装置9に配信する。さらにまた、配信サーバ5は、放送局1から放送される番組に関するEPG情報を、メタデータデータベース7から読み出して、ネットワーク8を介して、EPG受信装置9に配信する。   The distribution server 5 reads out streaming data constituting content such as video and audio from the streaming data database 6 and distributes it to the television receiver 4 via the network 8 including the Internet and other networks. In addition, the distribution server 5 reads information including metadata regarding the streaming data from the metadata database 7 and distributes the information to the EPG reception device 9 via the network 8. Furthermore, the distribution server 5 reads EPG information related to the program broadcast from the broadcasting station 1 from the metadata database 7 and distributes it to the EPG receiver 9 via the network 8.

一般的な放送信号に重畳されるEPG情報の情報量が、以下に説明する処理に十分な情報である場合、処理には、一般的な放送信号に重畳されるEPG情報と同一のものを利用するようにしてもよい。また、一般的な放送信号に重畳されるEPG情報の情報量が、以下に説明する処理に十分な情報であるとはいえない場合、処理には、一般的な放送信号に重畳されるEPG情報に加えて、もしくは単独で、メタデータを利用するようにしても良い。以下、一般的な放送信号に重畳されるEPG情報では、処理に十分な情報量がないため、本実施の形態では、メタデータを含む情報を利用するものとする。そして、この情報と、ストリーミングデータに関するメタデータを含む情報とをあわせたものを、EPGデータと総称するとする。   When the amount of information of EPG information superimposed on a general broadcast signal is sufficient for the processing described below, the same EPG information superimposed on a general broadcast signal is used for the processing. You may make it do. In addition, if the amount of information of EPG information superimposed on a general broadcast signal is not sufficient information for the processing described below, the processing includes EPG information superimposed on a general broadcast signal. In addition to this, the metadata may be used alone. Hereinafter, since EPG information superimposed on a general broadcast signal does not have a sufficient amount of information for processing, information including metadata is used in the present embodiment. A combination of this information and information including metadata related to streaming data is collectively referred to as EPG data.

EPG受信装置9は、配信されたEPGデータを、テレビジョン受信装置4に提供する。   The EPG receiver 9 provides the distributed EPG data to the television receiver 4.

チューナを有するテレビジョン受信装置4は、操作部を有するテレビジョン表示装置11、または、録画再生装置12から提供されるチャンネルの選択を示す制御信号に基づいて、アンテナ3を介して、地上波、または衛星波の放送信号を選局して受信するとともに、配信サーバ5からのストリーミングデータの配信をネットワーク8を介して受け、所定の形態の映像/音声信号として、テレビジョン表示装置11、または、録画再生装置12に提供する。また、テレビジョン受信装置4は、EPG受信装置9から、EPGデータの供給を受け、テレビジョン表示装置11、または、録画再生装置12に提供する。なお、テレビジョン受信装置4は、受信した放送波に、EPGデータが含まれていた場合、番組の信号と分離して、それぞれ、テレビジョン表示装置11、または、録画再生装置12に提供する。   The television receiver 4 having a tuner receives a terrestrial wave via an antenna 3 based on a control signal indicating selection of a channel provided from a television display device 11 having an operation unit or a recording / reproducing device 12. Alternatively, the broadcast signal of the satellite wave is selected and received, and the distribution of the streaming data from the distribution server 5 is received via the network 8, and the television display device 11 or the video / audio signal of a predetermined form is received. This is provided to the recording / playback apparatus 12. Also, the television receiver 4 receives the supply of EPG data from the EPG receiver 9 and provides it to the television display device 11 or the recording / playback device 12. When the received broadcast wave includes EPG data, the television receiver 4 separates it from the program signal and provides it to the television display device 11 or the recording / playback device 12, respectively.

コンテンツ推薦処理装置10は、配信サーバ5から配信された若しくは配信予定のストリーミングデータと、放送局1から放送された若しくは放送予定のテレビジョン放送番組(以下、これらをまとめてコンテンツと称する)のうちの、ユーザの嗜好に合致したコンテンツを推薦するための推薦情報を生成し、テレビジョン表示装置11および録画再生装置12に提供する。なお、コンテンツ推薦処理装置10の詳細については、図2以降の図面を参照して後述する。   The content recommendation processing device 10 includes streaming data distributed or scheduled to be distributed from the distribution server 5 and television broadcast programs broadcast or scheduled to be broadcast from the broadcasting station 1 (hereinafter collectively referred to as contents). The recommendation information for recommending the content that matches the user's preference is generated and provided to the television display device 11 and the recording / playback device 12. Note that details of the content recommendation processing device 10 will be described later with reference to FIG.

テレビジョン表示装置11は、ユーザの操作入力を基に、テレビジョン受信装置4から提供された映像/音声信号、または、録画再生装置12から再生された映像/音声信号の表示や音声出力をしたり、コンテンツ推薦処理装置10から提供された推薦情報に基づいて、チャンネルを自動設定したり、推薦番組情報を表示する。テレビジョン表示装置11は、ユーザの操作履歴である操作ログをコンテンツ推薦処理装置10に提供する。   The television display device 11 displays and outputs a video / audio signal provided from the television receiver 4 or a video / audio signal reproduced from the recording / reproducing device 12 based on a user operation input. Or automatically setting channels based on the recommendation information provided from the content recommendation processing device 10 or displaying recommended program information. The television display device 11 provides an operation log, which is a user operation history, to the content recommendation processing device 10.

録画再生装置12は、ユーザの操作入力に基づいて、テレビジョン受信装置4から提供された映像/音声信号を、装着された記録媒体、または、内蔵する記録媒体(例えば、ハードディスク)に録画したり、コンテンツ推薦処理装置10から提供された推薦情報に基づいて、テレビジョン受信装置4から提供された映像/音声信号を、装着された記録媒体、または、内蔵する記録媒体に自動録画する。また、録画再生装置12は、装着された記録媒体、または、内蔵する記録媒体に録画されている映像/音声信号を再生し、テレビジョン表示装置11に提供する。更に、録画再生装置12は、ユーザの操作履歴である操作ログをコンテンツ推薦処理装置10に提供する。   The recording / reproducing apparatus 12 records the video / audio signal provided from the television receiving apparatus 4 on an attached recording medium or a built-in recording medium (for example, a hard disk) based on a user operation input. Based on the recommendation information provided from the content recommendation processing device 10, the video / audio signal provided from the television receiver 4 is automatically recorded on the attached recording medium or a built-in recording medium. The recording / playback apparatus 12 plays back the video / audio signals recorded on the attached recording medium or the built-in recording medium, and provides them to the television display apparatus 11. Furthermore, the recording / playback apparatus 12 provides an operation log, which is a user operation history, to the content recommendation processing apparatus 10.

ここでは、EPG受信装置9、テレビジョン受信装置4、コンテンツ推薦処理装置10、テレビジョン表示装置11、および、録画再生装置12を、それぞれ異なる装置として説明したが、これらの装置は、必ずしも個別に構成する必要はない。例えば、EPG受信装置9、テレビジョン受信装置4、および、テレビジョン表示装置11を、チューナ機能を内蔵したテレビジョン受像機15−1として、一体的に構成するようにしてもよいことはいうまでもない。さらに、録画再生装置12も一体的に構成して、録画機能を有するテレビジョン受像機15−2として構成するようにしてもよい。この録画再生装置12は、記録媒体として、大容量のハードディスクを有する、いわゆるハードディスクレコーダであってもよいことはいうまでもない。また、コンテンツ推薦処理装置10を、チューナ機能を内蔵したテレビジョン受像機15−1に内蔵して、テレビジョン受像機15−3としても、または、録画機能を有するテレビジョン受像機15−2に内蔵して、テレビジョン受像機15−4とするようにしてもよい。   Here, the EPG receiving device 9, the television receiving device 4, the content recommendation processing device 10, the television display device 11, and the recording / playback device 12 have been described as different devices, but these devices are not necessarily individually provided. There is no need to configure. For example, it goes without saying that the EPG receiving device 9, the television receiving device 4, and the television display device 11 may be integrally configured as a television receiver 15-1 having a built-in tuner function. Nor. Furthermore, the recording / reproducing apparatus 12 may be integrally configured as a television receiver 15-2 having a recording function. Needless to say, the recording / reproducing apparatus 12 may be a so-called hard disk recorder having a large-capacity hard disk as a recording medium. In addition, the content recommendation processing device 10 is incorporated in a television receiver 15-1 having a tuner function, and may be used as the television receiver 15-3 or in the television receiver 15-2 having a recording function. It may be built in and used as the television receiver 15-4.

図2は、コンテンツ推薦処理装置10の機能的構成例を示している。   FIG. 2 shows a functional configuration example of the content recommendation processing apparatus 10.

図2の例では、コンテンツ推薦処理装置10は、データ取得部21乃至推薦情報保持部34を含むように構成されている。   In the example of FIG. 2, the content recommendation processing device 10 is configured to include a data acquisition unit 21 to a recommendation information holding unit 34.

データ取得部21は、配信サーバ5からネットワーク8を介して配信されたデータや、放送局1から放送されてテレビジョン受信装置4に受信されたテレビジョン放送番組のデータを取得する(図1参照)。データ取得部21は、取得したデータがストリーミングデータやテレビジョン放送番組のデータ(以下、これらをまとめてコンテンツデータと称する)の場合、そのコンテンツデータをコンテンツ情報保持部24に保持させる。また、データ取得部21は、取得したデータがEPGデータの場合、そのEPGデータをメタデータ抽出部22に提供する。   The data acquisition unit 21 acquires data distributed from the distribution server 5 via the network 8 and data of a television broadcast program broadcast from the broadcast station 1 and received by the television receiver 4 (see FIG. 1). ). When the acquired data is streaming data or television broadcast program data (hereinafter collectively referred to as content data), the data acquisition unit 21 causes the content information holding unit 24 to hold the content data. In addition, when the acquired data is EPG data, the data acquisition unit 21 provides the EPG data to the metadata extraction unit 22.

メタデータ抽出部22は、データ取得部21から提供されたEPGデータから、図3を用いて後述するコンテンツ情報を生成するために必要な各種メタデータを抽出し、コンテンツ情報生成部23に提供する。   The metadata extraction unit 22 extracts various metadata necessary for generating content information, which will be described later using FIG. 3, from the EPG data provided from the data acquisition unit 21, and provides the metadata to the content information generation unit 23. .

コンテンツ情報生成部23は、メタデータ抽出部22から提供された所定のコンテンツに関するメタデータに基づいて、その所定のコンテンツに関する各種情報群(以下、コンテンツ情報と称する)を生成し、コンテンツ情報保持部24に提供する。   The content information generation unit 23 generates various information groups (hereinafter referred to as content information) related to the predetermined content based on the metadata related to the predetermined content provided from the metadata extraction unit 22, and the content information holding unit 24.

即ち、コンテンツ情報保持部24には、複数のコンテンツ毎に、実データであるコンテンツデータと、それに関する各種情報の集合体であるコンテンツ情報とが対応付けられて保持される。   That is, in the content information holding unit 24, content data that is actual data and content information that is an aggregate of various pieces of information are associated and held for each of a plurality of contents.

かかるコンテンツ情報の一例が、図3に示されている。図3の例では、コンテンツ情報は、ベクトルPPで表現されている。即ち、図2のコンテンツ情報生成部23は、メタデータ抽出部22から抽出された各種メタデータに含まれているN個(Nは1以上の整数値)の項目の情報を各成分として有するベクトルPPを、コンテンツ情報として生成してコンテンツ情報保持部24に保持させる。   An example of such content information is shown in FIG. In the example of FIG. 3, the content information is expressed by a vector PP. That is, the content information generation unit 23 of FIG. 2 has a vector having information of N items (N is an integer value of 1 or more) items included in various metadata extracted from the metadata extraction unit 22 as components. A PP is generated as content information and is held in the content information holding unit 24.

ここでいうN個の項目とは、EPGデータで規定されている項目に限定されず、設計者等が任意に設定可能な項目をいう。例えば、図3の例では、N=7の大項目T,G,H,S,P,A,Kが採用されている。これら7つの大項目のそれぞれについてのコンテンツに関する各情報が、Tm,Gm,Hm,Sm,Pm,Am,Kmとされている。そして、これらの7つの項目情報Tm,Gm,Hm,Sm,Pm,Am,Kmが、コンテンツ情報としてのベクトルPPの各成分に代入されている。即ち、ベクトルPP=(Tm,Gm,Hm,Sm,Pm,Am,Km)が、コンテンツ情報として生成されている。   The N items here are not limited to items defined by EPG data, but items that can be arbitrarily set by a designer or the like. For example, in the example of FIG. 3, N = 7 major items T, G, H, S, P, A, and K are employed. Each piece of information regarding the contents of each of these seven major items is Tm, Gm, Hm, Sm, Pm, Am, Km. These seven item information Tm, Gm, Hm, Sm, Pm, Am, and Km are substituted for each component of the vector PP as content information. That is, the vector PP = (Tm, Gm, Hm, Sm, Pm, Am, Km) is generated as the content information.

ただし、後述する図4のユーザ嗜好情報のベクトルUPとのマッチング処理にコンテンツ情報が使用される場合、ベクトルPPそのものではなく、PP'=(Tm,Gm,Pm,Am,Km)が使用される。比較相手のユーザ嗜好情報のベクトルUPと次元をあわせるためである。   However, when content information is used for matching processing with the user UP information vector UP in FIG. 4 to be described later, PP ′ = (Tm, Gm, Pm, Am, Km) is used instead of the vector PP itself. . This is in order to match the dimension with the vector UP of the user preference information of the comparison partner.

ここに、大項目Tとは「タイトル(Title)」を意味し、タイトル情報Tm={Title}が、ベクトルPPの対応する成分に代入される。   Here, the large item T means “title”, and title information Tm = {Title} is substituted into the corresponding component of the vector PP.

大項目Gとは「ジャンル(Genre))を意味し、ジャンル情報Gm={ドラマ,バラエティ,スポーツ,映画,音楽,子供向け/教育,教養/ドキュメント,ニュース/報道,その他}が、ベクトルPPの対応する成分に代入される。   Major item G means “genre”, and genre information Gm = {drama, variety, sports, movie, music, children / education, education / documents, news / reports, etc.} is a vector PP Assigned to the corresponding component.

大項目Hとは「時間帯(Hour)」を意味し、時間帯情報Hm={朝,昼,夕方,ゴールデン,深夜}が、ベクトルPPの対応する成分に代入される。   The large item H means “Hour”, and the time zone information Hm = {morning, noon, evening, golden, midnight} is substituted into the corresponding component of the vector PP.

大項目Sとは「放送局(TV Station)」を意味し、放送局情報Sm={NNK総合,NNK教育,亜細亜テレビ,TTS,ブジ,テレ日,東都,NNK衛星第1,NNK衛星第2,WOWO}が、ベクトルPPの対応する成分に代入される。なお、図3の例では図示されていないが、配信サーバ5も1つの放送局とみなして、配信サーバ5の名称も、放送局情報Smに含めてもよい。   Major item S means “TV Station”, and broadcast station information Sm = {NNK General, NNK Education, Asia TV, TTS, Buji, Tele-Nippon, Tokyo, NNK Satellite No. 1, NNK Satellite No. 2 , WOWO} is assigned to the corresponding component of the vector PP. Although not shown in the example of FIG. 3, the distribution server 5 may be regarded as one broadcasting station, and the name of the distribution server 5 may be included in the broadcasting station information Sm.

大項目Pとは「出演者(Person)」を意味し、出演者情報Pm={person A,person B,・・・}が、ベクトルPPの対応する成分に代入される。   The large item P means “Person”, and the performer information Pm = {person A, person B,...} Is substituted into the corresponding component of the vector PP.

大項目Aとは、「脚本/原作/演出等(Author)」を意味し、脚本/原作/演出等情報Am={person a,person b,・・・}が、ベクトルPPの対応する成分に代入される。   The large item A means “screenplay / original / production etc. (Author)”, and screenplay / original / production etc. information Am = {person a, person b,...} Is the corresponding component of the vector PP. Assigned.

大項目Kとは、「内容(キーワード)(Keyword)」を意味し、内容情報Km={kw1,kw2,・・・}が、ベクトルPPの対応する成分に代入される。   The large item K means “content (keyword)”, and the content information Km = {kw1, kw2,...} Is substituted into the corresponding component of the vector PP.

上述した7つの大項目の中で、大項目「G:ジャンル」、「S:放送局」、「H:時間帯」は、種類が固定できるため、各項目情報Gm,Sm,Hmのそれぞれは、数値ベクトルで表すことができる。   Among the seven major items described above, the major items “G: Genre”, “S: Broadcasting Station”, and “H: Time Zone” can be fixed, so that each item information Gm, Sm, Hm is Can be represented by a numeric vector.

具体的には例えば、ジャンル情報Gm={ドラマ,バラエティ,スポーツ,映画,音楽,子供向け/教育,教養/ドキュメント,ニュース/報道,その他}において、ベクトルPPの生成対象となっているコンテンツのジャンルが、教養/ドキュメントであった場合、ジャンル情報Gm={0,0,0,0,0,0,1,0,0}で表すことができる。   Specifically, for example, in the genre information Gm = {drama, variety, sports, movie, music, children / education, education / documents, news / reports, etc.}, the genre of the content for which the vector PP is generated Can be expressed by genre information Gm = {0, 0, 0, 0, 0, 0, 1, 0, 0}.

また例えば、放送局Sm={NNK総合,NNK教育,亜細亜テレビ,TTS,ブジ,テレ日,東都,NNK衛星第1,NNK衛星第2,WOWO}において、ベクトルPPの生成対象となっているコンテンツ(ここではテレビジョン放送番組)を放送する放送局が、WOWOである場合、放送局情報Sm={0,0,0,0,0,0,0,0,0,1}で表すことができる。   Also, for example, the content that is the target of the generation of the vector PP at the broadcasting station Sm = {NNK General, NNK Education, Asia TV, TTS, Buji, Tele-Nichi, Toto, NNK Satellite 1, NNK Satellite 2, WOWO} When the broadcast station that broadcasts (here, a television broadcast program) is WOWO, the broadcast station information Sm = {0, 0, 0, 0, 0, 0, 0, 0, 0, 1} may be used. it can.

時間帯情報Hmも、具体例は記述しないが、上述したジャンル情報Gmや放送局情報Smと同様に、数値ベクトルで表すことができる。   Although the specific example is not described, the time zone information Hm can also be expressed by a numerical vector, like the genre information Gm and the broadcast station information Sm described above.

一方、大項目「T:タイトル」、「P:出演者」、「A:脚本/原作/演出」、「K:内容」などの各項目情報Tm、Pm、Am、Kmは、単純に数値ベクトルで表すことができない。そこで、コンテンツのメタデータ等に含まれる単語の頻度などによって、項目値(単語)と重み(数値)が対応付けられて生成される。例えば、タイトル情報Tm={東海道−1,三谷−1,怪談−1}のように、それぞれの項目値−数値で構成される項目情報を各要素とするベクトルによって表すことができる。この例における、例えば、「東海道−1」は、「東海道」の単語の頻度が「1」であることを意味する。具体例は記述しないが、出演者情報Pm、脚本/原作/演出等情報Am、および、内容情報Kmも、単語−数値で構成される項目情報を各要素とするベクトルによって表すことができる。   On the other hand, each item information Tm, Pm, Am, Km such as “T: Title”, “P: Performer”, “A: Screenplay / Original / Director”, “K: Contents” is simply a numeric vector. Cannot be represented by Therefore, the item value (word) and the weight (numerical value) are generated in association with each other depending on the frequency of the word included in the content metadata or the like. For example, the title information Tm = {Tokaido-1, Mitani-1, Kaidan-1} can be represented by a vector having each item value-numerical item information. In this example, for example, “Tokaido-1” means that the frequency of the word “Tokaido” is “1”. Although a specific example is not described, the performer information Pm, the script / original / production information Am, and the content information Km can also be represented by vectors having item information composed of word-numerical values as elements.

図2に戻り、操作入力部25は、例えば、キーボード、タッチパッド、マウスなどの入力デバイスで構成され、ユーザが入力した初期登録情報や、ユーザモデル生成のためのトピックの入力を受け、それらの情報を初期登録情報保持部26に保持させる。即ち、初期登録情報保持部26は、操作入力部25から提供された初期登録内容や、ユーザモデル生成のためのトピックを保持し、必要に応じて、ユーザ嗜好情報生成部28や推薦コンテンツ抽出部32に提供する。また、初期登録情報保持部26に保持されている内容は、操作入力部25から入力されるユーザの操作に基づいて、逐次更新される。初期登録される内容には、例えば、嫌いなジャンル、嫌いなキーワード、嫌いな出演者などの、ユーザが好まないコンテンツを示す情報や、好きなジャンル、好きなキーワード、好きな出演者などの、ユーザが好むコンテンツを示す情報を採用できる。   Returning to FIG. 2, the operation input unit 25 is configured by input devices such as a keyboard, a touch pad, and a mouse, for example, and receives initial registration information input by the user and topic input for generating a user model. The information is held in the initial registration information holding unit 26. That is, the initial registration information holding unit 26 holds initial registration contents provided from the operation input unit 25 and topics for user model generation, and a user preference information generation unit 28 and a recommended content extraction unit as necessary. 32. Further, the contents held in the initial registration information holding unit 26 are sequentially updated based on a user operation input from the operation input unit 25. The initial registration includes, for example, information indicating content that the user does not like, such as disliked genres, disliked keywords, disliked performers, favorite genres, favorite keywords, favorite performers, Information indicating content that the user likes can be employed.

操作ログ取得部27は、テレビジョン表示装置11または録画再生装置12(図1)から、操作ログを取得し、ユーザ嗜好情報生成部28に提供する。   The operation log acquisition unit 27 acquires an operation log from the television display device 11 or the recording / playback device 12 (FIG. 1) and provides the operation log to the user preference information generation unit 28.

ユーザ嗜好情報生成部28は、この操作ログや、初期登録情報保持部26に保持されている各種情報等に基づいて、コンテンツ推薦処理装置10自身或いは図1のテレビジョン表示装置11や録画再生装置12を操作するユーザの嗜好の傾向を示す情報(以下、ユーザ嗜好情報と称する)を生成し、ユーザ嗜好情報保持部29に保持させる。また、ユーザ嗜好情報がユーザ嗜好情報保持部29に既に保持されている場合、ユーザ嗜好情報生成部28は、操作ログ取得部27から新たに提供されてきた操作ログや、初期登録情報保持部29の更新内容等に基づいて、ユーザ嗜好情報の内容を適宜更新する。   The user preference information generation unit 28, based on the operation log, various information held in the initial registration information holding unit 26, and the like, the content recommendation processing device 10 itself, the television display device 11 in FIG. 12 (hereinafter referred to as user preference information) is generated and stored in the user preference information holding unit 29. Further, when the user preference information is already held in the user preference information holding unit 29, the user preference information generating unit 28 operates the operation log newly provided from the operation log acquisition unit 27 or the initial registration information holding unit 29. The content of the user preference information is updated as appropriate based on the updated content and the like.

なお、ユーザ嗜好情報としては、例えば正履歴情報と負履歴情報との両者を採用できるが、本実施の形態では、説明の簡略上、正履歴情報のみがユーザ嗜好情報として用いられるとする。   As the user preference information, for example, both positive history information and negative history information can be adopted. However, in the present embodiment, only the positive history information is used as the user preference information for the sake of simplicity.

ここに、負履歴情報とは、ユーザが使用(視聴や録画等)するのに消極的である、換言すれば、好ましくないと思うコンテンツを、推薦コンテンツから除外するために用いられる情報をいう。ただし、上述したように、本実施の形態では、負履歴情報は使用されないので、その詳細な説明は省略する。   Here, the negative history information refers to information used to exclude content that is reluctant to use (viewing, recording, etc.) by the user, in other words, content that is considered undesirable, from the recommended content. However, as described above, the negative history information is not used in the present embodiment, and thus detailed description thereof is omitted.

これに対して、正履歴情報とは、ユーザが積極的に使用(視聴や録画等)するであろう、換言すれば、好ましいと思うであろうコンテンツを、推薦コンテンツの候補として抽出するために用いられる情報をいう。例えば、ユーザが、コンテンツの使用(視聴や録画等)をした場合、または、後述する処理によりユーザに推薦情報として提示された推薦コンテンツが、ユーザに受け入れられて使用(視聴や録画等)された場合、その推薦コンテンツのメタデータは、好印象メタデータとして、正履歴情報の一部として利用される。ここに、一部と記述したのは、正履歴情報は、上述したコンテンツ情報のベクトルPPのようにベクトルとして表現でき、かかるベクトルの一成分に代入される情報自身として、またはその成分情報を生成する情報として、利用されるからである。   On the other hand, the positive history information is used to extract content that a user will actively use (viewing, recording, etc.), in other words, content that would be preferable, as recommended content candidates. Information used. For example, when the user uses the content (viewing or recording), or the recommended content presented as recommended information to the user by the process described later is accepted and used (viewing or recording) by the user In this case, the metadata of the recommended content is used as part of the positive history information as good impression metadata. Here, a part of the description is that the positive history information can be expressed as a vector like the content information vector PP described above, and the component information is generated as the information itself substituted into one component of the vector. This is because it is used as information to be performed.

このように、本実施の形態では、ユーザ嗜好情報は、ベクトルの形態でユーザ嗜好情報生成部28により生成されて、ユーザ嗜好情報保持部29に保持される。具体的には例えば、図4に示されるようなベクトルUPが、ユーザ嗜好情報としてユーザ嗜好情報生成部28により生成されて、ユーザ嗜好情報保持部29に保持される。   As described above, in the present embodiment, the user preference information is generated in the form of a vector by the user preference information generation unit 28 and held in the user preference information holding unit 29. Specifically, for example, a vector UP as shown in FIG. 4 is generated as user preference information by the user preference information generation unit 28 and held in the user preference information holding unit 29.

即ち、図4の例では、大項目として、「タイトル」,「ジャンル」,「出演者」,「脚本/原作/演出」,「内容(キーワード)」が採用されており、それらの各大項目のそれぞれについてのユーザの正履歴情報Tup,Gup,Pup,Aup,Kupを各成分として構成されるベクトルUP、即ち、UP=(Tm,Gm,Pm,Am,Km)がユーザ嗜好情報として生成されている。   That is, in the example of FIG. 4, “title”, “genre”, “performer”, “screenplay / original / production”, “content (keyword)” are adopted as the major items. A vector UP composed of each component of the user's positive history information Tup, Gup, Pup, Up, and Kup, that is, UP = (Tm, Gm, Pm, Am, Km) is generated as the user preference information. ing.

この場合、正履歴情報Tup,Gup,Pup,Aup,Kupのそれぞれは、項目値(単語)と重み(数値)が対応付けられた情報として生成される。この重み(数値)としては、例えばユーザの嗜好度合(好ましいと思う度)を示す値(操作頻度の値含)が採用される。例えば、図4の例では、タイトル正履歴情報Tup={Title1−12,Title2−3}のように、それぞれの項目値−数値で構成されるタイトル情報を各要素とするベクトルによって表すことができる。この例における、例えば、「Title1−12」は、「Title1」に対するユーザの嗜好度合は「12」であることを意味する。一方、「Title2−3」は、「Title2」に対するユーザの嗜好度合は「3」であることを意味する。即ち、ユーザの嗜好が強いほど嗜好度合の数値も大きくなっていくとすれば、ユーザは、「Title2」よりも「Title1」の方が好きであると判断できることになる。   In this case, each of the positive history information Tup, Gup, Pup, Up, Kup is generated as information in which item values (words) and weights (numerical values) are associated with each other. As this weight (numerical value), for example, a value (including an operation frequency value) indicating the user's preference level (the degree of preference) is adopted. For example, in the example of FIG. 4, the title information composed of each item value-numeric value can be represented by a vector such as title correct history information Tup = {Title1-12, Title2-3}. . In this example, for example, “Title1-12” means that the user's preference degree for “Title1” is “12”. On the other hand, “Title2-3” means that the user's preference degree for “Title2” is “3”. In other words, if the preference value increases as the user's preference increases, the user can determine that the user prefers “Title1” over “Title2”.

図2に戻り、人類類似度情報生成部30は、1以上のコンテンツのそれぞれに出演する人物を対象として、それらの各人物間の類似度に関する情報(以下、人物類似度情報)を生成し、人物類似度情報保持部31に保持させる。なお、人物類似度情報の詳細については、図5と図6とを参照して後述する。   Returning to FIG. 2, the human similarity information generation unit 30 generates information on the similarity between each person (hereinafter, person similarity information) for each person who appears in each of the one or more contents. The person similarity information holding unit 31 holds it. Details of the person similarity information will be described later with reference to FIGS.

推薦コンテンツ抽出部32は、ユーザ嗜好情報保持部29に保持されているユーザ嗜好情報に基づいて、ユーザの嗜好に合致すると判断できるコンテンツを、ユーザに推薦すべきコンテンツ(以下、推薦コンテンツと称する)として、コンテンツ情報保持部24から抽出する。なお、ここでいう抽出とは、推薦コンテンツのコンテンツデータそのものの抽出ではなく、推薦コンテンツを特定できる情報、即ち、推薦コンテンツに関するコンテンツ情報の少なくとも一部の抽出を意味する。   The recommended content extraction unit 32 recommends content that can be determined to match the user's preference based on the user preference information held in the user preference information holding unit 29 (hereinafter referred to as recommended content). Is extracted from the content information holding unit 24. The extraction here means not extraction of the content data itself of the recommended content, but extraction of at least part of information that can identify the recommended content, that is, content information related to the recommended content.

なお、この場合の抽出手法は特に限定されず、例えば、コンテンツ情報保持部24に保持されている複数のコンテンツのそれぞれについての各ベクトルPP'=(Tm,Gm,Pm,Am,Km)と(図3参照)、ユーザ嗜好情報保持部29に保持されているユーザ嗜好情報のベクトルUP =(Tm,Gm,Pm,Am,Km)と(図4参照)のマッチング処理を実行し、ベクトルUPとマッチングしたベクトルPPを有するコンテンツを、推薦コンテンツとして抽出する、という手法を採用してもよい。   The extraction method in this case is not particularly limited. For example, each vector PP ′ = (Tm, Gm, Pm, Am, Km) for each of a plurality of contents held in the content information holding unit 24 and ( 3), the user preference information vector UP held in the user preference information holding unit 29 = (Tm, Gm, Pm, Am, Km) (see FIG. 4) is matched, and the vector UP A method of extracting content having a matched vector PP as recommended content may be employed.

ただし、本実施の形態では説明の簡略上、コンテンツの登場人物に着目し、ユーザ嗜好情報保持部29に保持されているユーザ嗜好情報において、ユーザの嗜好度合いが高い人物を特定人物として抽出し、その特定人物が出演しているコンテンツを推薦コンテンツとして抽出する、という手法を採用しているとする。   However, in the present embodiment, for simplicity of explanation, attention is given to the characters of the content, and in the user preference information held in the user preference information holding unit 29, a person having a high user preference level is extracted as a specific person, Assume that a method of extracting content in which the specific person appears as recommended content is employed.

即ち、本実施の形態では、推薦コンテンツ抽出部32は、図4の出演者情報Pupの中で、所定の閾値以上の重み値(嗜好度合)を有するPerson(人物)を特定人物として抽出する。例えば閾値が30である場合には、重み値「43」を有するpersonBが特定人物として抽出される。そして、推薦コンテンツ抽出部32は、コンテンツ情報保持部24に保持されている複数のコンテンツのそれぞれに関するコンテンツ情報の図3の出演者情報Pmの中に、特定人物が含まれている(ベクトルの対応する成分が1である)か否かをそれぞれ認識し、特定人物が含まれているコンテンツ情報またはその一部を、推薦コンテンツのコンテンツ情報またはその一部として抽出する。即ち、推薦コンテンツの抽出が行われる。   In other words, in the present embodiment, the recommended content extraction unit 32 extracts a person (person) having a weight value (preference degree) equal to or greater than a predetermined threshold from the performer information Pup in FIG. 4 as a specific person. For example, when the threshold is 30, personB having the weight value “43” is extracted as the specific person. The recommended content extraction unit 32 includes a specific person in the performer information Pm in FIG. 3 of the content information related to each of the plurality of contents held in the content information holding unit 24 (vector correspondence) The content information including the specific person or a part thereof is extracted as the content information of the recommended content or a part thereof. That is, recommended content is extracted.

さらに、推薦コンテンツ抽出部32は、人類類似度情報保持部31に保持されている人類類似度情報に基づいて、上述した特定人物に類似すると判断できる人物(以下、類似人物と称する)を認識する。そして、推薦コンテンツ抽出部32は、図3の出演者情報Pmに類似人物が含まれている(ベクトルの対応する成分が1である)コンテンツ情報を有するコンテンツを、推薦コンテンツとして抽出する。即ち、出演者情報Pmに類似人物が含まれている(ベクトルの対応する成分が1である)コンテンツ情報自身またはそのうちの一部の情報もまた、推薦コンテンツのコンテンツ情報またはその一部として抽出される。なお、この一連の処理の詳細例については、類似人物抽出処理として、図8乃至図11を参照して後述する。   Further, the recommended content extraction unit 32 recognizes a person who can be determined to be similar to the specific person described above (hereinafter referred to as a similar person) based on the human similarity information held in the human similarity information holding unit 31. . Then, the recommended content extraction unit 32 extracts content having content information in which a similar person is included in the performer information Pm in FIG. 3 (the corresponding component of the vector is 1) as recommended content. That is, the content information itself that includes a similar person in the performer information Pm (the corresponding component of the vector is 1) or a part thereof is also extracted as the content information of the recommended content or a part thereof. The A detailed example of this series of processing will be described later with reference to FIGS. 8 to 11 as similar person extraction processing.

なお、推薦コンテンツ抽出部32が類似人物を利用して推薦コンテンツを抽出する処理は、上述した処理例に限定されず、任意の処理を採用することができる。具体的には例えば、ユーザではなくコンテンツの登場人物となり得る人物に関するベクトルUman、例えば、その人物が登場人物となったコンテンツの数や頻度等に基づく各種情報を成分として構成されるベクトルUmanを各人物毎に予め作成しておき、類似人物に関するベクトルUmanと、ベクトルPP'とのマッチング処理を実行し、ベクトルUmanとマッチングしたベクトルPP'を有するコンテンツを、推薦コンテンツとして抽出する、といった手法を採用してもよい。   Note that the process in which the recommended content extraction unit 32 extracts recommended content using a similar person is not limited to the above-described processing example, and any processing can be employed. Specifically, for example, a vector Uman related to a person who can be a character of content rather than a user, for example, a vector Uman composed of various information based on the number and frequency of content in which the character is a character. Created in advance for each person, executes a matching process between the vector Uman related to the similar person and the vector PP ′, and extracts the content having the vector PP ′ matched with the vector Uman as the recommended content. May be.

推薦コンテンツ抽出部32は、このようにして抽出した推薦コンテンツの一覧を推薦情報として生成し、推薦情報出力部33に出力する。   The recommended content extraction unit 32 generates a list of recommended content extracted in this way as recommendation information, and outputs it to the recommendation information output unit 33.

なお、推薦コンテンツ抽出部32は、抽出したコンテンツを直ちに推薦コンテンツとせずに、推薦候補とするに留め、その後、適当な手法で選抜した推薦候補を、推薦コンテンツとして決定するようにしてもよい。換言すると、抽出されたコンテンツを、推薦コンテンツの一覧に含めるか否かの処理を選抜処理と捉え、抽出されたコンテンツの全てを推薦コンテンツの一覧に含めることも許可されていると捉えれば、結局、抽出されたコンテンツはみな推薦候補であると捉えることもできる。   Note that the recommended content extraction unit 32 may not use the extracted content as a recommended content immediately, but instead as a recommended candidate, and then determine the recommended candidate selected by an appropriate method as the recommended content. In other words, if the process of whether or not to include the extracted content in the recommended content list is regarded as a selection process, and it is also permitted to include all of the extracted content in the recommended content list, All the extracted contents can be regarded as recommended candidates.

推薦情報出力部33は、推薦コンテンツ抽出部32から提供された推薦情報を、テレビジョン表示装置11や録画再生装置12(図1)に適宜出力する。また、推薦情報出力部33は、推薦情報を推薦情報保持部34に適宜保持させる。   The recommendation information output unit 33 appropriately outputs the recommendation information provided from the recommended content extraction unit 32 to the television display device 11 and the recording / playback device 12 (FIG. 1). Also, the recommendation information output unit 33 causes the recommendation information holding unit 34 to appropriately hold the recommendation information.

次に、かかる図2の機能的構成を有するコンテンツ推薦処理装置10の処理のうちの、人物類似度情報を生成または更新する処理(以下、人物類似度情報生成/更新処理と称する)と、その人物類似度情報等を利用して推薦情報を生成して出力するまでの一連の処理(以下、コンテンツ推薦処理と称する)とについて、その順番で個別に説明していく。   Next, of the processes of the content recommendation processing apparatus 10 having the functional configuration of FIG. 2, a process of generating or updating person similarity information (hereinafter referred to as person similarity information generation / update process), A series of processing (hereinafter referred to as content recommendation processing) until recommendation information is generated and output using person similarity information or the like will be described individually in that order.

図5のフローチャートは、人物類似度情報生成/更新処理の一例を示している。   The flowchart of FIG. 5 shows an example of person similarity information generation / update processing.

ステップS1において、図2の人物類似度情報生成部30は、コンテンツ情報保持部24に保持されているコンテンツ情報に基づいて、複数の出演者を抽出する。   In step S <b> 1, the person similarity information generation unit 30 in FIG. 2 extracts a plurality of performers based on the content information held in the content information holding unit 24.

具体的には例えば、人物類似度情報生成部30は、各コンテンツのそれぞれに関する各コンテンツ情報の出演者情報Pm(図4参照)にそれぞれ含まれているPerson(人物)を全て抽出する。   Specifically, for example, the person similarity information generation unit 30 extracts all the persons (persons) included in the performer information Pm (see FIG. 4) of each content information regarding each content.

ステップS2において、人物類似度情報生成部30は、処理対象類似基準を設定する。   In step S2, the person similarity information generation unit 30 sets a processing target similarity criterion.

ここで、処理対象類似基準について説明する。   Here, the processing target similarity criterion will be described.

人物間の類似度は、人物が有する様々な特徴のうちの所定の特徴に着目し、その所定の特徴がどの程度類似しているのかを所定の手法に従って演算することで算出可能である。かかる演算の対象となり得る人物の特徴を、ここでは類似基準と称している。   The degree of similarity between persons can be calculated by paying attention to a predetermined characteristic among various characteristics of persons and calculating how similar the predetermined characteristic is according to a predetermined method. The characteristics of a person that can be a target of such calculation are referred to as similarity criteria here.

即ち、各人物によって差異を生じる特徴であって、その差異を定性的に表現できる特徴であれば、例えば、人物毎に特徴量を抽出可能でありその特徴量で差異を表現できる特徴であれば、何れの特徴も類似基準として採用可能である。具体的には例えば本実施の形態では、人物が有する顔の特徴(以下、単に「顔」と記述する)、人物が発声する声(以下、単に「声」と記述する)、および、人物が発話したり執筆したりするときに利用する言語の特徴(以下、単に「言語」と記述する)が、それぞれ類似基準として採用されているとする。   In other words, if the feature causes a difference between each person and can express the difference qualitatively, for example, if the feature amount can be extracted for each person and the difference can be expressed by the feature amount. Any feature can be adopted as a similarity criterion. Specifically, for example, in the present embodiment, a facial feature of a person (hereinafter simply referred to as “face”), a voice uttered by the person (hereinafter simply referred to as “voice”), and a person It is assumed that the characteristics of the language used when speaking and writing (hereinafter simply referred to as “language”) are adopted as similarity criteria.

従って、本実施の形態では、ステップS2の処理によって、「顔」、「声」、および「言語」のうちの所定の1つの類似基準が、処理対象類似基準として設定される。   Therefore, in the present embodiment, a predetermined one similarity criterion among “face”, “voice”, and “language” is set as a processing target similarity criterion by the processing in step S2.

ステップS3において、人物類似度情報生成部30は、ステップS1の処理で抽出された複数の出演者を、処理対象類似度基準の類似度表に登録する。   In step S3, the person similarity information generating unit 30 registers a plurality of performers extracted in the process of step S1 in the similarity table based on the processing target similarity criterion.

ここに、類似度表とは、例えば図6に示されるようなテーブル、即ち、所定の類似度基準についての各出演者間の類似度をそれぞれ記述するテーブルをいう。即ち、本実施の形態では、図6に示されるように、「顔」、「声」、および「言語」の類似度表が、人物類似度情報として人物類似度情報保持部31に保持されることになる。   Here, the similarity table refers to, for example, a table as shown in FIG. 6, that is, a table describing the similarity between performers for a predetermined similarity criterion. That is, in the present embodiment, as shown in FIG. 6, a similarity table of “face”, “voice”, and “language” is held in the person similarity information holding unit 31 as person similarity information. It will be.

従って、処理対象類似基準についての類似度表が人物類似度情報保持部31にまだ保持されていない場合、ステップS3の処理では、ステップS1の処理で抽出された複数の出演者全員が登録された類似度表(ただし、類似度を示す数値は未記載の類似度表)が新たに生成されて、人物類似度情報保持部31に保持される。   Therefore, when the similarity table for the processing target similarity criterion is not yet held in the person similarity information holding unit 31, in the process of step S3, all the plurality of performers extracted in the process of step S1 are registered. A similarity table (however, a numerical value indicating similarity is an undescribed similarity table) is newly generated and held in the person similarity information holding unit 31.

具体的には例えば、処理対象類似基準が「顔」であって、ステップS1の処理で「俳優A」、「俳優B」、「歌手C」、「歌手D」、「司会者E」、および「司会者F」が抽出された場合には、ステップS3の処理により、図6の「顔」の類似度表(ただし、類似度を示す各数値は未記載の類似度表)が新たに生成されて、人物類似度情報保持部31に保持される。   Specifically, for example, the processing target similarity criterion is “face”, and “actor A”, “actor B”, “singer C”, “singer D”, “moderator E”, and When “moderator F” is extracted, a new similarity table for “face” in FIG. 6 (however, each numerical value indicating similarity is not described) is newly generated by the process of step S3. Then, it is held in the person similarity information holding unit 31.

これに対して、処理対象類似基準についての類似度表が人物類似度情報保持部31に既に保持されている場合、ステップS3の処理では、ステップS1の処理で抽出された複数の出演者のうちの、類似度表に未登録の出演者のみが新たに登録される。即ち、類似度表の内容が更新される。   On the other hand, when the similarity table for the processing target similarity criterion is already held in the person similarity information holding unit 31, in the process of step S3, among the plurality of performers extracted in the process of step S1 Only performers who are not registered in the similarity table are newly registered. That is, the contents of the similarity table are updated.

具体的には例えば、処理対象類似基準が「顔」であって、図6の状態の「顔」の類似度表が人物類似度情報保持部31に既に保持されていた場合に、人物GがステップS1の処理で抽出されたときには、図示はしないが、ステップS3の処理により、「司会者F」の列の右方に「人物G」の列が新規作成され、また、「司会者F」の行の下方に「人物G」の行が新規作成される。   Specifically, for example, when the processing target similarity criterion is “face” and the similarity table of “face” in the state of FIG. 6 is already held in the person similarity information holding unit 31, the person G is When extracted in the process of step S1, although not shown, a column of “person G” is newly created to the right of the column of “moderator F” by the process of step S3, and “moderator F” A row of “person G” is newly created below the row of.

ステップS4において、人物類似度情報生成部30は、処理対象類似基準に応じた類似度演算手法に基づいて、出演者の情報を取得する。そして、ステップS5において、人物類似度情報生成部30は、処理対象類似基準に応じた類似度演算手法に従って、各出演者間の類似度をそれぞれ演算する   In step S <b> 4, the person similarity information generation unit 30 acquires performer information based on a similarity calculation method according to the processing target similarity criterion. And in step S5, the person similarity information generation part 30 calculates the similarity between each performer according to the similarity calculation method according to the process target similarity standard, respectively.

ここで、処理対象類似基準に応じた類似度演算手法の具体例についてその概略を説明する。   Here, an outline of a specific example of the similarity calculation method according to the processing target similarity criterion will be described.

例えば、処理対象類似基準として「顔」が設定されている場合には、次のような類似度演算手法を採用できる。   For example, when “face” is set as the processing target similarity criterion, the following similarity calculation method can be employed.

即ち、人物類似度情報生成部30は、各出演者の顔データを抽出する。この抽出手法は特に限定されず、例えば、所定の出演者の顔データが外部またはコンテンツ情報保持部24等に予め保持されていれば、その顔データをそのまま抽出する、という手法を採用できる。また例えば、そのような顔データが存在しない場合には、コンテンツ情報保持部24に保持されているコンテンツデータのうちの動画データから、抽出対象の出演者の顔が含まれている静止画データを生成し、その静止画データから顔の領域データを顔データとして抽出する、という手法を採用できる。   That is, the person similarity information generation unit 30 extracts the face data of each performer. This extraction method is not particularly limited. For example, if face data of a predetermined performer is held in advance in the outside or the content information holding unit 24, the face data can be extracted as it is. Further, for example, when such face data does not exist, still image data including the face of the performer to be extracted is extracted from the video data of the content data held in the content information holding unit 24. A method of generating and extracting face area data as face data from the still image data can be employed.

次に、人物類似度情報生成部30は、複数の出演者の各顔データから、「顔」の類似度演算手法に応じた特徴量をそれぞれ抽出する。   Next, the person similarity information generation unit 30 extracts feature amounts corresponding to the “face” similarity calculation method from each face data of a plurality of performers.

例えば、「顔」の類似度演算手法として、主成分分析を行った空間上でのEuclid距離を利用する手法が採用されている場合には、顔データ(画像データ)から輝度情報が抽出され、その輝度データが主成分分析により次元圧縮された結果得られるデータが、「顔」の類似度演算手法に応じた特徴量として抽出されることになる。この「顔」の類似度演算手法に応じた特徴量が、ステップS4の処理で言う出演者の情報の一例である。   For example, when a method using the Euclid distance in the space where the principal component analysis is performed as the similarity calculation method of “face”, luminance information is extracted from the face data (image data), Data obtained as a result of dimensional compression of the luminance data by principal component analysis is extracted as a feature amount according to the similarity calculation method of “face”. The feature amount corresponding to the “face” similarity calculation method is an example of the information of the performer in the process of step S4.

従って、ステップS5の処理では、抽出された各人物のそれぞれについての特徴量間の、特徴量空間上での適切な距離尺度に基づいて、各人物間の類似度が計算される。即ち、複数の出演者のそれぞれの顔データ(画像データ)から輝度情報がそれぞれ抽出され、それぞれの輝度情報が主成分分析により次元圧縮された結果得られるそれぞれのデータが、各人物の特徴量となる。かかる各人物の特徴量間の、主成分分析を行った空間上での各Euclid距離がそれぞれ演算される。そして、それらの各Euclid距離が、他の類似基準(「声」や「言語」)と比較できるように正規化された値(例えばここでは、0乃至1の範囲の値)が、各出演者間の類似度として算出される。   Therefore, in the process of step S5, the similarity between each person is calculated based on an appropriate distance measure in the feature quantity space between the feature quantities of each extracted person. That is, brightness information is extracted from each face data (image data) of a plurality of performers, and each brightness information is obtained as a result of dimension compression by principal component analysis. Become. Each Euclid distance in the space where the principal component analysis is performed between the feature amounts of each person is calculated. Each of the Euclid distances is normalized so that it can be compared with other similar criteria (“voice” or “language”) (for example, a value in the range of 0 to 1 here). It is calculated as the similarity between them.

また例えば、処理対象類似基準として「声」が設定されている場合には、次のような類似度演算手法を採用できる。   For example, when “voice” is set as the processing target similarity criterion, the following similarity calculation method can be employed.

即ち、人物類似度情報生成部30は、各出演者の音声波形データを抽出する。この抽出手法は特に限定されず、例えば、所定の出演者の音声波形データが外部またはコンテンツ情報保持部24等に予め保持されていれば、その音声波形データをそのまま抽出する、という手法を採用できる。また例えば、そのような音声波形データが存在しない場合には、コンテンツ情報保持部24に保持されているコンテンツデータのうちの音声データから、抽出対象の出演者が発声している区間から音声波形データを抽出する、という手法を採用できる。   That is, the person similarity information generation unit 30 extracts the audio waveform data of each performer. This extraction method is not particularly limited. For example, if the voice waveform data of a predetermined performer is held in advance in the outside or the content information holding unit 24, the voice waveform data can be extracted as it is. . Further, for example, when such audio waveform data does not exist, the audio waveform data from the section of the content data held in the content information holding unit 24 from the section where the performer to be extracted utters Can be used.

次に、人物類似度情報生成部30は、複数の出演者の各音声波形データから、「声」の類似度演算手法に応じた特徴量をそれぞれ抽出する。   Next, the person similarity information generation unit 30 extracts feature amounts corresponding to the “voice” similarity calculation method from the respective audio waveform data of the plurality of performers.

例えば、「声」の類似度演算手法として、HMM(Hidden Markov Model)やGMM(Gaussian Mixtures Model)等の音響モデルを用いる手法が採用されている場合には、MFCC(Mel Frequency Cepstrum Coefficient)等の特徴量が、「声」の類似度演算手法に応じた特徴量として抽出されることになる。この「声」の類似度演算手法に応じた特徴量が、ステップS4の処理で言う出演者の情報の一例である。   For example, if a method using an acoustic model such as HMM (Hidden Markov Model) or GMM (Gaussian Mixtures Model) is adopted as the similarity calculation method for “voice”, such as MFCC (Mel Frequency Cepstrum Coefficient) The feature amount is extracted as a feature amount according to the similarity calculation method of “voice”. The feature amount corresponding to the “voice” similarity calculation method is an example of performer information referred to in the process of step S4.

従って、ステップS5の処理では、抽出された各人物のそれぞれについての特徴量間の、特徴量空間上での適切な距離尺度に基づいて、各人物間の類似度が計算される。即ち、例えば、複数の出演者のそれぞれの音声波形データから抽出された特徴量分布が混合正規分布でモデル化され、ある話者(出演者)の音声を他者(他の出演者)のモデルに適応した際のスコアが正規化され、それが距離尺度として利用され、それらの各距離尺度が、他の類似基準(「顔」や「言語」)と比較できるように正規化された値(例えばここでは、0乃至1の範囲の値)が、各出演者間の類似度として算出される。   Therefore, in the process of step S5, the similarity between each person is calculated based on an appropriate distance measure in the feature quantity space between the feature quantities of each extracted person. That is, for example, the feature quantity distribution extracted from the voice waveform data of each of a plurality of performers is modeled as a mixed normal distribution, and the voice of a certain speaker (performer) is modeled by another (other performer). The normalized score (when applied to) is used as a distance measure, and each distance measure is normalized so that it can be compared to other similar criteria ("face" or "language") ( For example, here, a value in the range of 0 to 1) is calculated as the similarity between the performers.

また例えば、処理対象類似基準として「言語」が設定されている場合には、次のような類似度演算手法を採用できる。   For example, when “language” is set as the processing target similarity criterion, the following similarity calculation method can be employed.

即ち、人物類似度情報生成部30は、各出演者のテキスト情報中に出現する単語の頻度を抽出する。出演者のテキスト情報として、例えば、出演者のコンテンツ中での発話を音声認識で書き起こしたものを採用できる。この場合の音声認識の手法は特に限定されず、例えばHMM等の音響モデルを用いる手法を採用できる。また例えば、出演者のテキスト情報として、出演者の著作やインタビュー記事などのテキスト情報を採用できる。出演者の著作やインタビュー記事などのテキスト情報は、外部またはコンテンツ情報保持部24等から取得すればよい。   That is, the person similarity information generating unit 30 extracts the frequency of words appearing in the text information of each performer. As the text information of the performer, for example, the utterance in the content of the performer can be adopted by voice recognition. The speech recognition method in this case is not particularly limited, and for example, a method using an acoustic model such as an HMM can be employed. For example, text information such as a performer's work or an interview article can be adopted as the performer's text information. What is necessary is just to acquire text information, such as a performer's work and an interview article, from the outside or the content information holding | maintenance part 24 grade | etc.,.

次に、人物類似度情報生成部30は、複数の出演者の各テキスト情報から、「言語」の類似度演算手法に応じた特徴量をそれぞれ抽出する。   Next, the person similarity information generation unit 30 extracts feature amounts corresponding to the “language” similarity calculation method from each piece of text information of a plurality of performers.

例えば、「言語」の類似度演算手法として、いわゆるベクトル空間法が採用されている場合には、複数の出演者の各テキスト情報のそれぞれに出現した各単語が、「言語」の類似度演算手法に応じた特徴量として抽出されることになる。この「言語」の類似度演算手法に応じた特徴量が、ステップS4の処理で言う出演者の情報の一例である。   For example, when the so-called vector space method is adopted as the “language” similarity calculation method, each word that appears in each text information of a plurality of performers is converted into the “language” similarity calculation method. It is extracted as a feature amount according to the above. The feature amount corresponding to the “language” similarity calculation method is an example of the information of the performer in the process of step S4.

従って、ステップS5の処理では、抽出された各人物のそれぞれについての特徴量間の、特徴量空間上での適切な距離尺度に基づいて、各人物間の類似度が計算される。即ち、出現した個々の単語を独立した軸と考え、その出現頻度を値とする多次元空間の多次元ベクトル(多次元空間上の1点)として複数の出演者のそれぞれが表現され、複数の出演者のそれぞれについての各多次元ベクトル間の余弦(cosine)距離が演算され、それらの各余弦距離が、他の類似基準(「顔」や「声」)と比較できるように正規化された値(例えばここでは、0乃至1の範囲の値)が、各出演者間の類似度として算出される。   Therefore, in the process of step S5, the similarity between each person is calculated based on an appropriate distance measure in the feature quantity space between the feature quantities of each extracted person. That is, each appearing word is considered as an independent axis, and each of a plurality of performers is expressed as a multidimensional vector (one point on the multidimensional space) of the multidimensional space with the appearance frequency as a value. The cosine distance between each multidimensional vector for each of the performers was calculated and normalized so that each cosine distance could be compared to other similar criteria ("face" or "voice"). A value (for example, a value in the range of 0 to 1 here) is calculated as the similarity between the performers.

なお、「顔」、「声」、および「言語」のそれぞれに応じた類似度演算手法は、上述した例に限定されず、その他の如何なる手法を採用できることはいうまでもない。   Note that the similarity calculation method corresponding to each of “face”, “voice”, and “language” is not limited to the above-described example, and it is needless to say that any other method can be adopted.

このようにして、ステップS5の処理で各出演者間の類似度が演算されると、処理はステップS6に進む。   Thus, when the similarity between each performer is calculated by the process of step S5, the process proceeds to step S6.

ステップS6において、人物類似度情報生成部30は、各出演者間の類似度を、処理対象類似基準の類似度表に記述する。   In step S6, the person similarity information generation unit 30 describes the similarity between the performers in the similarity table of the processing target similarity criterion.

具体的には例えば、処理対象類似基準が「顔」であって、ステップS1の処理で「俳優A」、「俳優B」、「歌手C」、「歌手D」、「司会者E」、および「司会者F」が抽出されて、ステップS3の処理で、「俳優A」、「俳優B」、「歌手C」、「歌手D」、「司会者E」、および「司会者F」が登録された類似度表が新たに生成されたとする。このような場合には、ステップS6の処理の結果として、図6に示されるような類似度を示す各数値が、対応する項目にそれぞれ記述された「顔」の類似度表が完成し、人物類似度情報保持部31に保持されることになる。   Specifically, for example, the processing target similarity criterion is “face”, and “actor A”, “actor B”, “singer C”, “singer D”, “moderator E”, and “Moderator F” is extracted, and “Actor A”, “Actor B”, “Singer C”, “Singer D”, “Moderator E”, and “Moderator F” are registered in step S3. It is assumed that the similar similarity table is newly generated. In such a case, as a result of the processing in step S6, the similarity table of “face” in which each numerical value indicating the similarity as shown in FIG. 6 is described in the corresponding item is completed. It is held in the similarity information holding unit 31.

これにより、各人物間の類似度が容易にわかるようになる。例えば、図6の「顔」の類似度表にに着目すると、「俳優A」と「俳優B」との類似度は「0.6」であり、「俳優A」と「歌手C」との類似度は「0.3」であることが容易にわかる。これにより、「俳優A」の顔は、「歌手C」の顔よりも「俳優B」の顔に類似していることも容易にわかる。   Thereby, the similarity between each person can be easily understood. For example, paying attention to the similarity table of “face” in FIG. 6, the similarity between “Actor A” and “Actor B” is “0.6”, and “Actor A” and “Singer C” are similar. It can be easily seen that the similarity is “0.3”. Thus, it can be easily understood that the face of “Actor A” is more similar to the face of “Actor B” than the face of “Singer C”.

図5に戻り、ステップS7において、人物類似度情報生成部30は、別の類似基準の類似度表も作成/更新するか否かを判定する。   Returning to FIG. 5, in step S <b> 7, the person similarity information generation unit 30 determines whether or not to create / update another similarity criterion similarity table.

ステップS7において、別の類似基準の類似度表も作成/更新すると判定された場合、処理はステップS2に戻され、それ以降の処理が繰り返される。即ち、本実施の形態では、「顔」、「声」、および「言語」のそれぞれに対して、ステップS2乃至S7のループ処理が繰り返し実行されて、その結果、図6に示されるような「顔」、「声」、および「言語」の各類似度表が完成し、人物類似度情報保持部31に人物類似度情報として保持されることになる。   If it is determined in step S7 that another similarity criterion similarity table is to be created / updated, the process returns to step S2, and the subsequent processes are repeated. In other words, in the present embodiment, the loop processing of steps S2 to S7 is repeatedly executed for each of “face”, “voice”, and “language”, and as a result, as shown in FIG. Each similarity table of “face”, “voice”, and “language” is completed and held in the person similarity information holding unit 31 as person similarity information.

これにより、ステップS7において、別の類似基準の類似度表も作成/更新しないと判定されて、人物類似度情報生成/更新処理は終了となる。   Thereby, in step S7, it is determined that the similarity table of another similarity criterion is not created / updated, and the person similarity information generation / update process ends.

なお、コンテンツ情報保持部24の保持内容は逐次更新されていくので、人物類似度情報生成部30は、人物類似度情報生成/更新処理を適宜実行して、例えば周期的に実行して、人物類似度情報保持部31に保持されている人物類似度情報の内容も適宜更新しておくとよい。   Since the content held by the content information holding unit 24 is sequentially updated, the person similarity information generating unit 30 appropriately executes the person similarity information generating / updating process, for example, periodically, The content of the person similarity information held in the similarity information holding unit 31 may be updated as appropriate.

このような人物類似度情報生成/更新処理が1回以上実行されて、人物類似度情報保持部31に人物類似度情報が保持されている場合、コンテンツ推薦処理装置10は、例えば図7に示されるコンテンツ推薦処理を実行することができる。即ち、図7のフローチャートは、コンテンツ推薦処理の一例を示している。   When such person similarity information generation / update processing is executed one or more times and the person similarity information is held in the person similarity information holding unit 31, the content recommendation processing device 10 is shown in FIG. Content recommendation processing can be executed. That is, the flowchart of FIG. 7 shows an example of content recommendation processing.

ステップS21において、図2の推薦コンテンツ抽出部32は、ユーザが好きであると判断できる特定人物を、ユーザ嗜好情報保持部29に保持されているユーザ嗜好情報から抽出する。   In step S <b> 21, the recommended content extraction unit 32 of FIG. 2 extracts a specific person that can be determined to be liked by the user from the user preference information held in the user preference information holding unit 29.

なお、特定人物の抽出とは、特定人物の人物情報の抽出を意味する。具体的には例えば本実施の形態では、上述したように、図4の出演者情報Pupの中で、所定の閾値以上の数値(嗜好度合)を有するPerson(人物)という情報が特定人物として抽出される。   Note that the extraction of the specific person means extraction of personal information of the specific person. Specifically, for example, in the present embodiment, as described above, information called Person (person) having a numerical value (preference degree) equal to or higher than a predetermined threshold is extracted as a specific person in the performer information Pup of FIG. Is done.

この場合、注意すべき点は、所定の閾値以上の数値(嗜好度合)を有するPerson(人物)が複数人存在する場合、それらの複数人が特定人物としてそれぞれ抽出される点である。即ち、ステップS21の処理で抽出される特定人物の人数は1人とは限らず、複数人である場合もある。   In this case, it should be noted that when there are a plurality of persons (persons) having a numerical value (preference degree) equal to or greater than a predetermined threshold, the plurality of persons are respectively extracted as specific persons. That is, the number of specific persons extracted in the process of step S21 is not limited to one, and there may be a plurality of persons.

ステップS22において、推薦コンテンツ抽出部32は、特定人物が出演するコンテンツを、推薦候補として決定する。即ち、本実施の形態では、推薦コンテンツ抽出部32は、図3の出演者情報Pmに特定人物が含まれている(ベクトルの対応する成分が1である)コンテンツ情報を有するコンテンツを、推薦候補として決定する。   In step S22, the recommended content extraction unit 32 determines the content in which the specific person appears as a recommended candidate. In other words, in the present embodiment, the recommended content extracting unit 32 recommends a content having content information in which a specific person is included in the performer information Pm in FIG. 3 (the corresponding component of the vector is 1) as a recommended candidate. Determine as.

ステップS23において、推薦コンテンツ抽出部32は、人類類似度情報保持部31に保持されている人類類似度情報に基づいて、特定人物の類似人物を抽出する処理(以下、類似人物抽出処理と称する)を実行する。なお、類似人物抽出処理の詳細例については、図8乃至図11を参照して後述する。   In step S23, the recommended content extraction unit 32 extracts a similar person of a specific person based on the human similarity information held in the human similarity information holding unit 31 (hereinafter referred to as a similar person extraction process). Execute. A detailed example of the similar person extraction process will be described later with reference to FIGS.

ステップS24において、推薦コンテンツ抽出部32は、類似人物が出演するコンテンツを、推薦候補として決定する。即ち、本実施の形態では、推薦コンテンツ抽出部32は、図3の出演者情報Pmに類似人物が含まれている(ベクトルの対応する成分が1である)コンテンツ情報を有するコンテンツを、推薦候補として決定する。   In step S <b> 24, the recommended content extraction unit 32 determines content in which a similar person appears as a recommended candidate. In other words, in the present embodiment, the recommended content extracting unit 32 recommends a content having content information in which a similar person is included in the performer information Pm in FIG. 3 (the corresponding component of the vector is 1) as a recommended candidate. Determine as.

ステップS25において、推薦コンテンツ抽出部32は、推薦候補の中から、推薦コンテンツを選抜する。   In step S25, the recommended content extraction unit 32 selects recommended content from the recommended candidates.

ステップS26において、推薦コンテンツ抽出部32は、推薦コンテンツの一覧(推薦情報)を推薦情報出力部33を介して出力する。   In step S <b> 26, the recommended content extraction unit 32 outputs a list of recommended content (recommendation information) via the recommendation information output unit 33.

なお、図7の例では、特定人物が出演するコンテンツと、類似人物が出演するコンテンツとの両者が推薦候補として決定されたが、何れか一方を推薦コンテンツとして決定するようにしてもよい。即ち、従来のように特定人物が出演するコンテンツの一覧を推薦情報として出力することもできるし、類似人物が出演するコンテンツの一覧を推薦情報として出力することもできる。   In the example of FIG. 7, both the content in which a specific person appears and the content in which a similar person appears are determined as recommended candidates, but either one may be determined as recommended content. That is, a list of contents in which a specific person appears can be output as recommendation information as in the conventional case, and a list of contents in which a similar person appears can also be output as recommendation information.

次に、図8のフローチャートを参照して、ステップS23の処理、即ち類似人物抽出処理の詳細例について説明する。   Next, a detailed example of the process of step S23, that is, the similar person extraction process, will be described with reference to the flowchart of FIG.

ステップS41において、推薦コンテンツ抽出部32は、使用類似基準を1種類以上決定する。   In step S41, the recommended content extraction unit 32 determines one or more types of use similarity criteria.

使用類似基準とは、上述した各種の類似基準ののうちの、即ち、本実施の形態では、「顔」、「声」、および「言語」のうちの、類似人物を抽出すべく、特定人物との類似度を演算するときに使用する類似基準をいう。   The use similarity criterion is a specific person in order to extract a similar person among the above-described various similarity standards, that is, in the present embodiment, “face”, “voice”, and “language”. The similarity criterion used when calculating the similarity to.

ステップS42において、推薦コンテンツ抽出部32は、使用類似基準のうちの所定の1種類を、処理対象類似基準を設定する。   In step S42, the recommended content extraction unit 32 sets a processing target similarity criterion as a predetermined one of the usage similarity criteria.

ステップS43において、特定人物のうちの所定の1人を、処理対象特定人物に設定する。   In step S43, a predetermined one of the specific persons is set as a process target specific person.

即ち、上述したように、特定人物は複数人である場合があるため、図8の例の類似人物抽出処理では、かかるステップS43の処理が設けられており、さらに、後述するステップS45乃至S47の処理が設けられているのである。換言すると、特定人物が1人であることが前提とされているならば、ステップS43およびステップS45乃至S47の処理は省略可能である。   That is, as described above, since there may be a plurality of specific persons, the similar person extraction process in the example of FIG. 8 is provided with the process of step S43. Further, the processes of steps S45 to S47 described later are provided. Processing is provided. In other words, if it is assumed that there is only one specific person, the processes in steps S43 and S45 to S47 can be omitted.

ステップS44において、推薦コンテンツ抽出部32は、処理対象特定人物に対する各出演者の類似度を、人物類似度情報保持部31に保持されている人物類似度情報からそれぞれ取得する。   In step S <b> 44, the recommended content extraction unit 32 acquires the similarity of each performer with respect to the processing target specific person from the person similarity information held in the person similarity information holding unit 31.

具体的には例えば、図6の状態の「顔」の類似度表が人物類似度情報保持部31に保持されており、処理対象類似基準が「顔」であって、処理対象特定人物が「俳優A」である場合には、処理対象特定人物に対する各出演者の類似度として、「俳優A」に対する「俳優B」の類似度「0.6」、「俳優A」に対する「歌手C」の類似度「0.3」、「俳優A」に対する「歌手D」の類似度「0.8」、「俳優A」に対する「司会者E」の類似度「0.5」、および、「俳優A」に対する「司会者F」の類似度「0.4」が、それぞれ取得される。   Specifically, for example, the similarity table of “face” in the state of FIG. 6 is held in the person similarity information holding unit 31, the processing target similarity criterion is “face”, and the processing target specific person is “ In the case of “Actor A”, as the similarity of each performer to the processing target specific person, the similarity “0.6” of “Actor B” to “Actor A” and “Singer C” of “Actor A” Similarity “0.3”, “Singer D” similarity “0.8” to “Actor A”, “Moderator E” similarity “0.5” to “Actor A”, and “Actor A” The degree of similarity “0.4” of “Moderator F” with respect to “

ステップS45において、推薦コンテンツ抽出部32は、処理対象特定人物にまだ設定されていない特定人物は存在するか否かを判定する。   In step S45, the recommended content extraction unit 32 determines whether there is a specific person that has not yet been set as the process target specific person.

複数の特定人物が存在する場合であって、それらの複数の特定人物の中に、処理対象特定人物にまだ設定されていない人物が存在する場合には、ステップS45の処理でYESであると判定されて、処理はステップS43に戻され、それ以降の処理が繰り返される。   If there are a plurality of specific persons, and there is a person who has not yet been set as a process target specific person among the plurality of specific persons, it is determined as YES in the process of step S45. Then, the process returns to step S43, and the subsequent processes are repeated.

即ち、1人以上の特定人物のそれぞれに対してステップS43乃至S45のループ処理が繰り返し実行されて、1人以上の特定人物のそれぞれに対する各出演者の類似度がそれぞれ取得されることになる。その後、ステップS45の処理でNOであると判定されて、処理はステップS46に進む。   That is, the loop process of steps S43 to S45 is repeatedly executed for each of one or more specific persons, and the similarity of each performer for each of the one or more specific persons is acquired. Thereafter, it is determined as NO in the process of step S45, and the process proceeds to step S46.

ステップS46において、推薦コンテンツ抽出部32は、特定人物は複数人であるか否かを判定する。   In step S46, the recommended content extraction unit 32 determines whether or not there are a plurality of specific persons.

特定人物が複数人である場合、推薦コンテンツ抽出部46は、ステップS46においてYESであると判定して、ステップS47において、所定の出演者に対する複数の特定人物の各類似度に基づいて、所定の出演者に対する総合的な類似度を演算する。かかる総合的な類似度は、出演者毎にそれぞれ演算される。なお、以下、このようなステップS47の処理を、複数の特定人物の総合類似度演算処理と称する。複数の特定人物の総合類似度演算処理の詳細については、図9を参照して後述する。このステップS47の複数の特定人物の総合類似度演算処理が終了すると、処理はステップS48に進む。   When there are a plurality of specific persons, the recommended content extraction unit 46 determines YES in step S46, and in step S47, based on the similarities of the specific persons with respect to the predetermined performer, a predetermined content is determined. Calculate the overall similarity to the performers. Such total similarity is calculated for each performer. Hereinafter, such processing in step S47 is referred to as total similarity calculation processing for a plurality of specific persons. Details of the total similarity calculation processing for a plurality of specific persons will be described later with reference to FIG. When the total similarity calculation process for a plurality of specific persons in step S47 ends, the process proceeds to step S48.

これに対して、特定人物が1人である場合、ステップS46においてNOであると判定されて、ステップS47の複数の特定人物の総合類似度演算処理は実行されずに、そのまま処理はステップS48に進む。   On the other hand, if there is one specific person, it is determined as NO in step S46, and the overall similarity calculation process of the plurality of specific persons in step S47 is not executed, and the process directly proceeds to step S48. move on.

ステップS48において、推薦コンテンツ抽出部32は、処理対象類似基準にまだ設定されていない使用類似基準は存在するか否かを判定する。   In step S48, the recommended content extraction unit 32 determines whether there is a use similarity criterion that has not yet been set as the processing target similarity criterion.

ステップS48の処理でYESであると判定された場合、即ち、ステップS41の処理で複数種類の使用類似基準が決定されて、それらの複数種類の使用類似規準の中に、処理対象使用類似基準にまだ設定されていない種類が存在する場合には、処理はステップS42に戻され、それ以降の処理が繰り返される。   If it is determined YES in the process of step S48, that is, a plurality of types of use similarity criteria are determined in the process of step S41, and the processing target use similarity criteria are included in the plurality of types of use similarity criteria. If there is a type that has not yet been set, the process returns to step S42, and the subsequent processes are repeated.

即ち、1種類以上の使用類似基準のそれぞれに対してステップS42乃至S48のループ処理が繰り返し実行されて、1種類以上の使用類似基準毎に、特定人物に対する各出演者の類似度がそれぞれ取得される。ただし、複数の特定人物が存在する場合には総合的な類似度がそれぞれ演算される。その後、ステップS48の処理でNOであると判定されて、処理はステップS49に進む。   That is, the loop process of steps S42 to S48 is repeatedly executed for each of one or more types of usage similarity criteria, and the similarity of each performer for a specific person is acquired for each of one or more types of usage similarity criteria. The However, when there are a plurality of specific persons, the total similarity is calculated. Thereafter, it is determined NO in the process of step S48, and the process proceeds to step S49.

ステップS49において、推薦コンテンツ抽出部32は、使用類似基準は複数種類であるか否かを判定する。   In step S <b> 49, the recommended content extraction unit 32 determines whether there are multiple types of use similarity criteria.

ステップS49においてYESであると判定した場合、即ちステップS41の処理で複数種類の使用類似基準を決定していた場合、推薦コンテンツ抽出部46は、ステップS50において、複数種類の使用類似基準のそれぞれについての特定人物に対する各出演者の各類似度に基づいて、特定人物に対する各出演者の総合的な類似度をそれぞれ演算する。なお、以下、このようなステップS50の処理を、複数の使用類似基準の総合類似度演算処理と称する。複数の使用類似基準の総合類似度演算処理の詳細については、図10を参照して後述する。このステップS50の複数の使用類似基準の総合類似度演算処理が終了すると、処理はステップS51に進む。   If it is determined as YES in step S49, that is, if a plurality of types of use similarity criteria have been determined in the process of step S41, the recommended content extraction unit 46 determines each of the plurality of types of use similarity criteria in step S50. The total similarity of each performer with respect to a specific person is calculated based on each similarity of each performer with respect to the specific person. Hereinafter, such processing in step S50 will be referred to as a plurality of use similarity criterion total similarity calculation processing. Details of the overall similarity calculation processing of the plurality of use similarity criteria will be described later with reference to FIG. When the overall similarity calculation process of the plurality of use similarity criteria in step S50 ends, the process proceeds to step S51.

これに対してステップS49においてNOであると判定された場合、即ちステップS41の処理で1種類の使用類似基準が決定されていた場合、ステップS50の複数の使用類似基準の総合類似度演算処理は実行されずに、そのまま処理はステップS51に進む。   On the other hand, when it is determined as NO in step S49, that is, when one type of use similarity criterion is determined in the process of step S41, the total similarity calculation process of the plurality of use similarity criteria in step S50 is performed. Without being executed, the process proceeds to step S51 as it is.

ステップS51において、推薦コンテンツ抽出部32は、類似度が閾値以上の出演者を、類似人物として決定する。   In step S51, the recommended content extraction unit 32 determines performers whose similarity is equal to or greater than a threshold as similar persons.

具体的には例えば、図6の状態の「顔」の類似度表が人物類似度情報保持部31に保持されており、使用類似基準が「顔」のみであって、特定人物が「俳優A」1人のみであった場合に、上述したステップS41乃至S50の処理が実行されたとする。このような場合には、ステップS51の処理で閾値と比較される類似度は、「俳優A」に対する「俳優B」の類似度「0.6」、「俳優A」に対する「歌手C」の類似度「0.3」、「俳優A」に対する「歌手D」の類似度「0.8」、「俳優A」に対する「司会者E」の類似度「0.5」、および、「俳優A」に対する「司会者F」の類似度「0.4」のそれぞれとなる。従って、例えば閾値として「0.7」が設定されている場合には、類似度「0.8」を有する「歌手D」が、類似人物として決定される。   Specifically, for example, the similarity table of “face” in the state of FIG. 6 is held in the person similarity information holding unit 31, the use similarity criterion is only “face”, and the specific person is “actor A”. It is assumed that the processing of steps S41 to S50 described above is executed when there is only one person. In such a case, the similarity compared with the threshold value in the process of step S51 is the similarity “0.6” of “Actor B” to “Actor A” and the similarity of “Singer C” to “Actor A”. Degree “0.3”, “singer D” similarity “0.8” to “actor A”, “moderator E” similarity “0.5” to “actor A”, and “actor A” The degree of similarity “0.4” of “Moderator F” with respect to Therefore, for example, when “0.7” is set as the threshold, “singer D” having a similarity “0.8” is determined as a similar person.

また例えば、ステップS47の複数の特定人物の総合類似度演算処理や、ステップS50の複数の使用類似基準の総合類似度演算処理が実行されていた場合には、それらの演算処理の結果得られる総合的な類似度が、閾値と比較され、総合的な類似度が閾値以上の出演者が、類似人物として決定される。   Further, for example, when the total similarity calculation processing of a plurality of specific persons in step S47 or the total similarity calculation processing of a plurality of use similarity criteria in step S50 has been executed, the total obtained as a result of those calculation processing The similar similarity is compared with a threshold value, and a performer whose overall similarity is equal to or greater than the threshold value is determined as a similar person.

このようにして、ステップS51の処理で類似人物が決定されると、類似人物抽出処理が終了し、即ち、上述した図7のステップS23の処理が終了し、次のステップS24の処理で、このステップS51の処理で決定された類似人物が出演するコンテンツが、推薦候補として決定される。   Thus, when a similar person is determined in the process of step S51, the similar person extraction process ends, that is, the process of step S23 of FIG. 7 described above ends, and the process of next step S24 performs this process. The content in which the similar person determined in the process of step S51 appears is determined as a recommendation candidate.

次に、類似人物抽出処理におけるステップS47とS50との各処理の詳細について、即ち、複数の特定人物の総合類似度演算処理と、複数の使用類似基準の総合類似度演算処理とのそれぞれの詳細について、その順番で個別に説明していく。   Next, the details of each process of steps S47 and S50 in the similar person extraction process, that is, the details of the total similarity calculation process of a plurality of specific persons and the total similarity calculation process of a plurality of used similarity criteria Will be explained individually in that order.

図9のフローチャートは、複数の特定人物の総合類似度演算処理の詳細例を示している。   The flowchart of FIG. 9 shows a detailed example of the total similarity calculation process for a plurality of specific persons.

ステップS71において、推薦コンテンツ抽出部32は、複数の特定人物の各嗜好度合を、ユーザ嗜好情報保持部29に保持されているユーザ嗜好情報から抽出する。   In step S <b> 71, the recommended content extraction unit 32 extracts each degree of preference of a plurality of specific persons from the user preference information held in the user preference information holding unit 29.

具体的には例えば本実施の形態では、図4の出演者情報Pupのうちの、複数の特定人物のそれぞれに対応付けられた各数値が、複数の特定人物の各嗜好度合として抽出される。即ち、例えば「personA」が特定人物に含まれる場合には、その嗜好度合として「10」が抽出される。また例えば、「personB」が特定人物に含まれる場合には、その嗜好度合として「43」が抽出される。   Specifically, for example, in the present embodiment, each numerical value associated with each of a plurality of specific persons in the performer information Pup of FIG. 4 is extracted as each degree of preference of the plurality of specific persons. That is, for example, when “personA” is included in the specific person, “10” is extracted as the degree of preference. For example, when “personB” is included in the specific person, “43” is extracted as the degree of preference.

ステップS72において、推薦コンテンツ抽出部32は、複数の出演者のうちの所定の1人を、処理対象出演者に設定する。   In step S72, the recommended content extraction unit 32 sets a predetermined one of the plurality of performers as a process target performer.

ステップS73において、推薦コンテンツ抽出部32は、複数の特定人物のそれぞれに対する処理対象出演者の各類似度を、対応する特定人物の嗜好度合いを用いて重み付けする。そして、ステップS74において、推薦コンテンツ抽出部32は、重み付けされた各類似度の総加算を、処理対象出演者の類似度として決定する。   In step S <b> 73, the recommended content extraction unit 32 weights each similarity of the processing target performer for each of the plurality of specific persons using the corresponding specific person's preference degree. In step S74, the recommended content extraction unit 32 determines the total addition of the weighted similarities as the similarity of the process target performer.

ステップS75において、推薦コンテンツ抽出部32は、処理対象出演者にまだ設定されていない出演者は存在するか否かを判定する。   In step S75, the recommended content extraction unit 32 determines whether there is a performer that has not yet been set as a process target performer.

ステップS75の処理でYESであると判定された場合、即ち、処理対象出演者にまだ設定されていない出演者が存在する場合、処理はステップS72に戻され、それ以降の処理が繰り返される。   If it is determined as YES in the process of step S75, that is, if there is a performer that has not yet been set as a process target performer, the process returns to step S72, and the subsequent processes are repeated.

即ち、複数の出演者のそれぞれに対して、ステップS72乃至S75のループ処理が繰り返し実行され、複数の出演者の各総合的な類似度がそれぞれ演算される。   That is, the loop processing of steps S72 to S75 is repeatedly executed for each of the plurality of performers, and the overall similarity of each of the plurality of performers is calculated.

具体的には例えば、「俳優A」と「歌手D」とが特定人物であって、ステップS71の処理でそれぞれ抽出された各嗜好度合を正規化した各値が「0.7」と「0.3」とのそれぞれであるとする。そして、「0.7」を「俳優A」の重み値として採用し、また、「0.3」を「歌手D」の重み値として採用するとする。   Specifically, for example, “actor A” and “singer D” are specific persons, and the respective values obtained by normalizing the respective preference degrees extracted in the process of step S71 are “0.7” and “0”. .3 ". Then, “0.7” is adopted as the weight value of “Actor A”, and “0.3” is adopted as the weight value of “Singer D”.

また、「顔」についての総合的な類似度が演算されるとし、その類似度演算の対象人物が、即ち複数の出演者が「俳優B」、「歌手C」、「司会者E」、および「司会者F」であったとする。また、各人物間の各類似度は、図6の状態の「顔」の類似度表に示されている各値であるとする。   Further, it is assumed that the overall similarity for “face” is calculated, and the target person of the similarity calculation, that is, a plurality of performers are “actor B”, “singer C”, “moderator E”, and It is assumed that it is “Moderator F”. In addition, it is assumed that the respective degrees of similarity between the persons are the values shown in the “face” similarity table in the state of FIG.

即ち、「俳優A」に対する類似度は、「俳優B」については「0.6」であり、「歌手C」については「0.3」であり、「司会者E」については「0.5」であり、「司会者F」については「0.4」であるとする。   That is, the similarity to “Actor A” is “0.6” for “Actor B”, “0.3” for “Singer C”, and “0.5” for “Moderator E”. It is assumed that “Moderator F” is “0.4”.

また、「歌手D」に対する類似度は、「俳優B」については「0.4」であり、「歌手C」については「0.5」であり、「司会者E」については「0.5」であり、「司会者F」については「0.5」であるとする。   The similarity to “Singer D” is “0.4” for “Actor B”, “0.5” for “Singer C”, and “0.5” for “Moderator E”. It is assumed that “Moderator F” is “0.5”.

この場合、ステップS72の処理で「俳優B」が処理対象出演者に設定されると、ステップS72の処理で、「俳優A」に対する「俳優B」の類似度「0.6」が重み値「0.7」で重み付けされて「0.6*0.7」となり、また、「歌手D」に対する「俳優B」の類似度「0.4」が重み値「0.3」で重み付けされて「0.4*0.3」となる。   In this case, when “actor B” is set as the process target performer in the process of step S72, the similarity “0.6” of “actor B” with respect to “actor A” is the weight value “ It is weighted with “0.7” to become “0.6 * 0.7”, and the similarity “0.4” of “Actor B” with respect to “Singer D” is weighted with a weight value “0.3”. “0.4 * 0.3”.

従って、ステップS74の処理で、次の式(1)の演算が実行され、その演算結果である「0.54」が、「俳優B」の総合的な類似度として決定される。   Therefore, in the process of step S74, the calculation of the following equation (1) is executed, and the calculation result “0.54” is determined as the overall similarity of “actor B”.

0.6*0.7+0.4*0.3=0.54 ・・・(1)   0.6 * 0.7 + 0.4 * 0.3 = 0.54 (1)

同様に、「歌手C」が処理対象出演者に設定されると、ステップS73とS74の処理で、次の式(2)の演算が実行され、その演算結果である「0.36」が「歌手C」の総合的な類似度として決定される。   Similarly, when “singer C” is set as a performer to be processed, the calculation of the following expression (2) is executed in the processes of steps S73 and S74, and the calculation result “0.36” is “ It is determined as the overall similarity of “Singer C”.

0.3*0.7+0.5*0.3=0.36 ・・・(2)   0.3 * 0.7 + 0.5 * 0.3 = 0.36 (2)

また、「司会者E」が処理対象出演者に設定されると、ステップS73とS74の処理で、次の式(3)の演算が実行され、その演算結果である「0.5」が「司会者E」の総合的な類似度として決定される。   Further, when “moderator E” is set as a process target performer, the calculation of the following expression (3) is executed in steps S73 and S74, and the calculation result “0.5” is “ It is determined as the overall similarity of the moderator E ”.

0.5*0.7+0.5*0.3=0.5 ・・・(3)   0.5 * 0.7 + 0.5 * 0.3 = 0.5 (3)

また、「司会者F」が処理対象出演者に設定されると、ステップS73とS74の処理で、次の式(4)の演算が実行され、その演算結果である「0.43」が「司会者F」の総合的な類似度として決定される。   Further, when “moderator F” is set as the performer to be processed, the calculation of the following equation (4) is executed in the processes of steps S73 and S74, and the calculation result “0.43” is “ It is determined as the overall similarity of the moderator F ”.

0.4*0.7+0.5*0.3=0.43 ・・・(4)   0.4 * 0.7 + 0.5 * 0.3 = 0.43 (4)

従って、この数値例では、総合的な類似度は、「俳優B」>「司会者E」>「司会者F」>「歌手C」となる。   Therefore, in this numerical example, the overall similarity is “Actor B”> “Moderator E”> “Moderator F”> “Singer C”.

このようにして、複数の出演者のそれぞれの総合的な類似度が演算されると、ステップS75の処理でNOであると判定されて、複数の特定人物の総合類似度演算処理が終了する。即ち、上述した図8のステップS47の処理が終了し、処理はステップS48に進む。   In this way, when the overall similarity of each of the plurality of performers is calculated, it is determined as NO in the process of step S75, and the overall similarity calculation process of the plurality of specific persons is completed. That is, the process of step S47 of FIG. 8 described above ends, and the process proceeds to step S48.

この場合、ステップS41の処理で決定された使用類似基準が1種類だけであるとすると、ステップS50の複数の使用類似基準の総合類似度演算処理は実行されないので、このステップS47の複数の特定人物の総合類似度演算処理結果、即ち、各出演者の総合的な類似度のそれぞれが、ステップS51の処理において、閾値と比較されることになる。   In this case, if there is only one type of use similarity criterion determined in the process of step S41, the total similarity calculation processing of the plurality of use similarity criteria in step S50 is not executed, so that the plurality of specific persons in this step S47 The overall similarity calculation processing result, that is, the overall similarity of each performer is compared with the threshold value in the process of step S51.

具体的には例えば、各出演者の総合的な類似度が上述した数値例であって、閾値が「0.4」の場合、総合的な類似度「0.54」を有する「俳優B」と、総合的な類似度「0.5」を有する「司会者E」とのそれぞれが、類似人物として決定される。   Specifically, for example, when the overall similarity of each performer is the numerical example described above, and the threshold is “0.4”, “Actor B” having the overall similarity “0.54” And “Moderator E” having the overall similarity “0.5” are determined as similar persons.

次に、図10のフローチャートを参照して、複数の使用類似基準の総合類似度演算処理例、即ち、上述した図8のステップS50の処理の詳細例について説明する。   Next, with reference to the flowchart of FIG. 10, an example of the overall similarity calculation process of a plurality of use similarity criteria, that is, a detailed example of the process of step S50 of FIG.

ステップS91において、推薦コンテンツ抽出部32は、推薦候補となり得るコンテンツのジャンルを、コンテンツ情報保持部24に保持されているコンテンツ情報から取得する。   In step S <b> 91, the recommended content extraction unit 32 acquires the genre of content that can be a recommendation candidate from the content information held in the content information holding unit 24.

ステップS92において、推薦コンテンツ抽出部32は、取得されたジャンルのうちの所定の1つを、処理対象ジャンルに設定する。   In step S92, the recommended content extraction unit 32 sets a predetermined one of the acquired genres as a processing target genre.

ステップS93において、推薦コンテンツ抽出部32は、処理対象ジャンルについて、複数の類似基準の各重み係数をそれぞれ決定する。   In step S <b> 93, the recommended content extraction unit 32 determines each weight coefficient of a plurality of similarity criteria for the processing target genre.

ステップS94において、推薦コンテンツ抽出部32は、複数の出演者のうちの所定の1人を、処理対象出演者に設定する。   In step S94, the recommended content extraction unit 32 sets a predetermined one of a plurality of performers as a process target performer.

ステップS95において、推薦コンテンツ抽出部32は、複数の使用類似基準のそれぞれに対する処理対象出演者の各類似度を、対応する使用類似基準の重み係数を用いて重み付けする。そして、ステップS96において、推薦コンテンツ抽出部32は、重み付けされた各類似度の総加算を、処理対象出演者の類似度として決定する。   In step S <b> 95, the recommended content extraction unit 32 weights each degree of similarity of the processing target performer for each of the plurality of use similarity criteria using the corresponding use similarity criteria weighting factor. In step S <b> 96, the recommended content extraction unit 32 determines the total addition of the weighted similarities as the similarity of the process target performer.

ステップS97において、推薦コンテンツ抽出部32は、処理対象出演者にまだ設定されていない出演者は存在するか否かを判定する。   In step S97, the recommended content extraction unit 32 determines whether there is a performer that has not yet been set as a process target performer.

ステップS97の処理でYESであると判定された場合、即ち、処理対象出演者にまだ設定されていない出演者が存在する場合、処理はステップS94に戻され、それ以降の処理が繰り返される。   If it is determined as YES in the process of step S97, that is, if there is a performer that has not yet been set as a process target performer, the process returns to step S94, and the subsequent processes are repeated.

即ち、処理対象ジャンルについて、複数の出演者のそれぞれに対して、ステップS94乃至S98のループ処理が繰り返し実行され、複数の出演者の各総合的な類似度がそれぞれ演算される。その後、ステップS97の処理でNOであると判定されて、処理はステップS98に進む。   That is, the loop processing of steps S94 to S98 is repeatedly executed for each of the plurality of performers for the processing target genre, and the overall similarity of each of the plurality of performers is calculated. Thereafter, it is determined as NO in the process of step S97, and the process proceeds to step S98.

ステップS98において、推薦コンテンツ抽出部32は、処理対象ジャンルにまだ設定されていないジャンルは存在するか否かを判定する。   In step S98, the recommended content extraction unit 32 determines whether there is a genre that has not yet been set as the processing target genre.

ステップS98の処理でYESであると判定された場合、即ち、処理対象ジャンルにまだ設定されていないジャンルが存在する場合、処理はステップS92に戻され、それ以降の処理が繰り返される。   If it is determined as YES in the process of step S98, that is, if there is a genre that has not yet been set as the process target genre, the process returns to step S92, and the subsequent processes are repeated.

即ち、ステップS91の処理で取得された各ジャンルのそれぞれについて、ステップS92乃至S98のループ処理が繰り返し実行され、複数の出演者の各総合的な類似度がそれぞれ演算される。その後、ステップS98の処理でNOであると判定されて、処理はステップS99に進む。   That is, the loop process of steps S92 to S98 is repeatedly executed for each genre acquired in the process of step S91, and the overall similarity of each of the plurality of performers is calculated. Thereafter, it is determined as NO in the process of step S98, and the process proceeds to step S99.

ステップS99において、推薦コンテンツ抽出部32は、ステップS91の処理で取得されたジャンルは複数であるか否かを判定する。   In step S99, the recommended content extraction unit 32 determines whether there are a plurality of genres acquired in the process of step S91.

ステップS91の処理で取得されたジャンルが複数であった場合、ステップS99の処理でYESであると判定されて、処理はステップS100に進む。ステップS100において、推薦コンテンツ抽出部32は、複数の出演者毎に、ジャンル統合類似度を演算する。   If there are a plurality of genres acquired in the process of step S91, it is determined YES in the process of step S99, and the process proceeds to step S100. In step S100, the recommended content extraction unit 32 calculates a genre integrated similarity for each of a plurality of performers.

ここに、所定の出演者についてのジャンル統合類似度とは、その所定の出演者について、複数のジャンル毎にステップS96の処理で決定された各類似度(以下、ジャンル類似度と称する)を用いて、所定の演算規則に従って算出された1つの類似度をいう。所定の演算規則は、特に限定されず、例えば、各ジャンル類似度を重み付けし、重み付け後の各ジャンル類似度の平均値をジャンル統合類似度とする、といった演算規則を採用できる。また例えば、重み付け後の各ジャンル類似度の総加算値をジャンル統合類似度とする、といった演算規則を採用できる。   Here, the genre integrated similarity for a predetermined performer uses each similarity determined in the process of step S96 for each of the plurality of genres (hereinafter referred to as genre similarity) for the predetermined performer. Thus, it means one similarity calculated according to a predetermined calculation rule. The predetermined calculation rule is not particularly limited, and for example, a calculation rule that weights each genre similarity and sets the average value of each genre similarity after the weight as the genre integrated similarity can be adopted. Further, for example, a calculation rule that sets the total addition value of each genre similarity after weighting as the genre integrated similarity can be adopted.

このようなステップS100の処理が終了すると、複数の使用類似基準の総合類似度演算処理は終了となる。即ち、上述した図8のステップS50の処理が終了し、処理はステップS51に進む。   When the process of step S100 is completed, the overall similarity calculation process for a plurality of use similarity criteria is ended. That is, the process of step S50 of FIG. 8 described above ends, and the process proceeds to step S51.

これに対して、ステップS91の処理で取得されたジャンルが1つだけであった場合、ステップS99の処理でNOであると判定されて、ステップS100の処理は実行されずに、複数の使用類似基準の総合類似度演算処理は終了となる。即ち、上述した図8のステップS50の処理が終了し、処理はステップS51に進む。   On the other hand, if there is only one genre acquired in the process of step S91, it is determined NO in the process of step S99, and the process of step S100 is not executed, and a plurality of usage similarities are obtained. The reference total similarity calculation process ends. That is, the process of step S50 of FIG. 8 described above ends, and the process proceeds to step S51.

以上説明したように、複数の使用類似基準の総合類似度演算処理は、コンテンツの内容(ここではジャンル)によって、重視する使用類似基準を変更することを特徴とする。即ち、所定のジャンルによって、重視する使用類似基準を変更するべく、図10の例では、その重視度合いを示す値として、ステップS93の処理で決定される重み係数が利用されている。   As described above, the total similarity calculation processing of a plurality of usage similarity criteria is characterized in that the usage similarity criteria to be emphasized are changed according to the contents (genre in this case). That is, in order to change the use similarity criterion to be emphasized depending on a predetermined genre, in the example of FIG. 10, the weight coefficient determined in the process of step S93 is used as a value indicating the importance level.

換言すると、この重み係数は、どのように重視するのかに応じて任意に決定することができる。即ち、ステップS93の処理は、最終的に重み係数が決定されれば足り、その処理内容は特に限定されない。   In other words, the weighting factor can be arbitrarily determined according to how the weighting factor is emphasized. That is, the process of step S93 only needs to finally determine the weighting coefficient, and the processing content is not particularly limited.

例えば、過去の推薦コンテンツに対するユーザの反応から動的に更新する処理、即ち、所定の演算手法に従って各重み係数をその都度算出する処理を、ステップS93の処理として採用することができる。   For example, a process of dynamically updating a user's response to past recommended content, that is, a process of calculating each weighting coefficient each time according to a predetermined calculation method can be employed as the process of step S93.

また例えば、ジャンル毎の各類似基準の各重み係数を予め設定して保持しておき、その保持されている各重み係数を抽出する処理を、ステップS93の処理として採用してもよい。具体例には例えば図11に示されるような重み係数情報を図2の人物類似度情報保持部31等に予め保持させておき、推薦コンテンツ抽出部32が、ステップS93の処理として、処理対象ジャンルについての「顔」係数α、「声」係数β、「言語」係数γを取得することで、それらを各重み係数として決定することができる。   Further, for example, a process of presetting and holding each weighting coefficient of each similarity standard for each genre and extracting each held weighting coefficient may be adopted as the process of step S93. Specifically, for example, weight coefficient information as shown in FIG. 11 is held in the person similarity information holding unit 31 and the like in FIG. 2 in advance, and the recommended content extraction unit 32 performs the processing target genre as processing in step S93. By acquiring the “face” coefficient α, the “voice” coefficient β, and the “language” coefficient γ, the values can be determined as the weighting coefficients.

この場合、ステップS95とS96の処理として、次の式(5)が演算されて、処理対象ジャンルについての処理対象出演者の総合的な類似度が決定されることになる。   In this case, as the processing of steps S95 and S96, the following equation (5) is calculated, and the overall similarity of the processing target performer for the processing target genre is determined.

総合的な類似度= α×「顔」類似度+β×「声」類似度+γ×「言語」類似度 ・・・(5)   Total similarity = α × “face” similarity + β × “voice” similarity + γ × “language” similarity (5)

なお、式(5)において、「顔」類似度とは、使用類似基準が「顔」の場合の処理対象出演者の類似度をいう。即ち、α×「顔」類似度が、ステップS95の処理により「顔」類似度が重み付けされた結果である。同様に、「声」類似度とは、使用類似基準が「声」の場合の処理対象出演者の類似度をいう。即ち、β×「声」類似度が、ステップS95の処理により「声」類似度が重み付けされた結果である。また、「言語」類似度とは、使用類似基準が「言語」の場合の処理対象出演者の類似度をいう。即ち、γ×「言語」類似度が、ステップS95の処理により「言語」類似度が重み付けされた結果である。   In Expression (5), the “face” similarity refers to the similarity of the process target performer when the use similarity criterion is “face”. That is, α × “face” similarity is the result of weighting the “face” similarity by the process of step S95. Similarly, “voice” similarity refers to the similarity of performers to be processed when the use similarity criterion is “voice”. That is, β × “voice” similarity is the result of weighting the “voice” similarity by the process of step S95. Further, the “language” similarity refers to the similarity of performers to be processed when the use similarity criterion is “language”. In other words, γ × “language” similarity is the result of weighting the “language” similarity by the process of step S95.

また、式(5)で算出される「総合的な類似度」とは、処理対象ジャンルとされている1つのジャンルについての類似度、即ち、ステップS100の処理の説明において上述した「ジャンル類似度」をいう。従って、ステップS91の処理で取得されたジャンルが複数であった場合、複数のジャンル毎に、式(5)を利用して各ジャンル類似度が算出される。そして、ステップS100の処理で、複数のジャンルのそれぞれについての各ジャンル類似度が統合された1つの類似度、即ちジャンル統合類似度が演算される。   Further, the “total similarity” calculated by Expression (5) is the similarity for one genre that is the processing target genre, that is, the “genre similarity” described above in the description of the processing in step S100. ". Therefore, when there are a plurality of genres acquired in the process of step S91, each genre similarity is calculated for each of the plurality of genres using Equation (5). In the process of step S100, one similarity obtained by integrating the genre similarities for each of a plurality of genres, that is, a genre integrated similarity is calculated.

なお、上述した図8のステップS41の処理で「顔」が使用類似基準として決定されていない場合、「顔」係数α=0として取り扱い、「声」係数βと「言語」係数γとについては、それらの加算値が1となるように再度正規化を行えばよい。即ち、かかる処理をステップS93の処理として実行すればよい。   If “face” is not determined as the use similarity criterion in the process of step S41 of FIG. 8 described above, the “face” coefficient α = 0 is handled, and the “voice” coefficient β and the “language” coefficient γ are as follows. Then, normalization may be performed again so that the added value becomes 1. That is, this process may be executed as the process of step S93.

同様に、上述した図8のステップS41の処理で「声」が使用類似基準として決定されていない場合、「声」係数β=0として取り扱い、「顔」係数αと「言語」係数γとについては、それらの加算値が1となるように再度正規化を行えばよい。即ち、かかる処理をステップS93の処理として実行すればよい。また、上述した図8のステップS41の処理で「言語」が使用類似基準として決定されていない場合、「言語」係数γ=0として取り扱い、「顔」係数αと「声」係数βとについては、それらの加算値が1となるように再度正規化を行えばよい。即ち、かかる処理をステップS93の処理として実行すればよい。   Similarly, when “voice” is not determined as the use similarity criterion in the process of step S41 of FIG. 8 described above, the “voice” coefficient β = 0 is handled, and the “face” coefficient α and the “language” coefficient γ are processed. May be normalized again so that the added value becomes 1. That is, this process may be executed as the process of step S93. Further, when “language” is not determined as the use similarity criterion in the process of step S41 of FIG. 8 described above, the “language” coefficient γ = 0 is handled, and the “face” coefficient α and the “voice” coefficient β are as follows. Then, normalization may be performed again so that the added value becomes 1. That is, this process may be executed as the process of step S93.

また、ステップS95とS96の処理の代わりに、ベイジアンネットを利用して3つの類似尺度、即ち、「顔」、「声」、「言語」の各類似度を統合することで、処理対象ジャンルについての処理対象出演者の総合的な類似度を決定する処理を採用してもよい。   Further, instead of the processing in steps S95 and S96, the processing target genre is obtained by integrating three similarity measures, that is, “face”, “voice”, and “language” similarities using a Bayesian network. You may employ | adopt the process which determines the comprehensive similarity of a process target performer.

また、コンテンツの内容として、図10の例ではジャンルが採用されたが、図10の例に特に限定されない。即ち、図10における「ジャンル」を、任意の「コンテンツの内容」に置き換えるだけで、任意の「コンテンツの内容」についての、複数の使用類似基準の総合類似度演算処理が容易に実現できる。   Further, as the contents, the genre is adopted in the example of FIG. 10, but is not particularly limited to the example of FIG. That is, by simply replacing “genre” in FIG. 10 with arbitrary “contents content”, it is possible to easily realize the total similarity calculation processing of a plurality of use similarity criteria for arbitrary “contents content”.

さらにまた、複数の使用類似基準の総合類似度演算処理の特徴、即ち、コンテンツの内容(ここではジャンル)によって、重視する使用類似基準を変更するという特徴は、別の処理、例えば図8のステップS41の処理に適用することもできる。即ち、ステップS41の処理の使用類似基準の決定手法として、コンテンツのジャンルに応じて決定する手法を採用することができる。具体的には例えば、コンテンツのジャンルが、情報や教養系の場合には出演者の発話内容を重視しべく「言語」を、アニメの場合は声優の声質を重視すべく「声」を、音楽の場合は歌手の声質を重視すべく「声」を、ドラマや映画の場合は出演者の顔情報を重視すべく「顔」を、それぞれ使用類似基準として決定する、といった手法をステップS41の処理に採用できる。   Furthermore, the feature of the total similarity calculation processing of a plurality of use similarity criteria, that is, the feature of changing the use similarity criteria to be emphasized according to the content (genre in this case) is another process, for example, the step of FIG. It can also be applied to the process of S41. That is, a method of determining according to the content genre can be adopted as the method of determining the use similarity criterion for the processing in step S41. Specifically, for example, if the genre of the content is information or liberal arts, “Language” to emphasize the utterance content of the performer, and “Voice” to emphasize the voice quality of the voice actor in the case of animation, music In step S41, a method of determining “voice” for emphasizing the voice quality of the singer in the case of “sound” and “face” for emphasizing the face information of the performer in the case of a drama or movie is used as the use similarity criterion. Can be adopted.

以上、図5の人物類似度情報生成/更新処理と、図7等のコンテンツ推薦処理とは何れも、図2の機能的構成を有するコンテンツ推薦処理装置10により実行されるとして説明してきた。即ち、図5の人物類似度情報生成/更新処理と、図7等のコンテンツ推薦処理とは、同一装置により実行されることを前提に説明してきた。しかしながら、図5の人物類似度情報生成/更新処理と、図7等のコンテンツ推薦処理とは互いに独立した処理であるので、このことを考慮すると、両者の処理を同一装置で実行する必要は必ずしもない。   The person similarity information generation / update process in FIG. 5 and the content recommendation process in FIG. 7 and the like have been described as being executed by the content recommendation processing apparatus 10 having the functional configuration in FIG. That is, the description has been made on the assumption that the person similarity information generation / update process of FIG. 5 and the content recommendation process of FIG. 7 and the like are executed by the same device. However, since the person similarity information generation / update process in FIG. 5 and the content recommendation process in FIG. 7 and the like are independent processes, it is not always necessary to execute both processes in the same apparatus. Absent.

例えば、コンテンツ推薦処理装置10は、図2のコンテンツ情報保持部24、ユーザ嗜好情報保持部29、人物類似度情報保持部31、推薦コンテンツ抽出部32、推薦情報出力部33、および推薦情報保持部34だけ備えるように構成させて、図2の他の機能ブロックの機能については他の装置に委譲することも可能である。   For example, the content recommendation processing device 10 includes a content information holding unit 24, a user preference information holding unit 29, a person similarity information holding unit 31, a recommended content extraction unit 32, a recommended information output unit 33, and a recommended information holding unit in FIG. It is possible to delegate only the functions of the other functional blocks in FIG. 2 to another apparatus.

具体的には例えば、図1の配信サーバ5が、人物類似度情報生成部30の機能を有するようにしてもよい。この場合、配信サーバ5が、図5の人物類似度情報生成/更新処理を定期的に実行し、その処理結果、即ち、生成または更新された人物類似度情報を、ネットワーク8を介してコンテンツ推薦処理装置10に配布することができる。実際には、非常に数多くのユーザがそれぞれのコンテンツ推薦処理装置10を個別に保有することになるので、そのことを考慮すれば、図5の人物類似度情報生成/更新処理は、各コンテンツ推薦処理装置10側で実行するよりも、配信サーバ5側で実行する方が好適である。   Specifically, for example, the distribution server 5 of FIG. 1 may have the function of the person similarity information generation unit 30. In this case, the distribution server 5 periodically executes the person similarity information generation / update process of FIG. 5, and the process result, that is, the generated or updated person similarity information, is recommended via the network 8 as a content recommendation. It can be distributed to the processing device 10. In practice, a very large number of users individually own the respective content recommendation processing devices 10. Therefore, in consideration of this, the person similarity information generation / update processing of FIG. It is preferable to execute on the distribution server 5 side rather than on the processing device 10 side.

ところで、上述した一連の処理は、ハードウエアにより実行させることもできるが、ソフトウエアにより実行させることができる。   By the way, the series of processes described above can be executed by hardware, but can also be executed by software.

この場合、図2のコンテンツ推薦処理装置10等の少なくとも一部として、例えば、図12に示されるパーソナルコンピュータを採用してもよい。   In this case, for example, a personal computer shown in FIG. 12 may be employed as at least a part of the content recommendation processing device 10 and the like of FIG.

図12において、CPU(Central Processing Unit)101は、ROM(Read Only Memory)102に記録されているプログラム、または記憶部108からRAM(Random Access Memory)103にロードされたプログラムに従って各種の処理を実行する。RAM103にはまた、CPU101が各種の処理を実行する上において必要なデータなども適宜記憶される。   In FIG. 12, a CPU (Central Processing Unit) 101 executes various processes according to a program recorded in a ROM (Read Only Memory) 102 or a program loaded from a storage unit 108 to a RAM (Random Access Memory) 103. To do. The RAM 103 also appropriately stores data necessary for the CPU 101 to execute various processes.

CPU101、ROM102、およびRAM103は、バス104を介して相互に接続されている。このバス104にはまた、入出力インタフェース105も接続されている。   The CPU 101, ROM 102, and RAM 103 are connected to each other via a bus 104. An input / output interface 105 is also connected to the bus 104.

入出力インタフェース105には、キーボード、マウスなどよりなる入力部106、ディスプレイなどよりなる出力部107、ハードディスクなどより構成される記憶部108、および、モデム、ターミナルアダプタなどより構成される通信部109が接続されている。通信部109は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。   The input / output interface 105 includes an input unit 106 including a keyboard and a mouse, an output unit 107 including a display, a storage unit 108 including a hard disk, and a communication unit 109 including a modem and a terminal adapter. It is connected. The communication unit 109 controls communication performed with other devices (not shown) via a network including the Internet.

入出力インタフェース105にはまた、必要に応じてドライブ110が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどよりなるリムーバブルメディア111が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部108にインストールされる。   A drive 110 is connected to the input / output interface 105 as necessary, and a removable medium 111 made up of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached, and a computer program read from them is loaded. These are installed in the storage unit 108 as necessary.

一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。   When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, a general-purpose personal computer is installed from a network or a recording medium.

このようなプログラムを含む記録媒体は、図12に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク(フロッピディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini-Disk)を含む)、もしくは半導体メモリなどよりなるリムーバブル記録媒体(パッケージメディア)111により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM102や、記憶部108に含まれるハードディスクなどで構成される。   As shown in FIG. 12, the recording medium containing such a program is distributed to provide a program to the user separately from the apparatus main body, and a magnetic disk (including a floppy disk) on which the program is recorded. , Removable recording media (packages) consisting of optical disks (including compact disk-read only memory (CD-ROM), DVD (digital versatile disk)), magneto-optical disks (including MD (mini-disk)), or semiconductor memory (Media) 111, but also a ROM 102 on which a program is recorded and a hard disk included in the storage unit 108 provided to the user in a state of being incorporated in the apparatus main body in advance.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the order, but is not necessarily performed in chronological order, either in parallel or individually. The process to be executed is also included.

また、本明細書において、システムとは、複数の装置や処理部により構成される装置全体を表すものである。   Further, in the present specification, the system represents the entire apparatus including a plurality of apparatuses and processing units.

また例えば、コンテンツとして、上述した実施の形態では、テレビジョン放送番組と、配信ストリーミングデータとのみを採用したが、当然ながら上述した実施の形態に限定されるものではない。即ち、コンテンツとは、広く、人間の創造的活動により生み出されるものをいい、このようなコンテンツ全体に対して本発明は適用可能である。   Further, for example, in the above-described embodiment, only the television broadcast program and the distribution streaming data are employed as the content, but it is naturally not limited to the above-described embodiment. That is, the content is widely generated by human creative activities, and the present invention can be applied to such content as a whole.

例えば、映画、音楽、演劇、文芸、写真、漫画、アニメーション、コンピュータゲームその他の文字、図形、色彩、音声、動作若しくは映像若しくはこれらを組み合わせたもの又はこれらに係る情報を電子計算機を介して提供するためのプログラムが、コンテンツの一例であり、何れも本発明に適用可能である。即ち、これらの各種のコンテンツを推薦の対象とすることができる。さらに、この場合、ユーザが嗜好する特定人物に基づくコンテンツ推薦に限定する必要は特に無く、広く特定オブジェクトに基づくコンテンツ推薦を行うことができる。この場合、上述した一連の処理を施すことで、特定オブジェクトに類似する類似オブジェクトを認識し、その類似オブジェクトに基づくコンテンツ推薦を行うことも可能になる。   For example, movies, music, theatre, literary arts, photographs, comics, animations, computer games and other characters, figures, colors, sounds, actions or videos, or combinations thereof, or information related thereto are provided via an electronic computer. The program for this is an example of content, and any of them can be applied to the present invention. That is, these various contents can be targeted for recommendation. Furthermore, in this case, there is no particular need to limit the content recommendation based on a specific person that the user likes, and content recommendation based on a specific object can be performed widely. In this case, by performing the series of processes described above, it is possible to recognize a similar object similar to the specific object and perform content recommendation based on the similar object.

テレビジョン番組放送、およびストリームデータの配信について説明する図である。It is a figure explaining a television program broadcast and delivery of stream data. 本発明が適用される情報処理装置としての、図1のコンテンツ推薦処理装置の機能的構成例を示す機能ブロック図である。It is a functional block diagram which shows the functional structural example of the content recommendation processing apparatus of FIG. 1 as an information processing apparatus with which this invention is applied. 図2のコンテンツ情報保持部に保持されるコンテンツ情報の一例を示す図である。It is a figure which shows an example of the content information hold | maintained at the content information holding | maintenance part of FIG. 図2のユーザ嗜好情報保持部に保持されるユーザ嗜好情報の一例を示す図である。It is a figure which shows an example of the user preference information hold | maintained at the user preference information holding part of FIG. 図2のコンテンツ推薦処理装置が実行する人物類似度情報生成/更新処理例を説明するフローチャートである。3 is a flowchart illustrating an example of person similarity information generation / update processing executed by the content recommendation processing device of FIG. 2. 図5の人物類似度情報生成/更新処理により生成されて、図2の人物類似度情報保持部31に保持される人物類似度情報の一例を示す図である。6 is a diagram illustrating an example of person similarity information generated by the person similarity information generation / update process of FIG. 5 and held in the person similarity information holding unit 31 of FIG. 図2のコンテンツ推薦処理装置が実行するコンテンツ推薦処理例を説明するフローチャートである。It is a flowchart explaining the example of a content recommendation process which the content recommendation processing apparatus of FIG. 2 performs. 図7のステップS23の類似人物抽出処理の詳細例を説明するフローチャートである。It is a flowchart explaining the detailed example of the similar person extraction process of step S23 of FIG. 図8のステップS47の複数の特定人物の総合類似度演算処理の詳細例を説明するフローチャートである。It is a flowchart explaining the detailed example of the total similarity calculation process of several specific persons of step S47 of FIG. 図8のステップS50の複数の使用類似基準の総合類似度演算処理の詳細例を説明するフローチャートである。It is a flowchart explaining the detailed example of the total similarity calculation process of the some use similarity reference | standard of step S50 of FIG. 図10の複数の使用類似基準の総合類似度演算処理で利用される重み係数情報の一例を示す図である。It is a figure which shows an example of the weight coefficient information utilized by the total similarity calculation process of the some use similarity reference | standard of FIG. 本発明が適用される画像処理装置としてのパーソナルコンピュータの構成例を示すブロック図である。It is a block diagram which shows the structural example of the personal computer as an image processing apparatus with which this invention is applied.

符号の説明Explanation of symbols

5 配信サーバ, 10 コンテンツ推薦処理装置, 24 コンテンツ情報保持部, 29 ユーザ嗜好情報保持部, 30 人物類似度情報生成部, 31 人物類似度情報保持部, 32 推薦コンテンツ抽出部, 33 推薦情報出力部, 101 CPU, 102 ROM, 103 RAM, 108 記憶部, 111 リムーバブル記録媒体   5 distribution server, 10 content recommendation processing device, 24 content information holding unit, 29 user preference information holding unit, 30 person similarity information generating unit, 31 person similarity information holding unit, 32 recommended content extracting unit, 33 recommended information output unit , 101 CPU, 102 ROM, 103 RAM, 108 storage unit, 111 removable recording medium

Claims (9)

ユーザにコンテンツを推薦する情報処理装置において、
前記ユーザが嗜好する特定人物に関する嗜好情報を保持する嗜好情報保持手段と、
前記特定人物を含む複数の人物間における所定の類似基準に基づく各類似度を示す人物類似情報を保持する人物類似情報保持手段と、
前記嗜好情報保持手段に保持された前記嗜好情報に基づいて前記特定人物を認識し、前記人物類似情報保持手段に保持された前記人物類似情報に基づいて、前記特定人物に類似すると判断できる類似人物を認識し、前記特定人物が出演するコンテンツと前記類似人物が出演するコンテンツとのうちの少なくとも一方を、ユーザに対して推薦すべき推薦コンテンツの候補として決定する推薦手段と
を備える情報処理装置。
In an information processing device that recommends content to a user,
Preference information holding means for holding preference information related to a specific person preferred by the user;
Person similarity information holding means for holding person similarity information indicating each degree of similarity based on a predetermined similarity criterion between a plurality of persons including the specific person;
A similar person that recognizes the specific person based on the preference information held in the preference information holding means and can determine that the specific person is similar to the specific person based on the person similarity information held in the person similarity information holding means An information processing apparatus comprising: a recommendation unit that recognizes at least one of the content in which the specific person appears and the content in which the similar person appears as a candidate of recommended content to be recommended to the user.
前記所定の類似基準に基づく類似度は、人物が有する顔の特徴に基づく類似度である
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the similarity based on the predetermined similarity criterion is a similarity based on facial features of a person.
前記所定の類似基準に基づく類似度は、人物が発声する声の特徴に基づく類似度である
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the similarity based on the predetermined similarity criterion is a similarity based on a feature of a voice uttered by a person.
前記所定の類似基準に基づく類似度は、人物が利用する言語の特徴に基づく類似度である
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the similarity based on the predetermined similarity criterion is a similarity based on characteristics of a language used by a person.
前記人物類似情報は、複数の類似基準のそれぞれに基づく各類似度を示す各情報からなり、
前記推薦手段は、
前記複数の類似基準のそれぞれについて、前記類似人物の候補と前記特定人物との間の各類似度を前記人物類似情報から取得し、
取得した前記複数の類似基準のそれぞれについての前記各類似度と、コンテンツの内容に応じて変化する前記複数の類似基準の重要度合とに基づいて、前記類似人物の候補の総合的な類似度を演算し、
前記総合的な類似度に基づいて、前記類似人物の候補を前記類似人物として認識するか否かを決定する
請求項1に記載の情報処理装置。
The person similarity information includes information indicating each similarity based on each of a plurality of similarity criteria,
The recommendation means is:
For each of the plurality of similarity criteria, obtaining each similarity between the similar person candidate and the specific person from the person similarity information,
Based on the respective similarities for each of the acquired plurality of similar criteria and the importance of the plurality of similar criteria changing according to the content, the overall similarity of the similar person candidates is calculated. Operate,
The information processing apparatus according to claim 1, wherein it is determined whether to recognize the similar person candidate as the similar person based on the total similarity.
前記推薦手段は、
前記特定人物として複数人を認識し、
前記類似人物の候補と、前記複数の特定人物のそれぞれとの間の各類似度を前記人物類似情報から取得し、
取得した前記各類似度に基づいて、前記類似人物の候補の総合的な類似度を演算し、
前記総合的な類似度に基づいて、前記類似人物の候補を前記類似人物として認識するか否かを決定する
請求項1に記載の情報処理装置。
The recommendation means is:
Recognizing a plurality of persons as the specific person,
Obtaining each similarity between the candidate for similar person and each of the plurality of specific persons from the person similarity information;
Based on the obtained similarities, the overall similarity of the similar person candidates is calculated,
The information processing apparatus according to claim 1, wherein it is determined whether to recognize the similar person candidate as the similar person based on the total similarity.
前記特定人物を含む前記複数の人物間における前記所定の類似基準に基づく各類似度をそれぞれ演算し、それらの演算結果を前記人物類似情報として前記人物類似情報保持手段に保持させる類似度演算手段
をさらに備える請求項1に記載の情報処理装置。
Similarity calculation means for calculating each similarity based on the predetermined similarity criterion between the plurality of persons including the specific person, and causing the person similarity information holding means to store the calculation results as the person similarity information; The information processing apparatus according to claim 1, further comprising:
ユーザが嗜好する特定人物に関する嗜好情報を保持する嗜好情報保持手段と、
前記特定人物を含む複数の人物間における所定の類似基準に基づく各類似度を示す人物類似情報を保持する人物類似情報保持手段とを備え
前記ユーザにコンテンツを推薦する情報処理装置の情報処理方法であって、
前記嗜好情報保持手段に保持された前記嗜好情報に基づいて前記特定人物を認識し、前記人物類似情報保持手段に保持された前記人物類似情報に基づいて、前記特定人物に類似すると判断できる類似人物を認識し、前記特定人物が出演するコンテンツと前記類似人物が出演するコンテンツとのうちの少なくとも一方を、ユーザに対して推薦すべき推薦コンテンツの候補として決定する
ステップを含む情報処理方法。
Preference information holding means for holding preference information related to a specific person preferred by the user;
An information processing method of an information processing apparatus for recommending content to the user, comprising: person similarity information holding means for holding person similarity information indicating each degree of similarity based on a predetermined similarity criterion between a plurality of persons including the specific person There,
A similar person that recognizes the specific person based on the preference information held in the preference information holding means and can determine that the specific person is similar to the specific person based on the person similarity information held in the person similarity information holding means And determining at least one of the content in which the specific person appears and the content in which the similar person appears as a recommended content candidate to be recommended to the user.
ユーザが嗜好する特定人物に関する嗜好情報を保持する嗜好情報保持手段と、
前記特定人物を含む複数の人物間における所定の類似基準に基づく各類似度を示す人物類似情報を保持する人物類似情報保持手段とを備え、
前記ユーザにコンテンツを推薦する推薦装置を制御するコンピュータが実行するプログラムであって、
前記嗜好情報保持手段に保持された前記嗜好情報に基づいて前記特定人物を認識し、前記人物類似情報保持手段に保持された前記人物類似情報に基づいて、前記特定人物に類似すると判断できる類似人物を認識し、前記特定人物が出演するコンテンツと前記類似人物が出演するコンテンツとのうちの少なくとも一方を、ユーザに対して推薦すべき推薦コンテンツの候補として決定する
ステップを含むプログラム。
Preference information holding means for holding preference information related to a specific person preferred by the user;
Person similarity information holding means for holding person similarity information indicating each degree of similarity based on a predetermined similarity criterion between a plurality of persons including the specific person,
A program executed by a computer that controls a recommendation device that recommends content to the user,
A similar person that recognizes the specific person based on the preference information held in the preference information holding means and can determine that the specific person is similar to the specific person based on the person similarity information held in the person similarity information holding means And determining at least one of the content in which the specific person appears and the content in which the similar person appears as a recommended content candidate to be recommended to the user.
JP2006219303A 2006-08-11 2006-08-11 Information processor and processing method, and program Withdrawn JP2008048001A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006219303A JP2008048001A (en) 2006-08-11 2006-08-11 Information processor and processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006219303A JP2008048001A (en) 2006-08-11 2006-08-11 Information processor and processing method, and program

Publications (1)

Publication Number Publication Date
JP2008048001A true JP2008048001A (en) 2008-02-28

Family

ID=39181347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006219303A Withdrawn JP2008048001A (en) 2006-08-11 2006-08-11 Information processor and processing method, and program

Country Status (1)

Country Link
JP (1) JP2008048001A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013078121A (en) * 2012-09-21 2013-04-25 Toshiba Corp Image information processing apparatus and image information processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013078121A (en) * 2012-09-21 2013-04-25 Toshiba Corp Image information processing apparatus and image information processing method

Similar Documents

Publication Publication Date Title
US8466961B2 (en) Apparatus and method for outputting video images, and purchasing system
US7519534B2 (en) Speech controlled access to content on a presentation medium
US8340974B2 (en) Device, system and method for providing targeted advertisements and content based on user speech data
JP5740814B2 (en) Information processing apparatus and method
US9883252B2 (en) Method and system for automatically generating interstitial material related to video content
US8407055B2 (en) Information processing apparatus and method for recognizing a user&#39;s emotion
US8612866B2 (en) Information processing apparatus, information processing method, and information processing program
JP4650552B2 (en) Electronic device, content recommendation method and program
US20050049862A1 (en) Audio/video apparatus and method for providing personalized services through voice and speaker recognition
US20180068690A1 (en) Data processing apparatus, data processing method
KR101992475B1 (en) Using an audio stream to identify metadata associated with a currently playing television program
US20080140406A1 (en) Data-Processing Device and Method for Informing a User About a Category of a Media Content Item
US20220253601A1 (en) Language-based content recommendations using closed captions
KR20060125523A (en) Information processing device, method of information processing, and program
JP2008529338A (en) Automatic generation of trailers including product placement
JP4568323B2 (en) Broadcast program recording device
JP2001142481A (en) Control system for audio/video device and integrated access system for control of audio/video constitution
EP2336900A2 (en) Search device and search method
US20120150990A1 (en) System and method for synchronizing with multimedia broadcast program and computer program product thereof
US20240031621A1 (en) Systems and methods for improved media slot allocation
JP2008048001A (en) Information processor and processing method, and program
EP1546942A2 (en) System and method for associating different types of media content
Daneshi et al. Eigennews: Generating and delivering personalized news video
JP5266981B2 (en) Electronic device, information processing method and program
JP7132974B2 (en) Video display device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20091110